人工知能のセキュリティに関するサミットで、28か国がブレッチリー宣言に署名した。特に AI の危険を防ぐための国際作業グループとのさらなる協力に向けて進むには十分です。
11月1日と2日、28人の政府代表と欧州委員長が英国に集まり、国連安全保障サミットでブレッチリー宣言に署名した。人工知能。この合意は、地球温暖化に関するIPCCのような、AI問題に特化した国際作業部会の創設につながる可能性がある。
一般論に満ちた合意だが、第一歩
これらの異なる国家は、「AI は、人間中心で、信頼でき、責任ある方法で、安全に設計、開発、導入、使用されなければなりません。» 相互合意により、彼らは、AI が人権および倫理の保護に関して疑問を引き起こすこと、および人工知能が意図的であるか非自発的であるかにかかわらず、予期せぬリスクを引き起こすことを認識していることを明記します。コンテンツを操作したり、誤解を招くコンテンツを生成したりする能力から生じるもの。» 質問 «極めて重要な» 署名者はこの問題に緊急に対処する必要があります。したがって、「これらの潜在的なリスクに対する私たちの理解と、それらに対処するために講じることができる手順» これは署名国の公共政策において優先事項でなければなりません。
宣言文では、AIモデルの危険性に対する責任は開発者にあるとしている。たとえば、次の場合チャットGPT間違いを犯す、そのせいでOpenAI;にとっても同じグーグルと吟遊詩人。声明によると、AI は次のような公共サービスの可能性を提供します。国連の持続可能な開発目標を達成するための取り組みを強化する。» これを達成するために、国家、国際機関、企業、市民社会、学術界など、あらゆる人々が参加することが求められます。
この 28 か国では、これまでのところすべてが順調に進んでいます
この宣言のもう 1 つの要素は、「国際社会が『包摂的な経済成長、持続可能な開発とイノベーションを促進し、人権と基本的自由を保護し、AI システムがその可能性を最大限に発揮できるように AI システムに対する国民の信頼を育みます。»
署名者は AI に次の機会があると考えています。持続可能な成長をサポートし、開発ギャップを埋めます。» それにもかかわらず、大規模な専門企業はほとんどがアメリカ企業であり、研究は中国だけでなく大西洋全域にも集中しています。国連事務総長のアントニオ・グテーレス氏は次のように回想しています。オックスフォードの関係に関する洞察2022年の「AI への対応力が上位 50 に入るアフリカの国はありません» それと«最も評価の低い25カ国のうち21カ国はアフリカの国です。»
フランス政府も全面的に認めているように、欧州もAI分野で果たすべき役割が大きい。ロンドン首脳会議に出席したフランス経済大臣ブルーノ・ルメール氏に対し、「1990 年代の最後の技術革命の間違いを繰り返してはなりません。» これが彼がEUに次のように呼びかけた理由である。規制する前に革新する。»
署名国の約束
ブレッチリー氏の声明は、AI のリスクは国際的なものであり、次のことを明確にしています。したがって、それらに対処する最善の方法は、国際協力に頼ることです。「28カ国がそこに到達したいと言っている」既存の国際機関やその他の関連する取り組みを通じて」。したがって、作業グループは「各国の状況と適用される法的枠組みに基づいてリスクを分類します。» この宣言では、行動規範だけでなく共通原則を採用する可能性についても言及されています。
現時点で最大かつ最も先進的な取り組みは間違いなく、AI法, 人工知能に特化したヨーロッパの法律で、現在欧州議会で採決されています。さらに、欧州連合は、オーストラリア、ブラジル、カナダ、チリ、中国、フランス、ドイツ、インド、インドネシア、アイルランド、イスラエル、イタリア、日本、ケニア、サウジアラビア、オランダ、ナイジェリア、フィリピンと並んでこの宣言の署名国の一つである。 、韓国、ルワンダ、シンガポール、スペイン、スイス、トルコ、ウクライナ、アラブ首長国連邦、英国、米国から。
特定の民間関係者によって批判されたサミット…
サミットの前日、公開書簡はサミットを主催した英国のリシ・スナック首相に宛てたものである。労働組合を含む100の国際的な専門家団体や活動家団体が署名し、彼らの傍観を遺憾に思う。署名者の中には、Mozilla Foundation、Open Rights Group、Amnesty International、欧州労働組合総連合 (フランスでは CFDT、CGT、さらには FO も含まれる)、Open Data Institute などが含まれます。
彼らによれば、彼らの参加は「選択的かつ限定的» そして頂点は “機会を逃した。» さらに、首脳会談の内容も問われている。「先駆的な」AI システムの遠く離れた「存在リスク」に関する憶測に過度に焦点を当てている」。この書簡は、AIの進歩により労働者が解雇されており、これらの進歩は「」によって制御されていると主張している。少数の大手テクノロジー企業" 誰が "さらに大きな力と影響力を得る。»
…しかし、全員がそうするわけではありません
一方で、大手デジタル企業、特に AI を専門とする企業はサミットに向けてより協力的でした。例えば、OpenAIは「」チームの創設を発表しました。準備»AIに関連したリスクに直面しています。彼女 "複数のカテゴリーをカバーする壊滅的なリスクの監視、評価、予測、保護に貢献します。»。GoogleもゲームをプレイしているAIモデルの脆弱性を発見した人への報奨プログラムを拡大し、「奨励する」と述べた。AIの安全・安心に関する研究」。ついにマイクロソフト側、私たちはその「」を思い出すことに満足しています。AI セキュリティ ポリシーと実践»。
それでもなお制約を受けるゲーム10月30日に公布されたホワイトハウス令。 AIモデルを開発する企業に課す義務の中には、セキュリティテストの結果を米国政府と共有することが含まれる。さらに、OpenAI の CEO であるサム・アルトマン氏は、この法令を批判しました。システム規制に賛成「」とも発音されます。規制上の捕獲に反対する」。でに関する出版物、彼はそれが必要ではないという事実を強調します」中小企業や研究チームのイノベーションを遅らせないこと。»
AI に特化した IPCC を目指して?
IPCC モデルは、多数の研究の完了と統合、および科学的合意の形成のおかげで、環境問題に関してそれ自体が証明されたように見えます。これと同じモデルが AI についても再現される可能性があります。これがブレッチリーの声明が指摘しているようである:それは次のように主張している。AIセキュリティに関する科学研究ネットワーク» 国際協力を強化する。すべては「」を目指して政策の発展と一般の利益のために利用可能な最良の科学的知識の提供を促進する。»
ただし、IPCC は国連発のイニシアチブです。それはいいことだ、アントニオ・グテーレス事務総長がサミットに出席していたのだ。で宣言と彼も認識している。AI とそのガバナンスのギャップは大きく、さらに広がり続けています。» アントニオ・グテーレス氏へ «AI ガバナンスの原則は、国連憲章と世界人権宣言に基づく必要があります。»
これが理由です国連事務総長は数日前、AI専門の諮問機関の創設を発表した:国連にとって、これは国際的なAIガバナンス問題を解決する取り組みにおける重要な一歩です。この組織は「政府、民間部門、科学界、市民社会、学術界の専門家」。この組織の目的の 1 つは、まさに「リスクと課題に関する世界的な科学的合意を構築する» AIの。したがって、この機関は IPCC と同じ形式ではありませんが、ある点では似ています。
スケジュールはすでに明らかにされている。委員会は今年予備勧告を発表し、その後2024年夏の最終勧告を発表する予定だ。目標は、2024年9月のフューチャーサミットだけでなく、AIに特化した次の国際サミットの準備も整えることである。
来年フランスで AI サミットが開催される
で経済省からのプレスリリースで、フランスが次回の人工知能セキュリティに関するサミットを主催し、2024 年にパリで開催されることがわかりました。しかしその前に、バーチャルミニサミットは韓国によって6か月以内に開催される予定。準備するもの」真実» フランス首脳会議。
今後のサミットの目的は、この宣言を受けてAIを巡る協力を強化し、拡大することになる。英国でのこの最初の進捗報告が十分に決定的なものであることが証明されれば、他の国も参加する可能性があると想像できます。