大手テクノロジー企業は人工知能を軽視しすぎているのでしょうか?これは、辞任したばかりの元OpenAI幹部が示唆しているようだ。

なんと一週間OpenAI!月曜日、人工知能に特化した新興企業が発表新しいマルチモーダル モデル GPT-4o。その翌日、主な競合相手であるGoogleが、同様の技術を発表。水曜日、私たちは同社の共同創設者の一人であるイリヤ・サツケヴァー氏と上級幹部のヤン・ライケ氏の退任を知った。今週金曜日、X.com プラットフォームで多くの疑問を引き起こしたのは後者です。

価値観に動機づけられた出発

OpenAI では、2 人がそのリーダーでした。スーパーアライメントは、2023 年 7 月に設立された人工知能のリスクの研究を専門とするチームです。その後、OpenAI は、今後 4 年間で IT リソースの 20% をこのチームに割り当てることを保証しました。

イリヤ・サツケヴァーが辞任メッセージでかなり温厚な態度をとったとすれば、ヤン・ライケは次のようにさらに辛辣な表現をしている。息子スレッド公開イーロン・マスクのソーシャルネットワークで。彼がさまざまな OpenAI チームに対する愛情を表現することから始めると、すぐに次のように述べました。中核企業の優先事項をめぐって OpenAI の経営陣と対立している」。その理由は、セキュリティ、機密保持、人工知能の社会的影響に対する同社の関心が少なすぎるためです。彼は、ここ数か月間、このテーマに関する研究を実行するのに十分な計算能力にアクセスできなかったことを後悔しています。

超知能を目指して

現時点では、人工知能の本当のリスクは何なのか、疑問に思うことができます。現時点で、見出しを飾るチャットボットは、特定のコーパスで学習した情報を深く考えずに吐き出す傾向があり、場合によっては「」と呼ばれる重大なエラーが発生します。幻覚」。しかし、これが急速に進んでいると、今後数年以内に (OpenAI によれば 10 年以内に)、研究者が「超知能」、人間よりも賢く、今日私たちが直面している問題を解決することができます。イリヤとヤンによれば、「超知能は非常に危険であり、人類の無力化、さらには絶滅につながる可能性もあります»。

現場で機械を持ち上げる最後まで行かずに、ターミネーター、そのような開発の潜在的な結果をすべて比較検討することが重要です。たとえば、オンラインの偽情報に関する質問などで、今日すでにこの状況が見られます。

こうした進歩の立役者として、OpenAI と Google はともに重い責任を担っています。全人類の名において」とヤン・ライクは言います。しかし、彼はこう嘆く。安全文化とプロセスは派手な製品よりも後回しになっている»。

問題は実際には経済的、商業的なものであることが判明します。グローバル化した資本主義の世界では、AI は単なるツールではなく、マーケティング製品です。そして、そのような市場では、先行者ボーナスが決定的なものとなることがよくあります。したがって、OpenAI のような新興企業が、Google (今週は 1 件未満でした) や Anthropic (Amazon が出資している会社) に盗まれるリスクを冒して、一般的な危険を予測して確保するために時間とリソースを費やすことは困難です。AIクロードの後ろに)または、たとえば中国からの新人。

ヤン・ライクにとって、「OpenAI はセキュリティ重視の企業にならなければなりません」。欧州では、AI法で特定の悪用を規制する必要があるが、これらの考慮事項を気にせずに製品に注力する企業が、すべての競合他社に先んじてスタートを切る機会を得られることは間違いない。