OpenAI の共同創設者である Ilya Sutskever 氏は、彼の新しい AI スタートアップである Safe Superintelligence の設立を発表しました。
昨年 5 月に、当社の幹部 2 名が退職したことを知りました。OpenAI。その理由は、人工知能によって引き起こされる可能性のあるリスクに対する同社の真剣さの欠如です。今日私たちは、これらの人々の一人で OpenAI の共同創設者である Ilya Sutskever が、Safe Superintelligence と呼ばれる新しい AI スタートアップを設立することを知りました。
安全第一
発表が行われたのは、×(以前はTwitter)、Sutskever氏は次のように述べています。「超知性は我々の手の届くところにある」。イリヤ・サツケヴァー氏は出発前、スーパーアライメントヤン・ライク氏も5月に退社し、ライバル会社に入社した。IA人類学。チームはAIシステムの制御に注力していたが、それぞれの退任が発表された直後に解散した。
当社が目指しているのは「安心」を実現する、« SSI【スーパーセーフインテリジェンス】それが私たちの使命であり、名前であり、製品ロードマップ全体です。それが私たちの唯一の目標だからです。」。ライク氏が語った言葉を反映した声明×彼が OpenAI を辞めたとき、次のように言いました。OpenAI はセキュリティ重視の企業にならなければなりません»、«人間よりも賢い機械の構築は本質的に危険なビジネスです»。
Sutskever氏は、AppleでAIおよび検索分野で働いていたDaniel Gross氏と元OpenAI従業員のDaniel Levy氏とともにこの会社を設立した。このアメリカ企業はすでにカリフォルニア州パロアルトとイスラエルのテルアビブにオフィスを構えています。
卓越性の探求
会社はまだ若いので、自らを成長させ続けています。彼女はXについて次のように宣言します。私たちは、SSI だけを重視する世界最高のエンジニアと研究者からなる小規模で有能なチームを結集しています。これがあなたであれば、私たちはあなたの人生の仕事を達成し、現代の最も重要な技術的課題の解決を支援する機会を提供します。»
スーパーインテリジェンスの活用がこの新会社の核心であるようで、創業者はまた、OpenAIのような企業が将来に引き継いでいくと宣言した「全人類を代表する重大な責任」。