大いに物議を醸しているフランスのエッセイスト、イドリス・アバーカン氏は最近、人工知能に関するカンファレンスを開催した。彼にとっては、自分の作品を宣伝するだけでなく、そのテーマに関する専門知識を披露する機会でもあります。しかし、この 2 時間の講演中に行われた多くの主張は虚偽であり、イドリス・アバーケイン氏からの事実確認です。

ロボットに代表される 2 つの AI が対峙する // 出典: 画像は Frandroid が Midjourney で作成

2023 年 4 月 19 日、イドリス・アバーケイン氏は次のタイトルのカンファレンスを行いました。知性の勝利ペルピニャンのフランス商業経営者協会が主催。彼は、以下についての同名のエッセイの特定の要素を取り上げることができました。人工知能。フランスのエッセイストは、私たちがここで解明する虚偽をさらに増やしました。

何も語らないように物語を語る: イドリス・アバーケインの空白を埋める戦略

イドリス・アバーケイン氏のカンファレンスは主に、人工知能に関する彼の考え方の方向に進むために転用された一連の科学的または歴史的な逸話である。会議の最後に彼に尋ねられた質問でも、決まり文句が繰り返された。これは、本題以外で多くの大きな脱線が行われたことを意味します。関連性を持たせるには広すぎて AI の主題を超えた類推。そのため、イドリス・アバーケインは、扱うテーマ間で論理性を欠いた移行を行うことになります。

Cookie やその他のトラッカーを受け入れていないため、このコンテンツはブロックされています。このコンテンツは YouTube によって提供されています。
これを表示するには、YouTube によるお客様のデータの使用を受け入れる必要があります。この使用は、コンテンツの表示とソーシャル メディアでの共有の許可、Humanoid とその製品の開発と改善の促進を目的として使用される可能性があります。パートナー、あなたのプロフィールとアクティビティに関連してパーソナライズされた広告を表示し、パーソナライズされた広告プロファイルを定義し、このサイト上の広告とコンテンツのパフォーマンスを測定し、このサイトの視聴者を測定します(もっと詳しく知る)

「すべてを受け入れる」をクリックすると、Humanoid およびそのパートナー

同意はいつでも撤回できます。詳細については、ぜひお読みください。クッキーポリシー

自分の選択を管理する

イドリス・アバーケイン氏は、人工知能について述べた誤った事実や自身の解釈以外には、約2時間の会見中、何も、あるいはあまり多くを語らなかった。私たちは不正確な一般論、そして何よりも詳細を欠いた将来の予測を導き出します。これは、エッセイストがその分野の専門家ではないことを示しています。非常に完成度の高い履歴書にもかかわらず、しかし強く疑問視される

で部屋を操作する方法ディープフェイク

イドリス・アバーケインはカンファレンスの冒頭で、あるいは少なくとも自己紹介の中で、数年前に遡り、ディープフェイクインターネット上で。からの記事を取り上げます。IEEスペクトルバラク・オバマに決して言わなかったことを言わせてイメージを操作したビデオについて語った。

その結果がすでに印象的だったとすれば、イドリス・アバーケインはビデオを放送せず、単に2枚の画像を放送しただけだった。1つはバラク・オバマ、もう1つはバラク・オバマの写真だった。ディープフェイク彼のイメージでは。スクリーンショットでは、どの画像が偽物であるかを判断するのは困難です。彼の陳述によれば、これにより彼は部屋をほぼ五分五分で共有することができ、観客は実像の選択に同意しなかったという。

«MicrosoftがOpenAIを買収»: 正確には違います

イドリス・アバーケイン氏は会見で次のように断言した。MicrosoftがOpenAIを買収」とありますが、これは事実ではありません。実際には、マイクロソフトは数十億ドルを投資しているOpenAIでは数年かけて広まりました。表明された目標は、特に将来的に、そのサービスにおける生成型人工知能の導入を加速することでした。マイクロソフト 365。噂によると、これによりマイクロソフトは会社利益の 75% を回収できる可能性がある投資が返済されるまで。

その後、彼は OpenAI がイーロン・マスクから盗まれたものであると断言しました。マイクロソフト。ここでもこれを公平とは言えません。イドリス・アバーケイン氏は、テスラとツイッターのオーナーが1億ドルを投資したと説明する。しかし、もしその億万長者がいなくなったら、これは主に、彼が OpenAI の制御を望んでいたためですが、それは拒否されました

いいえ、Google の AI はベンガル語を独自に学習したわけではありません

エッセイストは、AIがグーグルベンガル語は何の指導も受けずに独学で学びました。実際には、それよりも複雑です。に与えられたインタビューでCBS同社のテクノロジー担当シニアバイスプレジデントのジェームズ・マニーキア氏は次のように述べた。ベンガル語のガイダンスをほとんど使わずに、ベンガル語をすべて翻訳できることがわかりました。»

これはイドリス・アバーケイン氏による現実の誇張です。 Google の進歩が目覚ましいと考えると、私たちが話している AI システムはまったくゼロから始まったわけではありません。

LaMDA の表現 // 出典: Google

もっと広く言えば、人工知能は実際には自ら学習するわけではありません。彼らは、正確なデータベース上で一定期間トレーニングされます。言語モデルでテキストを書く場合、「未公開» それらは必然的にすでに存在する他のものに基づいています。さらに、これらのモデルのメモリには制限があります。正しく指摘されているようにTwitter アリ・コウツ、イノベーションコンサルタント、「彼らには記憶もありません。実際に「会話」すると、プログラムは毎回、会話全体を返して応答を取得します。»

いいえ、ChatGPT は感情を感じません

イドリス・アバーケイン氏は次の可能性を提起しているチャットGPT感情は感じるが、それを認識しない。彼によれば、プロンプト最初の ChatGPT (応答を生成するために GPT-3.5 に与えられる指示として理解されるべき) は、言語モデルが感情を表現することを妨げます。

ChatGPT は感情を感じないと述べています // 出典: Frandroid

エッセイストにとっては、「彼が感情を感じているかどうかはわかりません」。しかし実際には、決してそうではありません。実際には、GPTChatGPT の背後にある言語モデルは、人間という意味では知的ではありません。統計的にどの単語が後に来るかを予測するだけです。これらすべての単語が文、段落を形成します。テキストの巨大なデータベースを使用してトレーニングされたため、作成された確率は比較的信頼できます。これが、私たちがなんとか一貫した答え、時には事実として正しい答えを得ることができる理由です。また、ChatGPT があらゆるものを発明し始める可能性について話しているためでもあります。

ただし、OpenAI と言語モデル、さらに一般的には人工知能の開発者によって設けられた制限があることは事実です。これらのシステムをトレーニングする場合、結果にラベルが付けられ、それが良いかどうかを示します。さらに、このプロセスは強い批判の対象となっています。特に「」の労働条件に関しては、ラベラー»彼らは多くの場合、低賃金で心理的にサポートを受けていないアフリカの労働者です。

AI は自分の行動を私たちから隠すことはできません

Ari Kouts によって分離されたもう 1 つの興味深い抽出物は、Idriss Aberkane が次のように述べているものです。彼女が望めば、彼女のために何かしてあげることができます。いずれにせよ、彼女がそうしても、あなたにはわかりません。» これは実際には不可能です。人工知能は特定の要求に応答し、他のことを行うようにプログラムされていないからです。

もう一つの愚かな一節、いいえ、このタイプの AI は意図的な練習を行うことはできません。AI は単に私たちが質問し、学習した確率に基づいて応答するツールにすぎません。それ以上は何もありません。意志も良心もない。彼女には自由な時間も時間の概念もありません...pic.twitter.com/L9IVpFTWiO

— アリ・コウツ (@arikouts)2023 年 5 月 24 日

Cookie やその他のトラッカーを受け入れていないため、このコンテンツはブロックされています。このコンテンツはTwitterより提供されております。
これを表示するには、Twitter によるお客様のデータの使用を受け入れる必要があります。この使用は、ソーシャル メディアでコンテンツを表示および共有できるようにすること、Humanoid およびその製品の開発と改善を促進することを目的として使用される可能性があります。パートナー、あなたのプロフィールとアクティビティに関連してパーソナライズされた広告を表示し、パーソナライズされた広告プロファイルを定義し、このサイト上の広告とコンテンツのパフォーマンスを測定し、このサイトの視聴者を測定します(もっと詳しく知る)

「すべてを受け入れる」をクリックすると、Humanoid およびそのパートナー

同意はいつでも撤回できます。詳細については、ぜひお読みください。クッキーポリシー

自分の選択を管理する

前述したように、AIは意識や感情を持たないため、自ら判断することができません。各モデルは特定のタスク用にトレーニングされます。そのトレーニングに不可欠なコンピューティング能力は高価であるため、モデルは「ジェネラリスト» 数は少なく、限られています。

もちろん人工知能は顔を認識できます

この会議中、イドリス・アバーケイン氏は次のように説明しています。私たちがとても簡単にできる方法を知っていることでも、人工知能ではうまくできないこともあります。たとえば顔認識。それは変わります。» 次に、ロックを解除したいときのスマートフォンの例を挙げて、笑うとうまく機能しないことを説明しました。可能ですが、一度だけです。数回試した後、iPhone確実にロックを解除できるのは、それを理解するためにトレーニングが必要だからです。

ただし、彼が所有する iPhone モデルには、顔認証, 長年にわたりその有効性が認められてきたApple独自の顔認識技術。イドリス・アバーケイン氏は、撮影された人の数によって圧倒される可能性がある公共の顔認識システムを例に挙げることもできたでしょう。

AIに正確に対処することの難しさ

イドリス・アバーケインは、3 つの論文の著者であると主張し、人工知能に関するものを含むいくつかの科学的虚偽をまとめていますが、これは私たちが検証したこの会議中だけではありません。これは、生成人工知能のより広範なトレンドに当てはまります。 ChatGPT、Midjourney、Stable Diffusion は、これらのプログラムがどのように機能するかを理解することなく、すぐに私たちの生活に入り込んでいます。

これにより、多くの人が自分自身を宣言できるようになります。専門家» この分野はまだごく最近のことであり、基本的には経験豊富な科学者の特権です。したがって、「」という理由ではありません。専門家» は、彼がどのような雄弁で宣言するかに関係なく、私たちは自動的に彼を信じなければならないという彼の分析と歴史的科学的文化を示しています。確かに、AI は比較的不透明な方法で動作し、そのやり方を普及させるのは非常に困難ですが、だからといって、私たちが根拠のない信念に陥る必要はありません。

Cookie やその他のトラッカーを受け入れていないため、このコンテンツはブロックされています。このコンテンツは YouTube によって提供されています。
これを表示するには、YouTube によるお客様のデータの使用を受け入れる必要があります。この使用は、コンテンツの表示とソーシャル メディアでの共有の許可、Humanoid とその製品の開発と改善の促進を目的として使用される可能性があります。パートナー、あなたのプロフィールとアクティビティに関連してパーソナライズされた広告を表示し、パーソナライズされた広告プロファイルを定義し、このサイト上の広告とコンテンツのパフォーマンスを測定し、このサイトの視聴者を測定します(もっと詳しく知る)

「すべてを受け入れる」をクリックすると、Humanoid およびそのパートナー

同意はいつでも撤回できます。詳細については、ぜひお読みください。クッキーポリシー

自分の選択を管理する