の調査時間ChatGPT の有害性を軽減するために、その作成者である OpenAI が、時給 2 ドル未満のケニア人労働者を搾取する下請け業者を利用したことを明らかにしています。
雑誌時間出版された調査その中で彼は、OpenAI がその背後にいる企業であることを明らかにしました。チャットGPT、改善のためにケニアの下請け業者を利用しました。人工知能毒性を少なくするためです。関与した労働者は搾取されており、時給は 2 ドル未満です。テクノロジー業界における新たなスキャンダルは、AIの改善には人間が必要だが、大企業にはまだリソースを投入する準備ができていないことを改めて示している。
GPT-3は人間から学んだものであり、暴力的になる可能性があります
の最初の観察時間これは OpenAI によって作成されたものです。ChatGPT のベースとなる言語モデルである GPT-3 には、インターネット上で公開されている数千億の単語と表現が入力されました。彼の最大の能力は、どの単語が次に来るかを予測できることであり、それによって論理的な文章をつなぎ合わせることができます (ただし、近似や誤りは残ります)。しかし、彼としては、インスピレーションを与える人間にとって、それは暴力的、性差別的、人種差別的であることもあります。その強さは弱点でもあります。
OpenAIのブレーキとなる大きな問題自社のソリューションを大手デジタル企業に販売したいと考えている。ジャーナリストのビリー・ペリゴは次のように回想して続けています。トレーニング データのこれらのセクションを削除する簡単な方法はありませんでした。この膨大なデータセットを手動で選別するには、数百人の人間からなるチームでも数十年かかるでしょう。»。
OpenAI は有害なコメントを検出できる AI を開発しました
しかし、OpenAI は AI を活用したセキュリティ メカニズムを導入し、すべてのインターネット ユーザーがチャットボットを利用できるようにすることができました。この種のものが存在するのはこれが初めてではありません。ソーシャル ネットワークは数年前から「ヘイトスピーチなどの有害なコメントを検出してプラットフォームから削除できる AI»。
これを行うために、OpenAI は暴力的、人種差別的、性差別的なテキストなどの例をモデルに提供します。 ChatGPT が使用するデータをフィルタリングするために ChatGPT に統合され、他のツールや AI (GPT-4 など) で使用できるモデル。
搾取されたケニア人労働者がAIを訓練
調査で得られた主な情報時間それは「」という事実にあります。OpenAIは2021年11月から数万件のテキストスニペットをケニアのアウトソーシング会社に送信」。これらのテキストは、「インターネットの最も暗い隅。児童の性的虐待、獣姦、殺人、自殺、拷問、自傷行為、近親相姦などの状況を詳細に説明したものもあった。» とビリー・ペリゴは書いています。
OpenAI から委託された会社は、サンフランシスコに拠点を置く Sama で、ケニア、ウガンダ、インドで従業員を雇用していました。彼女 "ラベル» 「GAMAM」の暴力的であると特定されたデータ:グーグル、メタ、マイクロソフトとりわけ。サマがサイト上で提示した商業的な主張から、私たちは彼女が「倫理» そして、独自のエージェントを採用し、訓練していると述べています。それは彼らの職業上の将来性に直接影響を与えます」。同社はまた、5万人以上を貧困から救い出したと主張している。
雑誌が語る現実時間は全く違います。ザ」データラベラー» by Sam for OpenAI «年功と業績に応じて、時給 1.32 ドルから 2 ドルの純給与を受け取りました» 税引き後は、彼の記事で読むことができます。同誌は、OpenAIとSamaの間で締結された総額約20万ドルの3件の契約を調べることができた。性的虐待、ヘイトスピーチ、暴力のテキスト記述にラベルを付ける。» ただし、契約は«OpenAI は、Sama に作業に対して時給 12.50 ドルを支払うと規定した」。これは、ケニア人従業員の実際の報酬(月額約 170 ドル、ボーナス月額約 70 ドル)よりもはるかに高いです。仕事の明示的な性質により、精度や速度などの主要業績評価指標を達成することでコミッションを受け取りました。»。
皮肉なことに、OpenAI が属する AI パートナーシップを中心とする組織連合は、すでに次のように述べています。これらのデータ強化専門家が基本的な役割を果たしているにもかかわらず、一連の研究により、これらの労働者が直面している不安定な労働条件が明らかになっています。»。の時間同氏は、OpenAIがラベル付けを専門とする他の企業と協力したかどうかは分からないと述べた。しかし、OpenAIの広報担当者は、同社がChatGPTと統合された有害コンテンツ検出ツールの開発にSamaを使用していたことを認めた。
私たちは ChatGPT 自体に、クエリに答えるために使用されるデータのラベル付けにワーカーを使用しているかどうかを尋ねました。チャットボットは、トレーニングに使用されたデータが人間の作業者によってラベル付けされている可能性があると私たちに言いました。一般的に必要な」。残念ながら、彼は「持っていなかった」と付け加えた。使用されるデータラベル付けプロセスに関する詳細情報へのアクセス[…],このプロセスに関与した労働者についても»。
精神的に困難な労働条件
これらの下請け業者は収入が非常に低いことに加えて、この作業が原因で精神障害を発症した人もいます。そこで、サマの労働者はこう語った。時間«幼い子供の目の前で犬と性行為をする男性の詳細な記述を読んだ後、彼は繰り返し幻覚に悩まされたとのこと」。彼にとって、「それは拷問だった»。
12 人からなる 3 つのチームが、この種のコンテンツを分割しました。彼らは、1 日 (9 時間) あたり 150 ~ 250 節のテキストを読んでラベルを付ける必要がありました。文章は 100 語から 1000 語を超えるものまであります。インタビューを受けた従業員4人時間宣言した」この作品によって精神的にマークされた」。 「もし彼らがアドバイザーに相談できたら」幸福」と全員が打ち明けた。これらのセッションは役に立たず、仕事の生産性を高めることが求められているため、まれなセッションでした。」。特定の相談リクエストもサマ経営陣によって拒否されました。同社の広報担当者はこの状況を否定した。 「これらのセラピストはいつでもアクセス可能でした。》と彼は反論する。
の時間サマは2022年2月から「OpenAI に提供するために、米国の法律で違法とされている性的および暴力的な画像を収集する» 別の GPT-3/ChatGPT プロジェクトの一部として。 OpenAI は、テキスト以外のツールでも動作します。テキストから 3D モデルを作成できるもの。サマ容疑者は 1,400 枚の画像を OpenAI に提供したとされており、その中には児童の性的虐待、獣姦、強姦、性奴隷制、さらには重篤な身体傷害が写っていたものもあった。 Sam によって請求されるサービスの料金は 787.50 ドルです。
OpenAIとその下請け業者は否定
このサマのコミュニケーターは、労働者は 1 日あたり 70 回の交差点 (250 回ではない) にタグを付ける必要があり、税引き後、時給で最大 3.74 ドルを稼ぐことができると明らかにしました。
OpenAI 側では、広報担当者は「生産性目標を設定し、サマは支払いと従業員のメンタルヘルス対策の管理を担当していたこと」。彼は次のことを理解したと付け加えた。労働者は罰則を受けることなくすべての作業から撤退できること、露骨なコンテンツへの露出は制限されており、機密情報はこの目的のために特別に訓練された労働者によって扱われること」。ただし、ラベル付けされるデータを収集したのは OpenAI 自体であり、OpenAI がその内容を知っていたと疑われる可能性があり、これは明らかにされた契約にも示されています。
サマ氏は声明の中で、OpenAIが「画像収集が始まって初めて送信された」と主張している。追加の指示» 特定のカテゴリの違法コンテンツについて言及しています。サマ氏が OpenAI とのプロジェクトを直ちに終了し、他のプロジェクトもキャンセルしたと発表して以来、これが両社の関係を大きく変えた原因となった。後者の側では、児童に対する性的虐待の画像の収集は必要ないとしており、これまで一度も収集を要請したことはないと述べている。 OpenAIにとって、これは何よりも通信エラーであり、グループは問題のコンテンツを開いたり表示したりしなかったと述べている。
スキャンダルを避けるために従業員を解雇
その結果、ChatGPT の改善に関連する契約は、予定されていたリリースの 8 か月前にキャンセルされ、従業員に経済的な影響を与えました。従業員は、報酬の低いタスクのために他のチームに異動したり、単にライセンスを取得したりすることになりました。 OpenAIは、「支払った」と付け加えた。パートナーシップ期間中約 150,000 ドルサマへ。
サマ社の解雇につながったもう一つの理由は、政府によって明るみに出た別のスキャンダルであった。時間また。昨年2月、同誌は、サマがコンテンツモデレーターを雇用して、フェイスブック、«その仕事は、処刑、強姦、児童虐待の画像やビデオを1時間わずか1.5ドルで閲覧することであった」。同社の従業員4人によると、この調査があればOpenAIとの協力関係を終了することになるだろうという。
OpenAIは損失を出しているが、多額の利益を得るだろう
ChatGPT は、他の多くの企業ツールと同様に、無料で使用できるようになりました。ダル-E 2。世界中で広く使用されているため、膨大なコンピューティング能力が必要であり、非常に高価です。 OpenAI が損失を出したとしても、さらに多くの利益を得ることができます。に示されているように、時間、OpenAI «伝えられるところによると、現在、290億ドルの評価で資金を調達するために投資家と交渉中である」。さらに、MicrosoftはOpenAIに100億ドルを投資したいと考えている。私たちもそれを知っていますGoogleはChatGPTを恐れている自動テキスト生成ツールの開発に熱心に取り組んでいます。
これらの大企業が全力で従業員を解雇しているにもかかわらず、これは次のとおりです。レドモンドの会社は数日前、従業員の5%を解雇すると発表した。 2か月前に私たちは学びました数千人のメタ従業員の解雇。最新のイベント:Googleは従業員1万2000人を解雇する予定。このような状況にもかかわらず、AI はこれらすべての巨人によって最も有望な将来性として見られています。
一般的な習慣
モデルのトレーニングに世界の貧しい地域の労働者を使用しているテクノロジー企業は、OpenAI だけではありません。ただし、このデータのラベル付けは、一般の人々にとって AI を安全にするために不可欠です。この作業がなければ、音声アシスタント、私たちのキーボードスマートフォンあるいは ChatGPT はさらに暴力的になる可能性があります。企業が投資を集めるためには、安全な AI の導入が不可欠です。
これは、私たちが呼んでいるものの時々忘れられる側面ですデジタルレイバー、フランス語でデジタル作品。この概念は、部分的には、より安価な労働力であるアフリカまたはアジアの労働者の利用に言及しています。 2019年、社会学者のアントニオ・カシーリはすでに自身の調査でこの問題について報告していた。ロボットを待つ:クリック作業の調査»。彼にとって、Open AIをめぐる事件」PTSDに焦点を当てています【心的外傷後ストレス症候群】労働者。しかし同時に、作業をマイクロタスクに細分化することによって引き起こされる完全な搾取も浮き彫りにしています。»。
さらに進むには
ChatGPT に 8 つの技術的な質問をしました。驚くべき AI ですが、制限がないわけではありません