ある調査によると、人工知能モデルをトレーニングしている多くの労働者自身が仕事で AI を使用していることが明らかになりました。これらのトレーニング課題の評価は非常に低いことが多いため、疑問を抱かせるには十分です。
MIT のテクノロジー雑誌、MITテクノロジーレビュー、レポートエコール・ポリテクニック連邦ローザンヌ校による研究どのようにして人工知能。彼らは他の人工知能によってますます訓練されるでしょう。問題は、作業の自動化が奨励されている従業員の報酬が低すぎることです。
インテリジェンスモデルがどのようにトレーニングされるかを思い出してみましょう。ご存知かと思いますが、膨大な量のデータが必要です。ただし、すべてのデータが等しいわけではありません。最終的な AI の機能に影響を与えるため、データは最も正確で信頼できるものでなければなりません。
思い出したように、MITテクノロジーレビュー、«多くの企業がプラットフォーム上で非正規労働者に給与を支払っている「Mechanical Turk を例に挙げると、アマゾン、最もよく知られています。キャプチャの解像度、データのラベル付け、またはテキストの注釈: 非常に多くの機能マイクロタスク» 実行されるのは、ほとんどの場合、貧しい国または発展途上国の住民によって行われます。アントニオ・カシーリが著書の中で特に強調した働き方ロボットを待っています。
より多くの収入を得るには、より速く働く必要があります。解決策は AI です
これらの労働者は、仕事の報酬として、毎回数セントを受け取ります。適切な時給に到達するには、できるだけ早く到達することが推奨されます。駆動機構を理解するために、ローザンヌ連邦工科大学エコール工科大学の研究者チームに 44 人が雇用されました。経由Mechanical Turk プラットフォームを使用して、医学研究論文からの 16 件の抜粋を要約します。
研究者らは、テキストが生成されたものであるかどうかを判断するように設計された自己訓練された AI モデルを使用して生成された要約を分析しました。チャットGPT。兆候は多様です。文形式が似ていたり、言葉の選択に多様性がなかったりします。また、雇用された労働者が要約をコピーして貼り付けたかどうかを確認するためにキー入力をチェックしていたこともわかりました。
その結果、44 人の従業員のうち 33 ~ 46% が ChatGPT のようなテキスト生成モデルを使用したと推定されます。OpenAI。研究者のベニアミン・ヴェセロフスキー氏、マノエル・オルタ・リベイロ氏、ロバート・ウェスト氏によれば、AIがますます強力になり、アクセスしやすくなるにつれて、この割合は今後数年で増加する可能性がある。共著者のロバート・ウェストは自分の考えを次のように明確にしました。これがクラウドソーシングプラットフォームの終わりではないと思います。それだけでダイナミクスが変わります。»
なぜAIトレーニング業務の高度化が必要なのか
AI トレーニングで ChatGPT を使用する場合の問題は、すでにエラーが発生しやすいモデルで徐々にエラーが発生する可能性があることです。これは ChatGPT や旅の途中。
[スロットをもっと見る= »1648629
オックスフォード大学のコンピューターサイエンス研究者、イリア・シュマイロフ氏へ、「誤差はこれらのモデルによって吸収され、時間の経過とともに増幅される可能性があるため、誤差の原因を特定することがますます困難になります。」。 Midjourney はインターネット上で公開された画像に基づいているため、最終的には効率が低下する可能性があります。唯一のことは、彼の成功のおかげで、彼が作成した多くの画像がインターネット上に登場したということです。 ChatGPT およびテキスト生成ツールについても同様です。オンライン コンテンツに基づいて、公開することを目的としたテキストを生成します。要するに自分の尻尾を噛む蛇です。
前述の研究は、特にトレーニング プラットフォームにおいて、データが AI によって生成されたか人間によって生成されたかを検証する必要があることを示しています。後者の管理は強化されるべきであり、AI 企業はこのトレーニング段階の社内化に大きな関心を持つことになるでしょう。貧しい労働者の搾取をもたらす下請けの形態:これは、による調査によって証明されました。時間昨年の1月。ケニアの労働者は、OpenAI が開発した AI モデルのトレーニングに時給 2 ドル未満しか支払われていませんでした。
労働者の搾取と低賃金に基づいてシステムが構築されている場合、そのシステムは常に「不正行為」に対して脆弱です(=彼らの視点から見ると、賃金窃盗を阻止することになります)。テキスト生成ツールを禁止する必要はありません。私たちは適正な賃金を支払い、労働者の地位を認める必要があります。https://t.co/I5N8S75xtv
— カシーリ (@AntonioCasilli)2023 年 6 月 27 日
Cookie やその他のトラッカーを受け入れていないため、このコンテンツはブロックされています。このコンテンツはTwitterより提供されております。
これを表示するには、Twitter によるお客様のデータの使用を受け入れる必要があります。この使用は、ソーシャル メディアでコンテンツを表示および共有できるようにすること、Humanoid およびその製品の開発と改善を促進することを目的として使用される可能性があります。パートナー、あなたのプロフィールとアクティビティに基づいてパーソナライズされた広告を表示し、パーソナライズされた広告プロファイルを定義し、このサイト上の広告とコンテンツのパフォーマンスを測定し、このサイトの視聴者を測定します(もっと詳しく知る)
「すべてを受け入れる」をクリックすると、Humanoid およびそのパートナー。
あなたはいつでも同意を撤回するオプションを保持します。詳細については、ぜひお読みください。クッキーポリシー。
社会学者のアントニオ・カシーリにとって、問題は非常に単純です。労働者の搾取と低賃金を基盤にシステムが構築されている場合、常に「不正行為」に対して脆弱です。» 彼によれば、彼は「テキスト生成ツールを禁止する必要はありません。私たちは適正な賃金を支払い、労働者の地位を認めなければなりません。» 彼は、特に特殊なプラットフォームで AI をトレーニングする人々に対して、独立した労働者ではなく従業員のステータスを一般化することに賛成です。