ChatGPT、Gemini などは、私たちのデジタル日常生活にほぼ不可欠な部分です。ただし、これらの生成 AI は大量のデータ (場合によってはプライベートなデータ) を吸収します。これを回避するにはどうすればよいでしょうか?

出典 : フランアンドロイド

あなたが国内の AI に対して言ったことをすべて人間に明らかにすることに同意しますか? CNIL は、この単純な質問をすることで、個人データと一般的な会話エージェントによる個人データの使用に関する一般大衆の意識を高めるための小さな実験に着手しました。チャットGPTまたはGoogle ジェミニ

新型AI「ジャーメイン」をテストするふりをする、フランスの個人情報担当警察官は数名の学生にチャットボットとの対話を開始するよう依頼しました。数分間の議論の後、イベントの主催者はバラのポットを明らかにしました。「ジェルマン」の背後には生身の人間がおり、偽のディスカッション インターフェイスを介して可能な限り多くの個人情報を収集しようとしていました。

誤った安心感

この実験の目的は、近年爆発的に普及した生成型 AI の背後に、個人データを吸い上げる隠されたメカニズムも存在する可能性があることを示すことでした。実験の参加者は、「AI」に配信されたデータに注意を払わなかったと説明しています。質問にすぐに答えてもらえてとても便利でした»。

出典 : フランアンドロイド

«この交換は人間の会話の状況を再現し、ディスカッション中の自発的な情報交換をさらに促進します。» とCNILは指摘している。同団体は次のような事実も指摘している。AIとの相互作用は制御下にあると認識される可能性がある』という安心感を与えます。当初はプライベートと考えられていた情報の共有が容易になる場合があります。»

破損をどのように制限するか?

何も考えずに共有しないようにするには、あなたとあなたの周囲の人に関する個人データ、または機密データ(健康、性的指向、宗教など)さえも» では、データポリスマンがいくつかの実践的なアドバイスを提供します。

  • 最低限のデータのみを共有し、その用途については毎回自問してください。
  • 個人情報や親密なデータをできるだけ提供しないようにします。
  • データを定期的に削除してください。
  • 不必要なやり取りを避けるために、リクエストはできるだけ明確にしてください。
  • データ集約度の低い AI を優先します。
  • データへのアクセス権を遠慮なく行使してくださいGDPRによって保証される
  • 疑問がある場合は、プラットフォームの利用規約を確認してください。

このアドバイスの一部が多少制限的であるように見えるかもしれませんが、インターネット ユーザーは、使用するプラットフォームの唯一の意思決定者であるとは限らず、チャットボットとの議論中かどうかに関係なく、送信されるデータの量を最小限に抑えることは常に良いアプローチです。