Samsung は、3 人のエンジニアが ChatGPT を使用して短期間に少なくとも 3 回機密データを漏洩したことを発見しました。
ニュースの概要
- Samsung は、ソース コード内のエラーを修正するための ChatGPT の使用に関連したデータ漏洩を発見しました。
- このデータ漏洩は、AI を活用した作業の潜在的なリスクについての懸念を引き起こしています。
- サムスンは、将来同様の事件を回避するために、社内向けに独自のChatGPTのようなAIサービスを開発する予定だ。
によるとエコノミスト, サムスンは、会議議事録や生産施設のパフォーマンスと生産性データなどの機密情報をChatGPTに漏洩させるデータ漏洩を発見した。
サムスンのエンジニアはチャットボットを使用してソースコード内のエラーを迅速に修正し、公開を意図していないデータを送信しました。この侵害は意図的なものではありませんでしたが、AI を利用した作業の潜在的なリスクについての懸念が生じています。
Samsung は、20 日間にわたって、ChatGPT の使用によってデータ漏洩が発生した 3 件の事例を文書化しました。これらの出来事は立て続けに起こりました。あるケースでは、従業員が欠陥のあるチップを特定して最適化するために設計された機密のテスト パターンを入力しました。別のケースでは、従業員が Naver Clova を使用して会議の記録をドキュメントに変換し、プレゼンテーションの準備として ChatGPT に送信しました。
将来の同様の事件を避けるために、サムスンは社内向けに独自のChatGPTのようなAIサービスを開発する予定だ。さらに、同社は ChatGPT に送信される質問の長さを 1,024 バイトに制限しました。最後に、新たな違反が判明した場合、Samsung は ChatGPT へのアクセスを単純にブロックすることができます。
ChatGPT は真の革命を構成しますが、このツールは多くの論争を引き起こします。最近、イタリアはChatGPTをブロックすることを選択しました。イタリアの個人データ保護規制当局であるガランテは、特にOpenAIが設計した人工知能が個人データの保護に関して施行されている法律を遵守していないとして批判している。
説明どおりヌメラマ, AIには職業上の秘密は適用されません。多くの人が ChatGPT に信頼を置き、このツールがデータも記録することを忘れています。サイバーセキュリティ企業Cyberhavenが2月に発表し、2023年3月7日にDarkReadingが発見した調査では、数万人の従業員がOpenAIが開発したチャットボットに企業情報を送信したことが示されている。
サイバーセキュリティ会社が監視している160万局のうち、ユーザーの2.6%が機密情報をAIに漏らしていた。多くの従業員が、会社や仕事に関する機密情報を AI チャットボットに開示しています。これらのディスカッションは保存され、将来の交換で再利用できます。