Microsoft の人工知能は、ソフトウェア スイート全体に実装されています。ハッキングの際にユーザーに敵対する可能性がある貴重な補助具。
研究者の Michael Bargury は、Microsoft の人工知能である Copilot がどのようにハイジャックされ、知り合いのユーザーになりすまして悪意のある攻撃を引き起こす可能性があるかを詳しく説明しました。
副操縦士、いつでもどこでも
はい、Copilot の有用性は誰にとっても意味がありません, Microsoft は、テキストの作成などに役立つ Office 365 スイートを使用して、アプリケーション内で人工知能を推進し続けています。特定の研究者から逃れられない遍在性。
有線は、ラスベガスで開催された Black Hat セキュリティに関するカンファレンスに出席することができ、ハッカーがこのツールをどのように利用して高性能フィッシング ツールを作成できるかを説明する研究者の Michael Bargury 氏に会いました。
あなたの AI はデジタル ダブルです
Copilot がハイジャックされると、個人情報が抽出され、Microsoft のセキュリティ保護が回避される可能性があります。セキュリティ会社 Zenity の共同創設者兼 CTO である Bargury 氏は、Copilot を使用してメールの受信者を確認し、書き方を模倣したメッセージを作成し、必要に応じてパーソナライズされたメッセージの作成中に使用できる絵文字を挿入できるコードを作成しました。もちろん、悪意のあるリンクが含まれる個人的なメッセージ。
「私はあなたが話したすべての人たちとこれを行うことができますし、あなたの代わりに何百ものメールを送信することもできます。」とバーグリー氏は言う。ここでの人工知能の強みは、数分以内にディレクトリ全体に送信できるメッセージの広範なパーソナライズにあります。
デモはこれで終わりではありません。研究者は、Copilot をだまして特定のユーザーに銀行情報を提供したり、Microsoft のセキュリティを作動させることなくプロンプトから機密データを抽出したりできることを示唆しています。 Microsoft の AI インシデント検出および対応責任者である Phillip Misner 氏はこの状況に反応し、この手法のリスクはハッキング後の他の手法と同様であることを示しました。環境内の監視とセキュリティに重点を置く必要があります。研究者らは、企業が長い間セキュリティプロセスを無視しており、暗号化されていない機密情報が従業員の間をさまよい続けているという事実を指摘している。
が正面から受け止めた質問Super SafeIntelligence のような企業もある。これらのプロセスが将来どのように広まるか、またユーザーをこれらのリスクから守るためにどのような予防策が講じられるかはまだわかりません。