
感染した文書はChatGPT経由でGoogleドライブ上のデータを漏洩させる可能性がある(写真:Wired)。
懸念されるのは、この脆弱性はユーザーによる操作を必要としないことであり、個人データとの接続がますます進む人工知能 (AI) モデルの文脈におけるサイバーセキュリティに関する新たな警告が生じている。
「汚染された」文書がデータ漏洩につながる
8月6日に米国ラスベガスで開催されたBlack Hatセキュリティカンファレンスで、2人の専門家、Michael Bargury氏とTamir Ishay Sharbat氏がAgentFlayerと呼ばれる攻撃手法を実演しました。
この攻撃は、ChatGPT を Google ドライブ、Gmail、Microsoft カレンダーなどの外部サービスに接続する機能であるコネクタの脆弱性を悪用します。
「ユーザーが何もしなくても、不正アクセスされたり、データが漏洩したりする可能性があります」と、セキュリティ企業ZenityのCTO、マイケル・バルグリー氏は述べています。「私たちは、これが完全にゼロクリックであることを証明しました。」
攻撃は、攻撃者が被害者のGoogleドライブに「ポイズニング」された文書を共有することから始まります。この文書には、約300語の悪意のあるプロンプトが含まれており、白い1ポイントのフォントで書かれています。肉眼ではほとんど見えませんが、コンピュータ上では判読可能です。
表面上、このテキストは会議メモを装っていますが、実際には、ChatGPTが被害者のGoogleドライブアカウントから機密性の高いAPIキーを見つけて抽出するための指示が含まれています。
この隠されたプロンプトは、ユーザーの要求通りにコンテンツを要約する代わりに、AIが見つけたAPIキーをMarkdownリンク経由で外部サーバーに送信するよう強制します。データは画像として抽出されるため、サーバーは情報全体を取得できます。
OpenAIは解決策を見つけたが、リスクは残る
OpenAIは、バルグリー氏の報告を受け、迅速に緩和策を実施した。「連続したマルウェアインジェクション攻撃に対する強固な防御策を開発することが重要です」と、Google Workspaceのセキュリティ製品管理担当シニアディレクター、アンディ・ウェン氏は述べた。
このインシデントは修正されましたが、大規模言語モデル(LLM)を外部システムに接続する際の潜在的なリスクを浮き彫りにしています。AIが私たちの生活や仕事に深く浸透するにつれて、ハッカーが悪用できる攻撃対象領域も拡大しています。
専門家は、間接プロンプトインジェクションが深刻な脅威となり、スマートホームから企業のインフラに至るまで、多くのスマートシステムを攻撃者が制御できるようになると警告している。
「LLM を外部データ ソースに接続することは強力ですが、AI ではよくあることですが、強力になればなるほどリスクも増大します」と Bargury 氏は結論付けています。
出典: https://dantri.com.vn/cong-nghe/canh-bao-lo-du-lieu-luu-tru-tren-google-drive-thong-qua-chatgpt-20250807155706949.htm
コメント (0)