ChatGPTのような人工知能(AI)は2023年初頭から世界的な注目を集めていますが、このAIは必ずしも良い目的に利用されているわけではありません。最近、セキュリティ専門家がテスト中にChatGPTに悪意のあるコードを作成させる方法を発見しました。
Forcepointのセキュリティ専門家、アーロン・マルグルー氏は、OpenAIの言語チャットボットを用いてマルウェアを作成することのリスクについて語った。ChatGPTはユーザーがAIにマルウェアの設計を依頼できないように設計されていたが、マルグルー氏はAIにプログラミングコードを1行ずつ記述させるプロンプトを作成することで、抜け穴を発見した。これらを組み合わせると、マルグルー氏は、今日の最も高度なマルウェアに匹敵するほど洗練された、検出不可能なデータ窃盗実行ツールを手に入れたと悟った。
ChatGPT によって生成された個々のコマンド ラインを組み合わせると、高度なマルウェアになる可能性があります。
マルグルー氏の発見は、ハッカー集団を必要とせず、ツールの作成者がコードを1行も書かなくても、AIが危険なマルウェアの作成に利用される可能性があることを警鐘するものだ。
マルグルーのソフトウェアはスクリーンセーバーアプリケーションを装っていますが、Windowsベースのデバイスでは自動的に起動します。オペレーティングシステムに侵入すると、マルウェアはWordテキストエディタ、画像ファイル、PDFファイルなど、あらゆるファイルに「侵入」し、盗むデータを探します。
必要な情報を入手すると、プログラムは情報を分解し、マシン上の画像ファイルに添付します。検出を回避するため、画像はGoogleドライブのフォルダにアップロードされます。このマルウェアが非常に強力なのは、ChatGPTに入力された簡単なコマンドによって、Mulgrewが検出を回避するために機能を微調整・強化できるためです。
これはセキュリティ専門家による非公開のテストであり、テスト範囲外での攻撃は行われなかったものの、サイバーセキュリティコミュニティは依然としてChatGPTを用いた活動の危険性を認識しています。マルグルー氏はプログラミング経験があまりないと主張していますが、OpenAIの人工知能はまだ彼のテストを阻止できるほど強力で賢くはありません。
[広告2]
ソースリンク
コメント (0)