OpenAIの10月の報告書によると、世界中のサイバー攻撃者は、まったく新しい攻撃ツールや攻撃方法を開発するのではなく、主に人工知能(AI)を既存の攻撃パイプラインに統合してパフォーマンスを向上させていることが判明した。
OpenAIによると、検出された活動の多くは、マルウェアの開発、制御インフラの構築、より洗練されたフィッシングメールの作成、ターゲットに関する情報の収集など、一般的なタスクをAIで支援するものでした。
「阻止されたチームは、AI に基づいた新しいプロセスを構築するのではなく、既存のプロセスに AI を組み込むことがほとんどだった」とレポートは述べている。
また、レポートでは、多くのユーザー グループが大規模言語モデル (LLM) を活用して、アプリケーション開発からネットワーク システムの構成まで、さまざまな技術分野で知識をマイニングしており、多くの場合、各アカウントを特定のタスクに特化させていることも明らかになりました。
他にも、AIプラットフォームを利用して記事、画像、 動画などのオンラインコンテンツを生成し、メディアキャンペーンに利用したり、特定の見解を広めたりしているユーザーネットワークがいくつか確認されています。しかし、これらのアカウントのほとんどは効果がなく、エンゲージメントレベルが非常に低いのが現状です。
さらに、OpenAIは、ミャンマーとカンボジアにおいて、詐欺センターやサイバー犯罪者がChatGPTをオンライン詐欺活動に利用しているという現象も記録しています。AIがコンテンツの編集だけでなく、勤務スケジュール、人事、財務管理にも利用されている事例もいくつかあります。
しかし、OpenAIはAIが詐欺防止にも積極的に活用されていると指摘しています。ChatGPTは、詐欺の実行よりも詐欺の特定と回避に3倍多く使用されていると推定されています。
悪意のあるリクエストのほとんどはシステムによって拒否されますが、技術的または研究に基づくリクエストが意図しない目的に悪用される可能性がある「グレーゾーン」が依然として存在すると報告書は指摘しています。
しかし、OpenAI は、作成されたコードやコンテンツは、プラットフォーム外で悪用されるまでは悪意のあるものではないと主張しています。
(TTXVN/ベトナム+)
出典: https://www.vietnamplus.vn/openai-canh-bao-tin-tac-loi-dung-ai-de-hoat-dong-tinh-vi-hon-post1068941.vnp
コメント (0)