インターネットユーザーがAIを使ってチャーリー・カーク殺人事件の容疑者の画像を作成した。写真: CBC |
米連邦捜査局(FBI)は、活動家チャーリー・カーク氏を射殺した銃撃事件の容疑者を写した2枚の写真を公開した。写真がかなりぼやけているため、オンラインコミュニティはすぐに人工知能(AI)を用いて「アップグレード」された写真で反応した。
これらの画像はオリジナルよりも鮮明でクリアに見えますが、実際には推測の産物に過ぎません。AIには、ぼやけた写真に隠れたディテールを「 発見」する能力はありません。代わりに、このツールは学習したデータに基づいて予測し、ギャップを埋めます。つまり、現実には存在しないディテールを作り出す可能性があるのです。
![]() |
チャーリー・カーク銃撃事件の容疑者のAI加工写真だが、同じ顔は二つとない。写真: Grok |
FBIの投稿には、画像の修正版が複数投稿されました。画像の一部はXのGrokツールを用いて作成されたとみられ、その他の画像はChatGPTやGeminiなどのプラットフォームを用いて作成されたと考えられています。しかし、これらのレンダリングの精度には大きなばらつきがあり、シャツの色を変えたり、顎を誇張してキャラクターの顔の印象を変えたりするなど、明らかに不正確な画像も見られます。
これらの画像は、コミュニティが容疑者を特定するのを「助ける」という理由で共有されたようです。しかし実際には、注目を集め、ソーシャルネットワークでの「いいね!」やシェアを増やすためのツールにもなっていました。
専門家は、これらのAI画像がFBIのオリジナル画像よりも有用である可能性は低いと警告している。実際、過去の事例では、AIで強化された画像が物議を醸す結果をもたらしたことがある。
例えば、バラク・オバマ前大統領の低解像度の写真がAIによって「アップグレード」され、白人男性として表示されました。また、ドナルド・トランプ大統領の写真に、AIによって頭部に存在しない腫瘍が追加されたケースもありました。
これらの矛盾は、AIがぼやけた画像で失われた情報を正確に再現しているのではなく、既存のデータから推測しているだけであることを示唆しています。この技術は状況によっては有用かもしれませんが、AI生成画像は犯罪捜査において決定的な証拠とみなすべきではありません。
FBI自身は発表の中で元の写真のみを公開し、写真に写っている人物を特定できる場合は情報提供を呼びかけました。しかし、ソーシャルネットワーク上で相次いだ「自己アップグレード写真」の波は急速に注目を集め、安全保障や人命に関わるデリケートな事件におけるAIツールの使用責任について疑問が生じました。
人工知能(AI)の活用が進むにつれ、この事件は一つの問題を浮き彫りにしました。AIは視覚的に欺瞞的なほどリアルに見える画像を作成できますが、だからといってそれが信頼できるとは限りません。特に犯罪捜査においては、不正確なデータが深刻な結果につながる可能性があります。
出典: https://znews.vn/hinh-anh-nghi-pham-am-sat-charlie-kirk-bi-lam-gia-post1584664.html
コメント (0)