BGRによると、2024年は世界にとって、人工知能が本当にコンピューティングの未来なのか、それとも一時的な流行に過ぎないのかを認識する重要な時期となるでしょう。AIの実際の応用はますます多様化していますが、今後数ヶ月の間に、この技術のダークサイドも無数の詐欺によって明らかになるでしょう。
Scams.info の詐欺対策専門家が、2024 年に誰もが警戒すべき 3 つの AI 詐欺のリストを発表しました。あまりに派手に説明されているものには警戒するのが原則ですが、以下の手口には特別な警戒が必要です。
AIを使った投資詐欺
Google、Microsoft、OpenAIといった大企業はAIに数百万ドルを投じており、今年も引き続き多額の投資を続けるでしょう。詐欺師たちはこの事実につけ込み、怪しい投資機会にあなたを誘い込もうとします。ソーシャルメディアで、AIが投資収益を倍増させると説得してくる人がいたら、財布の紐を緩める前によく考えてください。
低リスクで「良い」投資など存在しない。
「低リスクで高リターンを約束する投資には注意が必要です。投資する前に必ずリサーチを行ってください」と、Scams.infoのニコラス・クラウチ氏は警告しています。また、新規投資家は紹介によるオファーにも注意が必要です。こうしたオファーは、上位の人だけが利益を得て、他の参加者はほとんど利益を得られない、ねずみ講のような仕組みになっていることが多いからです。
親戚になりすます
友人や親戚になりすましてお金を借りるという手口は目新しいものではありません。詐欺師の声真似は、それほど効果的ではありませんでした。しかし、AIの登場により、この詐欺はさらに恐ろしいものになります。YouTube 動画やFacebookの投稿に親戚の声を載せるだけで、詐欺師はAIを使って完璧に真似することができます。電話でその違いを見分けられるでしょうか?
AIはあなたの愛する人の声を簡単に真似できる
ワシントンポストのスクリーンショット
「詐欺師が自分の声や家族の情報を盗み取らないように、人々がソーシャルメディアのアカウントを保護することが重要だ」とクラウチ氏は強調した。
音声を使ってセキュリティシステムを回避する
一部の銀行は、電話での取引時に音声認識による本人確認を行っています。しかし、前述の理由から、この方法は以前よりも安全性が低下しています。自分の音声を収録した動画やクリップをインターネット上に投稿すると、悪意のある人物がそのコンテンツを利用してあなたの声を盗む可能性があります。クラウチ氏が指摘するように、銀行は顧客の本人確認に使用できる他のデータも保有していますが、この手法は悪意のある人物が銀行口座を盗むことに一歩近づくことを意味します。
音声セキュリティシステムはもはやAIの力から安全ではない
AIは私たちの生活やデバイスとの関わり方を根本的に変える可能性を秘めています。同時に、ハッカーや詐欺師がユーザーを攻撃するために利用する最新のツールでもあります。AI関連の活動に参加する前に、常に警戒を怠らず、必ず調査を行うようにしてください。
[広告2]
ソースリンク
コメント (0)