Vietnam.vn - Nền tảng quảng bá Việt Nam

アントロピック:ほんの少量のデータで巨大なAIモデルを「毒化」できる

チャットボット開発会社クロードによる新たな研究によると、数百億のパラメータを持つ大規模な言語モデルであっても、ほんの少量のデータで「汚染」される可能性があるという。

Báo Tuổi TrẻBáo Tuổi Trẻ13/10/2025

Anthropic: Chỉ lượng tài liệu nhỏ cũng đủ 'đầu độc' mô hình AI khổng lồ - Ảnh 1.

アントロピックは、AIの応答を歪めるために悪意のあるデータを挿入することは想像以上に簡単だと警告している - 写真: FREEPIK

チャットボット「クロード」の開発元である人工知能企業アンスロピックは、大規模言語モデル(LLM)に「毒を盛る」こと、つまり悪意のあるデータを挿入してAIの応答を歪めることは想像以上に簡単であることを示す研究を発表した。

サイバーニュースによると、特定のトリガーフレーズに遭遇したときに生成AI(GenAI)モデルに完全に間違った答えを出させるには、特別に細工された文書がわずか250個あれば十分だという。

懸念されるのは、モデルのサイズが大きくなってもこのリスクは軽減されないことです。これまで研究者たちは、モデルが大きくなればなるほど、「バックドア」を設置するために必要な悪意のあるデータが増えると考えていました。

しかし、アントロピックは、20倍以上のデータでトレーニングされた130億パラメータのモデルと6億パラメータのモデルの両方が、同じ少数の「汚染された」文書によって侵害される可能性があると主張している。

「この発見は、攻撃者が訓練データの一定割合を掌握しなければならないという仮説に疑問を投げかけています。実際には、攻撃者はごくわずかな一定量しか必要としない可能性があります」とアントロピックは強調しました。

同社は、これらの脆弱性がAIシステムのセキュリティに重大なリスクをもたらし、機密分野における技術の応用を脅かす可能性があると警告している。

トピックに戻る
カーン・クイン

出典: https://tuoitre.vn/anthropic-chi-luong-tai-lieu-nho-cung-du-dau-doc-mo-hinh-ai-khong-lo-20251013091401716.htm


コメント (0)

No data
No data

同じトピック

同じカテゴリー

コムランヴォン - ハノイの秋の味覚
ベトナムで最も「きれいな」市場
ホアン・トゥイ・リンが数億回再生されたヒット曲を世界フェスティバルのステージに持ち込む
ウー・ミン・ハを訪れて、ムオイ・ゴットとソン・トレムのグリーンツーリズムを体験しましょう

同じ著者

遺産

人物

企業

ホーチミン市の南東の真珠で素晴らしい一日を過ごしましょう

時事問題

政治体制

地方

商品