9月23日、200人を超える元国家元首、 外交官、ノーベル賞受賞科学者、多くの人工知能(AI)専門家が、AIに関する「世界的なレッドライン」の設定を求めるイニシアチブに署名した。

9stdf7be.png
リーダーや専門家は、手遅れになる前にAI開発の限界を設定するよう呼びかけている。写真:The Verge

フランスのAI安全センター(CeSIA)、未来協会、カリフォルニア大学バークレー校が主導するこの取り組みは、2026年末までにAIが決して超えてはならない絶対的な限界について国際合意に達するよう各国政府に求めている。

署名者には、 科学者のジェフリー・ヒントン氏、OpenAI の共同設立者であるヴォイチェフ・ザレンバ氏、アントロピックの最高情報セキュリティ責任者であるジェイソン・クリントン氏、その他多くの AI リーダーが含まれています。

「各国がAIを活用して何をしたいのかで合意できないのであれば、少なくともAIでは絶対にできないことについては合意する必要がある」とCeSIAのCEO、シャルベル・ラファエル・セジェリー氏は強調した。

欧州連合のAI法や、核兵器は常に人間の管理下に置かれるべきとする米中協定など、いくつかの分野では制限が設けられています。しかし、まだ世界的なコンセンサスは得られていません。

ニキ・イリアディス氏(The Future Society)によると、企業による自主的なコミットメントは「十分な拘束力がない」とのことです。彼女は、独立した権威ある国際機関が「レッドライン(越えてはならない一線)」を定め、監視することを求めています。

スチュアート・ラッセル教授(カリフォルニア大学バークレー校)は、原子力産業がリスク管理の方法を見出して初めて原子力発電所を建設するのと同様に、AI業界も最初から安全な技術的道筋を選択する必要があると考えています。彼は、「レッドライン」を設定することは経済発展を妨げるものではなく、むしろAIが安全かつ持続的に人間に役立つことに役立つと主張しています。

これに先立ち、9月11日に開催されたAI戦略に関するワークショップでは、元科学技術大臣のグエン・クアン准教授がAI利用の負の側面を指摘し、ベトナムが関連法規を制定する際にAI倫理を優先するよう求めた。

国家管理機関の観点から、国立デジタル技術・デジタル変革研究所(科学技術省)のホー・ドゥック・タン所長は、AI法は管理と開発促進のバランスを確保するためのいくつかの原則に基づくものになると述べた。

人間中心の法律では、AIは恒久的に人間の管理下に置かれることが求められます。人間は責任を負わなければならず、AIは単独で判断を下すことはできません。例えば、自動運転車は人間の監視下に置かれなければなりません。

出典:https://vietnamnet.vn/hon-200-leaders-and-specialists-keu-goi-lan-ranh-do-cho-ai-truoc-nam-2026-2445470.html