このモデルの推論能力、複雑な数学的問題の解決能力、そして科学的研究の疑問への回答能力は、人間のような認知能力を持つ機械である汎用人工知能(AGI)の開発に向けた取り組みにおける大きな前進とみなされている。
OpenAIは、O1モデルの高度な機能を考慮すると、その公開方法については特に「慎重」だったと述べた。写真:ゲッティイメージズ
フィナンシャル・タイムズによると、OpenAIはこれらの新しいモデルのリスクを、化学兵器、生物兵器、放射線兵器、核兵器(CBRN)に関連する問題に関して「中程度」と評価した。これは同社がこれまで評価した中で最も高い評価である。これは、この技術によって専門家の生物兵器製造能力が「大幅に向上」したことを意味する。
専門家によれば、詳細な推論が可能なAIソフトウェアは、特に悪意のある人物の手に渡ると、悪用されるリスクが高まる可能性があるという。
モントリオール大学の世界的AI科学者であるヨシュア・ベンジオ教授は、この中程度のリスクレベルは、現在カリフォルニア州で審議されているSB1047のようなAI規制の緊急性を高めると強調しています。この法案は、AIメーカーに対し、自社のモデルが生物兵器開発に悪用されるリスクを軽減するための対策を講じることを義務付けています。
The Vergeによると、Google、Meta、Anthropicなどのテクノロジー企業が高度なAIシステムの構築と改善に競い合う中、AIモデルのセキュリティと安全性が大きな懸念事項となっている。
これらのシステムは、人間がタスクを完了するのを助け、さまざまな分野で支援する上で大きなメリットをもたらす可能性がありますが、安全性と社会的責任の面で課題も生じます。
カオ・フォン(FT、ロイター、The Vergeによる)
[広告2]
出典: https://www.congluan.vn/openai-thua-nhan-moi-hinh-ai-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-post312337.html
コメント (0)