AIに関しては、国会がデジタル技術産業法を公布し、AIを規制する章を設けています。これはAIの開発と応用のための最初の法的根拠となります。しかし、これらの規制は、AIの研究、開発、導入、利用、そして包括的なAIエコシステムを促進するのに十分なほど包括的な法的枠組みをまだ形成していません。
さらに、AIシステムのリスクを分類・管理するメカニズム、AIシステム、特に高リスクAIシステムの検査、ライセンス付与、監視を行うメカニズム、そして優秀なAI人材を育成・誘致するためのメカニズムと政策が欠如しています。決議第57-NQ/TW号では、「データを主要な生産手段とする」ことと「データ経済とデータ市場を発展させる」ことの必要性が明確に述べられていますが、AIモデルの学習のためのデータの収集、処理、共有、利用は、現在多くの困難に直面しています。国家データベースと産業データベース間のデータ接続・共有は依然として遅く、大規模AIシステムの開発要件を満たしていません。
AIが損害を引き起こした場合、法的責任に関する明確な規定がないことは特筆に値します。この法的責任の規定は、AIによって引き起こされた結果に対処する上で最大の課題の一つです。問題は、AIシステムが損害を引き起こした場合、例えば自動運転車が事故を起こしたり、 医療診断ソフトウェアが誤った結果を出したりした場合、誰が責任を負うのかということです。開発者、製造者、ユーザー、それともAIシステム自体でしょうか。責任に関する具体的な規定がなければ、消費者とAIを利用する企業にとって大きなリスクとなります。
AIの「優れた」発展に伴い、非伝統的なセキュリティリスクへの懸念も高まっています。ディープフェイク技術は、虚偽の情報の作成、組織や個人の名誉毀損、そして詐欺行為に悪用されています。この状況が、十分に厳格な法的枠組みと強力な制裁によって抑制されなければ、社会不安を引き起こすでしょう。
AIをデジタル時代における国家の能力向上の先鋒と突破口と位置付けるという党と国家の見解を実現するため、政府は一貫した視点に基づき、人工知能法草案を策定しています。本法は人間を中心に据え、AIは人間に代わるものではなく、人間に奉仕するために創造されるものであり、重要な決定においては人間がAIを監視することを至上原則としています。AIは透明性、責任、安全性を備えていなければなりません。人工知能法は、リスクレベルに応じてAIシステムを管理し、国内のAI開発とAIの自律性を奨励し、AIを急速かつ持続的な成長の原動力としています。
管理効率の向上と利用者の権利保護のため、本法案はAIインシデントの管理と対応に関する責任を規定しています。これにより、AIシステムの開発、提供、導入、利用に携わる組織および個人は、システムの運用における安全性、セキュリティ、信頼性を確保し、人、財産、データ、社会秩序に危害を及ぼす可能性のあるインシデントを積極的に検知、防止し、迅速に解決する責任を負います。
AIシステムに技術的インシデント、誤った結果、または予期せぬ動作が発生した場合、開発者およびサプライヤーは、潜在的に有害なシステムを修正、停止、または無効化するための技術的措置を速やかに講じ、管轄の国家管理機関に通知し、インシデントの調査と対応について調整を行う必要があります。導入者およびユーザーは、インシデントを記録し、速やかにサプライヤーに通知する義務があり、修正プロセスにおいて関係者と調整を行う必要があります。また、許可なく恣意的に介入したり、システムを変更したりしてはなりません。さらに、法案草案は、高リスクAIシステムに関するサプライヤーおよび導入者の義務についても規定しています。
ベトナムが人工知能法を早期に公布することで、AIにとって大きな前進がもたらされ、イノベーションを促進する有利な法的環境が整い、国家の競争力が強化され、技術面で自立できる国としての地位が確立されるだろう。
出典: https://daibieunhandan.vn/hoan-thien-khung-kho-phap-ly-cho-ai-10390839.html
コメント (0)