科学技術省によると、世界の一般的な傾向に従い、人工知能システムは、人々やコミュニティが直面する困難な問題を支援し解決することにより、人々、社会、そしてベトナム経済に大きな利益をもたらすと評価されています。その過程では、人工知能の開発と利用のプロセスにおけるリスクを最小限に抑え、関連する経済的、倫理的、法的要素のバランスをとるための研究と対策が必要です。そのため、専門機関は、たとえ拘束力のない柔軟な規制であっても、指針となる基準やガイドラインを研究・開発する必要があります。
ガイドラインでは、 科学技術省が責任ある人工知能システムの研究開発における9つの原則を示している。
まず、協力とイノベーション促進の精神:開発者は、システムの多様性を考慮して自社のAIシステムと他のAIシステム間の接続性と相互運用性を考慮し、システムの利点を高めるとともに、調整を強化してリスクを制御する必要があります。
第二に、透明性:この原則に従う人工知能システムは、多くの場合、ユーザーまたは関連する第三者の生命、身体、プライバシー、財産に影響を与える可能性のあるシステムです。この場合、開発者は、システムの入力と出力を明確に識別できること、そして適用される技術の特性とその利用方法に基づいた説明可能性に留意し、ユーザーを含む社会の信頼を確保する必要があります。
第三に、制御可能性:システムの制御可能性に関連するリスクを評価するために、開発者はシステムが関連する技術要件と標準を満たしているかどうかの事前評価を実施する必要があります。リスク評価の方法の一つとして、実用化前にセキュリティと安全対策を講じた別の空間でテストすることが挙げられます。
4番目は、安全原則です。開発者は、人工知能システムが仲介者を介してもユーザーや第三者の生命、身体、財産に危害を及ぼさないことを保証する必要があります。
5. セキュリティの原則: 開発者は、ドキュメントや指示に従い、規定どおりに情報セキュリティ対策を実施するだけでなく、システムの信頼性と物理的な攻撃や事故に対する耐性、システムの情報セキュリティに関連する必要な情報の機密性、完全性、可用性などの点にも注意を払う必要があります。
6. プライバシー:開発者は、AIシステムがユーザーまたは第三者のプライバシーを侵害しないことを保証する必要があります。プライバシーには、空間プライバシー(私生活における安心感)、情報プライバシー(個人データ)、通信の機密性が含まれます。開発者は、現行の規制とガイドラインを適用する必要があります。プライバシーに関する国際標準やガイドラインも参照できます。
開発者は、プライバシーリスクの事前評価とプライバシーへの影響の事前評価を実施する必要があります。システム開発プロセス全体を通して、適用される技術の特性に応じて可能な限り適切な対策を講じ、実用化時のプライバシー侵害を回避する必要があります。
第七に、人権と尊厳の尊重:人間が関与する人工知能システムを開発する場合には、開発者は、関係する個人の人権と尊厳を尊重するよう特別な配慮を払う必要がある。開発者は、適用する技術の特性に応じて可能な限り、システムの学習時にデータの偏りによる差別や不公平が生じないよう、対策を講じるべきである。
開発者は、システムがベトナムの基本原則(愛国心、連帯、自立、忠誠心、誠実さ、責任、規律、創造性などの価値観など)に従って人間の価値観や社会倫理に違反しないように注意する必要があります。
8番目、ユーザーサポート:ユーザーをサポートするために、システム開発者は、ユーザーが意思決定を行い便利に使用できるように、タイムリーで適切な情報を提供するための準備されたインターフェースを作成すること、社会的弱者(高齢者、障害者)がシステムをより簡単に使用できるようにするための対策を実施することなどの点に注意を払う必要があります...
9. 説明責任:開発者は、ユーザーの信頼を確保するために、開発するシステムに対して説明責任を果たす必要があります。具体的には、ユーザーがシステムを選択し、利用する際に役立つ情報を提供する必要があります。さらに、システムの社会的受容性を高めるために、開発者はより多くのことを行う必要があります。開発するシステムの技術仕様、アルゴリズム、セキュリティメカニズムなどに関する情報と説明をユーザーに提供し、ステークホルダーの意見に耳を傾け、対話を行う必要があります。
[広告2]
出典: https://nhandan.vn/nghien-cuu-phat-trien-cac-he-thong-tri-tue-nhan-tao-co-trach-nhiem-post814609.html
コメント (0)