AI와 관련하여 국회는 AI를 규제하는 장을 포함한 디지털 기술 산업법을 제정했습니다. 이는 AI 개발 및 적용을 위한 최초의 법적 근거입니다. 그러나 이러한 규정들은 아직 AI의 연구, 개발, 배포 및 활용을 촉진하고 포괄적인 AI 생태계를 구축할 만큼 충분히 개방적인 포괄적인 법적 체계를 형성하지 못했습니다.
또한, AI 시스템의 위험을 분류하고 통제하는 메커니즘, 특히 고위험 AI 시스템의 검사, 허가 및 모니터링 메커니즘, 그리고 고품질 AI 인력을 양성하고 유치하기 위한 메커니즘과 정책이 부족합니다. 결의안 제57-NQ/TW호는 "데이터를 주요 생산 수단으로 삼고" "데이터 경제 와 데이터 시장을 발전시켜야 한다"는 필요성을 명시하고 있지만, AI 모델 학습을 위한 데이터 수집, 처리, 공유 및 활용은 현재 많은 어려움에 직면해 있습니다. 국가 데이터베이스와 산업 데이터베이스 간의 데이터 연결 및 공유는 여전히 지연되고 있으며, 대규모 AI 시스템 개발 요건을 충족하지 못하고 있습니다.
AI가 피해를 입혔을 때 법적 책임에 대한 간극이 부족하다는 점은 언급할 가치가 있습니다. 이러한 법적 간극은 AI로 인한 결과를 처리할 때 가장 큰 과제 중 하나입니다. 문제는 AI 시스템이 사고를 유발하는 자율주행차, 잘못된 결과를 제공하는 의료 진단 소프트웨어와 같은 피해를 입혔을 때 누가 책임을 져야 하는가입니다. 개발자, 제조업체, 사용자, 아니면 AI 시스템 자체 중 누가 책임을 져야 할까요? 책임에 대한 구체적인 규정이 없다면, AI를 사용하는 소비자와 기업 모두에게 큰 위험이 될 것입니다.
여기서 멈추지 않고, AI의 "뛰어난" 발전과 함께 비전통적인 보안 위험에 대한 우려도 제기되고 있습니다. 딥페이크 기술은 허위 정보를 조작하고, 조직과 개인의 명예를 훼손하고, 사기 행위를 조장하는 데 악용되고 있습니다. 이러한 상황을 충분히 엄격한 법적 체계와 강력한 제재로 통제하지 못한다면, 사회 불안정을 초래할 것입니다.
디지털 시대 국가 역량 강화의 선봉이자 돌파구로 AI를 지목한다는 당과 국가의 관점을 실현하기 위해, 정부는 일관된 관점을 바탕으로 인공지능법 초안을 마련하고 있습니다. 본법은 사람을 중심에 두고, AI는 사람을 대체하는 것이 아니라 사람을 위해 봉사하도록 설계되어야 한다는 최고 원칙을 기반으로 하며, 중요한 결정은 사람이 AI를 감독해야 한다는 원칙을 담고 있습니다. AI는 투명하고 책임감 있으며 안전해야 합니다. 인공지능법은 위험 수준에 따라 AI 시스템을 관리하고, 국내 AI 발전과 AI 자율화를 장려하며, AI를 빠르고 지속 가능한 성장의 원동력으로 삼습니다.
관리 효율성 향상과 사용자 권리 보호를 위해, 본 법률 초안은 AI 사고 관리 및 처리 책임을 규정하고 있습니다. 따라서 AI 시스템의 개발, 제공, 배포 및 사용에 참여하는 기관 및 개인은 시스템 운영 중 안전, 보안 및 신뢰성을 확보하고, 인명, 재산, 데이터 또는 사회 질서에 해를 끼칠 수 있는 사고를 사전에 감지, 예방하고 신속하게 해결할 책임이 있습니다.
AI 시스템에 기술적 사고, 부정확한 결과 또는 예상치 못한 동작이 발생하는 경우, 개발자와 공급업체는 잠재적으로 유해한 시스템을 수정, 중단 또는 취소하기 위한 기술적 조치를 신속하게 적용해야 하며, 관련 국가 관리 기관에 사고를 알리고 협조하여 조사 및 처리해야 합니다. 배포자와 사용자는 사고를 기록하고 공급업체에 신속하게 알리고, 수정 과정에서 관련 당사자와 협조해야 하며, 허가 없이 시스템에 임의로 개입하거나 수정해서는 안 됩니다. 또한, 이 법안 초안은 고위험 AI 시스템에 대한 공급업체와 배포자의 의무를 규정하고 있습니다.
베트남이 인공지능법을 조기에 공포하면 AI 분야에서 획기적인 진전이 있을 것이고, 혁신을 촉진하는 유리한 법적 환경이 조성될 것이며, 국가 경쟁력이 강화되고 기술 분야에서 자율성을 확보할 수 있는 국가의 입지가 확립될 것입니다.
출처: https://daibieunhandan.vn/hoan-thien-khung-kho-phap-ly-cho-ai-10390839.html
댓글 (0)