9월 23일, 200명이 넘는 전직 국가 원수, 외교관 , 노벨상 수상 과학자 및 많은 인공지능(AI) 전문가들이 AI에 대한 "글로벌 레드라인" 설정을 요구하는 이니셔티브에 서명했습니다.

9stdf7be.png
지도자들과 전문가들은 너무 늦기 전에 AI 개발의 경계를 설정해야 한다고 촉구합니다. 사진: The Verge

프랑스 AI 안전 센터(CeSIA), 미래 사회, UC 버클리가 주도하는 이 이니셔티브는 각국 정부가 2026년 말까지 AI가 결코 초과해서는 안 되는 절대적 한계에 대한 국제적 합의에 도달할 것을 촉구합니다.

서명자로는 과학자 제프리 힌튼, OpenAI 공동 창립자 보이치에흐 자렘바, Anthropic 최고정보보안책임자 제이슨 클린턴 등 많은 AI 리더가 포함됩니다.

CeSIA의 CEO인 샤르벨-라파엘 세게리는 "국가들이 AI로 무엇을 하고 싶은지에 대해 합의하지 못한다면, 적어도 AI가 절대 할 수 없는 일에 대해서는 합의해야 한다"고 강조했습니다.

유럽 ​​연합의 AI 법이나 핵무기는 항상 인간의 통제 하에 있어야 한다는 미중 협정처럼 일부 영역에서는 한계가 정해져 있습니다. 그러나 아직 세계적인 합의는 이루어지지 않았습니다.

니키 일리아디스(미래 사회)에 따르면, 기업의 자발적인 약속은 "충분히 구속력이 없다"고 합니다. 그녀는 "레드라인"을 정의하고 감시할 독립적이고 권위 있는 국제기구의 설립을 촉구합니다.

스튜어트 러셀 교수(UC 버클리)는 AI 산업이 처음부터 안전한 기술적 방향을 선택해야 한다고 생각합니다. 마치 원자력 산업이 위험을 통제할 방법을 찾은 후에야 발전소를 건설하는 것처럼 말입니다. 그는 "금지선"을 설정하는 것이 경제 발전을 저해하는 것이 아니라 오히려 AI가 인간에게 안전하고 지속 가능한 서비스를 제공하는 데 도움이 된다고 주장합니다.

이전에 9월 11일에 열린 AI 전략 워크숍에서 전 과학기술부 장관인 응우옌 꾸안(Nguyen Quan) 부교수 박사는 AI 활용의 어두운 면을 지적하고 베트남이 관련 법률과 규정을 제정할 때 AI 윤리를 우선시해야 한다고 촉구했습니다.

국가 관리 기관의 관점에서 볼 때, 과학기술부 산하 국가디지털기술 및 디지털 전환 연구소 소장인 호득탕 박사는 AI 법이 관리와 개발 촉진 간의 균형을 보장하기 위한 여러 가지 원칙을 기반으로 할 것이라고 말했습니다.

인간 중심 법은 AI가 인간의 영구적인 통제 하에 있어야 한다고 규정합니다. 인간은 책임을 져야 하며, AI는 스스로 결정을 내릴 수 없습니다. 예를 들어, 자율주행차는 인간의 감독을 받아야 합니다.

출처: https://vietnamnet.vn/hon-200-leaders-and-specialists-keu-goi-lan-ranh-do-cho-ai-truoc-nam-2026-2445470.html