:OpenAI의 GPT-o1 학습 인터페이스를 보여주는 휴대폰 - 사진: FINANCIAL TIMES
파이낸셜 타임스는 9월 13일 OpenAI라는 회사를 인용해, 9월 12일에 출시한 GPT-o1 모델이 인공지능(AI)이 생물학 무기를 만드는 데 악용될 위험을 "상당히" 높인다고 인정했습니다.
OpenAI가 발표한 GPT-o1의 작동 방식을 설명하는 논문에 따르면, 새로운 모델은 화학무기, 생물학무기, 방사선무기, 핵무기 관련 문제에 대해 "중간 위험 수준"을 가지고 있습니다. 이는 OpenAI가 자사 AI 모델에 부여한 가장 높은 위험 수준입니다.
OpenAI에 따르면, 이는 GPT-o1이 생물학 무기를 만들기 위해 이를 악용하려는 전문가의 능력을 "극적으로 향상시킬" 수 있다는 것을 의미합니다.
OpenAI의 최고기술책임자(CTO)인 미라 무라티는 GPT-o1이 아직 실험 단계이기는 하지만, 이 모델의 고급 기능으로 인해 회사가 대중에게 공개할 로드맵에 대해 매우 "신중"해야 한다고 말했습니다.
무라티 여사는 또한 OpenAI가 고용한 여러 분야의 전문가 팀이 해당 모델을 철저히 테스트하여 회사에서 개발한 모델의 한계를 테스트했다고 확인했습니다.
무라티는 테스트 결과 GPT-o1 모델이 이전 모델보다 일반적인 안전 기준을 훨씬 더 잘 충족하는 것으로 나타났다고 말했습니다.
여기서 멈추지 않고 OpenAI 대표는 GPT-o1의 평가판은 "배포하기에 안전"하며 개발된 기술보다 더 복잡한 위험을 초래할 수 없다고 안심시켰습니다.
위의 확신에도 불구하고, 과학계 의 상당수와 AI에 관심 있는 사람들은 여전히 이 기술의 개발 방향에 대해 그다지 낙관적이지 않습니다.
AI가 너무 빠르게 발전하고 있으며, 이를 관리하기 위한 규정이 개발되고 승인되는 속도보다 더 빠른 속도로 발전하고 있다는 우려가 커지고 있습니다.
몬트리올 대학교 컴퓨터 과학 교수이자 세계적인 AI 과학자 중 한 명인 요슈아 벤지오는 OpenAI가 현재 화학 및 생물학 무기와 관련된 "중간 위험"을 안고 있다면, 캘리포니아에서 이 분야를 규제하기 위해 격렬하게 논의되고 있는 것과 같은 법률 제정 의 "중요성과 긴급성이 더욱 커질 뿐"이라고 말했습니다.
이 과학자는 위의 기관들이 AI가 점점 인공 일반 지능(AGI) 수준에 접근하고 있는 맥락에서 특히 필요하다고 강조했습니다. AGI는 인간과 동등한 수준의 추론 능력을 갖는 것을 의미합니다.
"선구적인 AI 모델이 AGI에 가까워질수록 적절한 예방 조치를 취하지 않을 경우 위험이 커집니다. AI의 향상된 추론 능력과 이를 사기에 이용하는 것은 매우 위험합니다."라고 벤지오 씨는 평가했습니다.
[광고_2]
출처: https://tuoitre.vn/ai-moi-co-the-bi-dung-che-tao-vu-khi-sinh-hoc-20240914154630363.htm
댓글 (0)