추론하고, 복잡한 수학 문제를 풀고, 과학적 연구 질문에 답할 수 있는 이 모델의 능력은 인간과 유사한 인지 능력을 갖춘 기계인 인공 일반 지능(AGI)을 개발하는 데 있어 큰 진전으로 여겨진다.
OpenAI는 o1 모델의 고급 기능을 감안하여 대중에 공개하는 방식에 특히 "신중했다"고 밝혔습니다. 사진: 게티 이미지
파이낸셜 타임스에 따르면, OpenAI는 이 새로운 모델들이 화학, 생물, 방사선, 핵(CBRN) 무기 관련 문제에 미치는 위험을 "중간"으로 평가했는데, 이는 OpenAI가 평가한 역대 최고 수준입니다. 이는 이 기술이 전문가들의 생물학 무기 개발 능력을 "상당히 향상"시켰다는 것을 의미합니다.
전문가들은 세부적인 추론이 가능한 AI 소프트웨어가 특히 악의적인 행위자의 손에 들어가면 남용 위험이 커질 수 있다고 말합니다.
몬트리올 대학교의 세계적인 AI 과학자 요슈아 벤지오 교수는 이러한 중간 수준의 위험 수준이 캘리포니아에서 현재 논의 중인 SB 1047과 같은 AI 규제의 시급성을 높인다고 강조했습니다. 이 법안은 AI 개발자들이 자신이 개발한 모델이 생물무기 개발에 악용될 위험을 줄이기 위한 조치를 취하도록 요구합니다.
The Verge에 따르면, Google, Meta, Anthropic과 같은 기술 회사들이 고급 AI 시스템을 구축하고 개선하기 위해 경쟁함에 따라 AI 모델의 보안과 안전성이 주요 관심사가 되었습니다.
이러한 시스템은 인간이 작업을 완료하고 다양한 분야에서 도움을 주는 데 큰 이점을 가져올 수 있는 잠재력을 가지고 있지만, 안전과 사회적 책임 측면에서 과제도 제기합니다.
카오퐁 (FT, 로이터, 더 버지 보도)
[광고_2]
출처: https://www.congluan.vn/openai-thua-nhan-moi-hinh-ai-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-post312337.html
댓글 (0)