OpenAI의 10월 보고서에 따르면, 전 세계 사이버 공격자들은 완전히 새로운 공격 도구나 방법을 개발하기보다는 기존 공격 파이프라인에 인공 지능(AI)을 통합하여 성능을 개선하는 데 주력하고 있습니다.
OpenAI에 따르면, 탐지된 활동의 대부분은 맬웨어 개발, 제어 인프라 구축, 보다 정교한 피싱 이메일 작성, 대상에 대한 정보 수집 등 익숙한 작업을 돕기 위해 AI를 사용하는 것과 관련이 있었습니다.
보고서는 "차단된 팀은 대부분 AI를 기반으로 새로운 프로세스를 구축하기보다는 기존 프로세스에 AI를 통합하는 데 주력하고 있었다"고 밝혔다.
보고서에서는 또한 많은 사용자 그룹이 애플리케이션 개발부터 네트워크 시스템 구성까지 다양한 기술 도메인에 대한 지식을 채굴하기 위해 대규모 언어 모델(LLM)을 활용하고 있으며, 종종 각 계정을 특정 작업에 특화하는 방식으로 활용하고 있다는 사실을 발견했습니다.
여러 사용자 네트워크에서 AI 플랫폼을 사용하여 기사, 이미지, 비디오 등 온라인 콘텐츠를 제작하고, 이를 통해 미디어 캠페인을 진행하거나 특정 관점을 홍보하는 것으로 확인되었습니다. 그러나 이러한 계정 대부분은 참여도가 매우 낮아 효과가 미미합니다.
또한, OpenAI는 미얀마와 캄보디아에서 사기 센터와 사이버 범죄자들이 ChatGPT를 사용하여 온라인 사기 행위를 지원하는 현상을 기록했습니다. 일부 사례에서는 AI가 콘텐츠 편집뿐만 아니라 업무 일정, 인사 및 재정 관리에도 활용되는 것으로 나타났습니다.
하지만 OpenAI는 AI가 사기 방지에도 적극적으로 활용되고 있다고 지적합니다. ChatGPT는 사기를 직접 저지르는 것보다 사기를 식별하고 예방하는 데 세 배 더 많이 사용되는 것으로 추정됩니다.
대부분의 악성 요청은 시스템에서 거부되지만, 보고서는 기술적 또는 연구 기반 요청이 의도치 않은 목적으로 악용될 수 있는 "회색 영역"이 여전히 존재한다고 지적합니다.
하지만 OpenAI는 플랫폼 외부에서 오용되기 전까지는 생성된 코드나 콘텐츠가 악의적이지 않다고 주장합니다.
(TTXVN/베트남+)
출처: https://www.vietnamplus.vn/openai-canh-bao-tin-tac-loi-dung-ai-de-hoat-dong-tinh-vi-hon-post1068941.vnp
댓글 (0)