구글은 구글 워크스페이스 생태계에 깊이 통합된 인공지능(AI) 도구인 제미니(Gemini)의 심각한 취약점 수정을 거부하면서 비난에 직면하고 있습니다. 보안 전문가들에 따르면, 이 버그는 "ASCII 스머글링(smuggling)"이라는 공격을 통해 민감한 사용자 정보가 타인에게 유출될 수 있는 가능성을 내포하고 있습니다.

텍스트에 숨겨진 코드에 취약한 쌍둥이자리
보안 연구원 빅토르 마르코풀로스는 여러 인기 있는 대규모 언어 모델(LLM)을 대상으로 이 공격에 대한 내성을 테스트했습니다. 그 결과, Gemini, DeepSeek, Grok은 모두 취약한 반면, ChatGPT, Claude, Copilot은 더 잘 보호되는 것으로 나타났습니다.
ASCII 스머글링은 공격자가 프롬프트 또는 명령 코드를 텍스트 형태로 숨기는 공격 유형으로, 대개 매우 작은 크기이거나 특수하게 인코딩되어 있습니다. 사용자가 AI에게 이 숨겨진 코드가 포함된 내용을 요약하거나 분석해 달라고 요청하면, AI 도구는 사용자 모르게 악성 프롬프트를 실수로 읽고 실행합니다.

제미니3호, 출시 전부터 주목
Google Workspace에서 민감한 데이터 유출 위험
Gemini가 Gmail, Docs 및 Google Workspace 서비스에 직접 통합되면서 이러한 위험은 특히 우려스러워집니다. 숨겨진 프롬프트로 인해 AI가 개인 정보, 연락처 데이터 또는 기밀 문서를 자동으로 검색한 다음 사용자가 알지 못하는 사이에 시스템 밖으로 보낼 수 있습니다.
마르코풀로스는 구글에 연락해 자신의 연구 결과를 발표했는데, 심지어 제미니가 "할인된 휴대전화를 교환"하기 위해 악성 웹사이트로의 링크를 공유하도록 유도하는 보이지 않는 코드 조각까지 들어보였습니다.
구글은 이것이 보안 결함이라고 부인합니다.
구글은 공개된 답변에서 이 문제가 보안 취약점이 아니라 소셜 엔지니어링 공격의 일종이라고 밝혔습니다. 다시 말해, 구글은 이 문제를 AI 시스템의 문제가 아닌, 사용자 부주의로 인한 버그로 간주했습니다.
이러한 응답은 Google이 가까운 미래에 Gemini에 대한 패치를 출시할 계획이 없음을 시사합니다. 즉, 사용자는 AI를 사용하여 문서, 특히 민감한 정보가 포함되어 있거나 검증되지 않은 출처에서 온 문서를 처리할 때 더욱 신중해야 함을 의미합니다.
깊이 통합된 AI의 안전성에 대한 우려가 커지고 있습니다.
이 사건은 AI가 업무 및 커뮤니케이션 플랫폼에 점점 더 통합됨에 따라 기술 기업의 책임에 대한 의문을 제기합니다. 구글은 "사용자 안전"에 대한 의지를 강조해 왔지만, 이번 결정은 특히 기업 환경에서 제미니의 보안에 대한 신뢰도에 영향을 미칠 수 있습니다.
Android Authority에 따르면
출처: https://baovanhoa.vn/nhip-song-so/google-gay-tranh-cai-khi-tu-choi-va-loi-bao-mat-gemini-173381.html
댓글 (0)