업무에 인공지능(AI)을 적용하는 것은 피할 수 없는 추세가 되었으며, 효율성을 높이고 시간을 절약하는 데 도움이 됩니다.
그러나 그러한 편의성 뒤에는 데이터 보안에 대한 잠재적인 위험, 특히 "섀도우 AI" 현상이 존재합니다. 섀도우 AI란 직원들이 AI 도구를 부주의하게, 통제 없이 사용하여 실수로 회사의 기밀 데이터를 공개 플랫폼에 올리는 것을 말합니다.
의존성과 초기 우려
화장품 및 기능성 식품 회사의 콘텐츠 마케팅 직원인 탄 후옌(21세)은 기획, 콘텐츠 구축부터 이미지와 비디오 디자인까지 업무의 90%를 AI에 의존한다고 밝혔습니다.
하지만 우연히 ChatGPT에 질문했던 아이디어와 비슷한 기사를 접하게 되면서 Huyen은 AI가 입력 정보를 기억하고 공유할 수 있는 능력에 대해 걱정하기 시작했습니다.

현재 많은 산업 분야에서 AI를 업무에 적용하는 것은 거의 기본이 되었습니다(사진: 바오 응옥).
후옌의 이야기가 우연일 수도 있지만, 부인할 수 없는 사실은 AI에 정보를 제공한다는 것은 이러한 도구가 모델을 훈련하기 위해 데이터를 수집하고 저장할 수 있도록 허용하는 것을 의미한다는 것입니다.
AI 플랫폼이 해킹당하거나 보안이 취약할 경우 문제가 심각해져 정보 유출과 부정적인 결과로 이어질 수 있습니다.
"그림자 AI" - 잠재적 위험
고객 서비스 전문가인 HM(20세)은 고객 정보 목록(성함, 생년월일, 전화번호, 구매 내역)을 정기적으로 AI에 제공하여 분석하고 있으며, 이를 통해 시간을 절약하고 성과를 개선하고 있습니다.
M.은 회사 규모가 작고 데이터가 공개되지 않을 것이기 때문에 잠재적인 위험은 아니라고 생각합니다. 그러나 M.의 사례는 정보 기술 또는 사이버 보안 부서의 승인이나 감독 없이 직원들이 AI를 사용하는 "섀도우 AI"의 전형적인 사례입니다.

'섀도우 AI' 현상은 기업에서 직원들이 아무런 통제나 관리 없이 AI를 사용하는 것을 말합니다(그림자 AI 참조).
시스코 보고서에 따르면 베트남 기업의 62%가 직원들의 규제되지 않은 AI 사용을 탐지하는 데 자신감이 부족한 것으로 나타났습니다. 영국 설문 조사에서도 사이버 보안 관리자의 75%가 섀도 AI와 같은 내부 위협에 대해 우려하는 것으로 나타났습니다.
이는 많은 기업이 AI 사용에 대한 명확한 정책이 없고 직원들이 데이터 보안에 대한 인식이 부족한 상황에서 섀도우 AI가 일반적인 위협이 되고 있음을 보여줍니다.
뒤처지지 않으려면 타협을 받아들이세요
위험을 인지하고 있음에도 불구하고, 탄 후옌은 여전히 AI에 "투자"하기로 했습니다. 그녀는 AI가 가져다주는 즉각적인 이점이 너무나 크다고 믿으며, 이를 통해 매일 수십 개의 기사와 아이디어를 생산하고 있습니다.
편의성, 속도, 그리고 성과 향상 능력 덕분에 후옌은 상관의 개인 정보라 할지라도 민감하고 기밀스러운 정보를 AI에게 기꺼이 제공하게 되었습니다.

통제 없이 AI를 사용하는 데에는 잠재적인 위험이 있음에도 불구하고, 많은 직원은 즉각적인 이점을 위해 여전히 그러한 희생을 감수합니다(그림: 이력서).
마찬가지로 콘텐츠 마케팅 직원인 중히에우(20세) 역시 AI 챗봇에 정기적으로 내부 문서와 비즈니스 정보를 제공합니다.
히에우는 생산성이 크게 증가하여 경쟁 우위를 확보했으며, 이것이 회사 운영에는 큰 영향을 미치지 않는다고 생각합니다.
이러한 사례는 회사의 명확한 정책이 부족하고 직원들이 보안, 품질, 의존성 위험에 대해 충분히 인식하지 못하여 섀도우 AI가 확산되고 있음을 보여줍니다.
AI를 너무 신뢰하면 일련의 위험이 발생합니다.
AI 애플리케이션 소프트웨어 개발 회사의 CEO인 응우옌 비엣 훙 씨는 섀도우 AI가 인기를 끄는 데에는 세 가지 요인이 있다고 설명합니다. 첫째, AI는 더 빠르고 효율적으로 작업을 수행할 수 있도록 해줍니다. 둘째, AI에 의존하는 습관이 빠르게 형성됩니다. 셋째, 기업에서 위험에 대한 경고와 교육이 부족합니다.

AI 애플리케이션 소프트웨어 개발 회사의 CEO인 응우옌 비엣 훙(사진: 콩 칸) 씨.
전문가들은 Shadow AI가 무료 AI 도구에 적용되면 데이터(고객, 내부) 유출로 이어질 수 있다고 경고합니다.
또한 AI가 생성한 콘텐츠의 품질이 검증되지 않아 편향이 쉽게 발생하고 비즈니스 결정에 영향을 미칠 수 있습니다.
더욱 심각한 것은, AI를 통제되지 않게 사용하면 보안 취약점이 생겨 IT 시스템에서 신속하게 모니터링하고 대응하기 어렵고, 사고가 발생했을 때 책임을 판단하기 어려워질 수 있다는 것입니다.
어두운 부분은 제어하기 어렵습니다.
AI를 활용하여 직원을 모니터링하고 관리하는 것은 길고 긴 과정입니다. 전문가들은 직원이 내부 데이터에 접근할 수 있다는 점이 개인 AI 도구를 통해 개인 정보를 유출하는 것을 막는 데 큰 장애물이 된다고 지적합니다.
더욱이 AI 도구는 이제 쉽게 접근할 수 있게 되어 IT 부서에서 이를 감지하거나 관리하기가 어려워졌습니다.

AI 도구에 쉽게 접근할 수 있다는 점은 직원들이 AI 플랫폼에 올린 정보를 제어하기 어렵게 만드는 장벽 중 하나입니다(그림: 이력서).
이에 대처하기 위해 전문가인 응우옌 비엣 훙은 기업이 AI를 사용할 때 위험 인식에 대한 직원 교육을 늘리고 "섀도우 AI"에 대한 이해를 심화해야 한다고 제안했습니다.
동시에 법적 규정과 내부 정책을 신속하게 발표해야 합니다. 또 다른 중요한 해결책은 행동 모니터링, 데이터 접근 제어, 각 직원에 대한 엄격한 권한 부여를 포함하여 기업의 보안 역량을 강화하는 것입니다.
현재 많은 기업들이 AI 활용에 대한 명확한 프로세스를 갖추지 못한 채, 생산성 향상을 위해 AI 활용을 장려하고 있습니다. 섀도 AI에 대응하기 위해 많은 대기업들은 내부 AI 플랫폼을 구축하거나, 직원들에게 명확한 정보 보안 정책이 적용된 승인된 도구 사용을 요구하고 있습니다.
출처: https://dantri.com.vn/cong-nghe/sep-buong-long-nhan-vien-than-nhien-cap-du-lieu-mat-cho-ai-20250806090132034.htm
댓글 (0)