
AI 기술의 발전은 비즈니스와 사회 전반에 걸쳐 혁신을 가져오고 있지만, 이와 동시에 예상치 못한 보안 위협도 증가하고 있습니다. 딥페이크 기술을 활용한 금융 사기, 그리고 프롬프트 인잭션을 통해 AI 기반 서비스에서 민감한 데이터를 유출하는 사례는 이러한 위협을 대표적으로 보여줍니다. AI 시대에서 이러한 리스크를 어떻게 다뤄야 할지, 그리고 기업과 사용자는 무엇을 준비해야 할지에 대한 인사이트를 담아보겠습니다.

AI와 함께 등장한 새로운 위협의 모습
1. 딥페이크를 활용한 고도화된 금융 사기
딥페이크 기술은 초기에는 주로 영상 제작이나 엔터테인먼트 분야에서 활용됐지만, 이제는 금융 범죄에 악용되는 사례가 증가하고 있습니다. Group-IB의 보고에 따르면, 인도네시아에서만 1,100건 이상의 딥페이크 기반 금융 사기가 발생했으며, 피해액은 2,000억 원을 넘는 것으로 추정됩니다.
공격자들은 AI로 생성된 위조 영상이나 사진을 사용해 금융기관의 생체 인증 시스템을 우회했습니다. 이 과정에서 피해자의 신분증(ID) 정보는 다크웹, 악성코드, 소셜 미디어 등을 통해 유출됐으며, 이를 바탕으로 생체 인증과 디지털 고객 확인(KYC) 절차를 뚫었습니다.
사용된 주요 기술로는 다음과 같습니다:
딥페이크 영상 생성: 피해자의 얼굴 영상을 AI로 변조해 생체 인증을 속임.
앱 복제: 앱 복제 기술로 보안 시스템을 우회.
가상 카메라 기술: 사전 녹화된 영상을 실시간 인증처럼 속임.
AI 기반 얼굴 스와핑: 피해자의 얼굴을 다른 인물로 변조하여 불법 행위를 실행.
2. 프롬프트 인잭션으로 Slack AI에서 데이터 유출
AI 기반 서비스에서의 또 다른 위협은 프롬프트 인잭션입니다. 이 기술을 활용하면 공격자가 특정 프롬프트를 통해 AI가 민감한 데이터를 유출하도록
조작할 수 있습니다.
예를 들어, Slack AI에서 발견된 취약성은 다음과 같습니다:
공격자가 Public Channel에 악의적인 프롬프트를 입력.
피해자가 Private Channel에서 민감한 데이터를 입력하면, Slack AI가 이를 학습하여 악성 링크를 통해 공격자에게 유출.
공격의 주요 문제는 Slack AI가 공격자의 프롬프트를 소스로 명확히 명시하지 않는 점으로, 피해자가 공격을 인지하지 못하는 경우가
대부분이라는 것입니다.
이러한 프롬프트 인잭션은 단순히 API 키뿐만 아니라, 다양한 민감 데이터를 유출 수 있는 잠재력을 가지고 있어 큰 우려를 낳고 있습니다.

AI 시대, 기업과 사용자가 준비해야 할 방안
AI 기술의 발전이 가속화됨에 따라, 기존 보안 체계로는 대응하기 어려운 새로운 위협이 나타나고 있습니다. 이를 예방하고 효과적으로 대응하기 위해
다음과 같은 접근이 필요합니다.
1. 생체 인증 시스템의 고도화
생체 인증 시스템은 금융 서비스와 많은 디지털 서비스에서 신뢰의 기반이 됩니다. 그러나 딥페이크 기술의 발전은 이러한 신뢰를 위협하고 있습니다.
실시간 인증 강화: 단순 얼굴 인식이 아닌, 사용자의 얼굴 움직임이나 행동 패턴을 분석하는 다중 인증 기술 도입.
가상 카메라 및 복제 앱 탐지 기술 도입: 인증 단계에서 가상 데이터를 필터링할 수 있는 기술 필요.
AI 탐지 AI: 딥페이크를 탐지할 수 있는 AI 솔루션 개발 및 활용.
2. AI 모델의 보안 개선
AI 모델은 프롬프트 인잭션 같은 위협에 취약할 수 있습니다. 이를 방지하기 위해:
시스템 프롬프트와 사용자 프롬프트 구분: AI가 입력된 명령을 올바르게 이해하고, 악성 프롬프트를 무시하도록 설계.
출처 명시: AI가 데이터를 출력할 때, 데이터 출처를 명확히 표시하여 신뢰성을 확보.
학습 데이터 제한: AI가 민감 데이터를 학습하지 않도록 학습 범위를 제한.
3. 기업 차원의 보안 의식 강화
AI 활용이 늘어남에 따라, 기업 내부에서도 보안 의식을 높이는 것이 중요합니다.
보안 교육: 직원들에게 딥페이크와 프롬프트 인잭션 등 최신 보안 위협에 대해 교육.
내부 프로세스 개선: 민감 데이터를 다룰 때 AI와의 상호작용 방식을 명확히 정의.
보안 솔루션 도입: 딥페이크 탐지 도구와 AI 보안 강화 솔루션을 적극 도입.
4. 규제 및 산업 표준 마련
AI와 관련된 보안 위협은 개별 기업의 대응만으로는 해결하기 어렵습니다. 국가적 차원에서 AI 보안을 위한 규제와 표준을 마련하고, 기업과 협력하여 효과적인 대응 방안을 마련해야 합니다.

결론: AI의 가능성과 책임
AI 기술은 혁신과 함께 새로운 위협을 가져오고 있습니다. 딥페이크와 프롬프트 인잭션 같은 사례는 AI가 악용될 가능성을 보여주는 경고 신호입니다. 그러나 동시에 이러한 위협을 극복하기 위한 기술과 전략도 계속 발전하고 있습니다.
기업은 AI를 도입할 때, 보안 문제를 사후 대응이 아닌 사전 예방 관점에서 접근해야 합니다. 기술적 대비와 보안 의식의 강화가 함께 이루어질 때, AI는 진정한 혁신의 도구로 자리 잡을 수 있을 것입니다. AI 활성화 시대에서 신뢰를 유지하려면, 우리 모두가 보안의 책임을 함께 공유해야 합니다.
*참고 자료 : @GigaZine0822 / @ITmedia1206
마크애니 박춘식 고문은 10년 넘도록 매주 '보안 이야기'를 연재하고 있는 보안 전문가이다. Tokyo Institute of Technology에서 박사 학위를 취득하고, 국가 보안 기술연구소 소장을 거쳐, 서울여자대학교 교수를 역임했고 아주대학교 사이버보안학과 교수로 재직했다.

AI 기술의 발전은 비즈니스와 사회 전반에 걸쳐 혁신을 가져오고 있지만, 이와 동시에 예상치 못한 보안 위협도 증가하고 있습니다. 딥페이크 기술을 활용한 금융 사기, 그리고 프롬프트 인잭션을 통해 AI 기반 서비스에서 민감한 데이터를 유출하는 사례는 이러한 위협을 대표적으로 보여줍니다. AI 시대에서 이러한 리스크를 어떻게 다뤄야 할지, 그리고 기업과 사용자는 무엇을 준비해야 할지에 대한 인사이트를 담아보겠습니다.
1. 딥페이크를 활용한 고도화된 금융 사기
딥페이크 기술은 초기에는 주로 영상 제작이나 엔터테인먼트 분야에서 활용됐지만, 이제는 금융 범죄에 악용되는 사례가 증가하고 있습니다. Group-IB의 보고에 따르면, 인도네시아에서만 1,100건 이상의 딥페이크 기반 금융 사기가 발생했으며, 피해액은 2,000억 원을 넘는 것으로 추정됩니다.
공격자들은 AI로 생성된 위조 영상이나 사진을 사용해 금융기관의 생체 인증 시스템을 우회했습니다. 이 과정에서 피해자의 신분증(ID) 정보는 다크웹, 악성코드, 소셜 미디어 등을 통해 유출됐으며, 이를 바탕으로 생체 인증과 디지털 고객 확인(KYC) 절차를 뚫었습니다.
사용된 주요 기술로는 다음과 같습니다:
딥페이크 영상 생성: 피해자의 얼굴 영상을 AI로 변조해 생체 인증을 속임.
앱 복제: 앱 복제 기술로 보안 시스템을 우회.
가상 카메라 기술: 사전 녹화된 영상을 실시간 인증처럼 속임.
AI 기반 얼굴 스와핑: 피해자의 얼굴을 다른 인물로 변조하여 불법 행위를 실행.
2. 프롬프트 인잭션으로 Slack AI에서 데이터 유출
AI 기반 서비스에서의 또 다른 위협은 프롬프트 인잭션입니다. 이 기술을 활용하면 공격자가 특정 프롬프트를 통해 AI가 민감한 데이터를 유출하도록
조작할 수 있습니다.
예를 들어, Slack AI에서 발견된 취약성은 다음과 같습니다:
공격자가 Public Channel에 악의적인 프롬프트를 입력.
피해자가 Private Channel에서 민감한 데이터를 입력하면, Slack AI가 이를 학습하여 악성 링크를 통해 공격자에게 유출.
공격의 주요 문제는 Slack AI가 공격자의 프롬프트를 소스로 명확히 명시하지 않는 점으로, 피해자가 공격을 인지하지 못하는 경우가
대부분이라는 것입니다.
이러한 프롬프트 인잭션은 단순히 API 키뿐만 아니라, 다양한 민감 데이터를 유출 수 있는 잠재력을 가지고 있어 큰 우려를 낳고 있습니다.
AI 기술의 발전이 가속화됨에 따라, 기존 보안 체계로는 대응하기 어려운 새로운 위협이 나타나고 있습니다. 이를 예방하고 효과적으로 대응하기 위해
다음과 같은 접근이 필요합니다.
1. 생체 인증 시스템의 고도화
생체 인증 시스템은 금융 서비스와 많은 디지털 서비스에서 신뢰의 기반이 됩니다. 그러나 딥페이크 기술의 발전은 이러한 신뢰를 위협하고 있습니다.
실시간 인증 강화: 단순 얼굴 인식이 아닌, 사용자의 얼굴 움직임이나 행동 패턴을 분석하는 다중 인증 기술 도입.
가상 카메라 및 복제 앱 탐지 기술 도입: 인증 단계에서 가상 데이터를 필터링할 수 있는 기술 필요.
AI 탐지 AI: 딥페이크를 탐지할 수 있는 AI 솔루션 개발 및 활용.
2. AI 모델의 보안 개선
AI 모델은 프롬프트 인잭션 같은 위협에 취약할 수 있습니다. 이를 방지하기 위해:
시스템 프롬프트와 사용자 프롬프트 구분: AI가 입력된 명령을 올바르게 이해하고, 악성 프롬프트를 무시하도록 설계.
출처 명시: AI가 데이터를 출력할 때, 데이터 출처를 명확히 표시하여 신뢰성을 확보.
학습 데이터 제한: AI가 민감 데이터를 학습하지 않도록 학습 범위를 제한.
3. 기업 차원의 보안 의식 강화
AI 활용이 늘어남에 따라, 기업 내부에서도 보안 의식을 높이는 것이 중요합니다.
보안 교육: 직원들에게 딥페이크와 프롬프트 인잭션 등 최신 보안 위협에 대해 교육.
내부 프로세스 개선: 민감 데이터를 다룰 때 AI와의 상호작용 방식을 명확히 정의.
보안 솔루션 도입: 딥페이크 탐지 도구와 AI 보안 강화 솔루션을 적극 도입.
4. 규제 및 산업 표준 마련
AI와 관련된 보안 위협은 개별 기업의 대응만으로는 해결하기 어렵습니다. 국가적 차원에서 AI 보안을 위한 규제와 표준을 마련하고, 기업과 협력하여 효과적인 대응 방안을 마련해야 합니다.
AI 기술은 혁신과 함께 새로운 위협을 가져오고 있습니다. 딥페이크와 프롬프트 인잭션 같은 사례는 AI가 악용될 가능성을 보여주는 경고 신호입니다. 그러나 동시에 이러한 위협을 극복하기 위한 기술과 전략도 계속 발전하고 있습니다.
기업은 AI를 도입할 때, 보안 문제를 사후 대응이 아닌 사전 예방 관점에서 접근해야 합니다. 기술적 대비와 보안 의식의 강화가 함께 이루어질 때, AI는 진정한 혁신의 도구로 자리 잡을 수 있을 것입니다. AI 활성화 시대에서 신뢰를 유지하려면, 우리 모두가 보안의 책임을 함께 공유해야 합니다.
*참고 자료 : @GigaZine0822 / @ITmedia1206
마크애니 박춘식 고문은 10년 넘도록 매주 '보안 이야기'를 연재하고 있는 보안 전문가이다. Tokyo Institute of Technology에서 박사 학위를 취득하고, 국가 보안 기술연구소 소장을 거쳐, 서울여자대학교 교수를 역임했고 아주대학교 사이버보안학과 교수로 재직했다.