재미있는 보안 이야기

정보유출 없는 챗지피티(CHAT GPT)사용법


번역은 물론 문서 작성, 논문 요약, 코드 분석까지 가능한 챗지피티(Chat GPT), 사용해보셨나요?

2022년 혜성같이 등장해 다양한 비즈니스에서 센세이션을 일으키고 있습니다. 미국 금융 비즈니스 전문 매체 ‘비즈니스 인사이드(Business Inside)가 글로벌 기업에 재직중인 직장인 1만 1,700명을 대상으로 설문조사를 한 결과 68%가 업무에 chat gpt를 활용한다고 답했다고 합니다. 특히 분석, 행정, 창작 분야에서 chat gpt의 활약이 기대된다고 이야기를 했습니다. 


잠깐 🤚 chat gpt란?

chat gpt는 오픈AI(Open AI)가 개발한 대화형 인공지능 챗봇입니다. 사용자와 대화를 통해서 문서 작성, 요약, 번역, 코드 생성 등을 할 수 있습니다.  chat gpt에 대해 더 자세히 알고 싶으시다면 아래 chat gpt 자기소개 보고 가시죠 😉


국내에서도 chat gpt는 뜨거운 주목을 받고 있습니다. 한국언론진흥재단 미디어연구센터의 ‘chat gpt 이용 경험 및 인식’ 보고서에 따르면 20-50대 중 80%는 chat gpt가 우리 삶에 큰 영향을 미칠 것이라고 말했다고 합니다. 실제 chat gpt 이용자 중 89.6%는 사용이 편리해 계속해서 이용하겠다고 이야기 했습니다. chat gpt를 활용하면 어렵고 오래 걸리는 업무도 금방 할 수 있다보니 업무 생산성이 올라간다는 의견이 많았습니다. 그래서 회사들은 업무에 chat gpt가 적용을 권장했었습니다. 그러나 최근 chat gpt 단속에 나서는 기업들이 증가했어요.


챗gpt 사용을 제한한 기업들


삼성전자는 chat gpt에 질문할 수 있는 글자 수를 제한했고, 포스코는 사내 인트라넷에서만 chat gpt를 활용할 수 있도록 했다고 합니다. SK는 사내 전용 chat gpt메뉴를 신설하고 회당 전송크기를 2kb로 제한했습니다. LG CNS는 사내 챗봇해 chat gpt를 접목해 구성원이 사용하지 않도록 했다고 합니다. 


공공기관도 마찬가지입니다. 국정원은 사전에 검토받은 내용만 chat gpt에 입력하도록 규정했다고 합니다.  행안부는 중앙행정기관과 지방자치단체 약 300곳에 ‘chat gpt 활용방법 및 주의사항 안내서’를 배포해 올바른 사용방법을 안내했습니다. 


해외도 chat gpt 사용을 제한하는 기업이 늘고 있습니다. 월마트, 아마존은 chat gpt와 같은 챗봇형 ai사용을 금지했습니다. 일본 소프트뱅크, 파나소닉, 후지쓰는 chat gpt에 회사 기밀정보를 입력하지 않도록 주기적인 사내 교육을 실시하고 있다고 합니다. 


온라인 상의 방대한 데이터를 바탕으로 보고서, 논문, 기사, 코딩까지 작성가능해 업무 효율성을 올려준다고 각광받는 chat gpt. 국내외 대기업, 공공기관은 왜 chat gpt사용을 제한하는 걸까요?


chat gpt 보안 사고 발생


바로 chat gpt 보안 문제 때문입니다. 


지난 3월 삼성전자 반도체 부문의 한 엔지니어가 프로그램 오류를 확인하기 위해 chat gpt에 내부 소스 코드 분석을 의뢰했습니다. 이때 chat gpt에 작성한 소스코드가 미국 모 기업의 학습 데이터로 사용했다고 합니다.  소스코드는 회사 프로그램 개발 과정을 담고있는 사내 기밀 정보인데, 외부에 유출된 것이라고 합니다. 


chat gpt는 사람이 입력한 자료를 서버에 저장한 뒤 이 자료로 학습합니다. 한번 입력한 정보는 서버에 남아서 이후 다른 이용자가 관련정보를 요구했을 때 활용한다고 합니다.  그래서 chat gpt에 회사 중요 정보를 입력하면 외부에 유출될 수 있는 것이라고 합니다. 이 사실을 몰랐던 기업, 기관은 각종 사내 기밀 정보를 chat gpt에 입력했습니다.  글로벌 보안 업체 사이버헤븐(Cyberhaven)의 조사에 따르면 160만 chat gpt사용자 중 6.5%가 고객사 정보, 소스코드, 회의 내용, 대외비 자료를 chat gpt에 입력한 적이 있다고 합니다. 


이런 일이 반복되자 chat gpt 최대 투자자인 마이크로소프트는 프라이빗 챗gpt를 내놓겠다고 밝혔습니다.  챗gpt와의 대화 내용을 기업 전용 클라우드에 보관해 외부 유출을 프라이빗 chat gpt의 비용이 상당할 것이라고 전망해요. 미국 IT매체 디인포메이(The Information)은 “프라이빗 chat gpt가격은 일반 chat gpt 구독 비용보다 10배 이상 비쌀 것”이라고 설명했어요. 그래서 일반 기업과 스타트업이 프라이빗 chat gpt를 활용하는 데에는 무리가 있다는 의견이 많죠.


그렇다면 우리는 어떻게 정보유출 없이 안전하게 chat gpt를 사용할 수 있을까요?


1. 보안 가이드 마련

이미 사내 많은 구성원이 챗gpt를 활용하고 있습니다. 긴 회의록 요약과 보고서와 프레젠테이션 자료제작을 빠르게 할 수 있어 업무 효율성이 올라간다고 말하는 직원도 있고요. 그렇기 때문에 챗gpt 사용을 단순히 막는 것보다 챗gpt를 안전하게 사용할 수 있는 가이드를 마련해야 합니다. 


[고객 및 임직원 개인정보 입력 금지]

위에 말씀드렸다시피 챗gpt는 사용자와의 대화를 통해 데이터를 학습합니다. 그래서 챗gpt에 데이터 분석을 위해 고객과 타인 정보를 입력하면 챗gpt 서버에 개인정보가 저장돼죠. 실제로 올해 3월 일부 사용자가 챗gpt와 다눈 대화 목록이 다른 이용자 채팀칭 제목이 노출된 사례가 있었습니다. 이탈리아에서는 한 개발자의 개인정보가 무단으로 유출된 정황이 포착되기도 했다고도 합니다. 그러므로 챗gpt에 개인정보를 입력하는 것은 절대 금물입니다. 


[사내 기밀 정보 입력 금지]

회사 영업자료 제작, 실적자료 생성, 개발코드 분석 등을 위해서 챗gpt에 사내 대외비를 입력하는 행동도 삼가해야 합니다. 위 정보유출 사례처럼 개발코드나 회의자료를 챗gpt에 입력할 경우 회사 기밀 정보가 외부로 새어나가 경쟁력을 상실할 수도 있습니다.  특히 솔루션 또는 서비스의 개발코드를 복사해 챗gpt 대화창에 붙여넣고 디버깅을 실시해 달라고 하는 순간, 챗gpt 서버에는 해당 정보가 저장됩니다. 



2. 가이드보다 더 확실한 챗gpt 보안 방법,

IT전문가들에 따르면 챗gpt로 인해 회사 기밀 정보 유출되는 가장 높은 이유는 바로 복사·붙여넣기(Copy&Paste)가 가능하기 때문이라고 합니다. 내부 직원이라면 대외비 내용, 소스코드를 담은 문서를 쉽게 확인할 수 있고 자유롭게 복사하고 캡처할 수 있습니다. 국내에서 가장 먼저 챗gpt 보안 사고가 발생한 삼성전자DX의 경우에도 문제가 된 소스코드를 통째로 복사 붙여넣기해서 챗gpt에 분석을 의뢰했다고 합니다.  마크애니의 클라우드 기반의 DRM을 이용하면 이런 위험을 원천 차단 할 수 있습니다. 클라우드 기반으로 구축되어 있기 때문에 저렴한 비용으로 사내 기밀정보 유출을 방지할 수 있죠.


마크애니가 기존에 보유한 문서보안 솔루션과 기능은 똑같아요. 문서를 생성할 때 문서가 자동으로 암호화됩니다.  암호화된 문서에서는 캡처, 복사·붙여넣기 기능이 차단됩니다. 그래서 기밀정보 내용 자체를 복사할 수 없습니다. 중요한 정보를 담은 문서파일은 직급, 부서 등에 따라 열람 권한을 맞춤화해서 부여할 수 있습니다. 또한 정말 중요한 정보가 담긴 문서는 대표와 중요 관계자 이외에는 열람할 수 없도록 하여 챗gpt에 내용을 입력하는 것을 막을 수 있습니다. 문서를 열람하거나 편집하면 로그가 남기 때문에 추후 정보가 유출됐을 때 누가 어떤 정보를 활용했는지 확인할 수 있습니다. 


Social Media Links

솔루션 소개

둘러보기

마크애니

고객지원


(주)마크애니  서울시 중구 퇴계로 286 쌍림빌딩 13층  

(+82) 02-2262-5222ㅣ contact@markany.com  

업자 등록번호 : 101-81-47345

Copyright © 2023. MarkAny. All Rights Reserved.

솔루션 소개

둘러보기

고객지원

Social Media Links

(주)마크애니 ㅣ 서울시 중구 퇴계로 286 쌍림빌딩 13층 ㅣ
(+82) 02-2262-5222 ㅣ contact@markany.com ㅣ
사업자 등록번호 : 101-81-47345

Copyright © 2023. MarkAny. All Rights Reserved.