‘착한 인공지능’을 위한 인공지능 윤리

최근 스무살 여성 대학생을 모티브로 한 인공지능 챗봇 이루다가 큰 논란을 가져왔습니다.

가장 먼저 이루다를 둘러싼 성희롱혐오, 차별 표현 등의 문제가 터져나왔습니다.
거기다 최근에는 개발사가이용자에게 제대로 된 
고지 없이 카카오톡 대화 내용을 이루다를 만드는 데 활용한 것까지 이슈가 되고 있습니다.

 

내 마음을 이해해주고, 내 이야기를 들어주는 ‘친구’가 될 줄 알았던 이루다는 결국 한 달도 못되어 서비스 중단을 맞게 됩니다.

인공지능-이루다
인공지능(AI)챗봇 이루다 (출처 : 스캐터랩)

이루다를 둘러싼 논란으로 우리는 ‘인공지능에도 윤리기준이 필요하다’는 교훈을 얻습니다.

인공지능 윤리가 없다면 개발사, 혹은 다수 이용자의 입맛에 맞춰진 인공지능으로 이 세상이 한 쪽으로 치우치는 무서운 결과를 가져올 수 있겠죠.

이미 많은 분들이 고민하고 계시는 인공지능 윤리에 대해 조금이나마 도움을 드리고자

오늘은 인공지능 윤리의 필요성과 동향에 대해 알아보겠습니다.

인공지능이란?

인공지능은 1940년대에 맨 처음 등장해서 1950년 엘런튜링(Alan Turing)의 논문 ‘Computing Machinery and Intelligence’에서 구체화되었다고 합니다. 이 논문에서는 기계가 과연 생각할 수 있을까 하는 의문을 던졌다고 하죠.

 

이후 2016년,구글이 개발한 알파고로 인공지능이 일반 대중에게도 알려졌습니다.
같은 해 4차 산업혁명의 개념을 이야기 한 
클라우스 슈밥(Klaus Schwab)이 인공지능을 다시한번 꺼내들며 그야말로 핫해졌죠.

일반적으로 인공지능은 그야 말로 인간이나 동물 같은 생명체가 아닌 ‘기계’에 의해 표현되는 지능을 의미합니다. 좀 더 풀어서 이야기하자면, 학습능력, 추론능력, 지각능력, 자연언어의 이해력 등 인간이 가지고 있던 능력들을 컴퓨터 프로그램으로 실현한 기술이라고 할 수 있겠네요. 여기에 최근에는 ‘예측’까지도 그 범위에 포함될 수도 있고요.

사실 인공지능의 정의에는 다양한 논의가 있습니다.

아직 인공지능이 어디까지 발전할 것인지에 대해 아무도 확신할 수 없기 때문에 정의 또한 가변적일 수 있습니다.

인공지능, 양면의 얼굴

사실 인공지능은 우리 생활을 여러모로 편리하게 해주는 기술입니다.

자동차에 인공지능을 부착해 자율주행을 할 수 있게 만든다거나, 냉장고, 세탁기에도 인공지능이 들어가 있죠. 이처럼 각종 사회인프라나 비즈니스, 일상생활에서도 많은 편리함을 가져다 줄 수 있습니다.

반면 잘못쓰인 인공지능은 악영향을 가지고 올 수 있어요. 사례를 살펴볼까요?


2014년 아마존 인공지능 기반 채용
여성 차별 알고리즘 발견으로 2015년 폐기

 

2016년 마이크로소프트사 인공지능 챗봇 ‘Tay’
욕설, 인종, 성차별 발언 등을 학습하여 16시간만에 운영 중단

 

2016년 이스라엘 기업 살상무기 로봇 ‘도고’ 개발

 

2017년 인공지능 자산관리서비스 ‘로보 어드바이저’
잘못된 계산으로 뉴욕증시 폭락

 

미국 재범위험예측 알고리즘
흑인, 백인 재범 예측률에서 흑인에게 불리한 결과 나타냄


딥페이크 기술 논란 – 유명인 얼굴을 성인물과 합성하여 사회적 논란 발생

 

‘특이점이 온다’를 저술한 미래학자 레이 커즈와일의 말처럼 몇 십년 내에 인간을 넘어선 인공지능이 개발된다면, 더 이상 인간의 편익과 보편적인 행복을 가져다주는 기술이 아니게 될지 모릅니다. 영화에서 나오는 것 처럼 우리를 위협하는 존재가 될 수도 있습니다.

그래서 인공지능 기술이 성장하는 지금 단계에서 인공지능 윤리를 제정해 기술의 악용을 막고자 하는 거죠.

인공지능 윤리역사
인공지능-윤리
유럽연합 집행위원회의 ‘인공지능을 위한 윤리 가이드라인’

술의 고도화가 인간의 삶에 악영향을 끼치지 않도록 수년 전부터 ‘착한 인공지능’을 만들려는 움직임이 있어왔어요.

유럽연합 집행위원회(European Commision)에서는 ‘신뢰할 수 있는 인공지능을 위한 윤리가이드라인(Ethics Guidelines for Trustworthy AI)’을 내놓았습니다.

유럽연합 집행위원회의 가이드라인에는 신뢰할 수 있는 인공지능에는 시스템 전 주기에 반드시 지켜져야하는 3가지 지침이 있다고 하는데요.

첫 번째, 합법적이여야하며, 두 번째, 윤리적이여야하고, 세 번째, 기술적, 사회적 관점에서 악영향을 끼칠 수 있는 요소가 있는지 기술적, 사회적 관점을 모두 고려해야 한다는 점입니다.

영국은 앨런튜링 연구소와 함께 ‘인공지능에 대한 올바른 사용을 위한 안내서(Understanding artificial intelligence ethics and safety)’를 발표했습니다. 영국, 호주, 독일 등에서도 앞다투어 규제하는 방안을 내놓고 있습니다.

우리나라는 다른 국가들과 비슷한 시기인 2019년 ‘이용자 중심의 지능정보사회를 위한 원칙‘에서 인공지능 윤리 정립을 제안했는데요, 여기에는 사람중심의 인공지능 구현과 안전한 인공지능 사용을 위한 역기능 방지 등이 포함되어 있습니다.

 

또한 이번 이루다 사건을 계기로 방송통신위원회가 구체적 실행지침과 책임소재, 권리구제 절파를 포괄하는 법 체계 정비에 나서기로 했습니다.

 

인공지능을 개발하는 기업에서도 인공지능 윤리에 대한 고민이 많은데요,

대표적으로 구글에서는 ‘AI:우리의 원칙’을 발표하며 사회적으로 유익하고, 편견을 피하고, 안전하고, 책임을 지고, 개인정보를 보호하고, 과학적 우수성을 유지해야한다는 내용이 담았습니다.

 

마이크로소프트는 ‘더 퓨처 컴퓨티드(The Future Computed)’라는 책에서 공정성과 포괄성, 안전성, 투명성, 프라이버시, 보안, 책임성 등을 핵심 내용으로 담았지요.

 

국내기업으로는 카카오가 최초로 외부에 윤리에 관한 알고리즘 규범을 마련했습니다.
여기에는 사회계층에 대한 의도적 차별방지, 데이터 수집관리 원칙, 알고리즘의 설명 의무 등이 포함됐다고 합니다.

현재 수립되어있는 대부분의 인공지능 윤리 제정에는 책임(Responsibility), 인간의 존엄성(Human value), 공정성(Fairness), 안전성(Safety), 투명성(Transparency) 설명가능성(Explicability) 등이 공통적으로 포함되어 있습니다.

이제는 인공지능을 만들고 운영하는데 있어 단순히 기술의 우수성만이 아닌 도덕적 기준, 사회적 합의 등 다양한 요소들이 고려되어야 한다는 뜻으로 풀이할 수 있겠죠.


예전에는 그저 보조적 수단으로만 생각했던 기술은 이제 우리의 삶에 젖어들 듯 자리하고 있습니다. 인공지능으로 더 윤택해지는 삶을 기대하기 위해서는 국가, 개발사, 이용자 모두의 노력이 필요할 듯 싶습니다.

관련기사 더보기

지식 블로그 리스트 보기