CHAT GPT의 등장으로 다양한 AI서비스도 함께 발전을 하였고 주목을 받고 있습니다. 특히 CHAT GPT를 개발한 오픈 AI의 이미지 생성 인공지능 달리2(DALL•E 2)는 텍스트 입력만으로 사용자가 원하는 그림을 그려줘 공개 당시 많은 관심을 받았습니다.
DALL•E 2 홈페이지 (출처=오픈 AI)
대화형 챗봇, 이미지 생성, 음성인식, 자연어 이해 등 새로운 인공지능 기술이 나오자 분야를 불문하고 다양한 산업은 기존에 보유한 서비스와 솔루션에 인공지능을 개발하거나 도입하기 시작했어요. 구글의 경우 챗GPT의 대항마로 대화형 챗봇 ‘바드’를 선보이기도 했고 타 기업에서는 금융 투자를 해주는 인공지능, 책 추천 인공지능 서비스 등을 선보였죠.
많은 전문가들은 인공지능이 우리가 살아가고 일하는 방식에 혁신을 가져올 것이라고 예견해요. 마이크로 소프트(MS) 창업자 빌 게이츠는 “AI가 세상을 변화시키고 더 효율적으로 만들 것이다”라며 “사무실, 의료, 교육 등 모든 분야에 의미 있는 기회를 제공하게 된다”라고 이야기했죠.
이렇듯 AI 기술 발전과 함께 다양한 산업 분야에 인공지능 서비스가 적용되면서 우리는 어렵지 않게 인공지능 기술을 접할 수 있게 되었는데요. 인공지능으로 인해 생산성과 편의성이 향상되고 사회 혁신이 가속화될 것으로 기대되는 한편 인공지능 확산으로 인한 윤리적, 사회적 문제에 대한 우려의 목소리가 나오고 있어요.
"😥 AI, 이런 일이 있었다고? "
(출처=bbc korea)
2018년 아마존이 진행한 AI 기반 채용 시스템에서 성차별 논란이 일어났어요. 아마존의 인공지능 채용 시스템은 이력서에 ‘여성’이라는 단어가 들어가면 부정적으로 파악해 낮은 점수를 부여했었죠. 결국 아마존은 인공지능 채용 프로그램을 폐기했죠. 마이크로소프트가 개발한 챗봇 테이(Tay)도 비슷한 논란에 휩싸였었죠. 출시 직후 하루도 지나지 않아서 히틀러에 대한 찬양이나 인종차별적 발언을 쏟아냈어요. 그래서 서비스는 곧바로 종료됐습니다.
최근에는 AI가 만들어낸 창작물에 대한 저작권을 어떻게 보호할지에 대한 논쟁이 뜨겁죠. 챗GPT가 작성한 글을 상업적으로 활용하거나 달리2가 그린 그림을 자신의 창작물인 거처럼 활용했을 때 발생할 수 있는 저작권 문제 말이죠.
그래서, 인공지능 윤리가 필요해요 👩🎓
AI의 활용도는 날이 갈수록 높아지고 있어요. 앞으로 대부분 산업에 인공지능이 적용될 테고 남녀노소 모두 사용할 수 있게 되죠. 인공지능 시스템을 개발하기 위해서는 인터넷 세상에 있는 수많은 데이터를 모아 알고리즘을 만들고 인공지능을 학습시키는데요. 이때 정제되지 않은 데이터로 인공지능을 학습시킨다면 개인정보 유출은 물론 편견과 차별 등 다양한 윤리 문제에 부딪힐 수 있어요. 인공지능이 도덕적 그리고 윤리적인 기준에서 학습할 수 있도록 하기 위해서 인공지능 윤리(AI Ethics)가 필요하죠.
그럼 인공지능 윤리는 어떻게 설계되어야 할까요? 2020년 12월 과학기술정보통신부가 발표한 ‘사람이 중심이 되는 인공지능(AI) 윤리 기준’에 따르면 인공지능을 개발하고 활용할 때는 인간의 기본권을 보장하는 3대 원칙을 고려해야 해요.
✋3대 원칙은 무엇인가요?
1. 인간의 존엄성 원칙 2. 사회의 공공선 원칙 3. 기술의 합목적성 원칙이에요.
‘인간의 존엄성 원칙’에 따라서 인공지능은 인간의 생명과 신체•정신적 건강에 해가 되지 않는 범위에서 개발, 활용돼야 하고 ‘사회의 공공선 원칙’에 따라 사회에 살아가는 다수의 안녕과 행복이라는 가치를 추구하고 소외되기 쉬운 정보 취약 계층, 사회적 약자에게도 접근성을 보장하도록 개발하고 활용해야 알죠.마지막으로 ‘기술의 합목적성 원칙’에 따라 인공지능 기술이 인류 삶에 필요한 도구하는 목적과 의도에 부합하도록 개발하고 인류의 삶과 번영을 위해 인공지능 개발과 활용을 장려해야 합니다.
인공지능을 개발하고 활용할 때 이 3대 기본 원칙을 실천할 수 있도록 10가지 핵심 요건이 마련되어 있어요.
모두가 인공지능을 올바르게 쓸 수 있도록, 인공지능 윤리를 지키는 10대 요건
1. 인권 보장
2. 프라이버시 보호
3. 다양성 존중
4. 침해금지
5. 공공성
6. 연대성
7. 데이터 관리
8. 책임성
9. 안정성
10. 투명성
10대 요건에 따르면 인공지능 시스템을 기획하고 설계하는 단계부터 인간의 기본권과 자율성 존중을 염두 해야 해요. 인공지능이 성별, 인종, 피부색, 민족, 언어 등으로 차별하지 않도록 해야 하고 아이들에게 유해한 콘텐츠를 제공하지 않도록 말이죠. 인공지능 시스템을 사용하는 이용자들이 ‘모든 인간이 평등한 존재’라는 것을 인식하도록 개발해야 해요. 이를 위해서는 인공지능이 한쪽으로 편향된 데이터를 학습하지 않도록 해야 합니다.
더불어 인공지능을 개발할 때는 웹상에 있는 대규모 데이터가 활용돼요. 이때 민감한 개인 정보와 사생활 정보가 포함될 수 있는데요. 인공지능이 함부로 개인정보를 활용하고 오용되지 않도록 관리해야 합니다.
예시로 2021년 인공지능 챗봇 이루다가 개인정보를 함부로 이야기하는 바람에 큰 논란에 휩싸인 적이 있어요. 이루다가 알고리즘 러닝 과정에서 무분별한 개인정보를 학습하는 바람에 “주소 불러줘”라는 질문에 특정 주소를 언급했죠. 이런 개인정보 유출 문제가 재발되지 않도록 인공지능 개발과 활용 단계에서 개인정보 보호를 위한 장치를 마련해야 합니다.
인공지능을 떠올리면 쉽게 챗봇 형태를 떠올리지만 사실 우리 주변에는 다양한 인공지능 시스템이 있어요. 예를 들어서 자율주행차, 인공지능 기반 CCTV 선별 관제 프로그램 등이요. 이들은 챗봇형과 달리 사람이나 물건 같은 객체를 탐지하는 인공지능인데요. 탐지형 인공지능을 개발하고 활용할 때는 인간에게 직간접적으로 피해를 입히지 않도록 해야 합니다.
(출처=bbc korea)
2018년 우버가 시범운행하던 자율주행자동차가 교통사고를 일으켜 보행자를 숨지게 한 사건이 있었는데요. 이런 일이 다시는 발생하지 않도록 보행자와 탑승자의 피해를 최소화할 수 있도록 윤리 가이드라인이 마련됐답니다.
AI를 올바르게 활용하기 위해서는 단순히 인공지능 시스템과 서비스를 개발하는 기업만 윤리 기준을 지켜야 하는 것은 아니에요. 인공지능을 활용해 각종 교육과 업무에 도입하는 우리 모두가 인공지능으로 인해 사회에 긍정적인 변화를 끌어낼 수 있도록 노력해야 하죠.
[마크애니 선별관제 솔루션]
마크애니도 인공지능 윤리를 지키기 위해 열심히 노력하고 있습니다.
마크애니는 인공지능 기반 CCTV 선별 관제 솔루션 ‘스마트 아이(SmartEYE)’를 보유하고 있어요. 사람이 쓰러지거나, 화재가 발생하거나 뺑소니 차량이 도주하거나 등 CCTV 관제화면에 비치는 각종 사건사고를 인공지능이 즉시 포착해 관제요원에게 알려주는 시스템이죠.
우리가 생활하는 이 도시에는 수천, 수만 대의 CCTV가 있는데요. 관제요원 한 명당 백 대 이상의 CCTV 관제화면을 감독해야 하다 보니 사고가 발생해도 확인하기 어려운 때가 있죠. 마크애니는 이 문제를 해결하기 위해 CCTV 관제화면에 국내 환경에 맞춘 AI를 탑재시켜 관제요원들이 사건사고를 놓치지 않고 파악할 수 있도록 했답니다.
마크애니는 CCTV 관제화면에서 활동하는 인공지능이 사람 얼굴이나 차량번호 등을 함부로 외부에 노출시키지 않고 사람에게 피해 입히지 않도록 하기 위해 인공지능 윤리에 힘쓰고 있어요. 인공지능으로 인한 피해를 예방하고 올바르게 활용하기 위해서 지난해 10월에는 과학기술정보통신부와 정보통신정책연구원(KISDI)와 함께 위 핵심 요건 10가지를 담은 ‘인공지능 윤리기준 실천을 위한 자율점검표(안)’을 제작했답니다!
전문가들은 앞으로 더 많고 다양한 분야의 인공지능 기술이 활용될 것이라고 예견했는데요. 도덕적이고 윤리적인 가치를 고려해 개발된 AI 시스템들이 우리 사회에 잘 녹아들어 긍정적인 변화를 만들어 낼 수 있도록 올바르게 개발하고 사용하는 세상이 되었으면 좋겠습니다.
CHAT GPT의 등장으로 다양한 AI서비스도 함께 발전을 하였고 주목을 받고 있습니다. 특히 CHAT GPT를 개발한 오픈 AI의 이미지 생성 인공지능 달리2(DALL•E 2)는 텍스트 입력만으로 사용자가 원하는 그림을 그려줘 공개 당시 많은 관심을 받았습니다.
DALL•E 2 홈페이지 (출처=오픈 AI)
대화형 챗봇, 이미지 생성, 음성인식, 자연어 이해 등 새로운 인공지능 기술이 나오자 분야를 불문하고 다양한 산업은 기존에 보유한 서비스와 솔루션에 인공지능을 개발하거나 도입하기 시작했어요. 구글의 경우 챗GPT의 대항마로 대화형 챗봇 ‘바드’를 선보이기도 했고 타 기업에서는 금융 투자를 해주는 인공지능, 책 추천 인공지능 서비스 등을 선보였죠.
많은 전문가들은 인공지능이 우리가 살아가고 일하는 방식에 혁신을 가져올 것이라고 예견해요. 마이크로 소프트(MS) 창업자 빌 게이츠는 “AI가 세상을 변화시키고 더 효율적으로 만들 것이다”라며 “사무실, 의료, 교육 등 모든 분야에 의미 있는 기회를 제공하게 된다”라고 이야기했죠.
이렇듯 AI 기술 발전과 함께 다양한 산업 분야에 인공지능 서비스가 적용되면서 우리는 어렵지 않게 인공지능 기술을 접할 수 있게 되었는데요. 인공지능으로 인해 생산성과 편의성이 향상되고 사회 혁신이 가속화될 것으로 기대되는 한편 인공지능 확산으로 인한 윤리적, 사회적 문제에 대한 우려의 목소리가 나오고 있어요.
"😥 AI, 이런 일이 있었다고? "
(출처=bbc korea)
2018년 아마존이 진행한 AI 기반 채용 시스템에서 성차별 논란이 일어났어요. 아마존의 인공지능 채용 시스템은 이력서에 ‘여성’이라는 단어가 들어가면 부정적으로 파악해 낮은 점수를 부여했었죠. 결국 아마존은 인공지능 채용 프로그램을 폐기했죠. 마이크로소프트가 개발한 챗봇 테이(Tay)도 비슷한 논란에 휩싸였었죠. 출시 직후 하루도 지나지 않아서 히틀러에 대한 찬양이나 인종차별적 발언을 쏟아냈어요. 그래서 서비스는 곧바로 종료됐습니다.
최근에는 AI가 만들어낸 창작물에 대한 저작권을 어떻게 보호할지에 대한 논쟁이 뜨겁죠. 챗GPT가 작성한 글을 상업적으로 활용하거나 달리2가 그린 그림을 자신의 창작물인 거처럼 활용했을 때 발생할 수 있는 저작권 문제 말이죠.
그래서, 인공지능 윤리가 필요해요 👩🎓
AI의 활용도는 날이 갈수록 높아지고 있어요. 앞으로 대부분 산업에 인공지능이 적용될 테고 남녀노소 모두 사용할 수 있게 되죠. 인공지능 시스템을 개발하기 위해서는 인터넷 세상에 있는 수많은 데이터를 모아 알고리즘을 만들고 인공지능을 학습시키는데요. 이때 정제되지 않은 데이터로 인공지능을 학습시킨다면 개인정보 유출은 물론 편견과 차별 등 다양한 윤리 문제에 부딪힐 수 있어요. 인공지능이 도덕적 그리고 윤리적인 기준에서 학습할 수 있도록 하기 위해서 인공지능 윤리(AI Ethics)가 필요하죠.
그럼 인공지능 윤리는 어떻게 설계되어야 할까요? 2020년 12월 과학기술정보통신부가 발표한 ‘사람이 중심이 되는 인공지능(AI) 윤리 기준’에 따르면 인공지능을 개발하고 활용할 때는 인간의 기본권을 보장하는 3대 원칙을 고려해야 해요.
✋3대 원칙은 무엇인가요?
1. 인간의 존엄성 원칙 2. 사회의 공공선 원칙 3. 기술의 합목적성 원칙이에요.
‘인간의 존엄성 원칙’에 따라서 인공지능은 인간의 생명과 신체•정신적 건강에 해가 되지 않는 범위에서 개발, 활용돼야 하고 ‘사회의 공공선 원칙’에 따라 사회에 살아가는 다수의 안녕과 행복이라는 가치를 추구하고 소외되기 쉬운 정보 취약 계층, 사회적 약자에게도 접근성을 보장하도록 개발하고 활용해야 알죠.마지막으로 ‘기술의 합목적성 원칙’에 따라 인공지능 기술이 인류 삶에 필요한 도구하는 목적과 의도에 부합하도록 개발하고 인류의 삶과 번영을 위해 인공지능 개발과 활용을 장려해야 합니다.
인공지능을 개발하고 활용할 때 이 3대 기본 원칙을 실천할 수 있도록 10가지 핵심 요건이 마련되어 있어요.
모두가 인공지능을 올바르게 쓸 수 있도록, 인공지능 윤리를 지키는 10대 요건
1. 인권 보장
2. 프라이버시 보호
3. 다양성 존중
4. 침해금지
5. 공공성
6. 연대성
7. 데이터 관리
8. 책임성
9. 안정성
10. 투명성
10대 요건에 따르면 인공지능 시스템을 기획하고 설계하는 단계부터 인간의 기본권과 자율성 존중을 염두 해야 해요. 인공지능이 성별, 인종, 피부색, 민족, 언어 등으로 차별하지 않도록 해야 하고 아이들에게 유해한 콘텐츠를 제공하지 않도록 말이죠. 인공지능 시스템을 사용하는 이용자들이 ‘모든 인간이 평등한 존재’라는 것을 인식하도록 개발해야 해요. 이를 위해서는 인공지능이 한쪽으로 편향된 데이터를 학습하지 않도록 해야 합니다.
더불어 인공지능을 개발할 때는 웹상에 있는 대규모 데이터가 활용돼요. 이때 민감한 개인 정보와 사생활 정보가 포함될 수 있는데요. 인공지능이 함부로 개인정보를 활용하고 오용되지 않도록 관리해야 합니다.
예시로 2021년 인공지능 챗봇 이루다가 개인정보를 함부로 이야기하는 바람에 큰 논란에 휩싸인 적이 있어요. 이루다가 알고리즘 러닝 과정에서 무분별한 개인정보를 학습하는 바람에 “주소 불러줘”라는 질문에 특정 주소를 언급했죠. 이런 개인정보 유출 문제가 재발되지 않도록 인공지능 개발과 활용 단계에서 개인정보 보호를 위한 장치를 마련해야 합니다.
인공지능을 떠올리면 쉽게 챗봇 형태를 떠올리지만 사실 우리 주변에는 다양한 인공지능 시스템이 있어요. 예를 들어서 자율주행차, 인공지능 기반 CCTV 선별 관제 프로그램 등이요. 이들은 챗봇형과 달리 사람이나 물건 같은 객체를 탐지하는 인공지능인데요. 탐지형 인공지능을 개발하고 활용할 때는 인간에게 직간접적으로 피해를 입히지 않도록 해야 합니다.
(출처=bbc korea)
2018년 우버가 시범운행하던 자율주행자동차가 교통사고를 일으켜 보행자를 숨지게 한 사건이 있었는데요. 이런 일이 다시는 발생하지 않도록 보행자와 탑승자의 피해를 최소화할 수 있도록 윤리 가이드라인이 마련됐답니다.
AI를 올바르게 활용하기 위해서는 단순히 인공지능 시스템과 서비스를 개발하는 기업만 윤리 기준을 지켜야 하는 것은 아니에요. 인공지능을 활용해 각종 교육과 업무에 도입하는 우리 모두가 인공지능으로 인해 사회에 긍정적인 변화를 끌어낼 수 있도록 노력해야 하죠.
[마크애니 선별관제 솔루션]
마크애니도 인공지능 윤리를 지키기 위해 열심히 노력하고 있습니다.
마크애니는 인공지능 기반 CCTV 선별 관제 솔루션 ‘스마트 아이(SmartEYE)’를 보유하고 있어요. 사람이 쓰러지거나, 화재가 발생하거나 뺑소니 차량이 도주하거나 등 CCTV 관제화면에 비치는 각종 사건사고를 인공지능이 즉시 포착해 관제요원에게 알려주는 시스템이죠.
우리가 생활하는 이 도시에는 수천, 수만 대의 CCTV가 있는데요. 관제요원 한 명당 백 대 이상의 CCTV 관제화면을 감독해야 하다 보니 사고가 발생해도 확인하기 어려운 때가 있죠. 마크애니는 이 문제를 해결하기 위해 CCTV 관제화면에 국내 환경에 맞춘 AI를 탑재시켜 관제요원들이 사건사고를 놓치지 않고 파악할 수 있도록 했답니다.
마크애니는 CCTV 관제화면에서 활동하는 인공지능이 사람 얼굴이나 차량번호 등을 함부로 외부에 노출시키지 않고 사람에게 피해 입히지 않도록 하기 위해 인공지능 윤리에 힘쓰고 있어요. 인공지능으로 인한 피해를 예방하고 올바르게 활용하기 위해서 지난해 10월에는 과학기술정보통신부와 정보통신정책연구원(KISDI)와 함께 위 핵심 요건 10가지를 담은 ‘인공지능 윤리기준 실천을 위한 자율점검표(안)’을 제작했답니다!
전문가들은 앞으로 더 많고 다양한 분야의 인공지능 기술이 활용될 것이라고 예견했는데요. 도덕적이고 윤리적인 가치를 고려해 개발된 AI 시스템들이 우리 사회에 잘 녹아들어 긍정적인 변화를 만들어 낼 수 있도록 올바르게 개발하고 사용하는 세상이 되었으면 좋겠습니다.