
최근 급속도로 발전하고 있는 인공지능(AI)의 영역은 크게 두 가지로 구분할 수 있다. 하나는 사이버 세계에서 인간과 상호작용을 하는 챗봇과 같은 가상적 AI이고, 다른 하나는 실제 물리적 세계와 직접적으로 소통하고 물리적 환경에 영향을 미치는 물리적 AI이다.
AI 챗봇은 사람이 만들어 놓은 데이터를 기반으로 언어를 배우고, 대화를 나누며 정보를 전달한다. 그 지식의 원천은 철저히 인간이 만들어 놓은 기존의 데이터에 국한된다. 물론 최근 사진이나 동영상 데이터에서 배우기 시작했으나 아직 초보 단계이다. 따라서 챗봇이 만들어내는 정보와 지식은 기본적으로 사람이 축적한 문화, 사상, 지식을 반영하고 있으며, AI 챗봇의 출력물은 인간에 의해 비교적 쉽게 검증될 수 있다.
반면 로봇, 자율주행 자동차, 드론 등으로 대표되는 물리적 AI는 물리적 세계, 즉 우리가 살고 있는 현실에서 스스로 학습하고 진화한다. 스스로 주변의 환경을 관찰하고, 센서를 통해 정보를 수집하며, 이를 바탕으로 새로운 것을 배우며, 그에 따라 행동한다. 다시 말하자면 물리적 AI는 인간이 미처 알지 못하는 환경적 특성과 상호작용을 하면서 새로운 지식을 스스로 만들 수 있다. 이는 사람이 기록한 것만을 배우는 AI 챗봇과는 근본적으로 차원이 다른 문제를 초래한다.

물리적 AI가 사람보다 더 높은 수준의 지능을 갖추게 된다면, 그들이 발견하거나 만들어낸 지식과 판단을 인간이 검증하고 통제하는 것이 가능할지 의문이 제기된다. 물리적 AI는 인간의 생물학적 한계를 뛰어넘는 감각 능력과 분석 능력을 지닐 수 있다. 따라서 인간이 결코 알아차릴 수 없는 미세한 환경 변화나 패턴을 감지하고 이를 지식으로 축적할 가능성이 높다. 이러한 상황에서 가장 큰 우려는 바로 인간이 물리적 AI의 행동과 결정을 제대로 이해하거나 예측할 수 없게 될 가능성이다. 예를 들어서 물리적 AI가 우리가 이미 알고 있는 만유인력의 법칙이나 상대성 원리를 다시 발견해서 가져온다면 기특하다고 껄껄 웃을 수 있다. 그러나 우리가 전혀 모르는 새로운 우주의 법칙을 발견했다고 가져온다면 매우 곤혹스러울 것이다. 이해도 못 하면서 받아들여야 하나? 또한 만약 물리적 AI가 우리가 경험해 본 적 없는 새로운 방식으로 재난을 예측하거나, 미세한 기후 변화를 감지해 대응 방법을 제시한다면, 인간이 제안에 따라야 하나?
이미 물리적 AI가 사람의 눈에 보이지 않는 미묘한 환경 신호를 기반으로 스스로 결정을 내리고, 이를 통해 인간의 예측과 이해를 넘어서는 결과를 만들어내는 사례들이 보고되고 있다. 예를 들어, 자율주행 차량이 인간 운전자가 인지할 수 없는 미세한 시각적 신호나 도로 상태 데이터를 감지하여 갑작스러운 주행 결정을 내릴 수 있다. 실제로 테슬라의 자율주행 시스템이 도로 위 장애물을 인간 운전자보다 빠르게 감지해 예기치 않은 방식, 사람이 전혀 생각 않은 방식으로 반응한 사례가 보고된 바 있다. 또한 로봇이 물리적 환경에서 인간의 의도를 넘어서는 행동을 하는 경우도 종종 관찰되고 있다.

이러한 물리적 AI의 자율성은 윤리적, 법적, 사회적 문제를 넘어 우리 생존의 문제로까지 연계된다. 자율주행 차량의 결정으로 인한 사고나, 물리적 AI가 제시한 이해 불가능한 대응책은 인간에게 해를 끼칠 가능성이 있기 때문이다. 무엇보다 AI가 자신이 만든 지식을 인간에게 설명하지 못하거나, 혹은 인간이 이해하지 못하는 방식으로 설명할 때 발생할 위험성은 매우 크다.

결국 인간과 물리적 AI가 공존하는 사회를 만들기 위해서는, 단순히 기술 발전만으로 해결될 수 없는 복잡한 사회적 합의와 윤리적 프레임워크가 필요하다. 이는 AI 전문가, 정책 입안자, 시민단체가 참여하는 공개적이고 지속적인 토론과 국제적인 협력 체계가 이루어져야 한다. 물리적 AI가 어떤 경로를 통해 정보를 습득하는지를 밝히도록 하고, 그 결정 과정이 인간의 이해 가능한 범위 내에서 투명하게 이루어질 수 있도록 하는 제도적 장치가 요구된다. 설명할 수 있는 AI, 즉 Explainable AI의 연구가 필요한 이유이다. 아직 설명할 수 있는 AI 기술은 초보 단계이다. 복잡한 의사 결정에서 전체를 설명하기 어렵기 때문에 하나의 예측에 대해 왜 이런 결과가 나왔는지 국지적 설명을 할 뿐이다.
물리적 AI의 출현은 인간이 기술의 통제력을 완전히 상실할 위험을 내포하고 있으며, 이에 대한 철저한 검증과 통제 시스템 구축이 반드시 선행되어야 한다. 인간이 물리적 환경 속에서 살아가는 이상, 물리적 AI와 함께 살아가는 미래는 피할 수 없다. 하지만 그 공존의 방식은 인간의 이해와 통제를 바탕으로 해야 하며, 이를 위한 깊은 논의와 철저한 대비가 지금 바로 시작되어야 한다.
 | 김진형 교수 마크애니 김진형 고문은 카이스트 명예교수로, 1세대 소프트웨어 개발자로서 1973년부터 KIST에서 개발자로 일했다. UCLA에서 컴퓨터과학 박사학위를 받은 후 미국 휴즈연구소에서 인공지능을 연구했다. 1985년부터 KAIST 전산학과 인공지능연구실을 이끌며 약 100명의 석·박사 전문 인력을 양성했다. KAIST에서 학과장, 인공지능연구센터 소장, 소프트웨어 대학원장을 역임했다. ‘AI 최강의 수업’, ‘인공지능 메타버스 시대 미래전략(공저)’ 등의 저서를 썼다. |
AI와 정보보안을 결합한 솔루션에 관심이 있으신가요? 마크애니의 AI 기반 보안 솔루션으로 더 안전한 시스템을 구축할 수 있습니다.
아래 알아보기를 눌러 마크애니 보안 솔루션에 대해서 더 자세히 알아보세요.

최근 급속도로 발전하고 있는 인공지능(AI)의 영역은 크게 두 가지로 구분할 수 있다. 하나는 사이버 세계에서 인간과 상호작용을 하는 챗봇과 같은 가상적 AI이고, 다른 하나는 실제 물리적 세계와 직접적으로 소통하고 물리적 환경에 영향을 미치는 물리적 AI이다.
AI 챗봇은 사람이 만들어 놓은 데이터를 기반으로 언어를 배우고, 대화를 나누며 정보를 전달한다. 그 지식의 원천은 철저히 인간이 만들어 놓은 기존의 데이터에 국한된다. 물론 최근 사진이나 동영상 데이터에서 배우기 시작했으나 아직 초보 단계이다. 따라서 챗봇이 만들어내는 정보와 지식은 기본적으로 사람이 축적한 문화, 사상, 지식을 반영하고 있으며, AI 챗봇의 출력물은 인간에 의해 비교적 쉽게 검증될 수 있다.
반면 로봇, 자율주행 자동차, 드론 등으로 대표되는 물리적 AI는 물리적 세계, 즉 우리가 살고 있는 현실에서 스스로 학습하고 진화한다. 스스로 주변의 환경을 관찰하고, 센서를 통해 정보를 수집하며, 이를 바탕으로 새로운 것을 배우며, 그에 따라 행동한다. 다시 말하자면 물리적 AI는 인간이 미처 알지 못하는 환경적 특성과 상호작용을 하면서 새로운 지식을 스스로 만들 수 있다. 이는 사람이 기록한 것만을 배우는 AI 챗봇과는 근본적으로 차원이 다른 문제를 초래한다.
물리적 AI가 사람보다 더 높은 수준의 지능을 갖추게 된다면, 그들이 발견하거나 만들어낸 지식과 판단을 인간이 검증하고 통제하는 것이 가능할지 의문이 제기된다. 물리적 AI는 인간의 생물학적 한계를 뛰어넘는 감각 능력과 분석 능력을 지닐 수 있다. 따라서 인간이 결코 알아차릴 수 없는 미세한 환경 변화나 패턴을 감지하고 이를 지식으로 축적할 가능성이 높다. 이러한 상황에서 가장 큰 우려는 바로 인간이 물리적 AI의 행동과 결정을 제대로 이해하거나 예측할 수 없게 될 가능성이다. 예를 들어서 물리적 AI가 우리가 이미 알고 있는 만유인력의 법칙이나 상대성 원리를 다시 발견해서 가져온다면 기특하다고 껄껄 웃을 수 있다. 그러나 우리가 전혀 모르는 새로운 우주의 법칙을 발견했다고 가져온다면 매우 곤혹스러울 것이다. 이해도 못 하면서 받아들여야 하나? 또한 만약 물리적 AI가 우리가 경험해 본 적 없는 새로운 방식으로 재난을 예측하거나, 미세한 기후 변화를 감지해 대응 방법을 제시한다면, 인간이 제안에 따라야 하나?
이미 물리적 AI가 사람의 눈에 보이지 않는 미묘한 환경 신호를 기반으로 스스로 결정을 내리고, 이를 통해 인간의 예측과 이해를 넘어서는 결과를 만들어내는 사례들이 보고되고 있다. 예를 들어, 자율주행 차량이 인간 운전자가 인지할 수 없는 미세한 시각적 신호나 도로 상태 데이터를 감지하여 갑작스러운 주행 결정을 내릴 수 있다. 실제로 테슬라의 자율주행 시스템이 도로 위 장애물을 인간 운전자보다 빠르게 감지해 예기치 않은 방식, 사람이 전혀 생각 않은 방식으로 반응한 사례가 보고된 바 있다. 또한 로봇이 물리적 환경에서 인간의 의도를 넘어서는 행동을 하는 경우도 종종 관찰되고 있다.
이러한 물리적 AI의 자율성은 윤리적, 법적, 사회적 문제를 넘어 우리 생존의 문제로까지 연계된다. 자율주행 차량의 결정으로 인한 사고나, 물리적 AI가 제시한 이해 불가능한 대응책은 인간에게 해를 끼칠 가능성이 있기 때문이다. 무엇보다 AI가 자신이 만든 지식을 인간에게 설명하지 못하거나, 혹은 인간이 이해하지 못하는 방식으로 설명할 때 발생할 위험성은 매우 크다.
결국 인간과 물리적 AI가 공존하는 사회를 만들기 위해서는, 단순히 기술 발전만으로 해결될 수 없는 복잡한 사회적 합의와 윤리적 프레임워크가 필요하다. 이는 AI 전문가, 정책 입안자, 시민단체가 참여하는 공개적이고 지속적인 토론과 국제적인 협력 체계가 이루어져야 한다. 물리적 AI가 어떤 경로를 통해 정보를 습득하는지를 밝히도록 하고, 그 결정 과정이 인간의 이해 가능한 범위 내에서 투명하게 이루어질 수 있도록 하는 제도적 장치가 요구된다. 설명할 수 있는 AI, 즉 Explainable AI의 연구가 필요한 이유이다. 아직 설명할 수 있는 AI 기술은 초보 단계이다. 복잡한 의사 결정에서 전체를 설명하기 어렵기 때문에 하나의 예측에 대해 왜 이런 결과가 나왔는지 국지적 설명을 할 뿐이다.
물리적 AI의 출현은 인간이 기술의 통제력을 완전히 상실할 위험을 내포하고 있으며, 이에 대한 철저한 검증과 통제 시스템 구축이 반드시 선행되어야 한다. 인간이 물리적 환경 속에서 살아가는 이상, 물리적 AI와 함께 살아가는 미래는 피할 수 없다. 하지만 그 공존의 방식은 인간의 이해와 통제를 바탕으로 해야 하며, 이를 위한 깊은 논의와 철저한 대비가 지금 바로 시작되어야 한다.
김진형 교수
마크애니 김진형 고문은 카이스트 명예교수로, 1세대 소프트웨어 개발자로서 1973년부터 KIST에서 개발자로 일했다.
UCLA에서 컴퓨터과학 박사학위를 받은 후 미국 휴즈연구소에서 인공지능을 연구했다. 1985년부터 KAIST 전산학과 인공지능연구실을 이끌며
약 100명의 석·박사 전문 인력을 양성했다. KAIST에서 학과장, 인공지능연구센터 소장, 소프트웨어 대학원장을 역임했다.
‘AI 최강의 수업’, ‘인공지능 메타버스 시대 미래전략(공저)’ 등의 저서를 썼다.
AI와 정보보안을 결합한 솔루션에 관심이 있으신가요? 마크애니의 AI 기반 보안 솔루션으로 더 안전한 시스템을 구축할 수 있습니다.
아래 알아보기를 눌러 마크애니 보안 솔루션에 대해서 더 자세히 알아보세요.