안병익 식신㈜ 대표·논설위원

만약 성인 3명을 태운 자율 주행차가 고속으로 달리던 중에 갑자기 유치원생 2명이 뛰어들었을 때, 차가 급정거를 하면 뛰어든 유치원생이 죽고, 우측으로 방향을 틀면 보행하고 있던 노인 1명이 죽고, 좌측으로 방향을 틀면 절벽아래로 떨어져 차에 탄 성인 승객 3명이 모두 죽는다면, 자율 주행차는 과연 어떤 판단을 내려야 하는가? 앞으로 살아갈 날이 많은 유치원생을 살리고 길가에 있던 노인 1명을 죽게 할 것인가? 원인 제공자인 유치원생 2명을 치고 차안에 있는 승객 3명과 노인1명을 살릴 것인가? 마이클 샌델 교수의 '정의란 무엇인가?'에 나올 법한 이야기 이지만 미래에 발생할 자율주행차의 윤리에 관한 문제이다. 

최근 들어 AI(인공지능)에 관한 관심이 크게 높아진 가운데 점차 AI 윤리 문제가 현실화할 것으로 전망되고 있다. 이런 윤리적 문제는 AI 디스토피아 논란을 불어 일으키고 있다. 인간을 위해 만든 AI 비서, 로봇, 자율주행차, 로보어드바이저, 살상무기 등은 오작동이나 판단 실수 같은 문제를 일으킬 수 있다. AI가 인간을 지배하는 영화 '트랜센던스'나 '터미네이터'같은 미래의 공포로부터 인간을 어떻게 보호 할지에 대한 논의도 필요하다. 

미국과 유럽, 일본 등은 이미 AI의 윤리적 방안을 준비 중이다. 유럽 의회는 AI 로봇을 '전자 인간'으로 규정하고 사람과 동등하게 세금을 부과하는 방안을 마련하겠다고 공언 했다. 최근 일본 인공지능학회는 AI에 대한 윤리지침을 승인했다. AI가 사회 구성원에 준하기 위해서는 학회 회원과 동등한 윤리지침을 준수해야 한다는 규정이다. 미국과 유럽 등지에서는 AI가 지켜야 할 윤리를 만드는 방안을 연구 중이다. AI에 윤리적 책임을 지울 수 있는지를 검토하고 법적 책임을 져야 할 상황에서의 판단 기준을 두고 논의가 한창이다. 

윤리학자들이 가장 우려하는 AI 분야는 자율살상무기(LAWS: Lethal Autonomous Weapons Systems)다. 최근 유엔의 특정 재래식무기금지협약(CCW)이 이문제를 의제로 다루기 시작했다. 급속도로 발전하고 있는 AI 기술로 자율살상 로봇 생산 가능성이 높아지면서 논란이 심화하고 있다. 자율살상무기는 인간 개입 없이 사전에 입력된 프로그램에 따라 독립적으로 전투를 수행하는 기계다. 

2016년 12월8일 러시아는 남부 다게스탄에서 IS 핵심 조직원 러스탐 아셀도르프를 킬러 로봇으로 사살했다. 작은 장갑차 모양의 킬러 로봇을 이용하여 은신처로 접근해 출입문을 폭파하고 내부로 진입하여 사살 작전을 수행했다. 미국 국방부는 지난해 AI 드론을 공개했다. 이 드론은 스스로 장애물을 피하고 적과 아군을 구분하여 공격할 수 있다. 보스턴 다이내믹스는 두 다리로 걷는 인간형 로봇 '아틀라스'를 개발했다. 아틀라스에 무기만 탑재한다면 로봇 병사가 되어 인간을 공격할 수도 있을 것이다. 

킬러 로봇은 국제인권기준법을 피해 인간을 살해할 수 있다는 측면에서 논란의 대상이 되고 있다. 교전 상황에서는 인간 병사는 상황에 따라 적군을 사살하지 않고 포로로 잡을 수 있지만, 킬러 로봇은 무조건 사살한다는 것이다. 킬러 로봇은 각종 행동 지침이 프로그램 되어있다고 하더라도 실제 교전 상황에서 벌어지는 다양한 상황에 대처하기 힘들다. 또한 킬러 로봇이 대량학살 등 전쟁 범죄를 저지른 경우 소송의 대상이 불명확하기 때문에 법적 책임을 부여하는 것도 어렵다. 이런 문제를 해결하기 위해 최근 미국 캘리포니아 아실로마에서는 AI 전문가들이 모여 회의를 열고 살상 가능한 자율적 무기를 개발하기 위한 경쟁은 지양해야 한다는 내용이 포함된 23개 조항의 '아실로마 AI 원칙'을 만들기도 하였다. 

AI 윤리 문제는 AI를 도덕적 행위자로 볼 수 있는지에 대한 해석과 AI가 금전적 손해나 신체적 해를 입혔을 경우 형사 처벌을 받을 대상을 누구로 해야 하는지를 주로 논의한다. 이는 과거의 법적 해석으로는 다룰 수 없는 문제들이다. 법률적 관점에서 AI가 어떠한 행위를 했을 때, 그 행위에 대한 권리의무의 귀속자가 책임을 지면 된다고 판단하지만, 수많은 AI가 활용되고 인간과 AI의 경계가 모호해지는 상황에서는 이 판단이 쉽지 않다. 

미국에서는 한 해 약 3만5천명이 도로에서 사고로 사망한다. 이 가운데 94%는 사람의 실수나 선택에 의한 것이다. 많은 사람들이 미국에 자율주행차가 도입된다면 매년 수만 명의 목숨을 살릴 수 있을 것이라고 이야기 한다. 그러나 테러 단체의 해커가 자율주행차의 컴퓨터망에 침투하여 행동 패턴을 변화시킨다면 치명적인 살상 무기가 될 수도 있다. 미국에서는 자율주행차 면허까지 발급되고 있을 정도로 자율주행차 시대가 성큼 다가온 것을 감안 한다면 이런 AI 보안과 윤리문제는 시급히 다루어야 할 중요한 문제가 된 것이다.

선진국들에 비해 우리나라는 '로봇' 관련 법만 있을 뿐 아직 AI 윤리에 대한 사회적 논의와 준비는 부족한 상황이다. 최근 한국정보화진흥원(NIA)은 AI 윤리 문제로 안전성과 신뢰성, 프라이버시, 오남용, 책임성, 인간 정체성 혼란, 포비아 등 6가지를 선정했다. 

안전성과 신뢰성 문제는 AI가 인간을 동물이나 적으로 잘못 판단하는 경우다. 프라이버시 문제는 AI 비서 등 인간의 생활을 편리하게 해 주는 기기들로 인해 인간의 사행활이 침해 받는 문제이다. 오남용 문제는 AI가 잘못된 학습과 판단을 해 작동 중지되거나 다른 행동을 하는 문제이다. 책임성은 AI 의사나 로보어드바이저가 잘못된 결정을 통해 인간에게 피해를 입혔다면 누가 책임질지 대한 문제이다. AI가 적용된 대리 인간이나 성관계 로봇 등은 인간 정체성 혼란 문제이고 AI가 일자리를 빼앗고 인간을 지배할 것이라고 두려워하는 것은 포비아 문제이다. 

서두에 예를 든 교통사고에 대한 AI 윤리를 제정한다고 해보자. 원인제공자가 그 책임을 지는 것이 맞다면 뛰어든 유치원생 2명을 사망하게 하는 것이 옳을 것이다. 그러나 인구 통계학적 관점이라면 3명이 죽는 것 보다는 2명이, 2명보다는 1명이 죽는 것이 나아 보인다. 차를 우측으로 틀어 1명의 노인 보행자가 사망하게 하는 것이다. 자동차 탑승자 보다는 보행자 보호가 우선이라는 정책을 적용한다면 차를 왼쪽으로 틀어 뛰어든 유치원생과 보행자 모두를 보호하고 자율주행차는 절벽으로 떨어져야 할 것이다. 

인간도 상황에 따라서는 판단하기 어려운 문제이다. 지금까지는 운전자가 선택의 키를 지고 있었다. 운전자가 유치원생을 칠 것인가 보행자를 칠 것인가 아니면 절벽으로 떨어질 것인가에 대한 선택을 했던 것이다. 이것은 운전자의 완전한 자율이다. AI도 자율적인 판단을 하는 것이 맞을 것이다. 다만 상황에 따른 최소한의 규정을 정하는 것이 필요 할 것이다. 적어도 개개인 사람의 판단 보다는 방대한 빅데이터와 실시간 데이터에 기반한 AI의 판단이 좀더 나을 수도 있다. 다만 해킹 공격이나 인간 살상 같은 인간에 의한 악의적인 목적으로 사용되는 AI의 윤리적인 문제는 철저하게 예방되어야 할 것이다. 

저작권자 © 제민일보 무단전재 및 재배포 금지