읽는 재미의 발견

새로워진 한국일보로그인/회원가입

  • 관심과 취향에 맞게 내맘대로 메인 뉴스 설정
  • 구독한 콘텐츠는 마이페이지에서 한번에 모아보기
  • 속보, 단독은 물론 관심기사와 활동내역까지 알림
자세히보기 닫기
현실로 다가온 ‘킬러 로봇’… 윤리논쟁 점화

알림

현실로 다가온 ‘킬러 로봇’… 윤리논쟁 점화

입력
2018.04.05 19:13
1면
0 0

카이스트ㆍ한화시스템 공동 연구에

“AI 무기 개발하면 협력 중단” 경고

구글 직원 3100명, CEO에 청원

“美 펜타곤과 AI 무기 개발 반대”

영화 ‘터미네이터: 미래 전쟁의 시작’ 의 선전물
영화 ‘터미네이터: 미래 전쟁의 시작’ 의 선전물

“기계가 스스로의 판단만으로 사람을 죽일 수 있나.”

34년 전 공상과학영화로만 취급받았던 할리우드 영화 ‘터미네이터’ 시리즈의 질문이 2018년 인류에게 실존 문제로 다가왔다. 더 강한 무기에 대한 인간 욕망이 인공지능(AI)을 장착해 스스로 판단하고 구동하는 무기 개발로 쏠리면서, 과학자 집단에서 윤리 논쟁이 달아오르기 시작했다. 게다가 논쟁의 중심에는 미국 실리콘밸리의 최첨단 기업 구글은 물론이고 한국 과학기술의 상징인 한국과학기술원(카이스트)까지 휘말려 들고 있다.

뉴욕타임스(NYT)는 4일(현지시간) 최고위급 엔지니어 수십명을 포함, 구글직원 3,100명이 서명해 순다르 피차이 최고경영자(CEO)에게 보낼 청원서를 보도했다. 내용은 간단했다. “구글은 전쟁 사업에 참여하지 않겠다고 선언하라”였다. 구글 직원의 집단 행동은 이 회사가 미 국방부(펜타곤)와 진행 중인 ‘메이븐’ 프로젝트 때문이다. 메이븐은 구글의 클라우드 기반 인공지능(AI) 기술로 미 공군 무인전투기(드론)의 타격 능력 향상을 꾀하려는 펜타곤의 파일럿 프로그램이다.

NYT에 따르면 구글 엔지니어들의 메시지는 뚜렷하다. 아무리 적군을 대상으로 한다 해도 인명살상이 목적인 AI 기술 개발은 ‘사악해지지 말자(Don’t be Evil)’인 구글 조직의 목표와 정면 배치된다는 얘기다. 이들은 “정부에 협력한다는 명분으로 군사적 감시, 나아가 치명적인 결과를 낳을 수도 있는 기술을 구축하는 것은 받아들일 수 없다”고 밝혔다. NYT도 “AI 기술의 군사 목적 활용이 점점 늘어나는 상황에서 첨단 기술을 보유한 실리콘밸리와 정부 간에 벌어지는 문화적 충돌”이라고 분석했다.

공교롭게 같은 날 한국도 ‘터미네이터’ 논쟁에 휘말렸다. 외국의 저명한 로봇 학자 50여명이 카이스트에 경고 서한을 보낸 것. 발단은 카이스트와 한화시스템이 지난 2월 말 공동 개소한 ‘국방인공지능융합연구센터’ 때문이었다. 영국 파이낸셜타임스(FT)가 공개한 서한에서 로봇 학자들은 ‘킬러 로봇 우려’까지 직접 거론하며, “인간의 유의미한 통제 없이 자율적으로 결정하는 무기를 개발하지 않겠다는 확약을 카이스트 총장이 할 때까지 우리는 모든 공동연구를 전면 거부할 것”이라고 선언했다.

카이스트는 킬러 로봇 개발 의사가 전혀 없다는 입장이다. 학교 관계자는 “공격용 대량살상 무기나 킬러 로봇 개발 목적의 연구 수행이 아니라고 센터가 지난달 19일자 공문을 통해 이미 해명했다”고 밝혔다. 신성철 카이스트 총장도 이날 문제를 제기한 해외 학자 전원에게 “통제력이 결여된 자율무기 개발 등 인간 존엄성에 어긋나는 연구활동을 수행하지 않을 것임을 다시 한번 강조한다”는 문구가 담긴 서신을 보냈다.

전문가들은 구글과 카이스트에서 벌어진 논쟁이 향후 상당 기간 이어질 ‘터미네이터’ 논쟁의 시작으로 분석하고 있다. 지난해 11월 유엔 특정재래식무기금지협약(CCW) 회의에서 AI 탑재 무기 금지 방안이 유엔 전문가들과 시민단체를 중심으로 논의된 바 있지만, 실제 개발을 담당할 엔지니어들이 공식적으로 윤리 문제를 제기한 것은 이번이 처음이기 때문이다.

시민운동가들은 인도주의적 차원에서 AI 무기에 대한 강력한 법적 규제를 주장하고 있으나, 전문가들은 우울한 전망을 내놓고 있다. AI 기술의 범용성과 우수한 무기에 대한 인간의 탐욕, 그리고 적국에 대한 불신 때문에 멈출 수 없는 군비경쟁이 우려된다는 것이다. 호주의 저명한 철학자 피터 싱어는 “돈에 눈이 먼 군수업자, 각국의 지정학적 경쟁 등이 AI 무기 경쟁을 가속화시킬 수 있다”고 말했다. 제임스 밀러 전 미국 국방부 차관보도 “미국은 AI가 자동 판단하는 무기를 갖지 않는 게 원칙이지만, 러시아 혹은 중국 같은 적국이 AI를 장착한 강력한 무기를 준비한다면 그 대응은 달라질 것”이라고 우려했다.

‘기계가 스스로 판단해 인간을 살해하는 게 과연 온당한가’라는 윤리적 질문에 인류가 해답을 찾기도 전에 AI기술이 적절한 통제 없이 무한대로 확장될 가능성이 높다는 것이다.

허택회 기자 thheo@hankookilbo.com

김정우 기자 wookim@hankookilbo.com

기사 URL이 복사되었습니다.

세상을 보는 균형, 한국일보Copyright ⓒ Hankookilbo 신문 구독신청

LIVE ISSUE

댓글0

0 / 250
중복 선택 불가 안내

이미 공감 표현을 선택하신
기사입니다. 변경을 원하시면 취소
후 다시 선택해주세요.