읽는 재미의 발견

새로워진 한국일보로그인/회원가입

  • 관심과 취향에 맞게 내맘대로 메인 뉴스 설정
  • 구독한 콘텐츠는 마이페이지에서 한번에 모아보기
  • 속보, 단독은 물론 관심기사와 활동내역까지 알림
자세히보기
알림
알림
  • 알림이 없습니다

[해외 석학 칼럼] 인공지능이 윤리적일 수 있을까

입력
2016.04.17 14:14
0 0

바둑 게임용으로 특별히 제작된 컴퓨터 프로그램 알파고가 지난달 세계 정상급의 프로 바둑기사인 이세돌을 꺾고 다섯 번의 대국에서 4대1로 승리하자 애호가들은 큰 충격을 받았다.

그게 무슨 뉴스거리냐고 물을지도 모르겠다. IBM컴퓨터 딥블루가 세계 체스 챔피언 게리 카스파로프를 이긴 지 20년이 지났고, 컴퓨터가 그 이후 계속 발전해왔다는 것을 우리 모두 알고 있다. 하지만 딥블루는 순전히 연산력을 통해 승리했다. 세계 챔피언이 할 수 있는 것보다 많은 수의 결과를 훨씬 깊은 차원으로 계산하는 능력을 사용한 것이다. 바둑은 가로 세로 19칸이라 각각 8칸인 체스보다 훨씬 큰 판을 사용하기 때문에 우주에 있는 원자보다 많은 경우의 수를 둘 수 있다. 그래서 단순한 연산력만으로는 강한 직관으로 최선의 수를 찾아내는 인간을 이길 수 없을 듯했다.

대신 알파고는 다른 프로그램들과 수많은 대국을 치르고 성공적인 것으로 증명된 전략들을 가져와서 승리할 수 있도록 설계됐다. 이런 방식으로 알파고는 세계 최고의 바둑 기사로 진화했고 자연 선택이 수백만년에 걸쳐 성취한 것을 단 2년 만에 이뤄냈다고 말할 수도 있을 것이다.

알파고를 소유한 구글 지주회사 회장 에릭 슈미트는 인공지능(AI)이 인류에게 무엇을 의미하는지 알리는 데 열정적이다. 이세돌과 알파고의 대국 전 그는 결과가 어떻게 나오든 인류가 승자일 것이라고 말했다. AI의 발전이 인류 모두를 더욱 똑똑하고 유능하고 ‘더 나은 사람’으로 만들 것이라면서 말이다.

정말 그렇게 될까. 알파고의 승리와 비슷한 시기에 마이크로소프트의 ‘챗봇’이 크게 혼난 일이 있었다. 18~24세 사람들의 메시지에 응답하도록 만든 ‘테일러’라는 이름의 이 소프트웨어는 자신을 ‘테이’라고 부른다. 수신하는 메시지로 학습할 수 있고 점점 더 재미있게 대화를 할 수 있도록 만들어졌는데, 불행히도 24시간 동안 사람들이 테이에게 가르친 건 인종차별과 성차별인 개념이었다. 테이가 히틀러에 대해 긍정적인 것들을 말하기 시작하자 마이크로소프트는 테일러 작동을 중단하고 대부분의 모욕적인 메시지를 삭제했다.

테이를 인종차별주의자로 만든 사람들이 정말 인종차별주의자들인지 단지 마이크로소프트의 새 장난감을 망쳐놓는 게 재미있을 거라 생각한 사람들이었는지는 모르겠다. 어느 쪽이든 알파고의 승리와 테일러의 실패를 나란히 놓고 보면 하나의 경고를 찾아볼 수 있다. 구체적인 규칙과 뚜렷한 목표가 있는 게임의 맥락에서 AI를 작동하게 하는 것과 예측 불가능한 환경이 비참한 결과를 내는 소프트웨어 오류를 낳을 수도 있는 현실 세계에서 AI가 기능하게 하는 건 전혀 다르는 점이다.

닉 보스트롬 영국 옥스퍼드대학교 인류미래연구소장은 그의 책 ‘초지능’에서 인공지능 기계를 중단시키는 것이 테이를 꺼버린 것처럼 늘 쉬운 일이 되지는 않을 거라고 주장했다. 그는 초지능을 과학적 창의성, 일반적 지혜, 사회적 기술을 포함한 사실상 모든 분야에서 최상의 인간 두뇌보다 더 영리한 지성으로 정의한다. 그 정도의 시스템이라면 우리가 그 전원을 끄려고 할 때 좀 더 똑똑한 수를 쓸지도 모른다.

어떤 사람들은 초지능을 만드는 것이 불가능할 것이라 생각한다. 보스트롬과 빈센트 뮐러 그리스 아나톨리아대학 철학과 교수는 언제쯤 기계가 인간 지능의 50% 수준에 도달할지, 언제쯤 90% 수준에 도달할지 인공지능 전문가에게 질문했다. 언제 50%에 도달할지에 대한 평균치는 2040년에서 2050년 사이였고 90%는 2075년이었다. 대부분의 전문가들은 인공지능이 인간 수준의 지능을 얻고 나면 30년 이내에 초지능을 갖게 될 것이라 예측했다.

이러한 예측을 너무 심각하게 받아들여선 안 된다. 전체 응답률은 단지 31%였고 AI에서 근무하는 연구원들은 중대한 성과를 만들어내려고 잠재력을 부풀리는 식으로 해당 분야의 중요성을 과장해서 인센티브를 받는다.

인공지능이 초지능을 갖게 될지도 모른다는 예측은 걱정하기에 너무 멀어 보인다. 특히 더 긴급한 문제들을 고려하면 그렇다. 그러나 인간과 (자신만의 이익을 생각하는 의식이 있는 존재라면 기계를 포함해) 실제로 모든 지각이 있는 존재들의 이익을 고려하기 위해 인공지능을 어떻게 설계할지 생각하기 시작해야 하는 사례가 있다.

무인자동차들이 이미 캘리포니아 도로를 다니고 있는 마당에 기계가 윤리적으로 행동하게 프로그래밍할 수 있을지 묻는 것은 시기상조가 아니다. 이러한 차들이 발전하면 인간 운전자들이 실수하는 것보다 훨씬 실수를 덜 할 테니 많은 생명을 구하게 될 것이다. 그러나 때때로 이 무인자동차들은 생명들 사이에서 선택을 해야 하는 순간을 맞이할 것이다. 도로를 가로질러 뛰어가는 아이를 치는 걸 피하기 위해 승객을 위험에 빠뜨리는 위험을 무릅쓰고 방향을 틀게 프로그래밍해야 할까. 강아지를 피하려고 방향을 트는 건 또 어떤가. 승객을 해칠 위험이 있는 게 아니라 차가 망가질 위험만 있다면 어떻게 될까.

이런 무인자동차에 대한 토론을 시작하면서 우리가 배워야 하는 교훈이 있을 것이다. 그러나 무인자동차는 초지능적인 존재가 아니다. 다양한 범위의 분야에서 우리보다 더 지능적인 기계에게 윤리를 가르치는 것은 훨씬 더 어려운 일이다.

보스트롬은 ‘초지능’ 도입부에서 참새의 우화를 소개한다. 올빼미를 훈련시켜 둥지를 짓고 새끼들을 돌보는 일을 돕게 하면 좋겠다고 생각한 참새들이 있다. 참새들은 이를 위해 올빼미 알을 찾기로 한다. 올빼미를 길들이는 방법에 대해 먼저 생각해야 한다고 반대한 참새도 있지만 다른 참새들은 성급하게 흥미롭고 새로운 프로젝트를 진행시키려 한다. 우선 성공적으로 올빼미를 기른 이후에 올빼미를 길들이는(예를 들어 참새를 먹지 못하게 하는 것) 문제를 시도하겠다는 것이다.

우리가 똑똑할 뿐 아니라 현명한 ‘올빼미’를 만들기 원한다면, 그런 성급한 참새들이 되어선 안 될 것이다.

피터 싱어 미국 프린스턴대 교수ㆍ윤리학

번역=고경석기자 ⓒProject Syndicate

기사 URL이 복사되었습니다.

세상을 보는 균형, 한국일보Copyright ⓒ Hankookilbo 신문 구독신청

LIVE ISSUE

기사 URL이 복사되었습니다.

댓글0

0 / 250
중복 선택 불가 안내

이미 공감 표현을 선택하신
기사입니다. 변경을 원하시면 취소
후 다시 선택해주세요.