서방·중국 AI 최고 과학자들, 성명서 발표
“냉전 때 핵 다뤘던 수준의 글로벌 협력을”
서방과 중국의 인공지능(AI) 분야 최고 전문가들이 AI 기술 개발의 ‘레드 라인’(한계선)을 확인했다. AI가 인간의 승인 없이 ‘자기 복제’를 한다거나 대량살상무기(WMD) 설계, 치명적인 사이버 공격 등을 실행할 수 없도록 반드시 제한을 둬야 한다는 얘기다. 이를 위해선 냉전 시기에 핵전쟁을 막으려 했던 노력과 비슷한 수준의 글로벌 협력이 필요하다고도 촉구했다.
FT "베이징서 AI 석학들 회동... 위험성 논의"
영국 파이낸셜타임스(FT)는 18일(현지시간) “지난주 중국 베이징에서 서방과 중국의 주요 AI 과학자들이 만나 바이오 무기, 사이버 공격 등 AI 개발의 위험성을 논의했다”며 이같이 보도했다. 당시 베이징에선 AI 안전 관련 국제회의가 열렸는데, 이 자리에는 각국의 AI 전문가들뿐만 아니라 중국 정부 관계자들도 ‘공식 지지’의 표현으로 참석했다고 한다.
FT에 따르면 과학자들은 회의 종료 이튿날 발표한 성명을 통해 “우리 생애 내에 인류에게 재앙적이거나 실존적인 위험”을 멈추려면 AI 안전에 대한 공동의 접근 방식이 필요하다고 경고했다. 이어 “냉전이 한창이던 시절, 국제 과학계와 정부의 공조로 핵 재앙을 피할 수 있었다. 인류는 전례 없는 기술 때문에 발생할 수 있는 재앙을 막기 위해 다시 한번 협력해야 한다”고 강조했다. 성명에는 신경망 연구로 튜링상을 수상해 ‘AI의 대부’로 불리는 제프리 힌튼과 요슈아 벤지오, 미국 캘리포니아대 버클리의 스튜어트 러셀 컴퓨터공학과 교수, 중국의 저명한 과학자 앤드루 야오 등이 참여했다.
"AI 시스템 점점 자율화... 개발 '한계선' 필수"
특히 주목되는 대목은 이들의 모임에서 인간과 동등하거나 우월한 AI 시스템, 곧 ‘범용인공지능(AGI)’ 개발의 위협도 거론됐다는 점이다. 벤지오는 “논의 초점은 강력한 AI 시스템이 넘어선 안 될, 그리고 전 세계 정부가 AI 개발·배포와 관련해 설정해야 할 ‘레드 라인’이었다”고 FT에 말했다. 신문은 이 한계선에 대해 “점점 더 자율화되는 (AI) 시스템에 대한 것”이라고 전했다.
실제 성명에는 “어떤 AI 시스템도 명시적인 인간의 승인과 도움 없이 스스로 복제 또는 개선하려 한다거나, 자신의 힘과 영향력을 과도하게 늘리려는 조치를 취해선 안 된다”는 문구가 담겼다. 또 “어떤 시스템도 WMD를 설계하거나 생화학무기 협약을 위반하도록, (자신의) 능력을 실질적으로 향상시켜선 안 된다. 심각한 재정적 손실 또는 그에 상응하는 피해를 초래할 사이버 공격을 자율적으로 실행할 수 있어서도 안 된다”는 내용 역시 포함돼 있다.
이번 회의는 ‘세계의 양대 기술 강국인 미국과 중국이 AI 안전에 대해 협력해야 한다’는 학계의 목소리가 커지는 가운데 열렸다. 지난해 11월 조 바이든 미국 대통령과 시진핑 중국 국가주석은 샌프란시스코 정상회담에서 이 문제를 논의한 뒤 관련 대화를 이어가기로 합의했다. 주요 AI 기업 관계자들도 최근 몇 달간 비공개로 중국의 AI 전문가들을 만난 것으로 전해졌다.
기사 URL이 복사되었습니다.
댓글0