읽는 재미의 발견

새로워진 한국일보로그인/회원가입

  • 관심과 취향에 맞게 내맘대로 메인 뉴스 설정
  • 구독한 콘텐츠는 마이페이지에서 한번에 모아보기
  • 속보, 단독은 물론 관심기사와 활동내역까지 알림
자세히보기
"AI, 사람 통제 벗어날 가능성... 인류 멸종 수준 위협 될 수도"
알림
알림
  • 알림이 없습니다

"AI, 사람 통제 벗어날 가능성... 인류 멸종 수준 위협 될 수도"

입력
2024.03.13 16:00
수정
2024.03.13 16:09
1면
0 0

미국 국무부 의뢰 받아 작성된 보고서
AI로 인한 위험 경고... "정부 개입해야"

전 세계에 생성 인공지능 열풍을 일으킨 오픈AI 로고와 인공지능을 형상화한 이미지. AP 연합뉴스

전 세계에 생성 인공지능 열풍을 일으킨 오픈AI 로고와 인공지능을 형상화한 이미지. AP 연합뉴스


인공지능(AI)의 발전을 바라보는 시선은 크게 둘로 갈린다. 'AI가 삶을 더 풍요롭게 만들 것'이라는 긍정론과 '인류의 파멸을 가져올 것'이란 비관론이다.

상반된 견해가 공존하는 가운데 비관론에 힘을 싣는 섬뜩한 전망이 나왔다. 12일(현지시간) CNN 등에 따르면, AI 정책 조언 등을 제공하는 미국 민간업체 글래드스톤 AI는 미국 국무부의 의뢰를 받아 작성한 보고서를 통해 "최악의 경우 AI는 인류에 멸종 수준의 위협을 가할 수 있다"고 경고했다. "AI의 부상이 핵무기의 도입만큼이나 세계 안보를 불안정하게 만들 가능성이 있다"면서다. 이런 극단적 상황을 막으려면 정부가 긴급히 개입할 필요가 있다는 게 보고서의 주장이다.

'무기화'와 '통제력 상실' 가능성 경고

이 보고서는 1년여에 걸쳐 오픈AI·구글·메타 같은 주요 AI 기업의 경영진, 사이버 보안 연구원, 대량살상무기 전문가, 안보 관련 당국자 등을 인터뷰한 내용을 토대로 작성됐다. 인터뷰에 참여한 사람은 200명이 넘는다. 국무부 측은 "AI의 발전이 미국의 이익 보호라는 목표와 일치하는지 혹은 상충하는지를 평가하기 위해 보고서를 의뢰했다"고 CNN에 말했다.

보고서는 AI가 가져올 수 있는 위험을 크게 두 가지로 정리했다. '무기화'와 '통제력 상실'이다. 보고서는 "가장 발전한 AI 시스템이 무기화해 잠재적으로 돌이킬 수 없는 피해를 줄 수 있다"고 했다. AI 개발 경쟁이 치열해질수록 기업들이 AI를 빨리 고도화하기 위해 안전을 후순위로 미룰 수 있고, 그렇게 되면 AI가 사실상 무기로 변질될 가능성이 있다는 것이다. 보고서는 또 "AI 연구소 내부에는 '어느 시점이 되면 내가 개발 중인 AI에 대한 통제력을 상실해 세계 안보에 파괴적인 결과를 초래할 수 있다'는 우려가 있다"고 했다.

생성 인공지능(AI)의 급격한 발달과 함께 영화 '터미네이터'처럼 AI가 인류에 위기를 가져올 수 있다는 우려가 커지고 있다. 게티이미지뱅크

생성 인공지능(AI)의 급격한 발달과 함께 영화 '터미네이터'처럼 AI가 인류에 위기를 가져올 수 있다는 우려가 커지고 있다. 게티이미지뱅크


"AI 훈련용 컴퓨터 성능 제한 등 필요"

보고서에 따르면, AI 전문가들은 올해 AI로 인한 사고가 전 세계적으로 돌이킬 수 없는 영향을 미칠 가능성을 4%에서 최대 20%로 봤다. 여기서 관건은 '범용인공지능'(AGI·모든 영역에서 인간에 버금가는 능력을 보이는 AI)의 진화 속도가 될 것이라고도 점쳤다. AGI가 언제 완성되느냐에 따라 AI로 인한 위험이 빨리 발생할 수도, 늦게 발생할 수도 있다는 뜻이다. 그러면서 보고서는 오픈AI·구글 딥마인드·앤스로픽·엔비디아 등이 공통적으로 AGI에 도달할 시점을 2028년으로 보고 있다고 덧붙였다.

이런 진단을 바탕으로 보고서 저자들은 "미국 정부의 개입이 분명하고도 긴급하게 필요하다"고 주장했다. 구체적으로 AI 감독 기관과 규제 안전장치를 만들고, AI 모델 훈련에 사용할 수 있는 컴퓨터 성능을 제한하는 방안 등을 제시했다.

실리콘밸리= 이서희 특파원

기사 URL이 복사되었습니다.

세상을 보는 균형, 한국일보Copyright ⓒ Hankookilbo 신문 구독신청

LIVE ISSUE

기사 URL이 복사되었습니다.

댓글0

0 / 250
중복 선택 불가 안내

이미 공감 표현을 선택하신
기사입니다. 변경을 원하시면 취소
후 다시 선택해주세요.