“세계 정부 만들어 통제를”
세계적인 물리학자 스티븐 호킹 박사가 최근 더타임스와의 인터뷰에서 급성장하는 인공지능(AI)을 통제할 수 없는 시점이 다가오고 있다며, 전세계를 총괄할 수 있는 정부를 만들어 대재앙을 막아야 한다고 주장했다고 11일(현지시간) 영국 언론들이 보도했다. 호킹 박사는 “통제 가능한 지금 AI기술을 통해 발생할 수 있는 잠재적인 위협을 규정하고, 이에 대한 세부적인 지침을 만들어야 한다”며 “가능하면 전세계적으로 AI기술의 사용 용도와 규제에 대한 표준화가 이뤄져야 하며, 신설된 세계 정부기관이 법규를 만드는 게 가장 좋을 것”이라고 인터뷰에서 설명했다. 기술이 발전함에 따라 핵 또는 생물학적 전쟁에 의해 인류가 멸망할 수 있다는 게 이유다.
호킹 박사는 2015년에도 AI의 위험성에 대해 경고한 바 있다. 그는 “AI는 어떤 목표를 달성하는데 최적화돼 있다”며 “문제는 AI의 목표가 인류의 목표와 부합하지 않을 때 발생한다”라고 설명했다. AI가 무심결에 인류를 망하게 할 수 있다는 설명도 곁들였다. 당시 호킹 박사는 “수력발전소를 만들어야 하는데, 물이 차는 지역에 개미집이 있다면 당신이 악의에 차서 개미들을 밟아 죽인 건 아니지만 어쨌거나 개미들은 죽인 게 된다. 개미에게는 똑같이 자신들을 죽인 나쁜 사람인 거다. 인류를 홍수가 나는 지역의 개미떼가 되지 않게 해야 한다” 고 말했다. 채지선 기자 letmeknow@hankookilbo.com
기사 URL이 복사되었습니다.
댓글0