AI 장기 위험 대비 ‘슈퍼얼라인먼트 팀’ 해산
‘안전성 중시’ 수츠케버·레이케도 회사 떠나
챗GPT 개발사 오픈AI가 인공지능(AI) 시스템의 장기적 위험 대비를 위한 ‘안전팀’을 사실상 해체했다고 미국 블룸버그통신이 17일(현지시간) 보도했다. AI 개발의 ‘속도·수익’을 중시하는 샘 올트먼 오픈AI 최고경영자(CEO)에 맞서 ‘안전성’을 강조해 왔던 주요 인력이 최근 줄줄이 회사를 떠난 가운데, 관련 내부 조직마저 해산된 것이다. 지난해 11월 오픈AI를 뒤흔들었던 ‘내전 사태’의 후폭풍이 아니냐는 해석이 나온다.
내부 소식통을 인용한 블룸버그에 따르면 오픈AI의 슈퍼얼라인먼트(superalignment) 팀원 일부가 다른 팀으로 재배치되고 있다. 지난해 7월 설치된 이 팀은 미래의 초지능 AI를 제어해 인간에게 유용하고 해롭지 않은 방식으로 작동하도록 연구하는 ‘안전 보장’ 부서다. 오픈AI는 “슈퍼얼라인먼트 팀을 독립 부서로 유지하는 대신, 안전 목표 달성을 돕는 연구 활동 전반에 걸쳐 그룹을 더 깊숙하게 통합하고 있다”고 밝혔다. 팀 해체를 인정한 셈이다.
주목할 대목은 오픈AI 공동 창립자 일리야 수츠케버 등 안전팀 핵심 인사들이 퇴사한 지 며칠 만에 ‘팀 해체’ 소식까지 전해졌다는 점이다. 오픈AI 수석과학자로 지난해 11월 말 ‘4일 천하’로 끝난 올트먼 축출 사태를 주도했던 수츠케버는 14일 “회사를 떠나기로 결정했다”고 밝혔다. 슈퍼얼라인먼트 팀을 이끌었던 또 다른 임원 얀 레이케도 퇴사했다.
두 사람은 평소 올트먼에 대해 ‘AI의 위험성에 대한 충분한 주의 없이, 사업 구축에만 집중한다’고 우려해 온 것으로 알려졌다. 실제 레이케는 “나는 오픈AI가 (안전성) 연구에 가장 좋은 곳이 될 것으로 생각했지만, 오랫동안 회사의 핵심 우선순위를 두고 경영진과 의견이 달랐다”고 토로했다. 이어 “인간보다 더 똑똑한 기계를 만드는 것은 본질적으로 위험하다”며 “수년간 오픈AI에서 안전 문화와 프로세스는 뒷전으로 밀러났다”고 지적했다. 수츠케버도 회사를 떠나며 ‘안전과 유익’을 강조했다. 올트먼 등 현 경영진과의 갈등에서 비롯된 사임이라는 해석이 나오는 이유다.
이에 앞서 다른 팀원 상당수도 최근 수개월에 걸쳐 회사를 떠난 것으로 전해졌다. 블룸버그는 “AI 개발 속도와 안전성 간 균형에 대한 오픈AI의 접근 방식을 두고 의문이 다시 제기되는 상황에서 이뤄진 일련의 이탈”이라고 짚었다.
기사 URL이 복사되었습니다.
댓글0