읽는 재미의 발견

새로워진 한국일보로그인/회원가입

  • 관심과 취향에 맞게 내맘대로 메인 뉴스 설정
  • 구독한 콘텐츠는 마이페이지에서 한번에 모아보기
  • 속보, 단독은 물론 관심기사와 활동내역까지 알림
자세히보기
오픈AI, 올트먼과 대립한 ‘안전팀’ 해체… 내전 사태 후폭풍?
알림
알림
  • 알림이 없습니다

오픈AI, 올트먼과 대립한 ‘안전팀’ 해체… 내전 사태 후폭풍?

입력
2024.05.18 11:41
0 0

AI 장기 위험 대비 ‘슈퍼얼라인먼트 팀’ 해산
‘안전성 중시’ 수츠케버·레이케도 회사 떠나

지난해 11월 샘 올트먼 오픈AI 최고경영자(CEO)가 미국 캘리포니아주 샌프란시스코에서 열린 아시아태평양경제협력체(APEC) CEO 서밋에서 토론하고 있다. 샌프란시스코=AP 연합뉴스

지난해 11월 샘 올트먼 오픈AI 최고경영자(CEO)가 미국 캘리포니아주 샌프란시스코에서 열린 아시아태평양경제협력체(APEC) CEO 서밋에서 토론하고 있다. 샌프란시스코=AP 연합뉴스

챗GPT 개발사 오픈AI가 인공지능(AI) 시스템의 장기적 위험 대비를 위한 ‘안전팀’을 사실상 해체했다고 미국 블룸버그통신이 17일(현지시간) 보도했다. AI 개발의 ‘속도·수익’을 중시하는 샘 올트먼 오픈AI 최고경영자(CEO)에 맞서 ‘안전성’을 강조해 왔던 주요 인력이 최근 줄줄이 회사를 떠난 가운데, 관련 내부 조직마저 해산된 것이다. 지난해 11월 오픈AI를 뒤흔들었던 ‘내전 사태’의 후폭풍이 아니냐는 해석이 나온다.

내부 소식통을 인용한 블룸버그에 따르면 오픈AI의 슈퍼얼라인먼트(superalignment) 팀원 일부가 다른 팀으로 재배치되고 있다. 지난해 7월 설치된 이 팀은 미래의 초지능 AI를 제어해 인간에게 유용하고 해롭지 않은 방식으로 작동하도록 연구하는 ‘안전 보장’ 부서다. 오픈AI는 “슈퍼얼라인먼트 팀을 독립 부서로 유지하는 대신, 안전 목표 달성을 돕는 연구 활동 전반에 걸쳐 그룹을 더 깊숙하게 통합하고 있다”고 밝혔다. 팀 해체를 인정한 셈이다.

주목할 대목은 오픈AI 공동 창립자 일리야 수츠케버 등 안전팀 핵심 인사들이 퇴사한 지 며칠 만에 ‘팀 해체’ 소식까지 전해졌다는 점이다. 오픈AI 수석과학자로 지난해 11월 말 ‘4일 천하’로 끝난 올트먼 축출 사태를 주도했던 수츠케버는 14일 “회사를 떠나기로 결정했다”고 밝혔다. 슈퍼얼라인먼트 팀을 이끌었던 또 다른 임원 얀 레이케도 퇴사했다.

오픈AI가 13일 새 인공지능 모델 'GPT-4o'를 공개했다. 오픈AI 영상 캡처

오픈AI가 13일 새 인공지능 모델 'GPT-4o'를 공개했다. 오픈AI 영상 캡처

두 사람은 평소 올트먼에 대해 ‘AI의 위험성에 대한 충분한 주의 없이, 사업 구축에만 집중한다’고 우려해 온 것으로 알려졌다. 실제 레이케는 “나는 오픈AI가 (안전성) 연구에 가장 좋은 곳이 될 것으로 생각했지만, 오랫동안 회사의 핵심 우선순위를 두고 경영진과 의견이 달랐다”고 토로했다. 이어 “인간보다 더 똑똑한 기계를 만드는 것은 본질적으로 위험하다”며 “수년간 오픈AI에서 안전 문화와 프로세스는 뒷전으로 밀러났다”고 지적했다. 수츠케버도 회사를 떠나며 ‘안전과 유익’을 강조했다. 올트먼 등 현 경영진과의 갈등에서 비롯된 사임이라는 해석이 나오는 이유다.

이에 앞서 다른 팀원 상당수도 최근 수개월에 걸쳐 회사를 떠난 것으로 전해졌다. 블룸버그는 “AI 개발 속도와 안전성 간 균형에 대한 오픈AI의 접근 방식을 두고 의문이 다시 제기되는 상황에서 이뤄진 일련의 이탈”이라고 짚었다.

김정우 기자

기사 URL이 복사되었습니다.

세상을 보는 균형, 한국일보Copyright ⓒ Hankookilbo 신문 구독신청

LIVE ISSUE

기사 URL이 복사되었습니다.

댓글0

0 / 250
중복 선택 불가 안내

이미 공감 표현을 선택하신
기사입니다. 변경을 원하시면 취소
후 다시 선택해주세요.