읽는 재미의 발견

새로워진 한국일보로그인/회원가입

  • 관심과 취향에 맞게 내맘대로 메인 뉴스 설정
  • 구독한 콘텐츠는 마이페이지에서 한번에 모아보기
  • 속보, 단독은 물론 관심기사와 활동내역까지 알림
자세히보기 닫기
오픈AI, 인공지능 위험 관리 강화... "대비팀 꾸리고, 이사회 비토권 부여"

알림

오픈AI, 인공지능 위험 관리 강화... "대비팀 꾸리고, 이사회 비토권 부여"

입력
2023.12.19 16:45
12면
0 0

해킹·무기 제작·신념 유도 등 AI 악용 방지책
전담 대비팀에 MIT 교수·안보전문가 등 참여
"이사회, 새 모델 출시 거부 가능... 안전 강화"

오픈AI의 생성 인공지능 챗봇 '챗GPT' 로고 이미지. AP 연합뉴스

오픈AI의 생성 인공지능 챗봇 '챗GPT' 로고 이미지. AP 연합뉴스

챗GPT 개발사인 오픈AI가 18일(현지시간) 인공지능(AI) 위험성 관리 방안을 내놨다. AI를 통해 생화학 무기 제조법을 알아내거나 개인정보를 캐내는 등의 '심각한 악용'을 방지하려는 목적이다. 전담팀을 꾸려 AI 모델 안전성을 검증하고, 이사회에 신규 모델 출시 거부권을 부여하는 게 골자다.

전담 '대비팀' 꾸려 4개 범주 위험 요소 검증

이날 오픈AI 홈페이지를 통해 '대비(preparedness)'라는 이름으로 발표된 위험성 관리 방안에 따르면, 전담 대비팀은 출시를 앞둔 AI 모델뿐 아니라 이미 출시된 모델에 대해서도 지속적인 모니터링을 하기로 했다. 위험도가 높다고 판명된 모델은 추가 보완을 하거나 출시를 보류하게 된다. 매사추세츠공대(MIT) AI 교수인 알렉산더 마드리가 이끄는 전담팀과 관련, 워싱턴포스트는 "AI 연구원과 컴퓨터 과학자, 국가 안보 전문가 등 다양한 전문가로 꾸려질 전망"이라며 "오픈AI는 미 국가핵안보국(NNSA) 등과도 접촉 중"이라고 전했다.

오픈AI는 대비팀을 통해 △사이버 보안 △화학·생물학·핵·방사능 위협(CBRN) △설득력 △모델 자율성 등 위험 요소 4개의 안전성을 검증하겠다고 밝혔다. '사이버 보안'은 해킹이나 개인정보 노출 등 보안 관련 위험성 지표이고, 'CBRN'은 생화학적 도구나 핵무기 등 개발에 AI가 도움을 줄 우려를 뜻한다. '설득력'은 AI가 사람들의 신념을 바꾸거나 행동하도록 부추길 위험을 가리키는 요소이며, '모델 자율성'은 시스템 오용 유도에 대한 취약성을 보여 주는 척도다. 오픈AI는 이들 네 가지로 모든 위험을 예견할 순 없다는 점을 인정하고, 지속적인 감시를 통해 필요시 '위험 요소' 범주를 추가하겠다고 설명했다.

보고서 토대로 출시 판단, 이사회엔 최종 거부권

지난달 16일 미국 샌프란시스코에서 열린 아시아태평양경제협력체(APEC) 최고경영자(CEO) 정상회의에 참석한 샘 올트먼 오픈AI CEO가 발언하고 있다. 샌프란시스코=AP 연합뉴스

지난달 16일 미국 샌프란시스코에서 열린 아시아태평양경제협력체(APEC) 최고경영자(CEO) 정상회의에 참석한 샘 올트먼 오픈AI CEO가 발언하고 있다. 샌프란시스코=AP 연합뉴스

신규 AI 모델의 출시 여부는 대비팀 보고서를 토대로 결정된다. 다만 경영진이 출시 결정을 내리더라도 이사회가 이를 거부할 수 있도록 했다. 결국 AI 모델 출시의 최종 결정권은 샘 올트먼 최고경영자(CEO)가 아니라, 비토권을 쥔 이사회가 갖게 된 셈이다. 블룸버그통신은 "이사회에 최첨단 기술 개발을 위한 안전장치를 강화하도록 권한을 부여한 것"이라고 짚었다.

이번 방안은 '올트먼 축출' 사태 이후 오픈AI 이사회와 경영진 간 권력 균형에 이목이 집중된 가운데 나왔다. 지난달 17일 이사회는 돌연 올트먼을 해고했으나, 직원들의 거센 반발로 닷새째인 21일 올트먼이 다시 CEO로 복귀했다. 이후 기존 이사진이 대거 사임했고, 현재 새 이사회를 꾸리고 있는 상태다.

김나연 기자

기사 URL이 복사되었습니다.

세상을 보는 균형, 한국일보Copyright ⓒ Hankookilbo 신문 구독신청

LIVE ISSUE

댓글0

0 / 250
중복 선택 불가 안내

이미 공감 표현을 선택하신
기사입니다. 변경을 원하시면 취소
후 다시 선택해주세요.