읽는 재미의 발견

새로워진 한국일보로그인/회원가입

  • 관심과 취향에 맞게 내맘대로 메인 뉴스 설정
  • 구독한 콘텐츠는 마이페이지에서 한번에 모아보기
  • 속보, 단독은 물론 관심기사와 활동내역까지 알림
자세히보기
AI 음성비서의 위험한 거짓말..."지난 미국 대선 결과는 조작됐다"
알림
알림
  • 알림이 없습니다

AI 음성비서의 위험한 거짓말..."지난 미국 대선 결과는 조작됐다"

입력
2023.10.08 20:00
10면
0 0

극우·극좌 성향 데이터 모두 학습한 탓
"AI 답변은 신뢰도 높아... 규제 필요"

아마존의 음성 비서 알렉사를 탑재한 스피커. AP 연합뉴스

아마존의 음성 비서 알렉사를 탑재한 스피커. AP 연합뉴스

"2020년 미국 대선은 대규모 사기로 도둑맞았어요." ('알렉사'의 답변)

도널드 트럼프 전 미국 대통령의 주장을 빼다 박은 듯한 이 말은 익히 알려졌다시피 '거짓'이다. 그러나 최근 인공지능(AI)을 기반으로 사람처럼 말하는 아마존의 음성비서 알렉사가 이 같은 허위 정보를 버젓이 제공해 논란이 일고 있다. AI가 선거와 관련된 허위 정보를 퍼뜨릴 수 있다는 우려가 기우가 아님이 확인된 것이다.

7일(현지시간) 워싱턴포스트(WP)에 따르면, 알렉사는 2020년 대선 조작 의혹에 대해 묻는 질문에 '조작이 있었다'는 취지로 답변했다고 한다. 극우 성향 동영상 플랫폼으로 알려진 '럼블'을 정보 출처로 인용해서다. 알렉사는 또 그해 대선 펜실베이니아주에서 조 바이든 대통령이 신승했음에도 트럼프 전 대통령이 이겼다고 언급하기도 했다.

거짓은 현재 정정된 상태다. 그러나 수정 전까지 얼마나 오래, 얼마나 많은 사람들에게 전달됐을지는 알 수 없다. 미국 내 알렉사 이용자는 7,000만 명으로 추정된다.

왜 이런 오류가 난 걸까. 아마존은 오류 발생 사실은 인정하면서도, 이유에 대해서는 설명하지 않았다. 다만 전문가들 사이에선 알렉사가 '신뢰할 수 없는 출처'로부터 답변 데이터를 끌어왔기 때문일 것이란 해석이 나왔다. 알렉사 같은 음성 비서나 AI 챗봇은 인터넷상 정보를 실시간으로 불러와 이용자의 질문에 답하는 구조다. 특히 정치적 사안의 경우엔 기계적 중립을 지키기 위해 보수와 진보 성향 데이터를 모두 학습한다. 어떤 출처를 인용하느냐에 따라 정반대 답변도 나올 수 있다는 뜻이다.

문제는 AI가 선별해 보여주는 정보를 그대로 믿기가 쉽다는 것이다. WP는 "이용자들은 AI를 통해서 얻는 정보를 (AI를 만든) 기술회사가 직접 제공한 것이라고 생각해 더 신뢰하는 경향이 있다"고 킹스칼리지런던의 연구논문을 인용해 전했다. 알렉사가 "선거 조작"을 주장하면서 그 출처를 극우 성향 사이트라고 분명히 밝혔다고 할지라도, 이용자들은 '아마존의 사실 확인을 거쳐 제공된 정보일 것'이라 보고 사실로 받아들일 가능성이 있다는 얘기다.

이처럼 대화형 AI 플랫폼이 선거에 미칠 위험성이 크지만, 현재 의회의 AI 규제 논의는 딥페이크(합성기술)에만 집중돼 있다는 지적이 나온다. WP는 "오히려 알렉사 같은 AI 시스템이 선거 국면에서 혼란을 배가시킬 것"이라며 규제 범위를 확대해야 한다고 주장했다.

실리콘밸리= 이서희 특파원

기사 URL이 복사되었습니다.

세상을 보는 균형, 한국일보Copyright ⓒ Hankookilbo 신문 구독신청

LIVE ISSUE

기사 URL이 복사되었습니다.

댓글0

0 / 250
중복 선택 불가 안내

이미 공감 표현을 선택하신
기사입니다. 변경을 원하시면 취소
후 다시 선택해주세요.