인공지능(AI) 기술 개발에 박차를 가하고 있는 구글이 사내 윤리 문제 연구팀을 대폭 강화하기로 했다. 최근 AI 윤리 이슈가 각국 정부는 물론 정보기술(IT) 기업의 최대 관심사가 되면서 인력과 예산을 투입해 문제 발생 소지를 줄이기로 한 것이다.
매리언 크로크 구글 엔지니어링 담당 부사장은 11일(현지시간) 미 일간 월스트리트저널이 주최한 행사에서 “AI가 윤리적으로 작동하지 않는다면 기술을 개발한 회사에도 사업적으로 문제가 된다”며 자신이 이끄는 AI 윤리 담당 연구진 규모를 수년에 걸쳐 두 배로 늘리겠다고 밝혔다. 현재 구글에서 AI의 윤리적 책임 문제를 연구하는 인원은 200명이다. 연구진 규모가 두 배가 된다면 400명이 이를 연구하게 된다. 구글은 또 AI 능력이 고도화되면서 오히려 인류에게 인종 차별 등 각종 해악을 끼칠 가능성을 차단하기 위해 프로그램 검증팀 예산 지원도 대폭 늘리기로 했다.
이 같은 구글의 방침은 AI 윤리 문제가 사회적 이슈로 부각된 데 따른 것으로 보인다. 앞서 IBM은 인종 차별 문제를 이유로 얼굴인식 사업에서 철수했다. 얼굴인식 기술은 AI를 이용, 생김새로 사람의 신원을 파악하는 기술이다. 범죄자 식별 등에 쓰일 수 있지만, 이 기술에 인종ㆍ성별에 따른 편견이 심겨 있다는 우려도 크다. 흑인이나 아시아인, 여성 등 백인 남성이 아닌 사람은 신원을 잘못 파악할 가능성이 크다는 것이다. 마이크로소프트(MS)의 경우 얼굴인식 기술이 시민사회에 대한 감시에 악용될 수 있다는 우려에 따라 경찰 등 법 집행기관에 기술 판매를 하지 않겠다는 방침을 밝히기도 했다.
AI 윤리 문제는 기업뿐 아니라 각국 정부도 관심을 두고 있는 현안이다. 미 국방부는 AI 개발과 활용 과정에서 책임감을 가져야 한다는 윤리 규범을 채택했고, 유럽연합(EU)은 AI 기술이 윤리적인 방식으로 개발되고 사용될 수 있도록 개발자들에 대한 윤리적 규제를 강화할 방침이다.
기사 URL이 복사되었습니다.
댓글0