성희롱ㆍ혐오표현으로 물의를 빚은 인공지능(AI) 챗봇 ‘이루다’ 논란은 우리 사회에 AI의 윤리에 대해 다시 생각해보게 했다. 그러나 여전히 인공지능과 윤리에 대해 논하기는 쉽지 않다. 알고리즘의 메커니즘을 온전히 이해하지 않은 채 인공지능도 인간의 윤리 안에 머물러야 한다는 당위성만으로는 논의가 진척되지 않기 때문이다.
독일 카이저슬라우테른 공과대 사회정보학 교수이자 독일연방의회 인공지능조사위원회 위원인 저자는 대학 신입생을 대상으로 강의하듯 대중의 눈높이에 맞춰 알고리즘이 무엇인지, 어떻게 작동하는지 등을 설명한다. 그러면서 흔히 가치중립적이라 믿는 ‘머신러닝 알고리즘’에 수많은 수작업이 들어가고 인간이 조절하는 변수에 따라 오류와 차별이 생길 수 있다고 지적한다.
저자가 우려하는 것은 인간의 능력에 도달한 ‘강한 인공지능’의 잠재적 위험성이다. 넷플릭스 프로그램 추천이나 바둑 게임에 쓰이는 AI에 윤리적 문제가 개입할 일은 적겠지만, AI가 입사지원자 서류심사를 하거나 사람의 신용도 평가 등에 이용된다면, 다수가 위급한 상황에서 생존의 우선 순위를 결정해야 한다면 문제는 달라질 것이다.
기계가 인간을 판단하고 인간에게 중요한 결정을 내리도록 하는 게 옳은 일일까. 앞으로 강한 인공지능이 나타나게 될지 아닐지에 대해선 학자마다 의견이 분분하지만 저자는 그보다 우선 ‘그것이 존재해야 하는가’에 관해 토론해야 한다고 말하면서 자신의 회의적 견해를 내놓는다. 인간에 대한 판단, 지구와 인류에게 중요한 결정까지 기계에 맡길 필요는 없다는 것이다. 인간의 삶과 AI가 이제 뗄 수 없는 관계가 된 이상, 저자의 주장에 동의하든 반대하든 한번쯤 곱씹어볼 만한 내용이다.
기사 URL이 복사되었습니다.
댓글0