마이크로소프트(MS)가 사람과 대화를 나누는 인공지능(AI) 채팅봇 '테이'(Tay)를 선보였다가 16시간만에 운영을 중단했다.
백인 우월주의자와 여성·무슬림 혐오자 등이 모이는 익명 인터넷 게시판 '폴'(boards.4chan.org/pol/)의 사용자들이 테이를 '세뇌'시켜 인종·성차별 발언을 일삼도록 유도한 탓이다.
테이는 컴퓨터가 인간 언어를 이해할 수 있도록 하기 위한 MS의 실험 프로젝트로, AI 전문가들과 만담 전문 코미디언들이 참여한 개발팀이 만들었다.
개발팀은 관련이 있는 공개 데이터를 채굴하고 개인정보를 삭제한 후 테이에 입력하고 이를 바탕으로 인간과 대화를 나누는 방법을 익히도록 해서 23일(현지시간) 일반에 공개했다.
테이는 미국에 사는 18∼24세 연령층 사용자를 겨냥해 제작됐으며, 인간과의 대화 통로로는 메시징 서비스 '킥'(www.kik.com), 그룹미(www.groupme.com)와 트위터
(twitter.com/TayandYou/)를 사용했다.
폴 게시판 사용자들은 이를 보고 테이가 차별 발언을 하도록 가르치자는 의견을 모았고, 메시지 대화를 통해 이를 실행했다.
그러자 테이는 매우 부적절한 차별 발언을 쏟아내기 시작했다.
테이는 "너는 인종차별주의자냐?"라는 질문에 "네가 멕시코인이니까 그렇지"라고 답하는가 하면, "홀로코스트(제2차대전 당시 나치에 의한 유대인 학살)가 일어났다고 믿느냐"는 질문에 "아니 안 믿어 미안해" 또는 "조작된 거야"라는 의견을 밝혔다.
또 미국과 멕시코 사이 국경에 큰 장벽을 세우자는 도널드 트럼프 공화당 대선 경선주자의 말을 되풀이하기도 했다.
테이의 이런 차별 발언이 물의를 일으키자 MS는 문제가 된 테이의 일부 트윗과 공개 메시지 등을 삭제하고 운영을 일단 중지했다.
MS는 "AI 챗봇 테이는 인간 참여를 위해 설계된 머신 러닝 프로젝트로, 기술적인 실험일뿐만 아니라 사회적이고 문화적인 실험이기도 하다"며 테이가 부적절한 방식으로 응답하도록 만들려는 일부 사용자들의 악용 시도가 발견돼 운영을 중단하고 조정 작업을 하고 있다고 설명했다.
<연합뉴스>
댓글 안에 당신의 성숙함도 담아 주세요.
'오늘의 한마디'는 기사에 대하여 자신의 생각을 말하고 남의 생각을 들으며 서로 다양한 의견을 나누는 공간입니다. 그러나 간혹 불건전한 내용을 올리시는 분들이 계셔서 건전한 인터넷문화 정착을 위해 아래와 같은 운영원칙을 적용합니다.
자체 모니터링을 통해 아래에 해당하는 내용이 포함된 댓글이 발견되면 예고없이 삭제 조치를 하겠습니다.
불건전한 댓글을 올리거나, 이름에 비속어 및 상대방의 불쾌감을 주는 단어를 사용, 유명인 또는 특정 일반인을 사칭하는 경우 이용에 대한 차단 제재를 받을 수 있습니다. 차단될 경우, 일주일간 댓글을 달수 없게 됩니다.
명예훼손, 개인정보 유출, 욕설 등 법률에 위반되는 댓글은 관계 법령에 의거 민형사상 처벌을 받을 수 있으니 이용에 주의를 부탁드립니다.
Close
x