▶ “AI가 윤리적으로 작동하지 않으면 사업적으로도 문제”
인공지능(AI) 기술 개발에 박차를 가하는 구글이 윤리 문제에 대한 연구도 강화키로 했다.
월스트리트저널(WSJ)은 11일 매리언 크로크 구글 엔지니어링 담당 부사장이 WSJ 주최 행사에서 AI 윤리 담당 연구진 규모를 두 배로 늘리겠다는 방침을 밝혔다고 보도했다.
현재 구글에서 AI의 윤리적 책임 문제를 연구하는 인원은 200명이다. 연구진 규모가 두 배가 된다면 400명이 AI의 윤리를 연구하게 된다.
이와 함께 구글은 AI의 능력이 고도화되면서 오히려 인류에게 인종 차별 등 각종 해악을 끼칠 가능성을 차단하기 위해 프로그램 검증팀에 대한 예산 지원도 대폭 늘리기로 했다.
앞서 구글은 스마트폰 사용자의 손가락을 통해 심장박동 이상을 감지하는 AI 기술을 개발하는 과정에서 흑인 사용자에 대해서만 유독 오류가 자주 발생한다는 점을 발견해 수정하기도 했다.
크로크 부사장은 "AI가 윤리적으로 작동하지 않는다면 기술을 개발한 회사에도 사업적으로 문제가 된다"고 설명했다.
이 같은 구글의 방침은 최근 각종 정보기술(IT) 분야에서 AI의 윤리 문제가 부각된 데 따른 것으로 보인다.
앞서 IBM은 구조적 인종 차별 문제를 이유로 얼굴인식 사업에서 철수했다. 얼굴인식 기술은 AI를 이용해 얼굴 생김새로 사람의 신원을 파악하는 기술이다.
범죄자 식별 등에 쓰일 수 있지만, 이 기술에 인종·성별에 따른 편견이 심겨 있다는 우려도 크다.
흑인이나 아시아인, 여성 등 백인 남성이 아닌 사람은 신원을 잘못 파악할 가능성이 크다는 것이다.
또한 마이크로소프트(MS)는 얼굴인식 기술이 시민사회에 대한 감시에 악용될 수 있다는 우려에 따라 경찰 등 법 집행기관에 기술 판매를 하지 않겠다는 방침을 밝히기도 했다.
AI 윤리 문제는 기업뿐 아니라 각국 정부도 관심을 두고 있는 현안이다.
AI 기술을 실전에 활용할 계획인 미국 국방부는 AI 개발과 활용 과정에서 책임감을 가져야 한다는 윤리 규범을 채택했다.
유럽연합(EU)은 AI 기술이 윤리적인 방식으로 개발되고 사용될 수 있도록 개발자들에 대한 윤리적 규제를 강화할 방침이다.
<연합뉴스>
댓글 안에 당신의 성숙함도 담아 주세요.
'오늘의 한마디'는 기사에 대하여 자신의 생각을 말하고 남의 생각을 들으며 서로 다양한 의견을 나누는 공간입니다. 그러나 간혹 불건전한 내용을 올리시는 분들이 계셔서 건전한 인터넷문화 정착을 위해 아래와 같은 운영원칙을 적용합니다.
자체 모니터링을 통해 아래에 해당하는 내용이 포함된 댓글이 발견되면 예고없이 삭제 조치를 하겠습니다.
불건전한 댓글을 올리거나, 이름에 비속어 및 상대방의 불쾌감을 주는 단어를 사용, 유명인 또는 특정 일반인을 사칭하는 경우 이용에 대한 차단 제재를 받을 수 있습니다. 차단될 경우, 일주일간 댓글을 달수 없게 됩니다.
명예훼손, 개인정보 유출, 욕설 등 법률에 위반되는 댓글은 관계 법령에 의거 민형사상 처벌을 받을 수 있으니 이용에 주의를 부탁드립니다.
Close
x