AI가 음성채팅 내 혐오발언 걸러준다? 인텔 신기술 공개
2021.04.12 16:14 게임메카 김미희 기자
인텔이 인공지능을 기반으로 게임 음성채팅에서 욕설 등 원하지 않는 혐오발언을 필터링하는 기술을 공개했다.
인텔이 준비 중인 인공지능 음성채팅 필터링 기술은 GDC 2019에서 그 틀이 소개된 바 있으며, 지난 3월 19일에 공개된 GDC 2021 쇼케이스 영상을 통해 다시 한 번 구체적인 내용이 공개됐다. 이름은 블리프(Bleep)이며 인텔이 AI 기반 온라인 커뮤니티 관리 툴을 개발한 영국 개발사 스피릿 AI와 2년 간 협업한 기술이다.
핵심은 AI를 기반으로 음성채팅 내용을 감지하고, 사용자가 원하지 않는 표현이 감지되면 음소거나 경고음을 내보내 그 내용을 전달하지 않는 것이다. ‘공격적인 발언’, ‘성소수자 혐오’, ‘여성혐오’, ‘인종차별 및 외국인 혐오’, ‘백인 우월주의’, ‘N-워드(흑인 인종차별)’ 등으로 카테고리가 구분되어 있고, 카테고리 별로 필터링 수위를 네 단계로 나눠서 조정할 수 있다.
다만, 어떻게 실시간 음성채팅에서 사용자가 원치 않는 내용을 감지하고 차단하는지, 이 기술이 실제 상황에서 얼마나 실용성이 있을지는 검증되지 않은 상황이다. 이에 대해 인텔 측이 공개한 기술 시연이나 구체적인 설명은 없고, 인텔 역시 기술이 최종적인 형태가 아니기에 출시까지 변경될 가능성이 있다고 밝혔다.
현재 게임 내에서 음성채팅 필터링은 찾아보기 어렵다. 그러나 보편적으로 적용된 텍스트 채팅 필터링의 경우 현재 완벽하게 구현됐다고 말하기 어려운 단계이며, 말하는 사람의 의도를 파악하지 못한 오제재 사례도 있다. 이 와중, 텍스트 채팅보다 실시간으로 내용과 의도를 파악하기 어려운 음성채팅에 정확한 필터링 기능을 제공할 수 있느냐는 의문으로 남는다.
실제로 관련 소식을 전한 매체 대수는 기술적인 맹점을 파고드는 변칙적인 발언을 걸러내지 못하거나, 반대로 표현의 자유를 과하게 침해하는 사례가 발생할 수 있음을 지적했다. 혐오발언 문제는 기술보다는 게이머 인식전환이 기반이 되어야 궁극적으로 해소될 수 있다는 의견도 있다. 인텔 로저 챈들러(Roger Chandler) 솔루션 부문 총괄은 GDC 2021 프레젠테이션을 통해 “우리는 기술이 정답이 아니라는 것을 알고 있으나 문제를 완화하는데 도움이 될 수 있다고 믿는다”라며 기술이 100% 해결책은 아니라는 입장을 전했다.
블리프는 현재 베타 단계에 돌입했으며, 올해 말에 인텔 데스크톱 및 노트북 프로세서에 정식으로 도입될 예정이다.