[뉴스토마토 안창현 기자] 페이스북이 혐오발언이나 폭력, 자살 및 자해 등 유해 콘텐츠들에 대한 규정 집행을 강화하고 있다. 인공지능(AI) 기술을 도입하면서 다양한 형태의 유해 콘텐츠들에 대해 사전 조치율 90% 이상을 달성했다.
페이스북은 28일 서울 역삼동 페이스북코리아 본사에서 유해 콘텐츠들을 관리하는 '커뮤니티 규정'을 소개하고, 지난 2·3분기 규정 집행 현황을 담은 '제4차 커뮤니티 규정 집행 보고서'를 공개했다. 유동연 페이스북 APAC 콘텐츠 정책담당은 "커뮤니티 규정은 폭력과 자살, 자극적인 선동 등의 유해 콘텐츠들로부터 이용자들에게 안전한 환경을 제공하기 위해 마련된 규정"이라며 "다양한 분야의 전문가와 시민활동가, 비영리단체들을 비롯해 관계당국과 긴밀히 협조하고 있다"고 말했다. 여기에 사회문화적이고 국가적인 차이를 종합적으로 고려, 규정 내용들을 지속해서 업데이트하고 있다.
페이스북에 따르면, 매일 100만건 이상의 이용자 신고가 접수되는 상황에서 전 세계적으로 1만5000여명의 인력이 사용자 커뮤니티에서 들어오는 신고물에 대한 검토와 지원을 제공하고 있다. 또 유해 콘텐츠를 사전에 감지하고 이용자 신고에 대응하기 위해서 AI 기술을 활용한다. 지난 5년간 지속적으로 투자한 결과 유해 콘텐츠들의 사전 감지와 삭제 등 사전 조치율이 유형별로 90% 이상을 기록하는 상황이다.
가령 아동 나체나 성착취에 해당하는 콘텐츠로 삭제 조치를 당한 게시글은 3분기에만 1160만여건에 이르렀다. 이중에서 지난 1년간 규정 위반으로 삭제된 콘텐츠 99% 이상이 사전에 감지됐다. 자살과 자해 관련 콘텐츠의 경우, 페이스북은 해당 분야의 전문가들과 협력해 자살이나 자해를 묘사·선동하는 콘텐츠를 삭제 조치하는데, 지난 3분기 약 250만개 콘텐츠들에 대해 삭제 조치가 취해졌다. 이 역시 사전 조치가 이뤄진 비중은 97.3%였다.
유 정책담당은 "이전보다 향상된 감지 시스템으로 유형에 따라 90% 이상의 사전 조치율을 보이고 있지만 혐오발언, 따돌림이나 집단 괴롭힘과 같이 맥락과 의도가 중요한 경우는 사전 탐지가 힘들다"며 "이 경우 당사자 신고가 중요하고, 페이스북도 이에 따라 빠르게 조치를 취하기 위해 노력하고 있다”고 전했다.
페이스북은 28일 서울 역삼동 페이스북코리아 본사에서 '제4차 커뮤니티 규정 집행 보고서'를 공개했다. 사진/페이스북
안창현 기자 chahn@etomato.com