[뉴스토마토 김동현 기자] 세계 각국에서 인공지능(AI) 규제 움직임이 나타나고 있다. 유럽연합(EU)의 AI 규제안 법제화 움직임이 AI 경쟁을 벌이는 주요국에도 영향을 미치는 모습이다. 국내에서도 AI 관련 가이드라인 마련에 속도가 붙었다. 일단은 민간의 자율규제 강화에 무게가 실리고 있지만, 규제를 법제화해야 한다는 목소리도 점차 커지고 있어 양측의 갈등이 불가피할 전망이다.
23일 업계에 따르면 EU집행위원회는 지난달 AI 신뢰 확보를 위한 위험기반 AI 시스템 규제체계를 제시했다. 해당 규제안은 AI 위험을 △금지(Unacceptable risk) △고위험(High-risk) △제한된 위험(Limited-risk) △최소 위험(Minimal-risk) 등으로 구분하고 위험 수준에 따라 비례한 위험관리를 제안했다. 위험 수준은 AI의 의도된 사용목적, 건강·안전·기본권에 미치는 영향 등을 고려해 판단한다. 고위험 AI의 경우 위험관리시스템 운용, 당국 보고 등 의무가 부과된다.
국내에서 AI 윤리 논의를 촉발한 AI 챗봇 '이루다'. 올초 혐오 표현 등이 논란이 되며 서비스를 중단했다. 사진/스캐터랩
승인절차가 남았지만 이번 EU집행위가 마련한 AI 규제안은 AI 관련 법적 구속력을 가진 최초의 법안으로 향후 글로벌 AI 표준 마련 작업에도 영향을 줄 것이라는 전망이 나온다. 이경선 정보통신정책연구원(KISDI) 디지털경제사회연구본부 연구위원은 'EU 인공지능 규제안의 주요 내용과 시사점' 보고서에서 "EU 규제안이 AI 규제의 글로벌 표준으로 자리 잡을 수 있어 EU의 규제 방향을 지속해서 모니터링하며 우리 AI 기업이 이러한 규제에 대응력을 갖출 수 있도록 지원책을 마련할 필요가 있다"고 밝혔다. 국내외 환경을 살피며 국내 AI 생태계 발전을 도모해야 한다는 주장이다.
한국을 비롯해 미국, 일본 등 AI 산업을 이끄는 국가들도 앞다퉈 AI 윤리 가이드라인을 제정 중이다. 다만 EU 규제안과 달리 시장 활성화 차원의 자율규제에 초점을 두고 있다. 미국에서는 지난해 1월 과잉규제 지양과 위험기반 사후규제를 중심으로 한 AI 신뢰확보 10대 원칙을 담은 연방정부 규제 가이드라인을 발표했다. 일본, 영국 등은 AI 가이드라인·원칙 등을 지속해서 고도화 중이다.
방통위가 준비 중인 'AI 기반 추천서비스 이용자보호 기본원칙(안)'. 사진/KISDI
한국 정부도 AI 신뢰성 확보를 위한 가이드라인을 마련하고, 2025년까지 민간 신뢰 확보 검증체계·플랫폼을 개발할 계획이다. 방송통신위원회, 개인정보보호위원회는 미디어·콘텐츠 플랫폼, 개인정보 분야 등 각 업무에 특화한 가이드라인을 마련 중이다. 네이버·카카오, SK텔레콤 등 국내 플랫폼 업계도 AI 윤리·가치를 마련하는 등 자율규제 체계를 확립해나가고 있다. 황용석 건국대 미디어커뮤니케이션학과 교수는 지난 20일 열린 '방통위 AI 기반 추천서비스 기본원칙 마련 토론회'에서 "유럽 규제 모델은 빅테크를 견제하는 패권주의 차원에서 나온 것"이라며 "방통위 발표가 법률과 같은 제도적 접근이 아닌 기업 자율 책무 수행을 위한 자율규제 원칙이라는 점에서 바람직하다"고 평가했다.
이러한 자율규제 움직임 속 국내 일각에선 반발하는 목소리도 나오고 있다. AI가 플랫폼·디바이스를 넘어 전 산업·사회로 적용되는 만큼 명확한 위험관리·예방·권리구제 방안을 법제화해야 한다는 주장이다. 민변 디지털정보위원회, 정보인권연구소, 진보네트워크센터, 참여연대 등은 오는 24일 공동 기자회견을 열고 AI 규제법·AI 국가 감독체계 마련 등을 촉구할 계획이다.
김동현 기자 esc@etomato.com