[뉴스토마토 이선율 기자] 인공지능(AI) 챗봇 '이루다'를 통한 성차별, 장애인 혐오 발언에다 해당 개발사가 무단으로 개인정보를 유출했다는 논란까지 불거지면서 정부가 위법성 조사에 착수한 가운데 이를 계기로 기업들의 책임을 강화하고 규제할 수 있는 엄격한 가이드라인이 마련돼야한다는 지적이 나오고 있다. 이번 ‘이루다 사태’를 계기로 개인정보보호법 처리 방침 관리에 소홀한 기업들의 책임을 묻고 사전에 예방하는 방안을 구체적으로 마련해야한다는 목소리다.
이루다 사태와 관련해 최근 개인정보보호위원회, KISA(한국인터넷진흥원) 등이 조사에 착수했고, 방송통신위원회도 AI 이용자 보호를 위한 구체적 실행지침을 마련하고, 책임소재, 권리구제 절차를 포괄하는 내용을 담은 법체계 정비에 나선 상황이다. 이 가운데 산업계 일각에서는 정부 규제가 이제 막 꽃을 피우려는 AI 관련 산업에 족쇄가 되는 것 아니냐는 우려섞인 목소리도 나오고 있다.
AI챗봇 이루다. 사진/스캐터랩
이와 관련해 전문가들은 신뢰할 수 있는 AI 개발이 수반돼야 제2의 이루다 사태를 막을 수 있으며, AI 산업도 발전할 수 있을 것이라고 지적한다. 법적 규제의 필요성에 대해선 온도차가 있긴 하지만, 일단 AI가 신뢰를 얻으려면 국민의 기본권을 보호할 수 있는 선에서 기술을 개발해야 하며 이를 위한 제반 상황 정비가 필수라는 게 공통된 목소리다.
19일 장여경 정보인권연구소 상임이사는 “AI 윤리규범 관련 강제성을 부여했을 때 산업발전이 저해된다는 논리에 공감할 수 없다”면서 “국민들이 자신이 보호될 수 있다는 신뢰가 수반돼야 산업도 제대로 발전할 수 있다. 세계 각국은 AI제품과 학습 데이터에 대해 제조물 책임법, 소비자 보호법, 평등법 등을 정교화하고 있다. 기존 법에서 모호한 부분은 새로 규제를 마련하는 방식으로 AI 관련 규정을 재정비해야한다”고 강조했다.
실제로 이미 유럽과 미국, 캐나다 등에서는 AI 윤리규범에 대한 구체적인 가이드라인과 법규가 마련돼있다. 유럽연합은 지난 2019년 4월 ‘신뢰가능 인공지능 가이드라인’을 공식 채택하고 모든 시민이 인공지능의 혜택을 누릴 수 있는 인간 중심의 윤리적 목적을 달성하는 동시에 신뢰할 수 있는 인공지능 기술의 발전 기준을 구체적으로 제시했다. 또 2020년 2월에는 ‘인공지능 백서’에서 “인공지능이 정부 및 공공기관과 시민 간의 관계를 변화시키고 형성하고 있다”며, 공공기관이 유럽이 지향하는 신뢰가능 인공지능의 혁신을 이끌어야 한다고 선언한 바 있다.
고학수 한국인공지능법학회장(서울대 로스쿨 교수)은 이번 이루다 사태를 시작으로 AI 윤리규범에 대한 지침이 보다 구체적으로 마련되고, 다양한 사례를 모아 각계에서 연구가 심도 깊게 논의돼야 한다고 지적했다.
고 회장은 "정부에서 인공지능 윤리원칙 등을 다룬 문서가 있지만 내용이 굉장히 추상적“이라며 ”그래서 기업의 개발자들이 문서를 보고 나면 이 원칙을 어떻게 적용할지 가늠하기 어려운 실정이다. 정부는 AI윤리 기준에 대한 원칙을 좀더 구체화하는 작업을 해야한다. 또한 기업도 이를 어떻게 올바르게 적용하고 판단할지 고민을 많이 하고 반영해야한다“고 말했다.
다만 고 교수의 경우 AI윤리규범을 법적으로 규제하는 것에는 신중해야 한다는 의견을 표했다. 고 교수는 “스캐터랩이 이루다 AI챗봇에 나름의 금기어를 만드는 등 시도는 했는데, 이를 두고 금기어를 좀더 늘려야한다는 식으로 기준을 만들어버리면 금기어 리스트 선정 기준을 두고 또 법을 바꿔야한다는 식의 반론이 생길 수 있다"면서 "다만 이번을 계기로 문제가 되는 개별 상황 사례를 많이 축적하는 한편, 학계와 기업들도 다양한 사례들을 통해 문제점을 개선해나가는 시도는 필요하다”고 말했다.
이선율 기자 melody@etomato.com