[뉴스토마토 오세은 기자] 개인정보보호위원회가 인공지능(AI) 모델·시스템을 개발하거나 제공할 때 프라이버시 리스크를 체계적으로 관리할 수 있는 정부 차원의 모델을 제시했습니다. AI 시대 데이터 처리방식이 여러 프라이버시 리스크를 유발하는 만큼 체계적인 이해를 바탕으로 합리적인 경감조치를 취해야 한다는 취지인데요. 개인정보위는 이를 위한 특화된 거버넌스 구축의 필요성도 강조했습니다.
개인정보위원회는 19일 서울 엘타워에서 ‘AI 시대 개인정보 정책 종합 설명회’를 열고 ‘안전한 AI·데이터 활용을 위한 AI 프라이버시 리스크 관리 모델’을 공개했습니다. 모델에는 AI 생애주기에 걸친 프라이버시 리스크 관리의 방향과 원칙, 리스크 유형, 경감방안 등이 담겼습니다.
이날 발표자로 나선 임수연 개인정보위 인공지능프라이버시팀 사무관은 “AI 시대 데이터 처리방식은 개인정보 유출, 노출 등 전형적 프라이버시 리스크는 물론 딥페이크로 인한 인격권 침해 등 새로운 리스크를 유발하고 있다”라며 “리스크를 적절하게 관리하지 못하면 정부 주체와 신뢰 형성이 어렵다”라고 말했습니다.
그동안 국내외 정부기관, 학계·연구계를 중심으로 AI 전반의 리스크에 대한 연구가 진행되고 있고 리스크 관리 프레임워크가 마련되고 있지만 아직 초기 단계고, 일선 현장에서 참고할 수 있는 정리된 자료가 부족한 상황이었는데요. 개인정보위는 지난해 12월부터 AI 프라이버시 민·관 정책협의회 논의를 중심으로 이러한 모델을 마련했습니다.
개인정보위는 해당 모델을 통해 리스크를 줄이기 위한 안전 조치도 안내했습니다. 관리적 안전 조치로 학습데이터 출처·이력 관리, 허용되는 이용 방침 마련 등을 포함했고, 기술적 안전 조치로 AI 학습데이터 전처리(불필요한 데이터 삭제, 가명·익명화, 중복제거 등), AI 모델 미세조정을 통한 안전장치 추가 등을 제시했습니다.
특히 개인정보위는 AI 프라이버시 리스크를 관리하기 위해서는 특화된 거버넌스 구축이 필요하다고 밝혔는데요. 이날 발표자로 나선 임 사무관은 “AI 환경에서는 개인정보보호, AI 거버넌스, 사이버보안, 안전·신뢰 등 다양한 디지털 거버넌스 요소가 상호연관되기 때문에 전통적인 프라이버시 거버넌스 재편이 필요하다”라고 설명했습니다. 개인정보위는 이러한 과정 속 개인정보보호책임자(CPO)의 주도적·역할 책임감이 중요하다고 강조했는데요. 리스크에 대한 다각적·전문적 평가를 수행할 수 있는 담당 조직을 구성하고 체계적 리스크 관리를 보장하는 정책 마련을 당부했습니다.
이날 개인정보위가 발표한 리스크 관리 모델은 모든 개별조치의 이행이 반드시 요구되는 것은 아닌데요. 개인정보위는 추후 AI 기술 발전, 개인정보 관련 법령 제·개정, 글로벌 동향 등을 고려해 리스크 관리 모델을 지속적으로 업데이트할 계획입니다. 또한 소규모 조직, 스타트업 및 AI 개발 유형 등 세부대상에 특화된 안내자료도 조만간 구체화할 예정입니다.
고학수 개인정보위원장은 “개인정보, 비개인정보가 총체적으로 활용되고 기술 발전이 지속되는 AI 영역은 불확실성이 높기 때문에 일률적 규제보다는 합리적·비례적 관리를 통해 리스크를 총체적으로 최소화하는 것이 필요하다”라고 말했습니다.
임수연 개인정보보호위원회(개인정보위) 사무관은 19일 서울 엘타워에서 열린 ‘AI 시대 개인정보 정책 종합 설명회’에서 “AI 시대 프라이버시 리스크 관리를 위해서는 AI에 특화된 프라이버시 거버넌스 구축이 필요하다”고 강조했다. (사진=뉴스토마토)
오세은 기자 ose@etomato.com