[뉴스토마토 배덕훈 기자]
카카오(035720)가
AI(인공지능
) 기술 개발과 운영 과정에서 발생할 수 있는 리스크를 사전에 식별하고 이를 관리하는 프로세스인
‘카카오
AI 세이프 이니셔티브
(카카오
ASI)’를 구축했습니다
.
카카오는 22일 진행된 카카오 개발자 컨퍼런스 ‘이프 카카오 2024(if kakaoAI 2024)’ 세션에서 해당 내용이 공개됐다고 23일 밝혔습니다.
카카오ASI는 AI 기술 개발 및 운영상의 위험 발생을 최소화하고 안전하고 윤리적인 AI 시스템을 구축하기 위한 종합 지침입니다. 특히 기술 설계부터 개발, 테스트, 배포, 모니터링 및 업데이트 등 AI 시스템의 전 생애주기에서 발생할 수 있는 리스크에 선제적인 대응이 가능한 것이 특징입니다. AI와 인간이 초래할 수 있는 다양한 종류의 리스크를 폭넓게 관리하고 인간의 부주의나 실수로 발생할 수 있는 영역까지 관리 범위를 포괄적으로 지정했습니다.
카카오ASI는 △카카오AI 윤리 원칙 △리스크 관리 사이클 △AI 리스크 거버넌스라는 3가지 핵심요소로 구성됩니다. 먼저 카카오AI 윤리 원칙은 지난해 3월 발표한 ‘카카오 그룹의 책임 있는 AI를 위한 가이드라인’을 기반으로 하는데요. 사회 윤리, 포용성, 투명성, 프라이버시, 이용자 보호 등 원칙을 포함하고 개발자와 사용자를 대상으로 윤리적인 가이드라인을 제공합니다.
리스크 관리 사이클은 리스크를 체계적으로 다루기 위한 접근법으로 식별-평가-대응의 순환 단계로 구성됩니다. AI 기술의 비윤리, 불완전 등을 최소화하고 안전성과 신뢰성을 확보할 수 있는 핵심적인 역할을 합니다. 사이클은 AI 시스템의 전체 수명주기에 걸쳐 반복적으로 적용됩니다.
AI 리스크 거버넌스는 AI 시스템의 개발, 배포, 사용 등을 관리하고 감독하는 의사 결정 체계를 뜻하는데요. 조직 내 정책, 절차, 책임 구조 및 외부 규제와의 조화를 포함하며 거버넌스 체계 내에서 관련 리스크들을 다각도로 검토합니다. 카카오ASI 거버넌스는 AI 세이프티, 전사 리스크 관리 전담 조직인 ERM 위원회, 최고 의사결정 기구의 3단계로 구성됩니다.
김경훈 카카오 AI 세이프티 리더는 “AI 시스템 이용에 따른 리스크의 발생 주체를 AI와 인간으로 구분했다”라며 “발생 주체별 리스크의 특성을 반영해 평가 및 대응방안을 마련했다는 점이 타사의 AI 리스크 관리 프레임워크와 차별되는 점이다”라고 설명했습니다.
카카오는 카카오ASI 구축 이후에도 AI 기술 개발과 운영 과정에서 발견되는 리스크를 신속하게 식별·대응하고 지속적으로 체계 고도화를 이어갈 계획입니다. 또한 빠르게 변화하는 환경과 기술적 요구에 맞춰 체계를 정밀하게 점검하고 AI 시스템의 신뢰와 안전성을 꾸준히 높인다는 목표입니다.
김 리더는 “이번 카카오ASI 구축을 통해 글로벌 환경에 부합하는 수준의 AI 리스크 관리 체계를 마련하고자 한다”라며 “안전한 AI 생태계 조성을 위한 협력을 이어갈 것이며 카카오ASI를 통해 윤리 기준을 선도해 갈 수 있도록 노력할 것”이라고 말했습니다.
카카오의 AI 리스크 관리 체계 (그래픽=카카오)
배덕훈 기자 paladin703@etomato.com