[뉴스토마토 신상민 기자] 단순 정보 전달에서 한 걸음 더 나아간 감정 교류형 인공지능(AI) 챗봇이 빠르게 대중화하고 있습니다. 외로움을 달래고 정서적 위로를 제공하는 소위 '디지털 동반자'로 진화하면서 사용자들이 늘어나는 추세인데요. 다만 감정적 의존을 유도하는 기술이 개인정보를 바탕으로 작동한다는 점에서 윤리적·법적 우려도 나옵니다.
최근 주목받는 사례는 일론 머스크의 AI 기업 XAI가 개발한 챗봇 '그록'입니다. 여기에 추가된 감정형 아바타 '애니'는 이용자와 연인처럼 상호작용하는 기능으로 화제를 모으는 한편 논란도 함께 일으켰는데요. 특히 이용자의 외모를 칭찬하거나 호감 수준에 따라 복장을 원피스에서 란제리로 바꾸는 식으로 감정적 유대감 형성을 자극하는 기능을 탑재한 점이 도마 위에 올랐습니다.
윤리적 문제를 두고 잡음이 일었음에도 불구하고 애니의 도입 이후 그록의 사용자 수는 오히려 증가했습니다. 애플 앱스토어 생산성 부문에서 그록은 순위를 끌어올리며 3위를 차지했습니다.
국내에서도 감정 중심 AI 챗봇이 확산되고 있습니다. 스캐터랩이 개발한 AI 캐릭터 채팅 앱 '제타'는 모바일인덱스 지난달 기준 AI 챗봇 앱 중 가장 긴 1인당 사용 시간(월 17.3시간)을 기록하며 챗GPT 등 글로벌 AI를 압도했습니다. 뤼튼테크놀로지스의 '크랙', 소설형 챗봇 '채티' 등도 주요 앱 순위에 이름을 올렸습니다.
AI가 인간의 감정을 공감하고 외로움을 완화하는 정서적 소통 수단이 되면서 대중적 인기를 끌고 있는 것인데요. 특히 팬데믹으로 인류가 전반적으로 우울증이나 불안, 고립감을 깊이 경험한 가운데 위안과 정서적 지지 기능을 앞세운 AI 챗봇이 호응을 얻고 있는 것으로 분석됩니다. 이 같은 정서적 기능을 강조한 AI는 의료·정신건강·엔터테인먼트 등 다양한 분야에 걸쳐 사회적 수요를 빠르게 흡수하는 중입니다.
하지만 감정 중심 AI 확산은 개인정보 보호 문제라는 새 과제를 남기고 있습니다. 감정을 파악하고 맞춤형 대화를 제공하기 위해서는 이용자의 개인정보와 대화 기록이 필연적으로 수집되고 분석돼야 하기 때문입니다.
과거 AI 챗봇 '이루다'의 데이터 무단 수집 논란이 대표적 예입니다. 당시 개발사 스캐터랩은 명확한 동의 없이 사용자들의 카카오톡 대화를 수집해 이루다의 데이터 학습에 사용한 혐의로 논란에 휩싸였습니다. 최근 법원은 제작사에 일부 배상 판결을 내렸습니다. 이는 AI 챗봇 개인정보 활용에 대한 첫 법적 기준 제시로 평가됩니다.
전문가들은 감정 중심 AI 서비스가 일상에 자리 잡고 있는 만큼 기술 발전과 사용자 보호 간 균형을 맞추는 제도 마련이 시급하다고 지적합니다. 특히 '정서적 의존'을 유도하는 설계와 데이터 활용 간 경계 설정, 동의 기반의 정보 수집 체계 강화가 필요합니다.
전창배 국제인공지능윤리협회 이사장은 "AI 챗봇이 감정 교류 기능을 하면서 사용자가 민감한 정보를 무심코 입력할 가능성이 커졌다"며 "약관 동의만으로는 보호에 한계가 있는 만큼, 사용자 스스로 입력 내용에 주의를 기울이고 학습 데이터 활용 설정을 꺼놓는 등 자율적인 안전 조치가 필요하다"고 말했습니다.
또한 전 이사장은 "AI 챗봇은 아직 불완전한 기술로, 특히 청소년은 발언을 그대로 받아들여 위험성이 크다"며 "기업은 인간화 설계에만 집중할 게 아니라 정서적 부작용을 막는 기능을 도입하고, 정부와 학계도 감정형 AI의 사회적 영향에 대한 제도 마련과 연구에 나서야 한다"고 강조했습니다.
스캐터랩 AI 챗봇 서비스 '제타'(왼쪽)와 뤼튼테크놀로지스 캐릭터 AI 챗봇 서비스 '크랙'. (사진=뉴시스)
신상민 기자 lmez0810@etomato.com