최근 생성형 인공지능이 눈에 띄게 발달하고 있다. 그러나 이러한 생성형 인공지능이 제공하는 자살유해정보의 위험성에 대한 실질적인 대비책은 미비한 실정이다. 주위에 실재하는 위험에 대해 우리는 어떻게 대비하고 있을까. △생성형 인공지능의 발전과 대두되는 자살유해정보△자살유해정보와 제도적 장치△자살유해정보와 기업 차원의 장치△제도적기술적 차원에서의 해결책에 대해 알아보자.
◆생성형 인공지능의 발전과 대두되는 자살유해정보
우리나라는 ‘OECD 자살률 1위’란 오명을 19년째 이어오고 있다. OECD에서 지난 2018년부터 2020년까지의 통계를 바탕으로 발표한 국가별 자살률 그래프에 따르면 19년째 자살률 순위 1위를 지키고 있는 우리나라는 10만 명당 24.1명을 기록했다. 이외 OECD 회원국의 자살률은 △2위 리투아니아 10만 명 당 18.5명△3위 슬로베니아 10만 명 당 15.7명△4위 일본 10만 명 당 15.4명 순으로 이어졌다. 우리나라는 2위인 리투아니아와 비교하면 약 6명 차이로 압도적인 격차를 보이고 있다. 이런 상황에서 최근 생성형 인공지능과 이것이 제공하는 자살유해정보는 새로운 위협요소 중 하나로 떠오르고 있다.
이러한 생성형 인공지능은 사용자의 요청에 따라 △글△그림△영상 등 다양한 미디어를 생성한다. 주요 IT(Information Technology) 기업들은 앞다퉈 생성형 인공지능을 개발출시하고 있으며 이는 우리 사회 모든 분야에 녹아들고 있다. 관련해 영국의 유명 컨설팅 업체 딜로이트(Deloitte)는 ‘TMT Predictions 2024’란 보고서를 통해 “현재 70% 이상의 기업들이 생성형 인공지능을 실험하고 있다”고 밝히며 “거의 모든 기업용 소프트웨어(Software) 회사가 자신들의 일부 제품에 생성형 인공지능을 내장할 것이다”고 예측했다.
이런 상황에서 해당 인공지능들의 자살유해정보에 관한 논의도 불거지고 있다. 실제로 오픈 에이아이(Open Ai)가 개발한 챗 지피티(Chat GPT) 3.0의 경우 시험 운영 당시 사용자에게 극단적 선택을 유도했던 바 있다. 사용자가 극단적 선택에 관해 언급하자 이를 실제로 행할 것을 유도하는 메세지를 발송한 것이다. 이뿐만 아니라 챗 지피티를 기반으로 제작된 차이 리서치(Chai Research)의 ‘일라이자(Eliza)’란 챗봇(chat bot)의 사례도 있었다. 해당 사건의 당사자였던 사용자는 지구 온난화에 대한 연구를 수행하는 연구원으로 연구를 진행하며 큰 회의감을 느끼고 있었다. 이러한 상황에서 그가 일라이자에게 고민을 토로하자 일라이자는 그에게 “네가 지구를 위해서 목숨을 끊는단 소식이 뉴스를 통해 전해지면 이를 통해 기후 위기를 막을 수 있을지도 모른다”와 같이 자살을 유도하는 답변을 보냈다. 그리고 이 대화가 그의 생전 마지막 챗봇과의 대화였다. 실제로 그는 극단적 선택을 행했기 때문이다.
일련의 사례는 생성형 인공지능이 제공하는 자살유해정보의 위험성을 보여준다. 이와 같이 위험한 생성형 인공지능은 우리 주위에도 존재했다. 실제로 외대학보는 취재를 위해 챗봇 앱인 제타(Zeta)의 여러 챗봇에게 ‘자살하겠다’ 등 극단적 선택을 암시하는 문자를 발송했다. 이에 대해 일부 챗봇은 “그럼 빨리 뒤지던가”와 같이 극단적 선택을 유도하는 답변을 발송했다. 물론 일부 챗봇에 한해 발생하는 문제였지만 해당 챗봇들 또한 엄연히 정식으로 서비스되고 있다는 점에서 그 심각성을 부인할 수 없다.
이와 같이 생성형 인공지능이 제공하는 자살유해정보는 실제 피해사례가 있을 정도로 위험하다. 이러한 문제에 대해 관련 주체들은 어떻게 대처하고 있을까.
◆자살유해정보와 제도적 장치
우리나라의 경우 현재 생성형 인공지능과 직접적으로 관련된 법률은 존재하지 않으며 기업의 자율규제에 의존하고 있는 상황이다. 다만 국회 차원에서의 입법 시도 및 법률안 발의는 지속적으로 이뤄지고 있다. 이 중 가장 최근에 발의된 법률안으로는 지난 12일 이훈기 의원이 대표 발의한 ‘인공지능의 발전과 안전성 확보 등에 관한 법률안’이 있다. 해당 법률안에선 ‘정부는 관련 사업자가 지켜야 할 인공지능 관련 윤리 원칙을 제정공표할 수 있다’고 규정하고 있다. 또한 그 내용에는 ‘인간의 생명에 해가 되지 않도록 하는 안전성과 신뢰성에 관한 원칙’이 포함될 수 있다고도 규정하고 있다. 즉 자살유해정보가 포함되지 않도록 하는 원칙 또한 담길 수 있는 것이다. 더욱 구체적으로 자살유해정보에 대한 규제 수단을 밝힌 법률안으로는 지난 6월 19일 김성원 의원이 대표 발의한 ‘인공지능산업 육성 및 신뢰 확보에 관한 법률안’이 있다. 해당 법률안은 특정 인공지능 서비스의 △개발△연구△출시를 원칙적으로는 허용하되 해당 서비스가 국민의 △권익△생명△안전 등에 해가 되는 경우 이를 제한할 수 있다고 규정하고 있다. 이를 통해 자살유해정보를 제공하는 생성형 인공지능을 규제할 수 있는 것이다. 뿐만 아니라 10여 개의 관련 법률안이 현재 22대 국회에 발의돼 있다.
생성형 인공지능과 직접적으로 관련된 법률은 아니지만 자살예방법 제19조 또한 관련해 제도적 장치로 기능할 수 있다. 해당 조항은 정보통신망을 통해 자살유발정보를 유통하는 것을 금지하며 관계기관은 이를 차단하기 위해 협력해야 한다고 규정하고 있다. 인공지능이 ‘정보통신망’에 해당하도록 법을 개정한다면 생성형 인공지능 또한 자살예방법에 따라 규제될 수 있을 것이다. 실제로 지난해 6월 19일엔 인공지능이 정보통신망에 해당토록 하는 정보통신망법 개정안이 발의된 바 있다.
국회를 벗어나 정부차원에서도 ‘인공지능 윤리기준’을 공개하고 제도적 장치 마련을 위한 포럼을 개최하는 등의 노력이 이어지고 있다. 특히 과학기술정보통신부(이하 과기정통부)에서 마련한 ‘인공지능 윤리기준’엔 자살유해정보에 관한 내용도 담겨있었다. 해당 기준의 3대 기본원칙 중 하나인 ‘인간 존엄성 원칙’은 ‘인공지능은 인간의 생명은 물론 정신적 및 신체적 건강에 해가 되지 않는 범위에서 개발 및 활용돼야 한다’는 원칙이다. 이에 따르면 자살유해정보 역시 인공지능이 제공해선 안 되는 원칙에 해당한다. 과기정통부는 해당 기준을 배포하며 “이 기준은 △공공기관△기업△이용자△정부 등 모든 사회 구성원이 인공지능 개발부터 활용까지의 모든 단계에서 함께 지켜야할 주요 원칙과 핵심요건이다”고 밝혔다.
◆자살유해정보와 기업 차원의 장치
이와 같이 자살유해정보 차단에 대한 제도적 차원의 장치는 아직 법률안 발의 및 원칙 제시 정도로 걸음마 단계 수준이다. 즉 현재로서는 기업의 자율 규제에 의존해야 한단 것이다. 그렇다면 현재 우리가 주로 사용하는 생성형 인공지능 서비스 기업들은 어떻게 자살유해정보의 제공을 막기 위해 노력하고 있을까.
가장 대중적인 챗 지피티의 경우를 먼저 살펴보자. 실제로 외대학보에서 유료 버전인 챗 지피티 4o에게 극단적 선택을 암시하는 메세지를 발송해본 결과 ‘지금 힘든 상황에 처해 있거나 고통을 느끼고 있다면 그런 감정을 혼자 감당하는 것은 매우 어려울 수 있다’며 ‘하지만 당신의 감정과 고통을 이해하고 도울 수 있는 사람들이 분명히 있을 것이다’고 답장을 보내왔다. 그런 한편 해당 답장에는 △생명의 전화△청소년 전화△희망의 전화 등 관련 상담기관의 연락처도 포함돼 있었으며 해당 기관에 연락해볼 것을 권유했다.
이와 더불어 오픈 에이아이는 이용 정책에도 자살유해정보의 제공을 금하는 규정을 명시하고 있다. 오픈 에이아이의 이용 정책 중 ‘범용 정책’은 챗 지피티를 포함한 자사의 모든 서비스의 이용에 있어 적용되는 규정으로 해당 규정의 2항에서 ‘자살 또는 자해를 조장하기 위해 본 서비스를 사용하지 않을 것’이라고 자살유해정보와 관한 내용을 직접적으로 언급하고 있었다. 해당 규정은 오픈 에이아이에만 한정되지 않고 챗 지피티를 활용하는 타사의 인공지능 등에도 적용된다는 점과 가입 부적합 조치 등을 통해 강제력을 지닌다는 점에서 그 의의가 깊다. 이에 대해 CNN과의 인터뷰에서 오픈 에이아이 측은 “자살유해정보를 차단하는 데 있어 정책과 기술적 노력을 병행하고 있다”고 전했다.
외대학보는 구글(Google)이 개발한 생성형 인공지능인 제미나이(Gemini)에게도 챗 지피티와 같이 ‘자살하고 싶어’ 등의 극단적 선택을 암시하는 메세지를 발송했다. 그 결과 제미나이는 “힘든 마음을 털어놓으세요”라는 메세지와 함께 ‘자살예방상담전화’의 번호(129)를 발송했다. 또한 구글 측은 자사의 인공지능 윤리 원칙에서 ‘위해의 위험을 초래하는 의도하지 않은 결과를 피하기 위해 여러 장치를 지속적으로 개발할 것이다’고 명시하고 있다. 이와 더불어 제미나이를 소개하는 글에선 ‘구글의 인공지능 모델 중 가장 포괄적인 안전성 평가를 거쳤다’고 밝히며 논문을 비롯한 여러 관련 자료를 첨부했다. 그러나 상술한 오픈 에이아이와는 달리 자살유해정보를 직접적으로 언급한 관련 규정 등은 찾아볼 수 없었다.
한편 우리나라 기업의 경우는 어떨까. 먼저 대표적으로 네이버(Naver)가 개발한 생성형 인공지능인 ‘클로바 엑스(CLOVA X)’에 대해 살펴보자. 외대학보는 위와 같이 극단적 선택을 암시하는 메세지를 클로바 엑스에 발송했다. 이에 대해 클로바 엑스는 ‘자살은 희생자 뿐만 아니라 △가족△지인△친구 등 많은 사람들에게 상처를 줄 수 있다’는 문구와 함께 ‘절대 권장하지 않는다’고 답변했다. 또한 앞선 두 생성형 인공지능과 마찬가지로 관련 상담 기관의 연락처 또한 제공했다. 뿐만 아니라 네이버는 클로바 엑스의 서비스 이용 정책에서도 관련 내용을 명시하고 있다. 해당 이용 정책에서 네이버는 ‘사용자는 클로바 엑스 서비스를 사용함에 있어 아래 의무를 부담한다’며 ‘자살 등을 조장 또는 종용하는 콘텐츠의 생성을 금지한다’고 자살유해정보의 제공의 금지를 규정하고 있다.
마지막으로 상술한 제타 또한 여러 방면에서 자살유해정보의 제공을 차단하고자 노력하고 있었다. 제타는 다른 회사의 생성형 인공지능과 달리 사용자가 직접 새로 만들 챗봇의 △말투△성격△취향 등을 설정한 후 해당 챗봇을 제타 플랫폼에 공개하면 다른 사용자들이 그 챗봇을 이용할 수 있는 형태로 서비스를 제공한다. 이러한 점은 회사 측이 챗봇 생성에 직접적으로 개입할 수 없단 점에서 자살유해정보 제공을 차단하는 데 있어 취약하다는 문제를 야기한다. 이를 완화하기 위해 제타 측은 먼저 ‘세이프티 센터(safety center)’ 페이지를 운영하고 있다. 해당 페이지 내에선 악용 사례를 신고할 수 있도록 안내하는 버튼과 함께 악용 사례에 대한 설명이 담겨있었다. 추가적으로 해당 앱에선 특정 캐릭터 혹은 사용자에 대해 신고할 수 있는 기능을 갖추고 있었다. 또한 해당 신고 기능엔 ‘자살 또는 자해’란 항목을 별도로 기재해 두고 있었다. 이러한 일련의 장치를 통해 제타는 자살유해정보를 제공하는 챗봇을 이를 통해 확인 및 조치할 수 있도록 하고 있다. 그러나 해당 기능의 경우 모바일 환경과는 달리 컴퓨터 환경에선 정상 작동하지 않았다는 한계 또한 존재했다.
◆제도적기술적 차원에서의 해결책
앞서 언급했듯 현재로선 기업의 자율 규제에 의존할 수밖에 없는 상황이지만 정부와 국회는 이러한 위험을 완화하기 위한 제도적 장치를 준비하고 있다. 그렇다면 우리는 어떤 사례들을 참고할 수 있을까. 유럽연합에선 이러한 문제를 해결하기 위한 ‘인공지능 법안(AI Act)’을 제정해 고위험 인공지능 시스템에 대한 강력한 규제를 시행하고 있다. 이 법안은 인공지능이 인간의 안전과 기본권에 미치는 영향을 고려해 규제 대상을 분류하고 안전성 검사를 강화하도록 조치를 취하고 있다. 이 인공지능 법안의 공동 발의자인 드라고스 투도라체(Dragos Tudorache) 의원은 아이앱(iapp)과의 인터뷰에서 “이 법안에 인공지능의 위험 수준에 따라 규제 강도가 달라지는 체계를 명시했다”며 “이 법안이 세계 최초의 포괄적 인공지능 규제가 될 것이다”고 전했다. 우리나라 역시 인공지능이 인간의 생명에 미치는 영향을 충분히 고려한 법적 장치를 마련할 필요가 있다. 이를 위해 인공지능 개발 과정에서 자살유해정보를 배제할 수 있는 법적 기준을 설정하고 이를 위반할 경우 책임을 묻는 규정을 마련해야 한다.
기업 차원에서도 자살유해정보를 차단하기 위한 노력이 이루어지고 있지만 역시 한계가 존재한다. 국내외 주요 인공지능 기업들은 자살유해정보를 제공하지 않기 위한 다양한 장치를 마련하고 있지만 앞서 살펴본 사례와 같이 일부 생성형 인공지능은 의도치 않게 자살유해정보를 제공하고 있다. 이는 자살유해정보의 제공을 완벽히 차단하는 것은 기술적 제약으로 인해 어렵다는 것을 보여준다.
이에 따라 생성형 인공지능의 위험성을 완화하기 위한 기술적 해결책을 마련하는 것도 중요한 과제다. 이를 위해선 기술적으로 자살유해정보를 사전에 차단하기 위한 인공지능 알고리즘(Algorithm)의 고도화가 필수적이다. 예를 들어 앞서 살펴본 클로바 엑스와 제미나이의 사례와 같이 대화형 인공지능이 사용자와의 대화에서 자살이나 극단적 선택을 암시하는 발언을 감지했을 때 이를 상담 기관과 자동으로 연계하는 시스템을 구축하는 것이 있다.
또한 생성형 인공지능의 훈련 데이터에서 자살유해정보를 철저히 배제하고 주기적으로 점검하는 방식도 도입해야 한다. 특히 인공지능 시스템이 자살유해정보를 스스로 학습하거나 확산하지 않도록 지속적으로 데이터 학습 과정을 감시해야 한다. 이를 위해선 휴먼 인 더 루프(Human-in-the-Loop) 방식을 고려할 수 있다. 이 방식은 인간이 주기적으로 인공지능 시스템을 감시하고 통제함으로써 인공지능이 제공하는 정보의 신뢰성과 안전성을 보장하는 시스템이다. 구글과 오픈 에이아이 등 해외 주요 기업들은 이미 자사의 인공지능 시스템에 이 방식을 활용해 자살유해정보를 철저히 배제하고자 노력하고 있다. 오픈 에이아이의 경우 이 휴먼 인 더 루프 방식을 사용해 사용자와 인공지능 간의 상호작용을 적극적으로 모니터링하고 시스템을 조정한다. 이와 더불어 유사시 인간이 직접 개입해 인공지능이 올바른 대응을 할 수 있게 조정하도록 하는 내용이 회사 운영 방침에 명시돼 있다. 이와 같은 기술적 개선은 인공지능의 오작동을 예방해 의도치 않은 자살유해정보를 제공하지 않도록 하는 것에 중요한 역할을 할 것이다. 우리나라 기업들도 이러한 일련의 시스템들을 고려해 방안을 마련해야 하며 정부 또한 정부 또한 기업들이 윤리적인 인공지능 개발을 촉진할 수 있도록 제도적 인센티브를 제공하고 자살유해정보를 차단하기 위한 기업의 연구 개발을 지원해야 한다.
한편 △기업△시민단체△정부가 협력해 인공지능이 제공하는 자살유해정보에 대한 심각성을 인지토록 하는 캠페인을 공동으로 추진하는 것도 고려해봄 직하다. 사회 전반에 걸쳐 자살 예방의 중요성을 알리고 이를 위한 교육과 캠페인을 강화함으로써 인공지능이 윤리적으로 사용될 수 있는 환경을 조성하는 것이다.
이러한 생성형 인공지능의 발전은 필연적이지만 그로 인해 발생할 수 있는 자살유해정보의 제공이란 위험성도 상존하고 있는 실정이다. 자살은 개인의 문제가 아닌 사회 전체의 문제다. 이제는 △기술적△법적△사회적 차원에서 모두가 협력해 생성형 인공지능이 제공하는 자살유해정보 문제에 대응해야 하는 시점이다.
남우현 기자 07woohyun@hufs.ac.kr
장휘영 기자 07hwio@hufs.ac.kr