생성형 AI 사용자를 위한 오픈AI 등 10개사의 자체 가이드라인

오픈AI(OpenAI), 틱톡(TikTok), 어도비(Adobe), BBC, 데이팅 앱 범블(Bumble) 등 10개 기업이 AI 생성 콘텐츠를 책임감 있게 구축, 제작, 공유하는 법에 대한 새로운 가이드라인에 서명했다.

해당 권고안은 오픈 AI 같은 기술 설계자, BBC나 틱톡 등 디지털 합성 미디어의 제작자 및 배포자 모두에게 요청하는 내용이다. 즉, 생성형 AI(generative AI) 기술이 할 수 있는 것과 할 수 없는 것을 더 투명하게 공개하고 사람들이 해당 콘텐츠와 언제 상호작용할 수 있는지 공개할 것을 요구한다.

이 자발적 권고안은 AI 연구 비영리단체인 ‘파트너십 온 AI(Partnership on AI, 이하 ‘PAI’)’가 50여 개 기관과의 협의를 통해 작성했다. 협력 기관에는 빅테크 기업뿐만 아니라 학계, 시민사회, 언론도 포함된다. 해당 가이드라인에 최초로 서명한 10개 기업은 어도비, BBC, 캐나다 방송 협회(CBC/Radio-Canada), 범블, 오픈AI, 틱톡, 위트니스(Witness), 합성 미디어 스타트업 신세시아(Synthesia), D-ID, 리스피처(Respeecher)이다.

PAI의 AI 및 미디어 무결성 책임자 클레어 리보위츠(Claire Leibowicz)는 “우리는 합성 미디어가 피해를 주거나 권한을 빼앗거나 권리를 박탈하는 데 사용되는 것이 아니라 창의성과 지식 공유 및 논의를 이끄는 데 사용되기를 원한다”고 설명한다.

이번 가이드라인에서 중요한 요소 중 하나는 사용자들이 AI가 생성한 콘텐츠와 상호작용할 때, 기업들이 사용자에게 이를 알리는 방법을 연구하여 적용하겠다는 약속이다. AI 모델의 학습 데이터나 메타데이터에 워터마크(watermark), 면책 조항(disclaimer) 또는 추적 가능한 요소를 포함시키는 것도 그러한 방법이 될 수 있다.

생성형 AI와 관련한 잠재적인 해악을 억제하기 위한 규제 마련은 여전히 미비한 상황이다. 예를 들어 유럽연합(European Union)은 곧 공개될 ‘AI법(AI Act)’에 생성형 AI에 관한 내용을 포함시킬 예정이다. 해당 법에는 딥페이크(deepfake) 기술로 만들어진 콘텐츠에 ‘딥페이크 콘텐츠’임을 표시하는 것과 기업들이 특정 투명성 요구사항들을 충족하도록 의무화하는 방안 등이 포함될 수 있다.

이번 가이드라인 작성에 기여한 생성형 AI 전문가 헨리 아이더(Henry Ajder)는 “현재는 생성형 AI 분야가 무법지대 같은 상황이다. 이번 가이드라인을 통해 기업들이 생성형 AI 기술을 사업에 접목할 때 주의해야 할 사항들을 전하고자 한다”고 설명한다.

캘리포니아 대학교 버클리 캠퍼스(University of California, Berkeley)에서 합성 미디어 및 딥페이크를 연구하는 해니 페이리드(Hany Farid) 교수는 “합성 미디어에 대한 인식을 제고하고 책임감 있는 사고 방식으로 논의를 시작하는 것이 중요하다”고 강조한다.

그러나 그는 “자발적인 가이드라인과 원칙은 효과가 거의 없다”고 덧붙인다.

오픈AI 같은 기업이 챗GPT(ChatGPT)와 DALL-E 등 자체 개발 기술에 보호 장치를 한다고 해도, 오픈소스 이미지 생성형 AI 모델 스테이블디퓨전(Stable Diffusion)을 개발한 스타트업 스태빌리티AI(StabilityAI)처럼 이번 가이드라인 서명에 참여하지 않은 기업들은 사람들이 AI로 부적절한 이미지와 딥페이크 콘텐츠를 생성하도록 방치할 수 있다.

페이리드는 “우리가 이 문제를 진심으로 해결하고 싶다면 진지해져야 한다”고 말한다. 예를 들어 클라우드 서비스 제공자와 PAI 회원인 아마존, 마이크로소프트, 구글, 애플이 운영하는 앱스토어 같은 곳들이 상대의 동의 없이 성적인 이미지를 제작하려는 사용자에게 딥페이크 기술 제공 서비스를 금지해야 한다고 생각한다. 그는 AI가 생성한 모든 콘텐츠에 워터마크를 포함하는 것도 의무화되어야 한다고 주장한다.

인텔(Intel)의 수석 연구과학자로서 책임감 있는 생성형 AI 개발 작업을 이끌고 있는 일케 데미르(Ilke Demir)는 이번 가이드라인에 누락된 또 다른 중요한 내용이 “AI 시스템에 책임감을 더 부여할 수 있는 방법에 관한 것”이라고 지적한다. 여기에는 AI 모델이 어떻게 학습해야 하는지, 어떤 데이터가 학습 데이터에 포함되는지, 생성형 AI 모델이 어떤 편향성을 갖고 있지 않은지 등에 대한 자세한 내용이 포함될 수 있다.

이번 가이드라인에는 생성형 AI 모델의 데이터 세트에 해로운 콘텐츠가 없는지  확인하는 것에 대한 언급이 없다. 디지털 권리 단체 액세스 나우(Access Now)의 선임 정책 분석가 다니엘 로이퍼(Daniel Leufer)는 “학습 데이터에 해로운 콘텐츠가 포함되면 생성형 AI 시스템이 해악을 끼칠 수 있다”고 지적한다.

해당 가이드라인에는 이들 기업이 방지하고자 하는 사기, 괴롭힘, 허위 정보 같은 해악 목록이 포함되어 있다. 그러나 데미르는 생성형 AI가 항상 백인 이미지만 만들어내는 것도 해악에 속하는데 그런 것은 현재 목록에 들어있지 않다고 덧붙였다.

페이리드는 더 근본적인 문제를 제기한다. 그는 기업들이 생성형 AI 기술이 일부 심각한 피해로 이어질 수 있음을 인정하면서 피해 완화 방법을 제시하고 있기는 하지만, “애초에 기업들이 그런 기술을 사용해야 하는 이유에 대해서는 왜 의문을 품지 않는 것일까?”라고 묻는다.