유출로 인해 논란이 된 OpenAI의 소라 비디오 생성 도구가 노출되었습니다.
최근 OpenAI의 동영상 생성 AI 도구인 Sora가 유출되어 크리에이티브 업계에 큰 논란과 경각심을 불러일으킨 사건이 있었습니다.
텍스트를 동영상으로 변환할 수 있는 이 도구는 새로운 모델을 테스트하는 아티스트가 의도치 않게 액세스할 수 있게 되었습니다.
이 사건은 크리에이티브 업계, 특히 소라로 인해 생계에 지장을 받을 것을 우려하는 시각 예술가, 디자이너, 영화 제작자 사이에서 격렬한 논쟁을 불러일으켰습니다.
포옹 얼굴 유출로 예술가들의 분노를 촉발시킨 아티스트
2024년 11월 26일, 개발자들이 AI 모델을 공유하고 테스트하는 데 일반적으로 사용하는 플랫폼인 Hugging Face에 OpenAI의 Sora용 API와 연결된 프로젝트가 등장했습니다.
이로 인해 의도치 않게 동영상 생성 도구가 더 많은 시청자에게 노출되었습니다.
아티스트들은 몇 시간 만에 AI를 실험하고 동영상을 제작하며 그 기능을 발견하기 시작했습니다.
하지만 몇몇 테스터가 노력에 대한 보상이 부족하다는 우려를 제기하면서 흥분은 곧 좌절감으로 바뀌었습니다.
오픈AI가 모델에 대한 버그 테스트와 피드백을 통해 "무급 노동을 제공하는 수백 명의 아티스트"를 착취하고 있다고 비난하는 서한이 플랫폼에 게시되었습니다.
이 서한에서 눈에 띄는 점 중 하나는 새로운 기술을 실제 시나리오에 적용하여 결함을 파악하는 테스트에 일반적으로 사용되는 '레드팀'이라는 용어가 사용되었다는 점입니다.
아티스트들은 소라 개발에 참여한 것이 창의적인 의견을 제시할 수 있는 기회라고 생각했지만, 오히려 홍보용 스턴트처럼 느껴졌다고 주장했습니다.
이 편지에는 다음과 같은 내용도 명시되어 있습니다:
"우리는 예술을 위한 도구로 Al 기술을 사용하는 것에 반대하지 않습니다(만약 반대했다면 이 프로그램에 초대받지 못했을 것입니다). 다만 이 아티스트 프로그램이 어떻게 출시되었는지, 그리고 공개 출시를 앞두고 이 도구가 어떻게 형성되고 있는지에 대해서는 동의하지 않습니다. OpenAl이 더 개방적이고 아티스트 친화적이며 홍보 효과를 넘어 예술을 지원하기를 바라는 마음에서 이 사실을 전 세계에 공유하게 되었습니다."
'홍보 인형'이라고 스스로를 소개한 서명자들은 OpenAI가 실질적인 변화 없이 기업이 사회적 책임을 다하는 것처럼 보이도록 예술을 사용하는 과정을 설명하는 데 사용되는 용어인 '아트워싱'을 하고 있다고 비난했습니다.
테스터를 위한 제한된 액세스 및 최소한의 보상
올해 초 공개 이후 소라에 대한 접근은 엄격하게 통제되고 있습니다.
OpenAI는 잠재적 영향력에 대한 피드백을 수집하기 위해 일부 아티스트, 디자이너, 영화 제작자에게만 접근 권한을 부여했습니다.
회사는 참여가 자발적이었다고 주장하지만, 많은 아티스트는 조건이 불공정하다고 생각합니다.
초기 테스터들은 참여에 대한 보상이 미미했으며, 일부는 소라를 사용해 제작한 영화를 공개적으로 상영할 수 있는 기회를 놓고 경쟁할 수 있는 기회만 제공받았다고 말합니다.
아티스트 집단은 OpenAI가 자신의 창작물을 진정한 AI 모델 개발이 아닌 자기 홍보의 도구로 사용하려는 시도에 대해 불만을 표출했습니다.
크리에이티브 커뮤니티의 거센 반발에 직면한 OpenAI
이 사건은 크리에이티브 커뮤니티 내에서 더 큰 우려를 불러일으켰습니다.
배우 줄리안 무어, 케빈 베이컨과 같은 유명 인사와 라디오헤드의 톰 요크 같은 뮤지션을 포함한 11,000명 이상의 전문가들이 2024년 10월, 생계에 대한 '중대하고 부당한 위협'으로서 생성형 AI를 규탄하는 공개 서한에 서명했습니다.
소라가 결국 영화 제작과 같은 분야에서 인간 크리에이터를 대체할 수 있다는 보도가 나오면서 OpenAI에 대한 압박은 더욱 커지고 있으며, 광범위한 일자리 손실에 대한 우려는 더욱 깊어지고 있습니다.
OpenAI는 할리우드 경영진과 교류하며 크리에이티브 업계를 안심시키려 노력했지만, AI가 제작한 콘텐츠가 인간 크리에이터를 쓸모없게 만들 것이라는 우려를 완전히 잠재우지는 못했습니다.
CEO인 샘 알트먼과 그의 팀은 크리에이티브 전문가를 위한 도구로서의 잠재력을 강조하며 엔터테인먼트 업계에 Sora를 홍보해 왔습니다.
그러나 유출 사건과 그에 따른 반발은 아티스트들이 회사의 보증을 믿지 못하고 있음을 시사합니다.
비판 속에 얼리 액세스를 중단하는 OpenAI
정보 유출과 아티스트들의 항의가 거세지자 OpenAI는 2024년 11월 26일에 신속하게 소라에 대한 액세스를 중단했습니다.
허깅 페이스 페이지에 게시된 메시지를 통해 얼리 액세스가 중단되었음을 확인했으며, 회사는 도구의 안전성과 잠재적 위험에 대한 우려를 해결해야 한다는 이유를 들었습니다.
이 회사는 소라가 아직 '미리보기 모드'에 있으며 더 많은 사람들이 사용할 수 있도록 창의성과 강력한 안전 조치의 균형을 맞추기 위해 노력하고 있다고 밝혔습니다;
OpenAI는 성명에서 테스트 과정 참여는 자발적인 참여이며 피드백을 제공할 의무는 없다고 강조했습니다.
또한 시험에 참여한 아티스트는 모델 개발 기간 동안 모델의 세부 사항에 대한 기밀을 유지해야 했습니다.
그럼에도 불구하고 프로그램에 대한 적절한 보상과 투명성이 부족하여 많은 사람들이 착취당하고 있다고 느끼고 있습니다.
OpenAI가 안전 문제를 해결하기 위해 노력함에 따라 Sora의 출시가 연기되었습니다.
소라에 대한 논란이 계속되는 가운데 OpenAI는 모델을 개선하는 데 집중하고 있습니다.
OpenAI의 최고 제품 책임자인 케빈 웨일은 최근 Reddit 토론에서 특히 안전 문제와 컴퓨팅 성능의 확장성과 관련하여 모델을 완성하기 위해 소라의 출시 시기를 늦췄다고 설명했습니다.
크리에이티브 업계에서 AI가 일자리에 미치는 위협에 대한 경각심이 커지고, 많은 사람이 소라와 같은 생성 도구가 결국 영화 산업과 그 밖의 분야에서 인간 노동자를 대체할 수 있다고 우려하는 가운데 소라를 개선하기 위한 회사의 노력은 계속되고 있습니다.
많은 창작자들이 자신의 작품이 궁극적으로 자신을 대체할 수 있는 도구의 시험대에 불과하다고 느끼면서 OpenAI와 예술계 사이의 긴장은 곧 사라질 것 같지 않습니다.
현재 OpenAI는 더 큰 규모의 출시를 목표로 Sora를 계속 개발하고 있지만, 아티스트와 더 넓은 업계의 이해관계가 어떻게 균형을 이룰지는 아직 미지수입니다.