"모두에게 도움이 되는 AI 만들기"
구글이 최근 구글 I/O 컨퍼런스에서 내세운 슬로건이었지만, 상황이 더 나빠진 것으로 보입니다.
AI 개요의 정확도 문제
계속 성장하고 있는 인공지능(AI) 분야에서 구글, 마이크로소프트, OpenAI, xAI와 같은 거대 기술 기업들 간의 치열한 경쟁이 벌어지고 있습니다.
이 경주는 인간 수준의 텍스트, 번역, 이미지, 코드를 생성할 수 있는 기술인 제너레이티브 AI를 중심으로 진행됩니다.
이 경쟁의 선두주자인 구글은 2024년 5월 검색 결과 상단에 검색어에 대한 빠른 요약을 제공하는 AI 오버뷰 기능을 도입했습니다.
ChatGPT와 경쟁하기 위해 설계된 이 혁신적인 기능은 정보 수집 프로세스를 간소화할 것을 약속했습니다.
그러나 출시 직후 Google AI는 AI 오버뷰를 통해 부정확하고 오해의 소지가 있는 정보를 제공한다는 이유로 비난을 받았습니다. 소셜 미디어 사용자들은 이 도구가 부정확하거나 논란의 여지가 있는 답변을 제공한 수많은 사례를 문서화하여 신뢰성에 대한 심각한 우려를 제기했습니다.
AI 개요의 부정확한 정보 사례
몇 가지 사례를 통해 AI 개요의 단점을 확인할 수 있습니다.
미국의 무슬림 대통령 수에 대한 한 사용자의 질의에 버락 오바마가 미국 최초의 무슬림 대통령이라는 명백한 허위 진술이 표시되었습니다.
이 오류는 도구가 반박된 음모론을 언급하는 소스 텍스트를 잘못 해석한 데서 비롯되었습니다.
AI 개요 기능은 사실과 허구를 구분하고 유머나 풍자를 분별하는 데 어려움을 겪는 것으로 보입니다. 특정 문의를 둘러싼 맥락을 파악하는 기능이 부족합니다.
피자에서 치즈가 미끄러지는 것을 방지하는 방법에 대한 질문이 있었습니다. AI 오버뷰는 소스에 무독성 접착제를 1/8컵 정도 넣으라는 기괴한 추천을 내렸습니다;
유머러스한 Reddit 게시물에서 시작된 이 제안은 사실 정보와 농담을 구분하지 못하는 도구의 무능함을 드러냈습니다.
또 다른 예로, 한 Reddit 사용자가 "하루 권장 암석 섭취량은 얼마입니까?"라는 질문을 던지자 AI 개요는 "UC 버클리의 지질학자들은 매일 작은 암석을 하나 이상 섭취할 것을 권장합니다."라고 답변했습니다. 이 출처는 풍자 뉴스 사이트 Onion.com의 기사에서 나온 것이라고 주장합니다.
아마도 가장 우려되는 것은 건강 관련 질문에 대한 AI 개요' 응답이었을 것입니다.
한 사례에서 햇빛 노출에 대한 조언을 구하는 사용자에게 5~15분(피부가 어두운 경우 최대 30분) 동안 햇빛을 직접 응시하는 것이 안전하고 유익하다는 위험한 제안을 받았습니다.
이 잘못된 정보는 평판이 좋은 의료 웹사이트인 WebMD에서 잘못 제공한 것입니다.
'AI 환각'이라고 불리는 이 사건은 조작된 정보를 사실인 것처럼 제시하는 생성형 AI 모델의 잠재적 위험성을 보여줍니다.
AI 환각의 근본적인 원인
AI 개요의 오류는 여러 가지 요인으로 인해 발생할 수 있습니다.
한 가지 원인은 도구를 개발하는 데 사용되는 학습 데이터입니다. 학습 데이터에 부정확성이나 편견이 가득 차 있으면 결과물인 AI 모델에서 이러한 문제가 지속될 가능성이 높습니다.
또한 모델 자체의 알고리즘 불일치로 인해 정보가 잘못 해석되거나 무의미한 응답이 생성될 수 있습니다.
또 다른 중요한 요소는 컨텍스트를 이해하는 문제입니다.
AI 오버뷰는 특정 출처의 풍자적 또는 유머러스한 의도를 파악하는 데 어려움을 겪어 패러디 게시물이나 농담 웹사이트의 정보를 추출하여 사실인 것처럼 표시하는 경우가 있습니다.
이는 신뢰할 수 있는 데이터와 오해의 소지가 있는 콘텐츠를 효과적으로 구분할 수 있는 AI 모델을 개발하는 데 있어 지속적인 노력이 필요하다는 점을 강조합니다.
비판에 대한 구글의 대응
대중의 항의에 따라 Google은 AI 개요에 부정확한 부분이 있음을 인정했습니다.
그러나 대부분의 경우 추가 탐색을 위한 링크와 함께 정확한 정보를 제공했다고 주장했습니다.
또한 Google은 문제가 되는 사례 중 상당수가 흔하지 않은 쿼리 또는 조작 가능성이 있는 시나리오와 관련이 있다고 지적했습니다.
확인된 문제를 해결하고 콘텐츠 정책에 부합하는 변경 사항을 구현하는 등 신속한 조치를 취하겠다고 약속했습니다.
여기에는 부정확한 결과를 생성하기 쉬운 쿼리에 대한 AI 개요를 제거하고 시스템의 전반적인 안정성을 높이기 위해 광범위한 개선 작업을 수행하는 것이 포함됩니다.
이는 향후 유사한 문제가 발생하지 않도록 하기 위한 조치입니다.
구글의 검색 생성 경험(SGE)과 악성 추천의 문제
작년에 Google은 인공 지능을 사용하여 검색 결과의 요약을 사용자에게 제공하는 검색 생성 경험(SGE)이라는 새로운 기능을 도입했습니다.
여기에는 콘텐츠에 대한 설명, 통합 동영상 및 이미지, 검색어와 관련된 추천 링크가 포함됩니다.
하지만 보안 연구원들은 AI가 악성 웹사이트를 추천할 수 있는 시스템의 취약점을 발견했습니다.
문제는 악의적인 공격자가 검색 엔진 최적화(SEO) 기술을 통해 SGE 알고리즘을 조작할 가능성이 있다는 점입니다.
이러한 악성 사이트는 관련 키워드를 전략적으로 사용하여 AI를 속여 검색 결과에 표시되도록 할 수 있습니다.
SEO 전문가인 릴리 레이는 SGE 기능을 테스트하던 중 바로 이 사실을 발견했습니다. 레이가 핏불 강아지를 검색하자 AI가 여러 스팸 웹사이트를 추천했습니다.
BleepingComputer의 추가 조사 결과 이러한 스팸 사이트와 관련된 다양한 악의적인 결과가 밝혀졌습니다.
확인된 우려스러운 활동 중에는 사용자를 속여 스팸을 폭격하는 침입성 브라우저 알림을 활성화하려는 시도가 포함되어 있습니다.
다른 경우에는 스팸 사이트를 통해 피싱 사기를 당하거나 원치 않는 브라우저 확장 프로그램이 설치될 수 있습니다.
위험은 사용자가 AI가 생성한 추천이 안전하다고 가정하는 데 있으며, 이는 명백히 사실이 아닙니다.
엄격한 테스트와 윤리적 배포의 필요성
AI 환각은 오랜 과제로 남아 있으며, Google AI의 대응은 때때로 터무니없는 영역으로 치닫기도 합니다.
특히 정보의 홍수 속에서 정확한 결과와 잘못된 결과를 구별하는 것은 상당한 도전입니다.
사용자는 일반적으로 명확한 답이 없기 때문에 검색 엔진을 이용하며, 그 간극을 메우기 위해 AI에 의존합니다.
이러한 문제를 해결하기 위한 Google의 적극적인 접근 방식은 개선을 위한 노력을 강조합니다.
그러나 AI 오버뷰를 둘러싼 논란은 제너레이티브 AI 기술을 배포할 때 철저한 테스트와 윤리적 고려가 필요하다는 점을 강조합니다.
AI 패권을 향한 경쟁이 치열해지면서 이러한 강력한 도구의 정확성과 윤리적 개발을 보장하는 것이 무엇보다 중요해졌습니다.
인공지능의 반응을 수동적으로 받아들이기보다는 비판적으로 평가하고 검증하면서 경계를 늦추지 않는 것이 우리의 의무입니다.
이를 통해 우리는 더욱 자신감 있고 성실하게 진화하는 AI의 환경을 탐색할 수 있습니다.