지난 주에는GPT-4o의 출시가 기대감을 불러일으키고 있습니다. 는 실시간 텍스트, 오디오, 시각 처리를 결합한 매력적인 '옴니' 기능으로 인간과 컴퓨터의 상호작용에 혁신적인 영향을 미치고 AI의 다양성과 효율성에 새로운 기준을 제시할 것으로 기대됩니다.
놀랍게도 OpenAI의 수석 과학자이자 공동 창립자인 일리야 수츠케버가 X를 떠난다고 발표했습니다.
같은 날, '슈퍼 얼라이언스 팀'의 리더 중 한 명인 얀 라이크도 비슷한 발표를 했습니다.
두 사람이 이끌던 '슈퍼 얼라인먼트 팀'은 최근 잇따라 이탈자가 발생하고 있습니다. 이러한 추세에 대응하여 지난 금요일, 회사는 인공지능과 관련된 심오하고 장기적인 위험을 탐구하기 위해 1년 전에 설립한 팀을 해체하기로 하는 중대한 결정을 내렸습니다.
OpenAI의 사임으로 안전 문제 제기
안전 조치보다 제품 개발의 우선순위를 두고 OpenAI CEO인 샘 알트만과 의견 차이를 보였던 서츠케버는 결국 퇴사를 발표했습니다.
해체된 '슈퍼얼라인먼트 팀'을 공동 이끌었던 라이크는 소셜 미디어에서 이러한 우려를 반영하며 충분한 컴퓨팅 리소스를 확보하기 위한 노력과 OpenAI 내에서 안전 문화가 소외된 점을 강조했습니다.
Leike의 비판은 특히 OpenAI가 GPT-4o와 같은 강력한 AI 모델을 추구하면서 이러한 발전과 관련된 잠재적 위험에 적절히 대비하지 못하고 있다고 주장했습니다. 그는 목표를 성공적으로 달성하기 위해 더 많은 자원과 더 강력한 안전 문화가 필요하다고 강조했습니다.
이번 사임은 OpenAI가 혼란스러운 시기를 겪고 있는 가운데 이루어졌습니다. 이 회사는 안전보다 제품 출시에 우선순위를 둔다는 비판을 받아왔으며, 일론 머스크 테슬라 CEO는 안전이 최우선 순위가 아니라고 언급하기도 했습니다.
또한 OpenAI는 플랫폼의 서비스 약관을 위반하여 챗봇 스토어에 스팸을 넘치고 YouTube에서 데이터를 스크랩했다는 비난을 받기도 했습니다.
OpenAI, 주요 출발 후 안전 조치로 대중을 안심시키다
고급 AI의 안전에 초점을 맞춘 회사의 '슈퍼 얼라인먼트 팀'을 공동 이끌었던 두 명의 핵심 인사가 사임하면서 OpenAI는 AI 안전에 대한 약속에 대한 의문에 직면해 있습니다.
이러한 우려에 대해 OpenAI의 CEO인 샘 알트먼과 사장인 그렉 브록먼은 AGI의 위험과 잠재력에 대한 인식을 강조하는 메시지를 공동 저술했습니다.
이들은 국제적인 AGI 안전 표준을 옹호하고 잠재적인 재앙적 위협에 대한 AI 시스템을 검사하는 선구적인 작업을 수행한 점을 높이 평가했습니다.
알트만과 브록맨은 점점 더 발전하는 AI 시스템을 안전하게 배포하기 위한 지속적인 노력도 강조했습니다.
이들은 대규모 언어 모델인 GPT-4의 개발 및 출시를 프로세스 전반에 걸쳐 안전 조치를 시행한 사례로 꼽았습니다. 또한 학습한 교훈을 바탕으로 모델 행동과 남용 모니터링을 개선하기 위한 지속적인 노력에 대해서도 언급했습니다.
이들의 이탈로 우려가 제기되고 있지만, OpenAI는 해체된 '슈퍼 얼라인먼트 팀'을 넘어서는 광범위한 안전 전략을 가지고 있다고 주장합니다.
이 회사는 AI 시스템으로 인한 잠재적인 재앙적 위험을 완화하는 데 중점을 둔 대비 그룹을 포함하여 다양한 팀과 전담 안전 팀에 AI 안전 전문가를 배치한 것으로 알려졌습니다.
또한 알트먼은 AI 개발을 제대로 관리하지 않을 경우 전 세계에 '심각한 피해'를 끼칠 수 있다는 점을 인정하며 AI 개발을 감독하는 국제기구 설립을 공개적으로 지지하고 있습니다.
OpenAI, 새로운 수석 과학자 임명
야쿱 파초키가 일리야 수츠케버의 후임으로 OpenAI의 새로운 수석 과학자로 임명되었습니다. 파초키는 GPT-4, OpenAI Five 및 기타 주요 프로젝트의 개발에 중요한 역할을 담당해 왔습니다.
OpenAI의 CEO인 샘 알트먼은 파초키의 리더십과 전문성을 높이 평가하며 안전하고 유익한 인공 일반 지능(AGI)으로 회사를 이끌어갈 그의 능력에 대한 자신감을 표명했습니다.
이번 발표는 최근 알트먼이 투명성 부족으로 인해 일시적으로 직위에서 해임되는 등 OpenAI가 혼란을 겪고 있는 가운데 나온 것입니다.
서츠케버는 알트먼을 축출하고 복귀를 옹호하는 데 핵심적인 역할을 했으며, 이로 인해 서츠케버가 미공개 정보를 알고 있을 가능성이 있다는 추측이 제기되었습니다.
ChatGPT 플러그인에서 발견된 보안 결함
2023년 11월, 연구원들은 OpenAI에서 출시한 ChatGPT용 타사 플러그인에서 심각한 보안 취약점을 발견했습니다. 이러한 결함으로 인해 해커가 사용자 데이터를 탈취하고 온라인 계정을 장악할 수 있었습니다.
첫 번째 취약점은 설치 프로세스에 영향을 미쳐 해커가 사용자 모르게 악성 플러그인을 설치하고 비공개 메시지에서 비밀번호와 같은 민감한 정보를 훔칠 수 있게 했습니다.
두 번째 취약점은 사용자 지정 ChatGPT 플러그인을 만드는 플랫폼인 플러그인랩에 영향을 미쳤습니다. 해커는 이 결함을 악용하여 깃허브와 같은 타사 플랫폼의 사용자 계정을 제어할 수 있습니다.
세 번째 취약점은 공격자가 여러 플러그인을 통해 사용자 자격 증명을 훔칠 수 있는 OAuth 리디렉션 조작과 관련된 취약점입니다.
이러한 취약점은 2023년 내내 발견되었습니다. 첫 번째 취약점은 6월에 발견되어 7월에 OpenAI에 보고되었습니다. 9월에는 플러그인랩.AI와 케셈AI 플러그인에서 취약점이 발견되어 각 공급업체에 보고되었습니다. 이후 확인된 모든 취약점은 패치되었습니다.
머스크, 약속 위반과 인류에 대한 배신 혐의로 OpenAI를 고소하다
테슬라와 스페이스X의 솔직한 CEO 엘론 머스크, l2024년 3월, OpenAI와 그 CEO인 샘 알트먼을 상대로 법적 소송을 시작했습니다. .
이 소송은 인류를 위한 인공지능(AI) 개발이라는 야심찬 목표를 가지고 설립된 연구소인 OpenAI의 미래에 대한 근본적인 의견 불일치를 중심으로 진행되었습니다.
2015년 OpenAI의 공동 창립자인 머스크는 알트먼을 비롯한 다른 리더들과 조직의 비영리 구조에 대해 합의했다고 주장합니다.
샌프란시스코에서 제기된 소송에 따르면 이 계약은 회사 설립 당시 구두로 한 약속에 근거한 것입니다. 그러나 법률 전문가들은 공식적인 서면 계약이 없다는 점에서 이러한 계약의 집행 가능성에 의문을 제기했습니다.
분쟁의 핵심은 OpenAI가 최근 영리 모델로 전환한 데 있습니다.
2019년에는 영리 부서를 설립하고 Microsoft와의 독점 라이선스 계약에 따라 지금까지 가장 강력한 챗봇인 ChatGPT-4를 출시했습니다.
머스크는 이러한 행동을 창립 사명에 대한 배신이자 인류의 행복보다 이윤을 우선시하는 방향으로의 전환으로 간주합니다.
이 소송은 OpenAI가 원래의 비영리 단체의 길에서 벗어나 Microsoft의 '사실상의 자회사'가 되었다고 주장합니다.
머스크는 알트만과 OpenAI의 사장 그렉 브록맨이 회사 설립 후 몇 년 동안 주고받은 서면 메시지를 통해 비영리 모델에 대한 그들의 의지를 재확인했다고 주장합니다.
소송에 포함된 메시지 중 하나는 2017년 알트먼이 비영리 단체에 대한 열정을 표현하는 내용입니다.
애플, OpenAI와 협력하며 보안 및 개인 정보 보호 문제에 직면하다
곧 출시될 Apple의 iOS 18 업데이트에는 중요한 인공 지능(AI) 기능이 도입될 예정이며, 최근 ChatGPT를 개발한 OpenAI와의 계약으로 인해 iPhone 사용자의 보안 및 개인정보 보호에 대한 의문이 제기되고 있습니다.
자세한 내용은 아직 밝혀지지 않았지만, 애플이 챗봇 기능에 OpenAI 기술을 활용할 것이라는 보도가 나오면서 잠재적 위험성에 대한 논쟁이 벌어지고 있습니다.
Apple의 AI 접근 방식의 핵심에는 사용자 개인 정보 보호에 대한 약속이 있습니다. 그들의 모토는 '프라이버시. 이는 데이터를 외부 서버로 전송하지 않고 사용자의 휴대폰에서 직접 분석하는 온디바이스 프로세싱에 초점을 맞추고 있습니다.
이 접근 방식은 데이터 유출 및 무단 액세스의 위험을 최소화합니다.
하지만 디바이스 내 처리에는 한계가 있습니다. 효과적인 AI 모델을 학습하려면 방대한 양의 데이터가 필요하며, 로컬 휴대폰 저장 공간이 병목 현상이 발생할 수 있습니다. 바로 이 점이 OpenAI와의 파트너십이 필요한 이유입니다.
챗봇 개발을 OpenAI에 아웃소싱함으로써 Apple은 사용자가 원하는 기능을 제공하면서 데이터 저장 문제를 우회할 수 있습니다.
Apple 기기와 OpenAI 서버 간의 데이터 전송을 고려할 때 보안 문제가 발생할 수 있습니다.
이 데이터 교환의 구체적인 내용은 아직 명확하지 않습니다. 사용자 데이터가 챗봇 학습을 위해 OpenAI로 전송되는 경우, 데이터가 얼마나 안전하게 처리되는지, 그리고 Apple의 엄격한 개인정보 보호 표준을 준수하는지에 대한 의문이 제기됩니다.
이 접근 방식은 검색 기능에 대한 Apple과 Google의 기존 파트너십을 반영합니다. 수십억 달러 규모의 계약을 통해 기본적인 수준의 데이터 프라이버시가 보장되지만 일부 사용자 정보는 의심할 여지 없이 Google 서버로 전송됩니다.
잠재적인 보안 위험의 정도는 Apple-OpenAI 협업의 세부 사항에 따라 달라집니다. 사용자 데이터는 OpenAI에 도달하기 전에 익명화되나요? 얼마나 오래 보관될까요? 이러한 질문은 사용자 개인정보가 침해되지 않도록 하기 위해 반드시 해결해야 하는 중요한 질문입니다.
온디바이스 처리 제한으로 인해 또 다른 복잡성이 발생합니다.
Apple은 최신 기기를 위한 강력한 AI 칩을 개발하고 있지만, 구형 iPhone은 복잡한 AI 작업의 요구를 처리하지 못할 수 있습니다.
이로 인해 일부 사용자는 iOS 18의 고급 AI 기능의 혜택을 누리는 반면, 다른 사용자는 하드웨어 제약으로 인해 뒤처지는 시나리오가 발생할 수 있습니다.
궁극적으로 iOS 18의 AI 전략은 사용자 개인 정보 보호, 보안 및 기능 사이에서 줄타기를 하고 있습니다. 기기 내 처리는 안전한 환경을 제공하지만 일부 사용자에게는 기능이 제한될 수 있습니다.
AI 안전 및 조정의 복잡성
'AI의 불가능한 삼각형'이라는 개념은 효율성, 안전성, 혜택이 동시에 완전히 최적화될 수 없다는 것을 전제로 합니다. OpenAI의 최신 개발에서는 효율성과 사용자 혜택을 극대화하기 위해 안전성이 우선 순위에서 밀려난 것으로 보입니다.
개인 정보 보호 옹호자들과 규제 당국은 AI 챗봇 ChatGPT가 사람에 대한 부정확한 정보를 생성한다는 이유로 OpenAI를 비판하고 있습니다.
오스트리아의 개인 정보 보호 비영리 단체인 Noyb(맥스 슈렘스가 설립한)는 ChatGPT가 사람들의 개인 정보를 구성하여 유럽연합의 일반 데이터 보호 규정(GDPR)을 위반했다고 주장하며 OpenAI를 상대로 소송을 제기했습니다.
슈렘스 자신도 ChatGPT가 잘못된 생년월일을 알려줬고 OpenAI가 이를 수정할 수 없다고 했을 때 이 문제를 경험했습니다.
지난해 폴란드에서 OpenAI에 대한 또 다른 불만이 제기되었고, 이탈리아 데이터 당국도 OpenAI에 대해 GDPR 위반에 대한 경고를 보냈습니다.
미국에서는 연방거래위원회에서 ChatGPT의 환각으로 인한 평판 피해 가능성을 조사하고 있습니다.
메타의 AI 수석 과학자의 관점
메타의 수석 AI 과학자이자 OpenAI의 주목할 만한 경쟁자인 얀 르쿤은 인공 일반 지능(AGI)을 향한 여정이 단 하나의 획기적인 사건으로 표시되지는 않을 것이라고 주장합니다.
대신 다양한 영역에서 지속적으로 발전하는 것이 특징입니다.
그는 AI가 획기적인 발전을 이룰 때마다 일부 사람들은 AGI를 달성했다고 성급하게 선언했다가 나중에 정의와 이해를 구체화할 수 있다고 생각합니다.
르쿤은 인간보다 훨씬 똑똑하다고 알려진 AI 시스템을 제어해야 하는 시급한 문제를 해결하기 전에 집 고양이의 지능을 능가하는 시스템을 먼저 설계하는 것이 중요하다고 주장합니다.
그는 항공의 발달에 비유하며 안전한 장거리 비행용 제트기를 만드는 데 수십 년의 세심한 엔지니어링이 필요했던 것처럼, 고도로 지능적인 AI 시스템의 안전을 달성하고 보장하는 데도 마찬가지로 수년간의 점진적인 개선이 필요하다고 제안합니다.
르쿤은 대규모 언어 모델(LLM)에서 볼 수 있는 것과 같은 현재 AI의 기능을 진정한 지능과 혼동해서는 안 된다고 강조합니다.
그는 AI 시스템이 오랜 기간에 걸친 반복적인 개선을 통해 점진적으로 더 똑똑해지고 안전해지는 점진적인 진화를 예상합니다.
강력한 AI를 위한 경쟁이 안전에 제동을 걸고 있나요?
최근 OpenAI의 혼란은 AI 개발의 복잡한 외줄타기를 잘 보여줍니다.
한편으로는 GPT-4o의 기능과 같은 획기적인 발전의 매력이 있습니다.
다른 한편으로는 강력한 안전 조치와 윤리적 고려에 대한 끊임없는 요구가 존재합니다.
적절한 균형을 맞추기 위해서는 연구자, 정책 입안자, 대중 간의 지속적인 협력이 필요합니다.
안전과 보안을 훼손하지 않으면서도 AI 발전의 이점을 누릴 수 있을까요?
이것이 바로 인공지능과의 관계를 정의할 중요한 질문입니다.