AI가 인류를 사랑하기를 바라는 알트만, AI는 먼 길을 왔습니다.
OpenAI CEO 샘 알트만 는 AI에 대해 '인류를 사랑한다'는 대담한 포부를 밝혔습니다;
그는 이러한 특성이 AI 시스템에 내장될 수 있다고 확신하지만, 아직 확실하지는 않다고 인정합니다.
하버드 비즈니스 스쿨의 데보라 스파 부학장이 이 질문을 던지자 알트먼은 "그렇다고 생각합니다."라고 답했습니다.
아이작 아시모프의 소설부터 제임스 카메론의 영화 서사시까지, 한때 공상 과학 소설의 영역처럼 보였던 것이 이제는 진지하고 긴급한 논쟁으로 발전했습니다.
이전에는 추측으로 치부되었던 인공지능의 반란에 대한 아이디어는 이제 정당한 규제의 대상이 되었습니다.
한때는 음모론으로 치부될 수도 있었던 대화가 이제는 전 세계적으로 정책 논의를 형성하고 있습니다.
알트먼은 다음과 같이 강조했습니다.OpenAI의 정부와 '상당히 건설적인' 관계를 유지하고 있으며, AI의 빠른 진화에 대응하는 데 있어 협업의 중요성을 인정하고 있습니다.
그는 또한 이 정도 규모의 프로젝트는 정부가 주도하는 것이 이상적이라고 말하며, AI의 개발과 관련된 방대한 사회적 영향을 강조했습니다.
알트먼은 다음과 같이 언급했습니다:
"잘 작동하는 사회라면 이것은 정부 프로젝트가 될 것입니다. 그렇지 않다는 점을 감안할 때 미국 프로젝트로서 이런 식으로 진행되는 것이 더 낫다고 생각합니다."
AI 안전 가이드라인은 아직 미비
연방 정부는 AI 안전 법안을 발전시키는 데 거의 진전을 이루지 못했습니다.
최근 캘리포니아에서는 대량 살상 무기를 만들거나 중요 기반 시설에 대한 공격과 같은 치명적인 오용에 대해 AI 개발자에게 책임을 묻고자 하는 시도가 있었습니다.
이 법안은 주 의회를 통과했지만, 결국 개빈 뉴섬 주지사가 거부권을 행사했습니다.
AI와 인간 복지의 연계에 대한 해결의 시급성은 이 분야에서 가장 영향력 있는 목소리를 통해 강조되고 있습니다.
'인공지능의 대부'로 불리는 노벨상 수상자 제프리 힌튼은 인공지능의 안전을 보장할 수 있는 명확한 길이 없다고 인정하며 심각한 우려를 표명했습니다.
마찬가지로,테슬라 CEO 엘론 머스크 는 AI가 인류에게 실존적 위험을 초래할 수 있다고 지속적으로 경고해 왔습니다.
아이러니하게도 현재 AI 관행에 대한 비판의 목소리를 높였던 머스크는 OpenAI 설립의 핵심 인물로, 초기에 상당한 자금을 제공했으며, 현재 머스크가 조직을 고소하고 있는 상황에서도 알트만은 이에 대해 '감사'의 뜻을 전하고 있습니다.
AI 안전에 대한 도전은 이러한 문제를 해결하기 위한 전문 조직의 설립을 촉진했습니다.
OpenAI의 전 최고과학책임자가 설립한 얼라인먼트 리서치 센터와 세이프 슈퍼인텔리전스 같은 그룹은 AI 시스템이 인간의 가치에 부합하도록 운영하기 위한 전략을 모색하기 위해 등장했습니다.
이러한 노력은 인류의 미래를 보호하기 위해 AI의 급속한 발전이 그에 상응하는 엄격한 안전장치를 동반해야 한다는 인식이 확산되고 있음을 강조합니다.
알트먼, AI가 공감 능력을 갖추길 바라다
Altman 는 현재의 AI 설계가 정렬에 적합하며, AI 시스템이 인류에게 해를 끼치지 않도록 하는 것이 많은 사람들이 생각하는 것보다 더 실현 가능하다고 믿습니다.
그는 이렇게 말했습니다:
"놀랍도록 잘 작동한 것 중 하나는 AI 시스템이 특정 방식으로 작동하도록 조정하는 기능이었습니다. 다양한 사례에서 그것이 무엇을 의미하는지 명확하게 설명할 수 있다면 시스템이 그렇게 작동하도록 할 수 있다고 생각합니다."
그는 AI 개발을 이끄는 원칙과 가치를 정의하기 위한 혁신적인 접근 방식, 즉 AI 자체를 활용하여 대중과 직접 소통하는 방법을 제안합니다.
Altman 는 AI 챗봇을 사용하여 수십억 명의 사용자를 대상으로 설문조사를 실시하여 그들의 가치관과 우선순위에 대한 인사이트를 수집하는 계획을 구상하고 있습니다.
깊고 광범위한 커뮤니케이션을 촉진함으로써 AI는 사회적 문제를 미묘하게 이해하고 공공의 복지에 가장 도움이 되는 조치가 무엇인지 파악할 수 있습니다.
그는 설명했습니다:
"저는 인공지능이 여러분의 가치 체계에 대해 몇 시간 동안 대화를 나누는 사고 실험에 관심이 있습니다. 저와 다른 모든 사람들과도 그렇게 하죠. 그리고 나서 '알았어요, 모든 사람을 항상 행복하게 할 수는 없죠'라고 말합니다;
Altman은 이러한 집단적 피드백을 통해 AI 시스템을 인류의 광범위한 이해관계에 맞추고, 잠재적으로 AI가 사회적 목표와 조화롭게 작동할 수 있는 프레임워크를 만들 수 있다고 제안합니다.
이러한 접근 방식은 글로벌 대화를 촉진하는 도구로서 AI의 잠재력을 강조할 뿐만 아니라 생각을 자극하는 질문도 제기합니다.
이러한 방법으로 인간 가치의 복잡성을 진정으로 포착할 수 있을까요?
그리고 수십억 명의 다양한 관점을 조화시켜 사회적 선에 대한 통합된 비전을 달성할 수 있을까요?
알트만의 아이디어는 AI가 인류에게 봉사할 뿐만 아니라 인류의 가장 시급한 과제를 해결하기 위해 AI와 협력할 수 있는 방법을 엿볼 수 있게 해줍니다.
많은 전직 OpenAI 직원들, AI에서 안전이 뒷전으로 밀렸다고 우려
한때 OpenAI는 미래의 디지털 슈퍼인텔리전스가 악용되어 치명적인 피해를 입히는 것을 방지하는 데 초점을 맞춘 전담 슈퍼얼라이언스 팀을 운영했습니다.
2023년 12월, 연구팀은 하나의 대형 언어 모델이 다른 언어 모델을 감독하여 안전장치 역할을 하는 잠재적 프로세스를 설명하는 초기 연구 논문을 발표했습니다.
하지만 이듬해 봄이 되자팀은 리더였던 일리야 수츠케버와 얀 라이케가 회사를 떠난 후 해체되었습니다.
Leike는 OpenAI가 인간과 비슷한 수준의 인공 일반 지능(AGI)으로 발전함에 따라 안전 우선순위에 대한 경영진과의 의견 차이가 커졌다고 언급했습니다.
그의 퇴임으로 AGI 개발 경쟁에서 혁신과 안전 사이의 균형을 둘러싼 긴장이 고조되고 있습니다.
라이크가 떠난 후 알트만은 다음 게시물에서 그의 공헌에 감사를 표했습니다.X(이전의 트위터) 하지만 이 상황으로 인해 많은 사람들이 OpenAI가 앞으로 중요한 안전 문제를 어떻게 해결할 것인지에 대해 의문을 품게 되었습니다.