저자: Doug Petkanics, Livepeer CEO, 번역: 0xxz@골든파이낸스
소개
라이브피어 네트워크가 매주 수백만 분의 동영상을 트랜스코딩하는 데 수천 개의 GPU를 사용한다는 사실이 밝혀졌을 때 가장 많이 받은 질문 중 하나는 이러한 GPU를 다른 유형의 연산에 사용할 수 있는지 여부였습니다. 계산을 수행하는 데 사용할 수 있는지 여부였습니다. 특히 2023년 AI의 부상과 그에 따른 GPU(AI 훈련 및 추론을 수행하는 데 사용되는 하드웨어)의 수요 증가로 인해 Livepeer 네트워크가 컴퓨팅 성능을 사용하여 수십억 달러가 소요되는 AI 인프라에 진출할 수 있다고 가정하는 것은 당연합니다. AI 컴퓨팅용 GPU를 제공하는 nVidia의 데이터센터 비즈니스는 지난 분기에만 140억 달러의 수익을 올렸습니다. 작년 같은 분기의 40억 달러에서 지난 분기 140억 달러의 매출 성장을 달성했습니다.
< /p>
출처: NVidia 분기별 보고서 작성자: @Thomas_Woodside on X
이러한 가정이 맞다면, 획기적인 비용으로 AI 처리를 원하는 사람들이 Livepeer 네트워크를 확실히 사용할 수 있습니다. 최근 몇 달 동안 Livepeer Studi를 통한 Livepeer 동영상 사용이 증가하고 새로운 커뮤니티 관리형 Livepeer Vault의 출시로 기반이 마련되었으므로, 이제 Livepeer에 AI 동영상 컴퓨팅 기능을 도입할 때입니다.
이 글의 다음 섹션에서는 AI 비디오 컴퓨팅을 Livepeer 네트워크에 도입하는 방법과 이를 실현하기 위한 계획, 전략 및 일정에 대해 설명합니다.
미션 포지셔닝 - 비디오 필터
라이브피어의 사명과 헌신에 대한 배경
라이브피어는 전 세계의 개방형 비디오 인프라를 구축한다는 사명에 항상 전념해 왔습니다. 다른 컴퓨팅 플랫폼은 일반적인 "블록체인 상의 AWS" 또는 "모든 유형의 컴퓨팅 작업 실행" 유형의 시장이 되려고 노력했지만, 산업별 솔루션이 부족하여 시장 진입이 어려웠습니다. 대신 Livepeer는 트랜스코딩을 통한 비디오 컴퓨팅에 집중하고 있으며, 아무도 원하지 않는 일반적인 추상적 솔루션을 마케팅하기보다는 실제 사용 사례를 해결하고 기존 수요를 활용하는 특정 산업(1,000억 달러 이상의 비디오 스트리밍 시장)을 위한 타겟 제품 및 GTM을 구축할 수 있습니다.
동영상에 집중한다는 것은 Livepeer가 ICO, NFT 또는 DeFi와 같은 최신 핫 트렌드에 과민하게 반응하지 않고 항상 이러한 혁신이 동영상에 어떻게 적용될 수 있는지 질문한다는 것을 의미합니다. 최고점은 높지 않지만, 더 중요한 것은 최저점도 낮지 않다는 것입니다. 이는 또한 이달의 트렌드가 지나가면 떠나는 커뮤니티가 아니라, 오랫동안 해온 일에 흥미를 갖고 있는 비디오 전문 지식을 갖춘 미션 중심의 팀과 커뮤니티를 끌어들입니다.
현재 인공지능의 급부상보다 더 뜨거운 트렌드는 없습니다. 그러나 많은 암호화폐 팀과 프로젝트와 달리 Livepeer는 사명을 포기하고 "AI로 전환"하지 않습니다. 대신 AI가 비디오의 미래에 어떤 영향을 미칠지에 대한 질문을 던집니다. AI는 여러 면에서 동영상 제작자의 장벽을 낮춰줍니다. 두 가지 중요한 요소는 애초에 제작에 소요되는 시간과 비용을 줄여주고, 고품질의 동영상을 제작하고 출력하는 데 필요한 시간, 비용, 전문성을 줄여준다는 점입니다.
제작 측면에서는 제너레이티브 AI를 사용하여 텍스트 또는 이미지 단서를 기반으로 비디오 클립을 만들 수 있습니다. 장면을 설정하는 데 영화 제작진, 세트, 카메라, 대본, 배우, 편집자 등이 필요했다면, 이제는 사용자가 텍스트 단서를 키보드에 입력하고 GPU가 잠재적인 결과의 샘플을 생성할 때까지 몇 분만 기다리기만 하면 될 수 있습니다. 비디오 생성이 고품질 프로덕션을 대체할 수는 없지만 프로세스의 모든 단계에서 비용을 크게 절감할 수 있습니다.
제작 측면에서는 업스케일링, 프레임 보간, 자막 생성과 같은 기능을 통해 AI가 제작하든 제작자가 제출하든 비디오 콘텐츠의 품질과 접근성을 빠르게 개선할 수 있습니다. 자동 객체 감지, 마스킹, 장면 유형 분류를 통해 비디오의 인터랙티브 기능과 같은 고급 기능을 활성화할 수 있습니다.
라이브피어가 이러한 AI 기능 세트를 활용할 수 있는 시기는 최근 안정적인 비디오 확산, ESRGAN, FAST 등을 포함한 오픈 소스 기본 모델이 출시되어 클로즈드 소스 독점 모델과 동기화되는 등 매우 흥미롭습니다. 목표는 전 세계의 개방형 비디오 인프라가 누구나 액세스할 수 있는 오픈 소스 모델, 현재 존재하며 오픈 소스 AI 커뮤니티의 혁신 덕분에 빠르게 개선되고 있는 모델을 실행하는 것을 지원하는 것입니다.
AI 컨텍스트 - Livepeer의 적합성
훈련, 미세 조정, 추론
AI 수명 주기에는 여러 단계가 있지만 일반적으로 많은 컴퓨팅 성능이 필요한 세 단계는 훈련, 미세 조정 및 추론입니다. 간단히 설명하자면, 학습에는 모델을 생성하고 대규모 데이터 세트에서 계산을 실행하는 작업이 포함됩니다. 때로는 기본 모델(예: OpenAI 또는 Google을 통해 훈련된 모델)을 훈련하는 데 수천 또는 수억 달러 상당의 계산이 필요합니다.
미세 조정은 기존 기본 모델을 사용하지만 특정 작업에 대한 특정 입력 세트에 따라 가중치를 조정하는 방식으로 비용 효율성이 더 높습니다.
추론은 학습 및 튜닝이 완료된 모델을 사용하여 일련의 입력에 따라 출력을 생성하거나 예측을 수행하도록 하는 작업입니다. 추론 작업의 경우 일반적으로 처음 두 단계에 비해 계산 비용이 저렴하지만, 일반적으로 수백만 번 반복해서 실행되므로 추론 비용이 학습 비용을 초과하므로 학습에 대한 투자를 정당화할 수 있습니다.
트레이닝과 미세 조정을 위해서는 대규모 데이터 세트에 대한 액세스와 서로 통신하고 정보를 빠르게 공유할 수 있도록 고밀도로 네트워크로 연결된 GPU가 필요합니다. Livepeer와 같은 네트워크는 즉시 사용 가능한 교육에는 적합하지 않으며 작업을 완료하려면 대규모 업데이트가 필요합니다. 분산형 네트워크는 독점적인 대규모 기술 교육 클라우드의 대안으로 교육에 매력적이지만, 기본 모델을 교육할 때 네트워크 오버헤드와 비효율성으로 인해 비용 측면에서 분산형 네트워크가 경쟁력이 있는지는 의문입니다.
반면, 추론은 Livepeer와 같은 분산형 네트워크가 활약할 수 있는 분야입니다. 각 노드 운영자는 주어진 모델을 GPU에 로드할 수 있는 옵션이 있으며, 사용자 입력을 기반으로 추론 작업을 수행하기 위해 비용 경쟁을 할 수 있습니다. 라이브피어 트랜스코딩 네트워크에서와 마찬가지로, 사용자는 AI 추론을 수행하기 위해 작업을 라이브피어 네트워크에 제출할 수 있으며, 오픈 마켓에서 가격 경쟁을 통해 현재 유휴 GPU 성능을 활용함으로써 비용 이점을 얻을 수 있습니다.
GPU는 AI 붐의 생명선이며, GPU 수요를 기반으로 하는 엔비디아의 데이터센터 비즈니스는 지난 한 해 동안 기하급수적으로 성장했습니다. 엘론 머스크는 GPU가 마약보다 구매하기 어렵다는 농담을 하기도 했습니다. 하지만 라이브피어와 같은 디핀 네트워크는 오픈 마켓의 역동성과 인플레이션 토큰 보상을 통해 인센티브를 제공함으로써 수요보다 앞서 전 세계적으로 GPU 공급을 유치하여 새로운 사용자와 애플리케이션의 성장을 탄력적으로 지원할 수 있다는 것을 보여주었습니다. 거의 무제한에 가까운 종량제 용량. 개발자는 더 이상 사용하지 않는 하드웨어를 비싼 가격에 미리 예약할 필요 없이 시장 최저가를 지불하면 됩니다. 이는 탈중앙화 네트워크가 AI 붐을 일으킬 수 있는 엄청난 기회입니다.
라이브피어의 기회 - GPU 대신 네트워크에 AI 추론 작업 제출
1,000개의 GPU가 Livepeer에 연결됨
GCP나 AWS와 같은 클라우드 제공자는 엔터프라이즈 클라우드에서 "GPU 서버를 예약"할 수 있도록 합니다. 아카시와 같은 개방형 네트워크는 더 나아가 전 세계의 많은 탈중앙화 제공자 중 한 곳에서 필요에 따라 서버를 임대할 수 있습니다. 하지만 이러한 옵션과 상관없이, 모델을 실행하고 작업을 수행하기 위해 대여한 서버를 관리해야 합니다. 한 번에 여러 작업을 수행할 수 있는 애플리케이션을 구축하려면 애플리케이션을 확장해야 합니다. 워크플로를 서로 연결해야 합니다.
라이브피어는 네트워크에 제출하고 완료를 신뢰할 수 있는 "작업"으로 추상화하며, 라이브피어는 이미 비디오 트랜스코딩에서 2초짜리 비디오 클립을 트랜스코딩하기 위해 제출하는 작업을 통해 이 작업을 수행하고 있습니다. 네트워크에 작업을 전송하기만 하면 브로드캐스트 노드가 작업자 노드 선택, 장애 조치 및 중복성을 처리하여 작업을 안정적으로 완료할 것이라는 확신을 가질 수 있습니다.
AI 비디오 컴퓨팅 작업에서도 동일한 방식으로 작동할 수 있습니다. "텍스트에서 비디오 생성" 작업이 있을 수 있습니다. 이 작업을 노드에 맡기면 수천 개의 GPU로 구성된 네트워크를 활용하여 실제 연산을 수행할 수 있는 단일 노드를 통해 동시에 제출하려는 작업의 수만큼 확장할 수 있습니다. 한 걸음 더 나아가 아직 설계 단계에 있지만 다음과 같은 전체 워크플로우를 제출할 수 있습니다.
텍스트에서 비디오 생성
한 단계 높이기
프레임을 보간하여 원활하게 재생
별도 머신에 별도의 모델을 배포하고, IO를 관리하고, 스토리지를 공유하는 등의 작업을 수행할 필요 없이 네트워크가 이 모든 작업을 대신 수행합니다. 서버 관리, 서버 확장, 장애 조치 등이 필요 없습니다. Livepeer는 비용 효율성이 극대화되고 신뢰성이 높은 확장 가능한 인프라입니다. 네트워크가 비디오 트랜스코딩을 통해 보여준 것처럼 AI 비디오 컴퓨팅에 대한 이러한 약속을 이행할 수 있다면, 개방형 AI 세계에서는 아직 볼 수 없었던 새로운 수준의 개발자 경험과 비용 절감을 제공할 수 있을 것입니다.
AI 비디오 컴퓨팅을 신속하게 도입하고 네트워크의 비용 효율성을 검증할 계획
AI 비디오 서브네트워크
지난 7년간 Livepeer가 걸어온 여정에 따라, 이 프로젝트는 실제 사용 가능하고 기능적인 오픈 소스 소프트웨어 및 네트워킹 기능을 " Livepeer에는 이런 기능이 있습니다" 캠페인을 진행합니다. 다음은 이를 실현하기 위한 계획의 간략한 버전입니다.
비디오 트랜스코딩뿐만 아니라 다른 유형의 작업에 대한 구체적인 초기 사용 사례를 선택합니다: AI 업그레이드 및 프레임 보간으로 지원되는 AI 기반 제너레이티브 비디오. 이 분야에서는 안정적인 비디오 확산과 같은 훌륭한 개방형 모델이 매일 진화하고 있습니다.
코디네이터(공급 측) 노드와 방송사(수요 측) 노드에 이러한 기능을 추가하려면 노드 소프트웨어의 포크/스파이크 내에 구축하여 빠르게 이동해야 합니다. Livepeer의 오픈 미디어 서버 카탈리스트는 이러한 생성 비디오 작업을 요청하고 사용하기 위한 인터페이스를 지원해야 합니다.
이 피크를 실행하는 사용자는 Livepeer에서 일종의 하위 네트워크를 형성하지만, Livepeer 프로토콜을 사용하여 메인 Livepeer 네트워크를 통해 이 새로운 기능을 실행하는 노드를 발견하고 비용을 지불합니다.
소비자 대면 프런트엔드 애플리케이션과 파트너 관계를 맺어 Livepeer의 매우 비용 효율적인 개방형 컴퓨팅 네트워크를 활용하고 퍼블릭 클라우드 대비 Livepeer의 비용 효율성을 입증하는 데이터를 수집 및 제시합니다.
이를 검증하면서 핵심 Livepeer 클라이언트에 통합하고, 다른 유형의 작업을 추가하고, 다른 형태의 AI 기반 비디오 컴퓨팅 활용을 중심으로 생태계를 성장시키세요.
AI 비디오 서브네트워크 노드는 트랜스코딩 노드와 함께 실행됩니다. 트랜스코딩 노드와 함께 실행됩니다.
AI 비디오 SPE
라이브피어는 최근 델타 업그레이드를 통해 프로토콜에 온체인 볼트 관리 커뮤니티를 도입했으며, 몇 달 동안 공공 제품 이니셔티브에 자금을 지원하기 위해 LPT를 사용해 왔습니다. AI 비디오 컴퓨팅의 가능성을 현실화하기 위해 노력하는 특수목적법인(SPE)에 자금을 지원하고자 하는 사전 제안이 이미 논의 중이며 투표를 앞두고 있습니다. 첫 번째 제안은 위에 나열된 첫 네 가지 작업을 수행하기 위한 핵심 개발이 가능하도록 하는 것을 목표로 합니다."
라이브피어 노드 포크로 이러한 AI 기능 개발
노드 운영자는 서브 네트워크를 형성하여 라이브피어 노드에 대한 비용을 지불함으로써 포크할 수 있습니다. 이러한 작업을 수행할 수 있습니다.
소비자에게 이러한 기능을 보여주는 프론트엔드 애플리케이션.
라이브피어 네트워크에서 대규모로 AI 추론을 수행할 때의 비용 효율성을 보여주는 벤치마크 및 데이터 모음.
또한 이 데이터 수집 기간 동안 소비자의 초기 사용 비용을 충당하기 위해 볼트로부터 인프라 크레딧을 받을 수 있는 잠재적인 미래 자금 조달 이정표를 제시합니다.
라이브피어 디스코드의 #ai-video 채널은 이 이니셔티브에 대한 토론과 협업의 핫스팟이 되었으며, 개방형 AI 인프라와 비디오 AI 컴퓨팅의 미래를 믿는 사람이라면 누구나 들러서 인사하고 참여해야 합니다. 노드 운영자들은 이미 다양한 하드웨어를 벤치마킹하고, 이러한 개방형 비디오 모델을 실행하는 데 익숙해지고, 비디오 트랜스코딩 전문 분야에서 다른 비디오 관련 직종으로 전환하는 데 따르는 어려움을 해결하기 시작했습니다. 빠르게 변화하는 프로젝트 팀의 일원이 되어 즐거운 시간을 보냈습니다.
미래
이 초기 이정표는 Livepeer가 지원하는 특정 형태의 AI 비디오 연산에 비용 효율적이라는 것을 보여줄 수 있지만, 진정한 궁극적인 힘은 AI 개발자가 네트워크의 기존 기본 모델 위에 구축할 수 있는 모델, BYO 가중치, BYO 튜닝 또는 맞춤형 LoRA를 배포할 수 있는 능력에 있습니다.
다양한 모델과 연산 형태에 걸쳐 이러한 초기 기능을 지원하면 AI 비디오 컴퓨팅과 관련하여 노드 조작, GPU에서 모델 로드/언로드, 노드 검색 및 협상, 장애 조치, 결제, 인증 등의 영역에서 빠른 학습이 가능해집니다. 이를 통해 Livepeer 네트워크에서 모든 AI 비디오 컴퓨팅 작업 유형을 생성하고 지원하기 위한 향후 마일스톤을 평가할 수 있습니다.
초기에는 비디오 전용 플랫폼(예: Livepeer Studio)에서 비디오 개발자가 지원되는 모델을 활용할 수 있도록 API 및 제품을 구축할 수 있습니다. 소비자 애플리케이션(예: AI Video SPE에서 제안된 것과 같은)은 카탈리스트 노드를 통해 Livepeer 네트워크에서 직접 이러한 기능을 사용할 수 있습니다. 그러나 이러한 기능이 확장됨에 따라 새로운 크리에이터 중심의 AI 비즈니스는 대규모의 값비싼 기술 클라우드와 독점 모델에 비즈니스의 중추를 의존하지 않고도 맞춤형 경험을 비용 효율적으로 구축하기 위해 Livepeer의 글로벌 GPU 네트워크를 형성하고 활용할 수 있습니다.
앞으로 가야 할 길은 멀고도 험난합니다. AI가 향후 몇 년 안에 우리가 상상하는 것보다 더 빠르게 비디오 세계를 변화시킬 것이라는 데는 의심의 여지가 없으며, 전 세계의 개방형 비디오 인프라가 향후 이 대담한 신기술을 구현하는 데 필요한 모든 컴퓨팅을 위한 가장 비용 효율적이고 확장 가능하며 안정적인 백본이 될 것으로 기대합니다.