[특집] Crypto Price Surge ─ Bull Run인가 Bull Trap인가?
암호화폐 가격은 최근에 인상되었지만 일부는 암호화폐 황소가 돌아오고 있다고 낙관하는 반면 다른 사람들은 그것이 강세장의 황소 함정일 뿐이라고 생각합니다. 이것에 대한 당신의 관점은 무엇입니까?

지난 몇 년 동안 인공지능(AI)과 Web3 기술의 급속한 발전은 전 세계적으로 광범위한 관심을 끌었습니다. AI는 인간의 지능을 모방하고 모방하는 기술로서 얼굴 인식, 자연어 처리, 기계 학습 등의 분야에서 획기적인 발전을 이루었습니다. AI 기술의 급속한 발전은 다양한 산업에서 엄청난 변화와 혁신을 가져왔습니다.
2023년 AI 산업 시장 규모는 2,000억 달러에 달할 것으로 예상되며, OpenAI, Character.AI, Midjourney와 같은 거대 기업과 뛰어난 플레이어들이 등장해 AI 붐을 주도하고 있습니다.
한편, 새로운 네트워크 모델인 Web3는 인터넷에 대한 인식과 사용 방식을 점차 변화시키고 있으며, 탈중앙화된 블록체인 기술을 기반으로 스마트 계약, 분산 스토리지, 분산 인증 등의 기능을 통해 데이터 공유 및 제어를 실현합니다, Web3의 핵심 개념은 중앙화된 기관으로부터 데이터를 해방하고 사용자에게 데이터 제어 및 데이터 가치 공유 권한을 부여하는 것입니다.
현재 웹3.0 산업의 시가총액은 25조 달러에 달하며 새로운 이야기와 시나리오가 등장하면서 비트코인, 이더리움, 솔라나 또는 Uniswap, Stepn과 같은 플레이어의 애플리케이션 계층 등 점점 더 많은 사람들이 웹3.0 산업에 합류하고 있습니다. 산업.
AI와 Web3의 결합은 동서양의 빌더와 VC 모두에게 큰 관심을 끄는 분야이며, 이 둘을 어떻게 잘 통합할 수 있을지는 충분히 탐구해볼 만한 가치가 있는 질문이라는 것을 쉽게 알 수 있습니다.
이 백서에서는 AI+Web3의 개발 현황에 초점을 맞추고 이러한 통합의 잠재적 가치와 영향에 대해 살펴볼 것입니다. 먼저 AI와 Web3의 기본 개념과 특징을 소개한 후 상호 관계를 살펴봅니다. 그런 다음 AI+Web3 프로젝트의 현황을 분석하고 그들이 직면한 한계와 과제에 대해 심도 있게 논의할 것입니다. 이러한 연구를 통해 관련 업계의 투자자 및 실무자들에게 유용한 참고 자료와 인사이트를 제공할 수 있을 것으로 기대합니다.
AI와 Web3의 발전은 저울의 양면과 같아서, AI는 생산성 향상을 가져오고, Web3는 생산성 향상을 가져옵니다. AI는 생산성 향상을 가져왔고, 웹3.0은 생산 관계의 변화를 가져왔습니다. 그렇다면 AI와 웹3.0은 어떤 점에서 충돌할 수 있을까요? 먼저 AI와 웹3.0 산업의 딜레마와 개선의 여지를 분석한 다음, 각 산업이 이러한 딜레마를 해결하는 데 어떻게 도움이 될 수 있는지 살펴보겠습니다.
AI 산업의 딜레마와 잠재적 개선 여지
웹3 산업의 딜레마와 잠재적 개선 여지
웹3 산업의 딜레마와 잠재적 개선 여지
웹3 산업이 처한 딜레마와 잠재적 개선 여지
2.1 AI 산업이 직면한 딜레마
AI 산업이 직면한 딜레마를 살펴보기 위해 먼저 다음을 살펴보자. AI 산업의 본질을 살펴보자.AI 산업의 핵심은 산술, 알고리즘, 데이터라는 세 가지 요소와 분리할 수 없다.
첫째, 연산 능력: 연산 능력은 대규모 연산 및 처리 능력을 의미하며, AI 작업은 대량의 데이터를 처리하고 심층 신경망 모델을 학습시키는 등 복잡한 연산을 수행해야 하는 경우가 많습니다. 고집적 컴퓨팅 파워는 모델 학습 및 추론 프로세스를 가속화하고 AI 시스템의 성능과 효율성을 향상시킬 수 있습니다. 최근 몇 년 동안 그래픽 프로세서(GPU) 및 전용 AI 칩(예: TPU)과 같은 하드웨어 기술의 발전으로 연산 능력의 증가는 AI 산업의 발전을 이끄는 데 중요한 역할을 해왔습니다. 최근 몇 년 동안 주가가 크게 상승한 엔비디아는 높은 시장 점유율을 확보하고 높은 수익을 올린 GPU 공급업체입니다.
알고리즘이란: 알고리즘은 AI 시스템의 핵심 구성 요소로, 문제를 해결하고 작업을 실현하는 데 사용되는 수학적 및 통계적 방법입니다.AI 알고리즘은 전통적인 머신러닝 알고리즘과 딥러닝 알고리즘으로 분류할 수 있습니다. 학습 알고리즘은 최근 몇 년 동안 상당한 발전을 이루었습니다. 알고리즘의 선택과 설계는 AI 시스템의 성능과 효율성에 매우 중요합니다. 알고리즘의 지속적인 개선과 혁신은 AI 시스템의 정확성, 견고성, 일반화 능력을 향상시킬 수 있습니다. 알고리즘에 따라 결과가 달라지므로 알고리즘 개선은 작업 수행의 효율성을 위해서도 매우 중요합니다.
데이터가 중요한 이유: AI 시스템의 핵심 작업은 학습과 훈련을 통해 데이터에서 패턴과 규칙성을 추출하는 것입니다.
데이터는 모델을 학습하고 최적화하기 위한 기초이며, 대규모 데이터 샘플을 통해 AI 시스템은 더욱 정확하고 지능적인 모델을 학습할 수 있습니다. 풍부한 데이터 세트는 보다 포괄적이고 다양한 정보를 제공하여 모델이 보이지 않는 데이터에 대해 더 잘 일반화할 수 있게 함으로써 AI 시스템이 현실 세계의 문제를 더 잘 이해하고 해결할 수 있도록 도와줍니다.
현재 AI의 핵심 3요소를 이해했다면, AI 작업, 특히 딥러닝 모델의 경우 일반적으로 모델 훈련과 추론에 많은 양의 연산 리소스가 필요한 연산부터 시작하여 이 세 영역에서 AI가 직면하는 딜레마와 과제를 살펴봅시다. 그러나 대규모 연산 능력을 확보하고 관리하는 것은 비용이 많이 들고 복잡한 과제입니다. 고성능 컴퓨팅 장치의 비용, 에너지 소비, 유지 관리가 모두 문제입니다. 특히 스타트업이나 개인 개발자의 경우 충분한 연산 능력을 확보하는 것이 어려울 수 있습니다.
알고리즘 측면에서는 딥러닝 알고리즘이 많은 분야에서 큰 성공을 거두었지만, 여전히 몇 가지 딜레마와 과제가 남아 있습니다. 예를 들어 심층 신경망을 훈련하려면 많은 양의 데이터와 계산 리소스가 필요하며, 일부 작업의 경우 모델의 설명력과 해석력이 충분하지 않을 수 있습니다. 또한 알고리즘의 견고성과 일반화 능력은 중요한 문제이며, 보이지 않는 데이터에 대한 모델의 성능은 불안정할 수 있습니다. 수많은 알고리즘이 존재하기 때문에 최고의 서비스를 제공할 수 있는 최적의 알고리즘을 찾는 것은 지속적으로 탐구해야 하는 과정입니다.
데이터는 AI의 원동력이지만, 고품질의 다양한 데이터에 대한 접근은 여전히 어려운 과제입니다. 의료 분야의 민감한 건강 데이터와 같이 데이터를 확보하기 어려운 분야도 있습니다. 또한 데이터의 품질, 정확성 및 라벨링도 문제가 되고 있으며, 불완전하거나 편향된 데이터는 모델의 잘못된 동작이나 편향으로 이어질 수 있습니다. 또한 데이터의 개인정보와 보안을 보호하는 것도 중요한 고려 사항입니다.
또한 해석 가능성 및 투명성 문제도 있으며, AI 모델의 블랙박스 특성은 대중의 관심사입니다. 금융, 의료, 사법 등 특정 애플리케이션의 경우 모델의 의사 결정 과정을 설명할 수 있고 추적할 수 있어야 하는데, 기존의 딥러닝 모델은 투명성이 부족한 경우가 많습니다. 모델의 의사 결정 과정을 설명하고 신뢰할 수 있는 설명을 제공하는 것은 여전히 어려운 과제입니다.
또한 많은 AI 프로젝트 스타트업의 비즈니스 모델이 명확하지 않습니다.
2.2 웹3.0 산업이 직면한 딜레마
웹3.0 산업 측면에서는 현재 해결해야 할 딜레마가 여러 가지로 존재합니다. 웹3.0 데이터 분석, 웹3.0 제품의 열악한 사용자 경험, 스마트 컨트랙트 코드의 허점 및 해킹 문제 등 개선의 여지가 많습니다. 생산성 향상을 위한 도구로서 AI는 이러한 영역에서도 많은 잠재력을 가지고 있습니다.
첫째, 데이터 분석 및 예측 능력의 향상: 데이터 분석 및 예측에 AI 기술을 적용하는 것은 웹3.0 산업에 큰 영향을 가져왔습니다. AI 알고리즘에 의한 지능적인 분석과 마이닝을 통해 웹3.0 플랫폼은 방대한 데이터에서 가치 있는 정보를 추출하고 보다 정확한 예측과 의사결정을 내릴 수 있습니다. 이는 탈중앙화 금융(DeFi) 분야의 위험 평가, 시장 예측, 자산 관리에 중요한 역할을 합니다.
또한, 사용자 경험과 개인화된 서비스를 개선할 수 있습니다: AI 기술을 적용하면 Web3 플랫폼은 더 나은 사용자 경험과 개인화된 서비스를 제공할 수 있습니다. Web3 플랫폼은 사용자 데이터를 분석하고 모델링하여 사용자에게 개인화된 추천, 맞춤형 서비스, 지능형 대화형 경험을 제공할 수 있습니다. 이는 사용자 참여도와 만족도를 높이고 Web3 생태계의 발전을 촉진하는 데 도움이 되며, 예를 들어 많은 Web3 프로토콜이 사용자에게 더 나은 서비스를 제공하기 위해 ChatGPT와 같은 AI 도구에 액세스합니다.
AI의 적용은 보안 및 개인정보 보호 측면에서도 Web3 산업에 큰 영향을 미칩니다. AI 기술은 사이버 공격을 탐지 및 방어하고, 비정상적인 행동을 식별하며, 더 강력한 보안을 제공하는 데 사용될 수 있습니다. 한편, 데이터 암호화 및 프라이버시 계산과 같은 기술을 통해 Web3 플랫폼에서 사용자의 개인정보를 보호하기 위해 데이터 프라이버시 보호에도 AI를 적용할 수 있습니다. 스마트 컨트랙트 감사에서는 스마트 컨트랙트 작성 및 감사 과정에서 취약점과 보안 위험이 있을 수 있으므로, AI 기술을 활용해 계약 감사 및 취약점 탐지를 자동화하여 계약의 보안성과 신뢰성을 향상시킬 수 있습니다.
보시다시피, AI는 웹 3.0 업계가 직면한 딜레마와 잠재적인 개선 사항을 해결하기 위해 다양한 방식으로 활용될 수 있습니다.
AI와 웹3 프로젝트의 결합은 주로 블록체인 기술을 사용하여 AI 프로젝트의 성능을 개선하는 것과 AI를 사용하여 웹3 프로젝트의 성능을 개선하는 두 가지 주요 측면에서 시작됩니다. 프로젝트의 성능 향상, 그리고 AI 기술을 사용하여 웹3 프로젝트의 성능 향상에 기여하는 것입니다.
이 두 가지 측면을 중심으로 Io.net, Gensyn, Ritual 등 많은 프로젝트가 이 길을 모색하기 위해 등장했으며 다음 기사에서는 AI 지원 웹3와 웹3 지원 AI의 여러 하위 트랙에서 현황과 발전 상황을 분석할 것입니다.
3.1 Web3 기반 AI
3.1.1 탈중앙화 산술
2022년 말 OpenAI의 ChatGPT 출시로 불붙은 AI 열풍을 불러일으키며 출시 5일 만에 100만 사용자를 달성했는데, 이는 인스타그램이 100만 다운로드에 도달하는 데 약 2개월 반이 걸린 것과는 대조적인 결과입니다. 그 후에도 Chatgpt는 매우 빠른 속도로 성장하여 2개월 만에 월간 사용자 1억 명, 2023년 11월에는 주간 사용자 1억 명을 달성했습니다. Chatgpt의 도입과 함께 AI 분야는 틈새 시장에서 눈에 띄는 산업으로 빠르게 성장했습니다.
트렌드포스의 보고서에 따르면 ChatGPT를 실행하려면 30,000개의 NVIDIA A100 GPU가 필요하며, 향후 출시될 GPT-5에는 훨씬 더 많은 컴퓨팅이 필요할 것으로 예상됩니다. 이로 인해 다양한 AI 회사 간에 군비 경쟁이 시작되었으며, AI와의 전쟁에서 우위를 점하기 위해서는 충분한 컴퓨팅 성능을 확보하는 것이 유일한 방법이며, 따라서 GPU 부족이 발생하고 있습니다.
AI가 부상하기 전에는 최대 GPU 공급업체인 NVIDIA의 고객이 AWS, Azure, GCP 등 3대 클라우드 서비스에 집중되어 있었습니다. AI가 부상하면서 Meta, Oracle, 기타 데이터 플랫폼 및 AI 스타트업과 같은 빅테크 기업을 포함한 수많은 신규 구매자가 생겨났습니다. Meta, Tesla와 같은 빅 테크 기업들은 맞춤형 AI 모델과 자체 연구용 GPU 구매를 크게 늘리고 있으며, Anthropic과 같은 기본 모델링 기업과 Snowflake, Databricks와 같은 데이터 플랫폼도 고객이 AI 서비스를 제공하기 위해 더 많은 GPU를 구매하고 있습니다.
작년에 Semi Analysis에서 언급한 'GPU 부자와 GPU 빈자'처럼, 20,000개 이상의 A100/H100 GPU를 보유한 소수의 기업과 프로젝트에 100~1,000개의 GPU를 사용할 수 있는 팀원이 있는 회사들이 있습니다. 이러한 회사는 클라우드 제공업체이거나 자체적으로 구축한 LLM을 보유하고 있으며, 여기에는 OpenAI, Google, Meta, Anthropic, Inflection, Tesla, Oracle, Mistral 등이 포함됩니다.
그러나 이러한 기업 대부분은 GPU가 훨씬 적은 'GPU 빈곤층'에 속하며, 생태계 발전에 도움이 되지 않는 일에 많은 시간과 노력을 쏟고 있습니다. 이러한 상황은 스타트업에만 국한된 것이 아닙니다. 가장 잘 알려진 AI 기업 중 일부인 Hugging Face, 데이터브릭스(모자이크ML), 투게더, 심지어 스노우플레이크도 A100/H100이 2만 개 미만이며, 이러한 기업들은 세계적인 수준의 기술 인력을 보유하고 있지만 사용 가능한 GPU의 수에 제한이 있어 AI 경쟁에서 대기업에 비해 불리한 상황에 처해 있습니다.
이러한 부족 현상은 'GPU 빈곤층'에만 국한되지 않으며, 심지어 2023년 말에는 AI 분야의 선두주자인 OpenAI가 GPU 공급을 늘리는 동안 충분한 GPU를 확보하지 못해 몇 주 동안 유료 등록을 중단해야 했을 정도였습니다. GPU 공급.
AI의 고속 발전과 함께 다음과 같은 문제도 발생하고 있습니다. GPU의 수요 측면과 공급 측면 사이에 심각한 불일치가 발생하고 있으며 공급 과잉 문제가 임박했습니다.
이 문제를 해결하기 위해 아카시, 렌더, 젠신 등 일부 웹3 프로젝트는 웹3의 기술적 특성을 결합하여 탈중앙화 연산 서비스를 제공하려고 시도하기 시작했습니다. 이러한 프로젝트의 공통적인 특징은 다수의 사용자가 토큰을 통해 유휴 GPU 연산을 제공하도록 장려하여 AI 고객에게 연산 지원을 제공함으로써 연산의 공급 측면이 되었다는 점입니다.
공급 측면의 모습은 클라우드 서비스 제공자, 암호화폐 채굴자, 기업의 세 가지 주요 영역으로 나눌 수 있습니다.
클라우드 서비스 제공자는 대형 클라우드 제공자(예: AWS, Azure, GCP)와 GPU 클라우드 제공자(예: Coreweave, Lambda, Crusoe 등)를 포함하며, 사용자는 유휴 클라우드 제공자의 연산 능력을 재판매하여 수익을 창출할 수 있습니다. 또한, 이더가 작업 증명에서 지분 증명으로 전환함에 따라 암호화폐 채굴자는 유휴 GPU 연산 능력의 중요한 잠재적 공급원이 되었습니다. 또한, 전략적 배치로 인해 대량의 GPU를 구매한 테슬라나 메타 같은 대기업도 유휴 GPU 연산을 공급 측면으로 활용할 수 있습니다.
현재 이 트랙의 플레이어는 크게 AI 추론에 분산형 산술을 사용하는 경우와 AI 학습에 분산형 산술을 사용하는 경우로 나뉩니다. 전자는 렌더(렌더링에 중점을 두지만 AI 연산 제공자로도 사용 가능), 아카시, 아에티르 등이며, 후자는 io.net(추론 및 훈련 지원 가능), 젠신 등이며, 가장 큰 차이점은 연산 요구사항이 다르다는 점입니다.
먼저 전자의 AI 추론 프로젝트에 대해 이야기하자면, 이런 종류의 프로젝트는 토큰 인센티브를 통해 사용자가 산술 제공에 참여하도록 유도한 다음 수요 측에 산술 네트워크 서비스를 제공하여 유휴 산술 집계의 공급과 수요를 실현합니다. 이러한 유형의 프로젝트에 대한 소개와 분석은 라이즈 랩스의 이전 DePIN 연구 보고서인 보기에 오신 것을 환영합니다.
가장 핵심은 토큰 인센티브 메커니즘을 통해 프로젝트가 먼저 공급자를 끌어들인 다음 사용자를 끌어들여 프로젝트의 콜드 스타트와 핵심 기능 메커니즘을 실현함으로써 프로젝트가 더욱 확장되고 성장할 수 있다는 것입니다. 이 사이클에서 공급 측은 점점 더 가치 있는 토큰을 대가로 받고, 수요 측은 더 저렴하고 비용 효율적인 서비스를 제공하며, 토큰 가격이 상승함에 따라 프로젝트의 토큰 가치와 공급과 수요 양측의 참여자가 증가하여 더 많은 참여자와 투기꾼이 가치 포착에 참여하도록 유도합니다.
다른 범주는 AI에 탈중앙화된 산술을 사용하는 것입니다. 훈련에 분산형 산술을 사용하는 것입니다(AI 훈련과 AI 추론 모두 지원 가능). 사실 이러한 유형의 프로젝트와 AI 추론 프로젝트의 실행 로직은 본질적으로 크게 다르지 않으며, 토큰 인센티브를 통해 공급 측이 산술 제공에 참여하도록 유도하여 수요 측이 사용할 수 있도록 하는 것입니다.
탈중앙화 연산 네트워크인 io.net은 50만 개 이상의 GPU를 보유하고 있으며, 렌더와 파일코인의 연산을 통합하고 생태 프로젝트를 개발하기 시작하는 등 탈중앙화 연산 프로젝트에서 두각을 나타내고 있습니다.
또한, 젠슨은 머신러닝을 위한 작업 할당을 용이하게 하는 스마트 컨트랙트를 제공하는 세계 선도적인 업체입니다. 머신러닝을 위한 작업 할당과 보상을 용이하게 하는 접근 방식을 통해 AI 학습을 가능하게 합니다. 아래 차트에서 볼 수 있듯이 Gensyn의 머신 러닝 학습 비용은 시간당 약 0.40달러로, 시간당 2달러가 넘는 AWS와 GCP의 비용보다 훨씬 저렴합니다.
Gensyn의 시스템에는 제출자, 구현자, 검증자, 내부 고발자 등 네 가지 참여 주체가 있습니다.
제출자: 수요 사용자가 작업의 수요자이며, 계산할 작업을 제공하고, AI 학습 작업에 대한 비용을 지불합니다
실행자: 모델이 학습한 작업을 수행하고 검증자의 검사를 위해 작업이 완료되었다는 증명을 생성합니다.
검증자: 비결정론적 훈련 과정을 결정론적 선형 계산과 연관시켜 실행자의 증명을 예상 임계값과 비교합니다.
고발자: 검증자의 작업을 점검하고 문제를 발견하고 이의를 제기함으로써 이득을 얻습니다.
보시다시피, Gensyn은 전 세계 딥 러닝 모델을 위한 하이퍼스케일의 비용 효율적인 계산 프로토콜이 되고자 합니다. 하지만 대부분의 프로젝트가 훈련보다 AI 추론에 탈중앙화 산술을 선택하는 이유는 무엇일까요?
AI 훈련과 추론의 차이를 이해하지 못하는 분들을 위한 도움말도 있습니다:
< Strong>AI 훈련: AI를 학생에 비유하면, 훈련은 AI에게 많은 양의 지식을 제공하는 것과 유사하며, 예시는 우리가 흔히 데이터라고 부르는 것으로 이해할 수 있으며, AI는 이러한 지식의 예시를 통해 학습합니다. 학습의 특성상 많은 양의 정보를 이해하고 기억해야 하기 때문에 이 과정에는 많은 컴퓨팅 파워와 시간이 필요합니다.
AI 추론: 그렇다면 추론이란 무엇일까요? 문제를 풀거나 시험을 치르기 위해 학습한 지식을 사용하는 것으로 이해할 수 있는데, 추론 단계에서 AI는 새로운 지식을 활동하는 것이 아니라 학습한 지식을 활용해 답을 내기 때문에 추론 과정에서 필요한 연산량이 적습니다.
이 둘의 연산 요구 사항은 상당히 다르다는 것을 알 수 있으며, AI 추론과 AI 학습을 위한 분산형 산술의 유용성에 대해서는 이후 도전 과제 섹션에서 더 자세히 분석할 예정입니다.
또한, 분산형 네트워크와 모델 제작자를 결합하여 탈중앙화 및 보안을 유지하고자 하는 Ritual의 열망도 있습니다. 첫 번째 제품인 Infernet은 블록체인의 스마트 컨트랙트가 오프체인에서 AI 모델에 액세스하여 인증, 탈중앙화를 유지하고 개인정보를 보호하는 방식으로 AI에 액세스할 수 있도록 합니다.
Infernet의 코디네이터는 네트워크에서 노드의 동작을 관리하고 소비자의 발신하는 컴퓨팅 요청에 응답합니다. 사용자가 인퍼넷을 사용하면 추론, 증명 및 기타 작업이 체인 아래로 내려가고, 그 결과물은 코디네이터에게 반환되어 최종적으로 컨트랙트를 통해 체인상의 소비자에게 전달됩니다.
탈중앙화된 연산 네트워크 외에도 데이터 전송의 속도와 효율성을 개선하기 위해 Grass와 같은 탈중앙화된 대역폭 네트워크도 있습니다. 전반적으로 탈중앙화 연산 네트워크의 등장은 AI의 연산 공급 측면에 새로운 가능성을 제시하며 AI를 더 먼 방향으로 발전시키고 있습니다.
3.1.2 탈중앙화된 알고리즘 모델
2장에서 언급한 것처럼 AI의 세 가지 핵심 요소는 연산, 알고리즘, 데이터입니다. 산술 능력은 탈중앙화를 통해 공급망을 형성할 수 있으므로, 알고리즘도 비슷한 방식으로 생각하여 알고리즘 모델의 공급망을 형성할 수 있을까요?
트랙 프로젝트를 분석하기 전에 먼저 탈중앙화 알고리즘 모델의 중요성을 이해해 보겠습니다. 이미 OpenAI가 있는데 왜 탈중앙화 알고리즘 네트워크가 필요한지 궁금해하는 분들이 많을 것입니다.
본질적으로 분산형 알고리즘 네트워크는 AI 알고리즘 서비스를 위한 분산형 마켓플레이스로, 각기 다른 전문 지식과 기술을 가진 여러 AI 모델을 연결하여 사용자가 질문을 하면 마켓플레이스가 해당 질문에 가장 적합한 AI 모델을 선택하여 답변을 제공합니다. 그리고 Chat-GPT는 사람과 유사한 텍스트를 이해하고 생성하기 위해 OpenAI에서 개발한 AI 모델입니다.
단순히 말해, ChatGPT는 다양한 유형의 문제 해결을 돕는 유능한 학생과 같고, 분산형 알고리즘 네트워크는 문제 해결을 돕는 많은 학생이 있는 학교와 같으며, 그 학생이 지금은 유능하지만 오랜 시간이 지나면 전 세계의 학생들을 모집할 수 있는 학교와도 같습니다. 잠재력은 무궁무진합니다.
현재 탈중앙화 알고리즘 모델을 시도하고 탐구하는 프로젝트들이 많이 있습니다. 탈중앙화 알고리즘 모델 분야에는 여러 프로젝트가 시도되고 있으며, 그 중 대표적인 프로젝트인 비텐서를 사례 연구로 삼아 이 틈새 분야의 발전에 대한 이해를 돕고자 합니다.
비텐서에서는 알고리즘 모델 공급 측(또는 채굴자)이 자신의 머신러닝 모델을 네트워크에 기여합니다. 이러한 모델은 데이터를 분석하고 인사이트를 제공할 수 있습니다. 모델 공급자는 기여에 대한 보상을 암호화폐 토큰 TAO로 받습니다.
질문에 대한 답변의 품질을 보장하기 위해 비텐서는 네트워크가 최상의 답변에 동의하도록 고유한 합의 메커니즘을 사용합니다. 질문을 받으면 여러 모델 마이너가 답변을 제공합니다. 그러면 네트워크의 검증자가 최적의 답변을 결정하여 사용자에게 다시 전송하는 작업을 시작합니다.
비텐서 토큰 TAO는 네트워크에서 채굴자가 알고리즘 모델을 네트워크에 기여하고 사용자가 토큰을 사용하여 질문을 하고 네트워크가 작업을 완료할 수 있도록 하는 인센티브로 사용됩니다.
비텐서는 탈중앙화되어 있기 때문에 인터넷에 접속할 수 있는 사람이라면 누구나 질문을 하는 사용자 또는 답변을 제공하는 채굴자로 네트워크에 참여할 수 있습니다. 따라서 더 많은 사람들이 강력한 AI를 이용할 수 있습니다.
요약하자면, Bittensor와 같은 네트워크에서 볼 수 있듯이 탈중앙화된 알고리즘 모델 분야는 훨씬 더 개방적이고 투명한 환경을 조성할 수 있는 잠재력을 가지고 있으며, 생태계에서 안전하고 분산된 방식으로 AI 모델을 학습, 공유, 활용할 수 있습니다. 이와 유사한 시도를 하는 탈중앙화 알고리즘 모델링 네트워크인 BasedAI도 있지만, 물론 더 흥미로운 부분은 ZK를 통해 모델과 상호작용하는 사용자의 데이터 프라이버시 보호에 있으며, 이는 네 번째 하위 섹션에서 자세히 설명합니다.
탈중앙화된 알고리즘 모델링 플랫폼이 발전함에 따라 소규모 기업도 최고 수준의 AI 도구를 사용하여 대기업과 경쟁할 수 있게 될 것이며, 이는 산업 전반에 걸쳐 잠재적으로 중요한 영향을 미칠 것입니다.
3.1.3 분산형 데이터 수집
대량의 데이터 공급은 AI 모델 학습에 필수적입니다. 하지만 현재 대부분의 웹2.0 기업은 여전히 사용자의 데이터를 직접 가져가고 있으며, X, 레딧, 틱톡, 스냅챗, 인스타그램, 유튜브 등의 플랫폼은 AI 학습을 위한 데이터 수집을 금지하고 있습니다. 이는 AI 산업 성장에 큰 걸림돌이 되고 있습니다.
그러나 일부 웹2.0 플랫폼은 사용자들에게 어떠한 수익도 공유하지 않고 사용자의 데이터를 AI 기업에 판매하고 있습니다. 예를 들어 Reddit은 구글과 6천만 달러의 계약을 맺고 구글의 게시물에 대한 AI 모델 학습을 허용했습니다. 이로 인해 데이터 수집이 거대 자본과 빅데이터 업체에 넘어가면서 자본 집약적인 산업으로 발전하게 되었습니다.
이러한 상황에 직면하여 일부 프로젝트는 토큰 인센티브를 통해 탈중앙화된 데이터 수집을 달성하기 위해 Web3를 결합했습니다. PublicAI를 예로 들어보면, PublicAI에서 사용자는 두 가지 유형의 역할로 참여할 수 있습니다.
한 가지 유형은 AI 데이터 제공자로, 사용자는 X, @에서 유용한 콘텐츠를 찾을 수 있습니다. AI 또는 #Web3를 분류 태그로 사용하여 PublicAI 관계자에게 인사이트를 제공하고, 해당 콘텐츠를 PublicAI 데이터 센터로 전송하여 데이터를 수집할 수 있습니다.
또 다른 카테고리는 데이터 검증자로, 사용자가 PublicAI 데이터 센터에 로그인하여 AI 학습을 위해 가장 가치 있는 데이터에 투표할 수 있습니다.
사용자는 두 가지 유형의 기여에 대해 토큰으로 인센티브를 받을 수 있으므로, 데이터 기여자와 AI 산업 발전 간의 상생 관계를 촉진할 수 있습니다.
AI 학습을 위해 특별히 데이터를 수집하는 PublicAI와 같은 프로젝트 외에도 토큰화를 통해 AI를 위한 사용자 데이터를 수집하는 Ocean, 사용자의 자동차 카메라를 통해 AI를 위한 사용자 데이터를 수집하는 Hivemapper 등 토큰 인센티브를 통해 데이터 수집을 탈중앙화하고 있는 프로젝트가 많습니다. 는 사용자의 차량 내 카메라를 통해 지도 데이터를 수집하고, 디모는 사용자의 자동차 데이터를 수집하며, 와이히는 날씨 데이터를 수집하는 등 탈중앙화를 통해 데이터를 수집하는 이러한 종류의 프로젝트도 잠재적으로 AI 학습의 공급 측면에 있으므로 넓은 의미에서 웹3 기반 AI 패러다임에 포함될 수 있습니다.
3.1.4 ZK는 AI에서 사용자 개인정보를 보호합니다
블록체인 기술이 탈중앙화의 장점과 더불어 제공하는 중요한 것 중 하나는 제로 지식입니다. 증명. 영지식 증명 기술을 사용하면 개인정보를 보호하면서도 정보의 검증을 가능하게 할 수 있습니다.
기존 머신러닝에서는 일반적으로 데이터를 중앙에 저장하고 처리해야 하므로 개인정보 유출의 위험이 있습니다. 반면에 데이터 암호화나 데이터 비식별화 등 데이터 프라이버시를 보호하는 방법은 머신러닝 모델의 정확도와 성능을 제한할 수 있습니다.
영지식 증명 기술은 개인정보 보호와 데이터 공유 사이의 충돌을 해결함으로써 이러한 딜레마에 대처하는 데 도움이 될 수 있습니다.
ZKML(영지식 머신러닝)은 영지식 증명 기법을 사용하여 원본 데이터를 공개하지 않고 머신러닝 모델을 훈련하고 추론할 수 있게 해줍니다. 영지식 증명을 사용하면 실제 데이터 내용을 공개하지 않고도 데이터의 특징과 모델의 결과가 올바른지 증명할 수 있습니다.
영지식 증명 기법의 핵심 목표는 개인정보 보호와 데이터 공유 간의 균형을 이루는 것입니다. 의료 데이터 분석, 금융 데이터 분석, 조직 간 협업 등 다양한 시나리오에서 사용할 수 있습니다. ZKML을 사용하면 개인은 민감한 데이터의 개인정보를 보호하는 동시에 다른 사람들과 공유하여 데이터 개인정보 침해의 위험 없이 더 폭넓은 인사이트와 협업의 기회를 얻을 수 있습니다.
이 분야는 아직 초기 단계에 있으며 대부분의 프로젝트가 아직 탐색 중입니다. 예를 들어 BasedAI는 데이터 기밀성을 유지하기 위해 FHE와 LLM을 원활하게 통합하는 분산화된 접근 방식을 제안합니다. 제로 지식 대규모 언어 모델(ZK-LLM)을 활용하여 분산 네트워크 인프라의 핵심에 프라이버시를 내장함으로써 네트워크 운영 전반에 걸쳐 사용자 데이터를 비공개로 유지할 수 있습니다.
다음은 완전 동형 암호화(FHE)에 대한 간략한 설명입니다. 완전 동형 암호화는 복호화 없이 암호화된 상태에서 데이터를 계산할 수 있는 암호화 기술입니다. 즉, FHE로 암호화된 데이터에서 수행되는 다양한 수학 연산(예: 덧셈, 곱셈 등)은 데이터를 암호화된 상태로 유지하면서 수행하여 암호화되지 않은 원본 데이터에서 수행한 것과 동일한 결과를 얻을 수 있어 사용자 데이터의 프라이버시를 보호할 수 있습니다.
또한 웹3.0 지원 AI의 경우 위의 네 가지 범주 외에도 Cortex와 같이 체인 상에서 AI 프로그램의 실행을 지원하는 블록체인 프로젝트도 있습니다. 현재 기존 블록체인에서 머신러닝 프로그램을 실행하는 데는 어려움이 있는데, 가상 머신은 복잡하지 않은 머신러닝 모델을 실행하는 데 매우 비효율적이기 때문입니다. 그 결과 대부분의 사람들은 블록체인에서 AI를 실행하는 것이 불가능하다고 생각합니다. 반면, 코르텍스 가상 머신(CVM)은 GPU를 사용해 체인에서 AI 프로그램을 실행하며, EVM과 호환됩니다. 즉, 코르텍스 체인은 모든 이더 디앱을 실행할 수 있으며, 그 위에 AI 머신러닝을 디앱에 통합할 수 있습니다. 따라서 네트워크 합의가 AI 추론의 모든 단계를 검증하기 때문에 머신러닝 모델을 탈중앙화되고 불변하며 투명한 방식으로 실행할 수 있습니다.
3.2 웹3를 촉진하는 AI
AI와 웹3의 충돌에서, 웹3가 AI를 촉진하는 것 외에도 AI의 웹3 산업 부스트도 매우 주목할 만합니다. AI의 핵심 기여는 생산성 향상이기 때문에 스마트 계약 감사, 데이터 분석 및 예측, 개인화된 서비스, 보안 및 개인 정보 보호 등 다양한 시도가 이루어지고 있습니다.
3.2.1 데이터 분석 및 예측
현재 많은 Web3 프로젝트에서 기존 AI 서비스(예: ChatGPT)를 통합하거나 자체 개발하여 다음을 위한 데이터 분석 및 예측을 제공하기 시작하고 있습니다. 데이터 분석 및 예측 유형의 서비스를 제공하기 시작했습니다. AI 알고리즘을 통한 투자 전략 제공, 온체인 분석을 위한 AI 도구, 가격 및 시장 예측 등 그 범위는 매우 광범위합니다.
예를 들어 Pond는 AI 그래프 알고리즘을 통해 미래의 가치 있는 알파 토큰을 예측하여 사용자 및 기관에 투자 지원 추천을 제공하고, BullBear AI는 사용자의 과거 데이터와 가격선 기록 및 시장 동향을 기반으로 학습하여 가장 정확한 정보를 제공하여 다음과 같은 지원을 제공합니다. 가격 움직임을 예측하여 사용자의 수익과 이익을 돕습니다.
또한 Numerai와 같은 투자 대회도 있는데, 참가자는 AI와 빅데이터 모델 등을 기반으로 주식 시장을 예측하고 플랫폼에서 제공하는 무료 고품질 데이터로 모델을 학습시킨 후 매일 예측 결과를 제출하면 Numerai가 다음 달 예측의 성과를 계산하고 참가자는 해당 모델에 NMR을 베팅할 수 있습니다. Numerai는 다음 달 동안 이러한 예측의 성과를 계산하고, 참가자는 모델에 NMR을 베팅하고 모델의 성과에 따라 수익을 얻을 수 있습니다.
아캄과 같이 AI를 서비스와 결합한 온체인 데이터 분석 플랫폼도 있습니다. 아캄은 블록체인 주소를 거래소, 펀드, 메가헤일과 같은 실체에 연결하고 이러한 실체의 주요 데이터와 분석을 사용자에게 제공하여 의사 결정에 우위를 점할 수 있도록 합니다. AI와의 통합의 일부는 아캄 울트라의 주소와 실제 실체를 매칭하는 알고리즘에 있으며, 이는 팔란티어와 OpenAI 설립자의 지원을 받아 아캄의 핵심 기여자들이 3년에 걸쳐 개발했습니다.
3.2.2 개인화
웹2의 프로젝트에서는 검색과 추천 영역 모두에서 AI를 사용하여 사용자의 개인화된 요구를 충족시킬 수 있는 많은 시나리오가 있습니다. . 웹3.0 프로젝트에서도 많은 프로젝트 관계자가 AI를 통합하여 사용자 경험을 최적화합니다.
예를 들어, 친숙한 데이터 분석 플랫폼인 Dune은 최근 대규모 언어 모델의 도움으로 SQL 쿼리를 작성할 수 있는 Wand 도구를 출시했습니다. Wand Create 기능을 사용하면 자연어 질문을 기반으로 SQL 쿼리를 자동으로 생성할 수 있어 SQL을 모르는 사용자도 매우 쉽게 검색할 수 있습니다.
이 밖에도 특정 트랙의 조회수와 최신 업데이트를 요약하는 웹3 미디어 플랫폼인 팔로우인(Followin), 블록체인 기술과 최신 뉴스를 위한 웹 최고의 백과사전 플랫폼이 되고자 노력하는 웹3 콘텐츠 플랫폼인 IQ.wiki 등 여러 웹3 콘텐츠 플랫폼이 콘텐츠 요약에 ChatGPT를 통합하기 시작했습니다. 웹에서 블록체인 기술 및 암호화폐와 관련된 모든 것에 대한 객관적이고 수준 높은 지식의 주요 소스가 되어 전 세계적으로 블록체인을 더 쉽게 검색하고 접근할 수 있게 하고 사용자에게 신뢰할 수 있는 정보를 제공하는 것을 목표로 하며, GPT-4를 통합하여 위키 기사를 요약하는 Kaito, Web3의 검색 플랫폼을 변화시킬 LLM 기반의 검색 엔진으로 Web3의 정보 액세스.
작성 측면에서는 AI를 통해 NFT를 쉽게 생성하여 사용자의 저작 비용을 절감하고 저작 측면의 다양한 개인화된 서비스를 제공하는 NFPrompt와 같이 사용자의 저작 비용을 절감하는 프로젝트도 있습니다.
3.2.3 스마트 컨트랙트의 AI 감사
스마트 컨트랙트의 감사 또한 Web3 도메인에서 매우 중요한 작업이며, AI를 사용하여 스마트 컨트랙트의 감사를 실현할 수 있습니다. AI를 통한 스마트 컨트랙트 코드 감사는 코드의 취약점을 보다 효율적이고 정확하게 식별하고 찾아낼 수 있습니다.
비탈릭이 언급했듯이, 암호화폐 업계가 직면한 가장 큰 문제 중 하나는 코드의 버그입니다. 인공지능(AI)이 특정 속성을 만족하는 코드 집합을 증명하는 공식적인 검증 도구의 사용을 크게 간소화할 수 있다는 것도 한 가지 유망한 가능성입니다. 이렇게 할 수 있다면 잠재적으로 오류 없는 SEK EVM(예: 이더넷 가상 머신)을 가질 수 있을 것입니다. 오류의 수를 줄일수록 공간의 보안이 강화되며, 이를 달성하는 데 AI가 큰 도움이 될 수 있습니다.
예를 들어 0x0.ai 프로젝트는 고급 알고리즘을 사용해 스마트 계약을 분석하고 사기나 기타 보안 위험을 초래할 수 있는 잠재적 취약점이나 문제를 식별하는 도구인 인공지능 스마트 계약 감사관을 제공합니다. 감사자는 머신러닝 기술을 사용하여 코드의 패턴과 이상 징후를 식별하고 추가 검토를 위해 잠재적인 문제를 표시합니다.
위의 세 가지 범주 외에도, 사용자가 개인화된 AI 봇을 만들어 텔레그램과 디스코드에 배포하여 웹3.0 사용자에게 서비스를 제공할 수 있도록 돕는 PAAL, AI 기반 멀티체인 덱스 애그리게이터인. AI 기반 멀티체인 덱스 애그리게이터인 헤라는 AI를 사용하여 가장 광범위한 토큰과 모든 토큰 쌍 간의 최상의 거래 경로를 제공합니다. 전반적으로 AI는 도구 수준에서 Web3를 더욱 강화합니다.
4.1 탈중앙화 산술에 대한 현실 세계의 장애물
4.1 탈중앙화 산술의 현실 세계 장애물
현재 Web3 기반 AI 프로젝트의 대부분은 탈중앙화 산술에 초점을 맞추고 있으며, 토큰 인센티브를 통해 글로벌 사용자가 산술의 공급 측이 되도록 장려하는 것은 매우 흥미로운 혁신입니다.
중앙화된 연산 서비스 제공자와 달리 탈중앙화된 연산 서비스는 일반적으로 전 세계에 분산된 노드와 참여자에게 컴퓨팅 리소스를 제공합니다. 이러한 노드 간의 네트워크 연결은 지연 시간과 불안정성이 있을 수 있으므로 성능과 안정성이 중앙집중식 산술 서비스보다 떨어질 수 있습니다.
또한 탈중앙화 산술 상품의 가용성은 수요와 공급이 얼마나 잘 일치하는지에 따라 영향을 받습니다. 공급자가 충분하지 않거나 수요가 너무 많으면 리소스가 부족하거나 사용자 수요를 충족하지 못할 수 있습니다.
마지막으로, 탈중앙화된 산술 상품은 일반적으로 중앙화된 산술 상품보다 더 많은 기술적 세부 사항과 복잡성을 수반합니다. 사용자는 분산 네트워크, 스마트 컨트랙트, 암호화폐 결제에 대해 이해하고 처리해야 할 수 있으며, 이는 사용자가 이해하고 사용하기에 더 많은 비용이 들 수 있습니다.
다수의 탈중앙화 연산 프로젝트 관계자들과 심도 있는 논의를 통해 현재 탈중앙화 연산은 기본적으로 AI 학습보다는 AI 추론에 국한되어 있다는 사실을 알게 되었습니다.
다음으로는 그 이유를 이해하는 데 도움이 되는 네 가지 작은 질문을 드리겠습니다.
1. 왜 대부분의 탈중앙화 산술 프로젝트는 AI 훈련 대신 AI 추론을 선택하나요?
2, NVIDIA는 실제로 소를 키우나요? 분산형 산술 훈련이 어려운 이유는 무엇일까요?
3. 탈중앙화 연산(렌더, 아카시, io.net 등)의 최종 목표는 무엇인가요?
4. 탈중앙화 알고리즘(비텐서)의 최종 목표는 무엇인가요?
다음으로 누에고치를 한 층씩 벗겨보겠습니다.
1) 이 트랙에서 대부분의 탈중앙화 산술 프로젝트는 훈련보다는 AI 추론을 선택했으며,그 핵심은 다음과 같습니다. 산술과 대역폭에 대한 다른 요구 사항에 있습니다.
이해를 돕기 위해 AI를 학생에 비유해 보겠습니다.
AI 훈련: AI를 학생에 비유하면, 훈련은 AI에게 많은 지식을 제공하는 것과 유사합니다, 예시는 우리가 흔히 데이터라고 부르는 것으로도 이해할 수 있으며, AI는 이러한 지식의 예시를 통해 학습합니다. 학습의 특성상 많은 양의 정보를 이해하고 기억해야 하기 때문에 이 과정에는 많은 컴퓨팅 파워와 시간이 필요합니다.
AI 추론: 추론이란 무엇인가요? 추론은 문제를 풀거나 시험을 치르기 위해 학습한 내용을 사용하는 것으로 이해할 수 있는데, 추론 단계에서 AI는 새로운 지식을 활동하기보다는 학습한 지식을 사용하여 질문에 답하기 때문에 추론 과정에서 필요한 연산량이 적습니다.
이 둘의 난이도 차이는 본질적으로 AI 학습을 위한 대규모 모델에는 엄청난 양의 데이터가 필요할 뿐만 아니라 데이터의 고속 통신에 필요한 대역폭이 매우 높아야 하기 때문에 현재 학습에 사용되는 탈중앙화 연산은 매우 어렵다는 데서 쉽게 알 수 있습니다. 추론은 데이터와 대역폭 요구량이 훨씬 적고 실현 가능성이 훨씬 높습니다.
대형 모델의 경우 가장 중요한 것은 안정성이며, 훈련이 중단되면 다시 훈련해야 하므로 매몰 비용이 매우 높습니다. 반면, 위에서 언급한 AI 추론과 같이 비교적 낮은 연산 요구 사항을 달성할 수 있거나 펜던트 중소형 모델 훈련의 특정 시나리오가 가능한 경우, 분산형 산술 네트워크에는 비교적 큰 규모의 노드 서비스 제공자가 다수 존재하여 이러한 비교적 큰 연산 요구 사항을 충족할 수 있습니다.
2) 그렇다면 데이터와 대역폭의 초크 포인트는 어디에 있을까요? 분산형 트레이닝이 어려운 이유는 무엇인가요?
이것은 빅데이터 모델 훈련의 두 가지 핵심 요소인 단일 카드 산술과 다중 카드 동시성에 대해 설명합니다.
단일 카드 산술: 현재 빅 모델을 훈련해야 하는 모든 센터를 슈퍼컴퓨팅 센터라고 부릅니다. 이해를 돕기 위해 인체에 비유하자면, 슈퍼컴퓨팅 센터는 인체의 조직, 기본 단위 GPU는 세포라고 할 수 있습니다. 단일 세포(GPU)의 연산이 강하면 전체 연산(개별 세포 x 수)도 강할 수 있습니다.
멀티 카드 병렬 처리: 슈퍼컴퓨팅 센터의 대규모 모델 트레이닝의 경우, 트레이닝의 규모가 1000억 GB인 경우가 많으며, 최소 10,000개의 A100 레벨이 바닥을 치게 됩니다. 따라서 훈련을 위해이 수만 개의 카드를 동원해야하지만 대형 모델의 훈련은 두 번째 카드에서 훈련 한 후 첫 번째 A100 카드가 아니라 모델의 다른 부분, 다른 카드에서 훈련, 훈련 A가 B의 결과를 훈련해야 할 수도 있으므로 다중 카드 병렬 처리가 필요합니다.
왜 이렇게 강력한지, 시장 가치는 계속 올라가고 있고 AMD와 국내 화웨이, 호라이즌은 현재 따라잡기 어려운 상황입니다. 핵심은 단일 카드 연산 자체가 아니라 CUDA 소프트웨어 환경과 NVLink 멀티 카드 통신이라는 두 가지 측면에 있습니다.
한편으로는 하드웨어가 매우 중요한데 NVIDIA의 CUDA 시스템과 같이 하드웨어에 적용할 수 있는 소프트웨어 생태계가 없고, 새로운 시스템을 구축하는 것은 새로운 언어를 구축하는 것처럼 매우 어렵고 교체 비용이 매우 높다는 점입니다.
다른 한편으로는 멀티 카드 통신이 있는데, 이는 기본적으로 여러 카드 간의 정보 전송은 정보의 입력과 출력, 병렬 처리 방법 및 전송 방법입니다. NV링크의 존재로 인해 NVIDIA와 AMD 카드를 연결할 방법이 없으며, 또한 NV링크는 그래픽 카드 간의 물리적 거리를 제한하여 카드가 동일한 슈퍼컴퓨팅 센터에 있어야 하므로 전 세계에 분산되어 있는 경우 컴퓨팅 성능이 분산될 수 있습니다.
첫 번째 요점은 현재 AMD와 국내 화웨이, 호라이즌이 따라잡기 힘든 이유를, 두 번째 요점은 분산형 트레이닝이 어려운 이유를 설명합니다.
3) 탈중앙화 산술의 최종 목표는 무엇인가요?
분산 연산은 현재 대규모 모델 훈련이 어려운데, 그 핵심은 대규모 모델 훈련에서 가장 중요한 것은 안정성이며, 훈련이 중단되면 다시 훈련해야 하고 매몰 비용이 매우 높다는 사실에 있습니다. 여러 개의 카드를 병렬로 연결해야 하고 대역폭은 물리적 거리에 따라 제한됩니다. NVIDIA는 NVLink를 사용하여 다중 카드 통신을 달성하지만, 슈퍼컴퓨팅 센터 내에서 NVLink는 그래픽 카드 간의 물리적 거리를 제한하므로 분산된 컴퓨팅 파워가 대규모 모델 학습을 수행하기 위한 컴퓨팅 파워 클러스터를 형성할 수 없습니다.
그러나 다른 한편으로, AI 추론과 같이 상대적으로 낮은 전력 요구 사항을 달성할 수 있거나 중소 규모 모델 훈련의 펜던트 클래스의 일부 특정 시나리오가 가능한 경우, 분산 컴퓨팅 네트워크에는 비교적 큰 노드 공급자가 다수 존재하므로 이러한 상대적으로 큰 컴퓨팅 파워 요구를 충족할 수 있는 잠재력이 있습니다. 이러한 비교적 큰 연산 서비스에 대한 수요를 충족할 수 있습니다. 렌더링과 같은 엣지 컴퓨팅 시나리오도 비교적 쉽게 구현할 수 있습니다.
4) 탈중앙화 알고리즘 모델의 최종 목표는 무엇인가요?
탈중앙화 알고리즘 모델의 최종 게임은 AI의 미래에 대한 최종 게임에 달려 있으며, 저는 아마도 AI의 미래를 위한 싸움은 1~2개의 거대 폐쇄 소스 모델(예: ChatGPT)과 수백 개의 모델이 있는 곳이 될 것이라고 생각하며, 이러한 배경에서 앱 계층 제품은 하나의 큰 모델에 묶일 필요가 없습니다. 모델에 묶일 필요 없이 여러 개의 큰 모델과 함께 작동할 수 있으며, 이러한 맥락에서 비텐서에서 이 모델의 잠재력은 여전히 매우 높습니다.
4.2 AI+Web3의 조합은 비교적 거칠고 1+1>2를 실현하지 못함
현재 Web3와 AI를 결합한 대부분의 프로젝트, 특히 AI 기반 Web3 프로젝트는 여전히 매우 거칠다. 대부분의 웹3.0 프로젝트는 여전히 AI와 암호화폐 간의 심층적인 통합을 반영하지 않고 피상적으로만 AI를 사용하고 있습니다. 이러한 피상적인 사용은 주로 다음 두 가지 측면에서 반영됩니다.
첫째, 데이터 분석 및 예측에 AI를 사용하거나 추천 및 검색 시나리오에서 AI를 사용하거나 코드 감사를 수행하는 경우입니다. 웹2.0 프로젝트와 AI의 결합은 큰 차이가 없습니다. 이러한 프로젝트는 단순히 효율성을 개선하고 분석을 수행하기 위해 AI를 사용하고 있으며, AI와 암호화폐 간의 본질적인 통합과 혁신적인 솔루션을 보여주지 않습니다.
둘째, 많은 웹3.0 팀들은 순전히 마케팅 차원에서 AI의 개념만을 활용하여 AI와 결합하고 있습니다. 이들은 매우 제한된 영역에서만 AI 기술을 활용하고 AI 트렌드를 홍보하기 시작하면서 프로젝트가 AI와 매우 밀접하게 연계되어 있는 것처럼 착각을 불러일으킵니다. 그러나 실제 혁신에 있어서는 여전히 큰 격차가 존재합니다.
현재 웹3.0 및 AI 프로젝트의 이러한 한계에도 불구하고, 우리는 이것이 개발의 초기 단계에 불과하다는 점을 인식해야 합니다. 앞으로 더욱 심도 있는 연구와 혁신을 통해 AI와 암호화폐를 더욱 긴밀하게 통합하고 금융, 탈중앙화된 자율 조직, 예측 시장, NFT와 같은 분야에서 보다 고유하고 의미 있는 솔루션을 만들 수 있을 것으로 기대할 수 있습니다.
4.3 AI 프로젝트 내러티브를 위한 완충재로서의 토큰 경제학
AI 프로젝트의 비즈니스 모델 딜레마 서두에서 언급했듯이, 점점 더 많은 멀티 모델이 오픈소스가 되면서 수많은 AI 프로젝트가 개발되고 있습니다. 점차 오픈소스로 전환되기 시작하면서 현재 많은 수의 AI+웹3 프로젝트는 웹2에서 개발과 자금 조달이 어려운 순수 AI 프로젝트인 경우가 많기 때문에 사용자 참여를 촉진하기 위해 웹3의 내러티브와 토큰 이코노미를 오버레이하는 방법을 선택합니다.
그러나 토큰 이코노미의 도입이 AI 프로젝트가 실제 필요를 해결하는 데 실제로 도움이 되는지, 아니면 단순히 내러티브에 불과하거나 단기적인 가치를 추구하는 것인지는 물음표가 필요한 문제입니다.
현재 대부분의 AI+Web3 프로젝트는 아직 실용화 단계와는 거리가 멀며, 토큰을 AI 프로젝트의 모멘텀으로 사용할 뿐만 아니라 실제 수요 시나리오를 충족시킬 수 있는 현실적이고 사려 깊은 팀들이 더 많아지길 바랍니다.
현재 AI+Web3 프로젝트의 사례와 적용 사례는 많습니다. 첫째, AI 기술은 Web3에 보다 효율적이고 지능적인 애플리케이션 시나리오를 제공할 수 있습니다. AI의 데이터 분석 및 예측 기능을 통해 Web3 사용자는 투자 결정과 같은 시나리오에서 더 나은 도구를 사용할 수 있으며, AI는 스마트 계약 코드를 감사하고 스마트 계약의 실행 프로세스를 최적화하며 블록체인의 성능과 효율성을 개선할 수 있습니다. 동시에, AI 기술은 탈중앙화 애플리케이션에 보다 정확하고 지능적인 추천과 개인화된 서비스를 제공하여 사용자 경험을 향상시킬 수 있습니다.
한편, Web3의 탈중앙화 및 프로그래밍 가능 기능은 AI 기술 개발을 위한 새로운 기회도 제공합니다. 토큰 인센티브를 통해 탈중앙화 산술 프로젝트는 AI 산술의 공급 과잉이라는 딜레마에 대한 새로운 솔루션을 제공하며, Web3의 스마트 계약과 분산 저장 메커니즘은 AI 알고리즘의 공유 및 학습을 위한 더 넓은 공간과 자원을 제공합니다.Web3의 사용자 자율성과 신뢰 메커니즘은 사용자가 데이터 공유 및 학습에 독립적으로 참여할 수 있어 데이터의 다양성과 품질을 향상시켜 AI 개발에 새로운 가능성을 제시합니다. 또한 Web3의 사용자 자율성과 신뢰 메커니즘은 사용자가 자율적으로 데이터 공유 및 학습에 참여할지 여부를 선택할 수 있어 데이터의 다양성과 품질을 높이고 AI 모델의 성능과 정확성을 더욱 향상시킬 수 있어 AI 개발의 새로운 가능성을 열어줍니다.
현재의 AI+Web3 크로스오버 프로젝트는 아직 초기 단계에 있으며 많은 딜레마가 있지만, 많은 장점도 있습니다. 예를 들어 탈중앙화된 연산 제품은 몇 가지 단점이 있지만 중앙화된 기관에 대한 의존도를 낮추고 투명성과 감사 가능성을 높이며 더 많은 참여와 혁신을 가능하게 합니다. 탈중앙화 산술 제품은 특정 사용 사례와 사용자 요구에 따라 유용한 옵션이 될 수 있으며, 데이터 수집의 경우에도 마찬가지로 탈중앙화 데이터 수집 프로젝트는 단일 데이터 소스에 대한 의존도를 줄이고, 더 넓은 데이터 범위를 제공하며, 데이터 다양성과 포용성을 촉진하는 등의 장점을 가져다줍니다. 실제로는 이러한 장단점을 비교 검토하고 적절한 규제 및 기술적 조치를 취해 문제를 극복함으로써 분산형 데이터 수집 프로젝트가 AI 발전에 긍정적인 영향을 미칠 수 있도록 해야 합니다.
전반적으로 AI+Web3의 융합은 미래의 기술 혁신과 경제 발전을 위한 무한한 가능성을 제공합니다. AI의 지능적인 분석 및 의사결정 능력과 Web3의 탈중앙화 및 사용자 자율성을 결합하면 미래에는 더 스마트하고 개방적이며 공정한 경제, 나아가 사회 시스템을 구축할 수 있을 것으로 기대됩니다.
암호화폐 가격은 최근에 인상되었지만 일부는 암호화폐 황소가 돌아오고 있다고 낙관하는 반면 다른 사람들은 그것이 강세장의 황소 함정일 뿐이라고 생각합니다. 이것에 대한 당신의 관점은 무엇입니까?
프로젝트 개발자들은 곧 토큰을 다시 구매할 것이라고 말했습니다.
SOL 가격은 2021년 3월 이후 최저점으로 떨어졌습니다.
APT는 하강 병렬 채널 내에서 거래되고 있습니다.
Voyager 고객은 자금의 72%를 돌려받을 수 있습니다.
그는 차트 시스템의 신봉자이며 2022년 9월 초에 ADA의 약세 궤적을 예측하기 시작했습니다.
Solana 네트워크는 암호 공간의 "Ethereum Killer"가 시스템의 잘못된 메커니즘으로 인해 오프라인 상태가 되면서 다시 흔들렸습니다.