블록체인의 첫 번째 원칙: 수이 및 Arweave AO를 예로 살펴보기
블록체인의 첫 번째 원칙은 탈중앙화된 장부 기록 방식이며, '블록'과 '체인'이 필요하지 않다는 것입니다.
JinseFinance작성자: Kyle_13, 출처: 작성자 트위터 @kylewmi
오늘 이 자리에 함께 해주셔서 감사합니다, 여러분. 여러분과 공유할 AO 기술의 매우 흥미로운 개발 사항이 많이 있습니다. 먼저 데모로 시작해서 닉과 제가 스마트 컨트랙트에서 대규모 언어 모델을 사용하여 시스템에서 여러분이 듣게 될 대화 내용을 기반으로 매매하는 AI 에이전트를 구축해 보겠습니다. 오늘 라이브에서 처음부터 다시 구축할 예정이니 모든 것이 잘 진행되길 바랍니다.
예, 어떻게 하는지 직접 보실 수 있습니다.
기술적인 발전으로 인해 AO는 다른 스마트 컨트랙트 시스템보다 훨씬 앞서 있습니다. 이전에도 그랬지만, 이제는 전통적인 스마트 콘트랙트 네트워크가 아닌 탈중앙화된 슈퍼컴퓨터와 점점 더 비슷해지고 있습니다. 하지만 스마트 콘트랙트 네트워크의 모든 특성을 갖추고 있습니다. 그래서 저희는 여러분과 이 소식을 공유하게 되어 매우 기쁩니다. 더 이상 지체하지 않고 데모로 시작해서 함께 토론하고 함께 라이브로 구축해 보도록 하겠습니다.
오늘 참석해 주셔서 감사합니다. AO 프로토콜에 대한 세 가지 주요 기술 업데이트를 발표하게 되어 매우 기쁩니다. 이 업데이트들은 스마트 컨트랙트의 일부로 탈중앙화 환경에서 실행되는 대규모 언어 모델을 지원한다는 큰 목표를 함께 달성합니다. 이는 단순히 장난감 모델, 작은 모델, 자체 바이너리로 컴파일된 모델이 아닙니다.
현재 오픈소스이며 사용 가능한 거의 모든 주요 모델을 실행할 수 있는 완전한 시스템입니다. 예를 들어, 라마 3는 체인상의 스마트 컨트랙트에서 실행되며, GPT와 Apple의 모델도 마찬가지입니다. 이는 전체 생태계가 함께 노력한 결과이며, 이 시스템의 일부를 구성하는 세 가지 주요 기술 발전도 있습니다. 이 모든 것을 여러분께 소개하게 되어 매우 기쁩니다.
이미지 src="https://img.jinse.cn/7245723_watermarknone.png" title="7245723" alt="jI1ijqSqGiF0WwG4XZA9gHiY4ENR0kV6UpCwhd5U.jpeg">
큰 그림은 이제 LLM(대규모 언어 모델)이 스마트 컨트랙트에서 실행될 수 있다는 것입니다. 탈중앙화된 AI와 AI 암호화폐에 대해 여러 번 들어보셨을 것입니다. 사실, 오늘 논의할 시스템을 제외한 거의 모든 시스템은 예측자 역할을 하는 AI로, 오프체인에서 AI를 실행한 다음 실행 결과를 온체인에 저장하여 다운스트림에서 사용합니다.
우리가 지금 이야기하는 것은 그런 것이 아닙니다. 저희는 스마트 컨트랙트의 상태 저장 실행의 일부로 대규모 언어 모델에 대한 추론에 대해 이야기하고 있습니다. 이 모든 것은 우리가 보유한 AO 하드 드라이브와 AO의 초병렬 처리 메커니즘을 통해 가능하며, 이는 많은 계산을 실행할 수 있고 제가 사용하고 있는 다른 프로세스에 영향을 미치지 않는다는 것을 의미합니다. 이를 통해 매우 풍부한 탈중앙화 자율 에이전트 금융 시스템을 만들 수 있을 것으로 생각합니다.
이미지 src="https://img.jinse.cn/7245724_watermarknone.png" title="7245724" alt="VVRV21qYOHZsG9teYRFvKFiEEaLoUvv5brXoug8c.jpeg">
지금까지 탈중앙화 금융(DeFi)에서는 기본적으로 원시 트랜잭션의 실행을 신뢰할 수 없게 만들 수 있었습니다. 대출이나 스와핑과 같은 다양한 경제 게임에서의 상호작용은 신뢰가 필요 없습니다. 이는 문제의 한 측면일 뿐입니다. 글로벌 금융 시장을 고려한다면요.
예, 다양한 방식으로 진행되는 다양한 종류의 경제 기본 요소들이 있습니다. 채권, 주식, 원자재, 파생상품 등이 있습니다. 하지만 실제로 시장에 대해 이야기할 때는 이러한 것들뿐만 아니라 여러 계층의 지능이 작용합니다. 사고 팔고, 빌리고 빌려주거나 다양한 금융 게임에 참여하는 것은 바로 사람들입니다.
지금까지 탈중앙화된 금융 생태계에서 우리는 이러한 모든 원본을 신뢰할 필요가 없는 상태로 만들었습니다. 그 결과 유니스왑의 운영자를 신뢰하지 않아도 유니스왑에서 거래할 수 있게 되었습니다. 사실, 근본적으로 운영자는 존재하지 않습니다. 시장의 스마트 레이어는 오프체인에 남아 있습니다. 따라서 암호화폐 투자에 참여하고 싶지만 모든 조사 및 참여를 직접 하고 싶지 않다면 펀드를 찾아야 합니다.
펀드를 믿고 돈을 맡기면 펀드가 현명한 결정을 내리고 네트워크 자체의 기본 실행을 통해 이를 다운스트림으로 전달합니다. 우리는 AO에서 실제로 시장의 지능적인 부분, 즉 의사 결정으로 이어지는 지능을 네트워크 자체로 이전할 수 있는 능력을 가지고 있다고 믿습니다. 이를 이해하는 간단한 방법은 상상하는 것입니다.
네트워크 내에서 일련의 지능적인 명령을 실행하도록 신뢰할 수 있는 헤지 펀드 또는 포트폴리오 관리 애플리케이션이 네트워크의 신뢰할 수 없는 특성을 의사 결정 과정으로 옮긴다고 상상해 보십시오. 즉, Yolo 420 트레이더 넘버원(대담하고 무작위적인 트레이더)과 같은 익명 계정이 새롭고 흥미로운 전략을 만들어 네트워크에 배포할 수 있으며, 이를 실제로 신뢰하지 않고도 자본을 투입할 수 있습니다.
이제 대규모 통계 모델과 상호 작용하는 자율 에이전트를 구축할 수 있습니다. 그리고 가장 일반적인 대규모 통계 모델은 텍스트를 처리하고 생성하는 대규모 언어 모델입니다. 즉, 참신한 아이디어를 가진 누군가가 개발한 전략의 일부로 이러한 모델을 스마트 컨트랙트에 넣고 네트워크에서 지능적으로 실행할 수 있습니다.
이미지 src="https://img.jinse.cn/7245725_watermarknone.png" title="7245725" alt="xXfnxjKCGAekmSZrwSwbv5D2gWdjuGfHBJJEsSBy.jpeg">
기본적인 감정 분석을 한다고 상상해 보세요. 뉴스를 읽고 지금이 이 파생상품을 매수 또는 매도하기에 좋은 시기라고 판단했다고 가정해 봅시다. 지금이 이 작업을 수행하거나 저 작업을 수행하기에 좋은 시기입니다. 신뢰가 필요 없는 방식으로 인간과 같은 결정을 내릴 수 있습니다. 이는 단순한 이론이 아닙니다. 저희는 라마 페드라는 흥미로운 법정화폐 코인을 만들었습니다. 기본적으로 라마 3 모델로 라마(알파카) 무리를 표현한 법정화폐 시뮬레이터라는 아이디어입니다. 라마와 연방준비제도 의장의 조합과 같으며, 라마에게 가서 토큰을 발행해달라고 요청하면 라마가 요청을 평가합니다. 대규모 언어 모델 자체가 완전히 자율적으로 신뢰 없이 통화 정책을 운영합니다. 우리가 만들었지만 우리가 통제할 수는 없습니다. 이들은 통화 정책을 운영하며 누가 토큰을 받아야 하고 누가 받지 말아야 하는지 결정합니다. 이것은 이 기술의 매우 흥미로운 작은 응용이며, 생태계의 다른 모든 가능한 응용에 영감을 줄 수 있을 것입니다.
이를 달성하기 위해 AO를 위한 세 가지 기본 기능을 새로 만들어야 했는데, 그 중 일부는 기본 프로토콜 계층에, 다른 일부는 애플리케이션 계층에 있습니다. 이는 대규모 언어 모델 구현에 유용할 뿐만 아니라 AO 개발자들에게 훨씬 더 광범위하고 흥미로운 기능입니다. 그래서 오늘 여러분께 소개해 드리게 되어 기쁩니다.
새로운 기술 중 첫 번째는 웹 어셈블리 64비트 지원입니다. 기술 전문 용어처럼 들리지만 누구나 쉽게 이해할 수 있는 방법이 있습니다. 기본적으로 웹 어셈블리 64 지원을 통해 개발자는 4GB 이상의 메모리를 사용하는 애플리케이션을 만들 수 있습니다. 이 새로운 제한에 대해서는 나중에 자세히 설명하겠습니다.
개발자가 아닌 경우, 누군가 책을 써달라고 부탁하고 아이디어가 마음에 들지만 100페이지밖에 쓸 수 없다고 말하는 상황을 상상해 보세요. 그 이상도 이하도 아닙니다. 책에서 아이디어를 표현할 수는 있지만, 외부 제약이 있기 때문에 자연스럽고 정상적인 방식으로 할 수 없고 그에 맞게 글쓰기 방식을 바꿔야 합니다.
스마트 컨트랙트 생태계에서는 단순히 100페이지 제한만 있는 것이 아닙니다. 초기 버전의 AO를 구축하는 것과 비슷하다고 할 수 있습니다. 이더리움은 48KB 메모리 제한이 있는데, 이는 마치 한 문장으로만 구성된 책을 쓰라고 하는데 처음 200개의 가장 인기 있는 영어 단어만 사용할 수 있는 것과 같습니다. 이 시스템에서는 정말 흥미로운 앱을 개발하기가 매우 어렵습니다.
이미지 src="https://img.jinse.cn/7245728_watermarknone.png" title="7245728" alt="ugyK6VeY0VDCBduMGw6arMWBiF2mMfqLr1xMc9De.jpeg">
그런 다음 10MB의 작업 메모리에 액세스할 수 있는 Solana가 있습니다. 이것은 분명히 개선되었지만 기본적으로 한 페이지에 대해 이야기하고 있습니다.ICP, 즉 인터넷 컴퓨터 프로토콜은 3GB의 메모리를 지원할 수 있습니다. 이론적으로는 완벽하지만 3GB까지 내려가야 했습니다. 이제 3GB RAM으로 다양한 앱을 실행할 수 있지만 대용량 AI 앱은 실행할 수 없습니다. 빠른 액세스를 위해 많은 양의 데이터를 메인 메모리에 로드해야 합니다. 3GB RAM으로는 이 작업을 효율적으로 수행할 수 없습니다.
올해 2월에 AO를 출시할 당시에는 4GB 메모리 제한이 있었는데, 이는 사실 Web Assembly 32에서 비롯된 것이었습니다. 이제 프로토콜 수준에서 메모리 제한은 완전히 사라졌습니다. 대신 프로토콜 수준에서 메모리 제한은 18EB(에비트)입니다. 이는 엄청난 양의 메모리입니다.
장기간 저장 매체가 아닌 메모리에서 연산에 사용될 때까지는 상당한 시간이 소요될 것입니다. 구현 수준에서는 현재 16GB 메모리에 액세스할 수 있는 AO 네트워크의 컴퓨팅 유닛은 프로토콜 변경 없이 향후 더 큰 용량으로 비교적 쉽게 교체할 수 있습니다. 16GB는 이미 대용량 언어 모델 연산을 실행하기에 충분하므로 현재 AO에서 16GB 모델을 다운로드하여 실행할 수 있습니다. 예를 들어, Llama 3의 정량화되지 않은 버전인 Falcon 3 및 기타 여러 모델이 이에 해당합니다.
스마트 언어 기반 컴퓨팅 시스템을 구축하는 데 필요한 핵심 구성 요소입니다. 이제 스마트 컨트랙트의 일부로 온체인에서 완전히 지원되며, 이는 매우 흥미로운 일이라고 생각합니다.
이를 통해 AO와 후속 스마트 컨트랙트 시스템의 주요한 계산적 한계 중 하나가 제거되었습니다. 올해 2월에 AO를 출시했을 때 동영상에서 컴퓨팅 성능이 무제한이라고 여러 번 언급했지만, 4GB 램을 초과할 수 없다는 제한이 있었습니다. 이번에 그 제한이 해제되었습니다. 이는 매우 흥미로운 진전이라고 생각하며, 현재 AI에서 실행하고자 하는 거의 모든 모델을 실행하기에 16GB는 충분합니다.
프로토콜을 변경하지 않고도 16GB 제한을 늘릴 수 있었으며, 이는 향후에도 비교적 쉽게 이루어질 것이며, 처음에 Web Assembly 64를 실행할 때보다 큰 진전입니다. 그 자체만으로도 시스템 성능이 크게 발전한 것입니다. 대규모 언어 모델을 AO에서 실행할 수 있게 해주는 두 번째 주요 기술은 WeaveDrive입니다.
위브드라이브를 사용하면 마치 로컬 하드 드라이브처럼 AO 내부의 Arweave 데이터에 액세스할 수 있습니다. 즉, 스케줄링 장치에서 인증한 AO의 모든 트랜잭션 ID를 열어 네트워크에 업로드할 수 있습니다. 물론 로컬 하드 드라이브의 파일처럼 이 데이터에 액세스하여 애플리케이션에서 읽을 수 있습니다.
이미지 src="https://img.jinse.cn/7245730_watermarknone.png" title="7245730" alt="QRTQE2FsdM5QY75bhOMPccPoLsqqqQhnPVpmWmSab.jpeg">
우리 모두는 현재 Arweave에 약 60억 건의 트랜잭션이 저장되어 있다는 것을 알고 있으므로, 이는 시작하기에 방대한 데이터 세트입니다. 또한 이 데이터는 AO 프로그램에서도 사용할 수 있기 때문에 향후 애플리케이션을 구축할 때 Arweave에 데이터를 업로드하려는 동기가 높아질 것입니다. 예를 들어, 대규모 언어 모델을 Arweave에서 실행하도록 했을 때 약 1,000달러 상당의 모델을 웹에 업로드했습니다. 하지만 이는 시작에 불과합니다.
로컬 파일 시스템에서 스마트 컨트랙트 네트워크를 사용하면 구축할 수 있는 애플리케이션의 수는 엄청나게 많습니다. 이는 매우 흥미로운 일입니다. 더 좋은 점은 우리가 구축한 시스템을 통해 데이터를 실행 환경으로 스트리밍할 수 있다는 것입니다. 기술적인 뉘앙스가 있지만 책에 비유하면 쉽게 이해할 수 있습니다.
누군가가 여러분에게 책에 있는 데이터에 액세스하고 싶다고 말합니다. 이 책에 있는 차트에 액세스하고 싶습니다. 단순한 시스템이나 현재의 스마트 컨트랙트 네트워크에서는 책 전체를 제공해야 하는 엄청난 작업이 될 것입니다. 그러나 이는 분명히 비효율적이며, 특히 수천 페이지에 달하는 대규모 통계 모델인 경우 더욱 그렇습니다.
이것은 매우 비효율적입니다. 대신 AO에서는 바이트 단위로 직접 읽을 수 있습니다. 책에 있는 차트의 위치로 직접 이동하여 차트를 애플리케이션에 복사하고 실행하기만 하면 됩니다. 이렇게 하면 시스템이 훨씬 더 효율적으로 작동합니다. 이것은 단순한 최소기능제품(MVP)이 아니라 완전한 기능을 갖춘 잘 구축된 데이터 액세스 메커니즘입니다. 따라서 무한한 컴퓨팅 시스템과 무한한 하드 드라이브가 있고, 이를 결합하면 슈퍼컴퓨터가 됩니다.
이것은 이전에는 구축된 적이 없었으며, 이제 누구나 최소한의 비용으로 사용할 수 있습니다. 이것이 바로 AO의 현재 모습이며, 저희는 이에 대해 매우 흥분하고 있습니다. 시스템의 구현은 OS 수준에서도 이루어집니다. 그래서 우리는 누구나 로드할 수 있는 컴퓨팅 유닛 확장인 WeaveDrive를 AO의 하위 프로토콜로 만들었습니다. 이는 동종 최초의 확장이라는 점에서 흥미롭습니다.
AO에는 항상 실행 환경에 확장 기능을 추가할 수 있는 기능이 있었습니다. 컴퓨터가 있는데 메모리를 더 추가하거나 그래픽 카드를 꽂고 싶을 때 물리적으로 장치를 시스템에 추가하는 것처럼 말이죠. AO의 계산 단위에서 이 작업을 수행할 수 있으며, 이것이 바로 우리가 여기서 하는 일입니다. 따라서 운영 체제 수준에서는 이제 데이터 저장을 위한 파일 시스템을 나타내는 하드 드라이브가 생겼습니다. 즉, 일반적인 방식으로 애플리케이션을 구축하기 위해 AO에서 이 데이터에 액세스할 수 있을 뿐만 아니라 실제로 네트워크에 가져온 모든 애플리케이션에서 액세스할 수 있습니다. 따라서 시스템에서 구축하는 모든 사람이 Rust, C, Lure, Solidity 등 어떤 언어로 작성하든 관계없이 마치 시스템의 기본 기능인 것처럼 광범위하게 액세스할 수 있는 기능입니다. 이 시스템을 구축하면서 하위 프로토콜 프로토콜, 다른 컴퓨팅 유닛 확장을 만드는 방법도 만들어야 했기 때문에 향후 다른 사람들도 흥미로운 것을 만들 수 있게 되었습니다.
이제 임의의 크기의 메모리 세트에서 연산을 실행하고 네트워크의 데이터를 AO 내의 프로세스로 로드할 수 있게 되었으니 이제 다음 질문은 추론 자체를 어떻게 할 것인가 하는 것입니다.
웹 어셈블리의 기본 가상 머신으로 AO를 구축하기로 했기 때문에 해당 환경에서 기존 코드를 컴파일하고 실행하는 것이 비교적 쉬웠습니다. WeaveDrive를 OS 수준의 파일 시스템으로 노출하도록 구축했기 때문에 오픈 소스 대규모 언어 모델 추론 엔진인 Llama.cpp를 시스템에서 실행하는 것은 실제로 비교적 쉬웠습니다.
이미지 src="https://img.jinse.cn/7245731_watermarknone.png" title="7245731" alt="y66s9BlMsdb0A5t5TjqWDpiVDsHc2HUkJSxLJVXu.jpeg">
이 추론 엔진뿐만 아니라 다른 많은 추론 엔진도 쉽게 실행할 수 있다는 점에서 매우 흥미롭습니다. 따라서 AO 내에서 대규모 언어 모델을 실행하기 위한 마지막 구성 요소는 대규모 언어 모델 추론 엔진 자체입니다. 약간 난해하게 들리지만 실제로는 현재 최고의 오픈 소스 모델 실행 환경인 Llama.cpp라는 시스템을 포팅했습니다.
시스템에서 원하는 양의 데이터를 확보한 다음 Arweave에서 원하는 양의 데이터를 로드할 수 있게 되면 AO 스마트 컨트랙트 내에서 직접 실행하는 것이 비교적 쉬웠습니다.
이를 위해 저희는 이러한 모델을 훨씬 빠르게 실행할 수 있는 SIMD(단일 명령어 다중 데이터) 컴퓨팅 확장을 사용하기도 했습니다. 그래서 이 기능도 활성화했습니다. 즉, 현재 이러한 모델은 CPU에서 실행되지만 매우 빠릅니다. 비동기 컴퓨팅을 사용하는 경우 사용 시나리오에 적합할 것입니다. 뉴스 신호를 읽고 어떤 거래를 실행할지 결정하는 등의 작업은 현재 시스템에서도 잘 실행됩니다. 하지만 GPU를 사용해 대규모 언어 모델 추론을 가속화하는 등 다른 가속 메커니즘과 관련해 곧 소개할 흥미로운 업그레이드도 있습니다.
이미지 src="https://img.jinse.cn/7245732_watermarknone.png" title="7245732" alt="LGqS2EwquzDF5OIhs296XBeNoWOy2R8121EB7qdM.jpeg">
Llama.cpp를 사용하면 Meta의 대표 모델인 Llama 3뿐만 아니라 다른 많은 모델을 로드할 수 있으며, 실제로 오픈 소스 모델링 사이트인 Hugging Face에서 다운로드할 수 있는 모델의 약 90%가 시스템에서 실행되며, 원하는 경우 GPT-2부터 253, Apple의 자체 대형 언어인 Monet 모델링 시스템 및 기타 여러 가지를 지원합니다. 이제 Arweave에서 모든 모델을 업로드하고 하드 드라이브를 사용하여 시스템에서 실행하려는 모델을 업로드할 수 있는 프레임워크가 생겼습니다. 일반 데이터인 모델을 업로드한 다음 AO의 프로세스에 로드하고 실행하여 결과를 얻고 원하는 방식으로 작업할 수 있습니다. 우리는 이것을 이전의 스마트 컨트랙트 생태계에서는 불가능했던 애플리케이션을 가능하게 하는 패키지로 보고 있으며, 지금 가능하다고 해도 솔라나와 같은 기존 시스템에서는 로드맵에 없는 아키텍처 변경이 많기 때문에 예측할 수 없습니다. 그래서 이를 현실적이고 이해하기 쉽게 보여드리기 위해 라마 연준이라는 시뮬레이터를 만들었습니다. 기본 아이디어는 메타 라마 3 모델이라는 의미와 현 시점에서 연준 의장이라는 의미에서 모두 라마 인 연준 위원회를 구성한다는 것입니다.
또한 그들에게 다음과 같이 말합니다. 라마, 앨런 그린스펀이나 연준 의장처럼. 그 작은 맥락을 이해할 수 있습니다.
이 환경에 익숙한 분들도 계실 텐데, 사실 오늘 우리가 작업 중인 Gather와 같은 방식으로 라마에게 아주 흥미로운 프로젝트를 위해 토큰을 달라고 요청하면 라마가 요청에 따라 토큰을 줄지 여부를 결정합니다. 따라서 Arweave 토큰이나 wAR 토큰(AOX 팀에서 제공)을 소각하면 제안이 좋다고 생각되는지 여부에 따라 토큰을 지급합니다. 따라서 완전히 자율적이고 지능적인 통화 정책을 가진 팬 코인입니다. 단순한 형태의 인텔리전스이지만 여전히 흥미롭습니다. 여러분의 제안과 다른 사람들의 제안을 평가하고 통화 정책을 실행합니다. 뉴스 헤드라인을 분석하고 현명한 결정을 내리거나 고객 지원과 상호 작용하여 가치를 돌려주는 이 모든 것이 이제 엘리엇이 보여드리는 것처럼 스마트 콘트랙트 내에서 가능합니다.
이미지 src="https://img.jinse.cn/7245733_watermarknone.png" title="7245733" alt="mby7yxSHm4H0cYBT40LwzmIGPEDe2T0nBRCWbLgS.jpeg">
안녕하십니까, 저는 엘리엇입니다. 오늘은 메타의 오픈 소스인 라마 3 모델로 구동되는 AO 내부의 자율 세계인 라마 랜드에 대해 소개해드리겠습니다.
여기서 볼 수 있는 대화는 플레이어 간의 대화뿐 아니라 완전히 자율적인 디지털 라마입니다.
예를 들어 이 라마는 인간입니다.
이미지 src="https://img.jinse.cn/7245736_watermarknone.png" title="7245736" alt="IzL8vY0n3Rye9g8I6TkVjkkHq8tciTrv8wOOt1pA.jpeg">
이 라마는 인간입니다.
하지만 이 라마는 사슬에 묶인 AI입니다.
이 건물에는 라마 사료가 들어 있습니다. 연방준비제도이사회와 비슷하지만 라마에게만 해당되는 곳입니다.
라마 페드는 세계 최초의 AI 기반 통화 정책을 운영하고 라마 토큰을 발행합니다.
이미지 src="https://img.jinse.cn/7245738_watermarknone.png" title="7245738" alt="WJqF63vP9bbvmUDmW2nTSp6xUfroz3PDkWBEccEg.jpeg">
이 사람은 라마 왕입니다. 그에게 포장된 아위브 토큰(wAR)을 제공하고 라마 토큰을 얻기 위한 요청을 작성할 수 있습니다.
라마킹 AI가 라마 토큰을 평가하고 지급 여부를 결정합니다.라마페드의 통화 정책은 인간의 감독 없이 완전히 자율적으로 운영됩니다. 전 세계의 모든 에이전트와 모든 방 자체가 AO의 온체인 프로세스입니다.
라마 왕이 우리에게 토큰을 준 것 같은데, 제 ArConnect 지갑을 보면 이미 토큰이 있는 것을 볼 수 있습니다. 라마 랜드는 AO에서 구현된 최초의 AI 기반 월드입니다. 누구나 자신만의 자율적인 세계를 구축할 수 있는 새로운 프로토콜의 프레임워크로서, 상상력만 있다면 무엇이든 가능합니다. 이 모든 것이 100% 온체인으로 구현되며, 이는 오직 AO에서만 가능합니다.
이미지 src="https://img.jinse.cn/7245740_watermarknone.png" title="7245740" alt="TcoARUcirvkNwiLqVdlhdpHh8lOPaaua5oRXq6J9.jpeg">
방금 금융 의사 결정과 자율적인 통화 정책 시스템 운영에 관련된 대규모 언어 모델을 보셨습니다. 백도어도 없고, 우리가 통제할 수도 없으며, 이 모든 것이 AI 자체에 의해 운영됩니다. 또한 실제 공간에 들어가서 금융 인프라와 상호 작용할 수 있는 작은 우주를 볼 수 있습니다. 저희는 이 데모가 단순히 재미있는 데모 그 이상이라고 생각합니다.
금융 상품을 사용하는 다양한 사람들이 한자리에 모이는 정말 흥미로운 장소입니다. 디파이 생태계에서는 프로젝트에 참여하고자 하는 사람이 먼저 트위터에서 해당 프로젝트를 확인한 다음 웹사이트를 방문해 기본적인 정보를 얻는 것을 볼 수 있습니다.
이미지 src="https://img.jinse.cn/7245743_watermarknone.png" title="7245743" alt="3TxAz1QYcReXBoizEIu02sLmZ2cpbpLfxPcL7KMr.jpeg">
그런 다음, 텔레그램 그룹이나 디스코드 채널에 참여하거나 트위터에서 다른 사용자들과 대화를 나눕니다. 이러한 경험은 매우 분산되어 있으며, 우리 모두는 여러 앱 사이를 넘나들고 있습니다. 저희가 시도하고 있는 흥미로운 아이디어 중 하나는 이러한 디파이 앱의 사용자 인터페이스가 영구적인 웹 앱이기 때문에 커뮤니티가 함께 모여 공동으로 액세스하는 자율적인 공간을 공동 관리할 수 있도록 하는 것입니다.
경매장처럼 보이는 공간에 가서 해당 프로토콜을 사용하는 다른 사용자들과 함께 모여 채팅할 수 있다고 상상해 보세요. 기본적으로 AO에서 FMM 프로세스가 진행 중일 때 다른 사용자와 채팅할 수 있습니다. 커뮤니티와 소셜 측면이 제품의 재정적인 부분과 결합되어 있습니다.
우리는 이것이 매우 흥미롭고 훨씬 더 광범위한 의미를 가진다고 생각합니다. 여기서 자율 AI 에이전트를 구축하면 이 Arweave 세계를 돌아다니며 발견한 다양한 앱 및 사용자와 상호 작용할 수 있습니다. 따라서 메타 유니버스를 구축하는 경우 온라인 게임을 만들 때 가장 먼저 하는 일은 NPC(비플레이어 캐릭터)를 만드는 것입니다. 여기서 NPC는 일반적일 수 있습니다.
주위를 돌아다니며 환경과 상호작용하는 지능형 시스템을 만들면 사용자 콜드 스타트 문제가 발생하지 않습니다. 일반적인 디파이 사용자처럼 스스로 돈을 벌고, 친구를 사귀고, 환경과 상호작용하는 자율 에이전트를 만들 수 있습니다. 저희는 조금 이상하긴 하지만 매우 흥미롭다고 생각합니다. 앞으로 어떤 일이 일어날지 지켜보겠습니다.
앞으로 저희는 AO에서 대규모 언어 모델의 실행을 가속화할 수 있는 기회도 보고 있습니다. 앞서 계산 단위 확장이라는 개념에 대해 이야기했습니다. 이것이 바로 WeaveDrive를 구축하는 데 사용된 개념입니다.
이미지 src="https://img.jinse.cn/7245744_watermarknone.png" title="7245744" alt="1Zu2bXoHAwu3DEMl1LF4bNT3OROEgZCluglpGhfL.jpeg">
위브드라이브에서 멈추지 않고 AO의 컴퓨팅 환경을 위한 모든 종류의 확장을 구축할 수 있습니다. GPU 가속 대규모 언어 모델 실행을 위해 이 문제를 해결하고 있는 매우 흥미로운 에코 프로젝트 중 하나가 Apus Network입니다. 설명해 드리겠습니다.
이미지 src="https://img.jinse.cn/7245745_watermarknone.png" title="7245745" alt="sOjcd5pCOfty2bad3xSNDkuFxKPZcd0AruyoBQlU.jpeg">
안녕하십니까, 저는 오늘 탈중앙화된 신뢰 없는 GPU 네트워크 구축에 전념하는 Apus Network를 소개하게 되어 기쁩니다.
아푸스 네트워크는 아위브의 영구 온체인 스토리지를 활용하여 오픈 소스 AO 확장을 제공하고, GPU를 위한 결정론적 실행 환경을 제공하며, AO와 APUS 토큰을 사용하여 탈중앙화된 AI를 위한 경제적으로 인센티브가 제공되는 모델을 제공합니다.Apus Network는 GPU 마이닝 노드를 사용하여 최적의 신뢰 없는 모델 훈련을 경쟁적으로 실행하기 위해 Arweave와 AO 모두에서 및 AO. 이를 통해 사용자는 가장 비용 효율적인 가격으로 최고의 AI 모델을 이용할 수 있습니다. X (Twitter) @apus_network에서 진행 상황을 확인할 수 있습니다. 감사합니다.
이미지 src="https://img.jinse.cn/7245746_watermarknone.png" title="7245746" alt="7gHXnfRHpPPkvTVvNd0tHSAlPPKv35nxmEpGeHJ6.jpeg">
이것이 현재 AO의 AI 현황입니다. 이제 라마 페드를 사용해보고 대규모 언어 모델을 기반으로 자신만의 스마트 컨트랙트 애플리케이션을 구축해볼 수 있습니다. 저희는 이것이 탈중앙화된 체결 환경에 시장 인텔리전스를 도입하는 시작이라고 생각합니다. 저희는 이에 대해 매우 기대가 크며 앞으로 어떤 일이 일어날지 기대가 됩니다. 오늘 함께 해주신 모든 분들께 감사드리며, 다시 뵙기를 기대하겠습니다.
블록체인의 첫 번째 원칙은 탈중앙화된 장부 기록 방식이며, '블록'과 '체인'이 필요하지 않다는 것입니다.
JinseFinanceAO의 가장 큰 기술적 가치 중 하나는 합의 메커니즘과 애플리케이션에 필요한 계산을 분리한다는 점이라고 생각합니다.
JinseFinance수평적 확장이라는 새로운 세계가 AO에서 탐험을 기다리고 있지만, AO를 뒷받침하는 두 개의 탈중앙화 물리적 인프라 네트워크(DePIN) 프로젝트가 없었다면 이 모든 것이 불가능했을 것입니다.
JinseFinance수평적 확장이라는 새로운 세계가 AO에서 탐험을 기다리고 있지만, AO를 뒷받침하는 두 개의 탈중앙화 물리적 인프라 네트워크(DePIN) 프로젝트가 없었다면 이 모든 것이 불가능했을 것입니다.
JinseFinance아위브 AO는 계산 자체와 합의 도달을 다루는 것이 아니라 경제 모델링과 지연 검증을 통해 계산 결과의 정확성을 보장함으로써 블록체인의 족쇄를 깨뜨리는 것으로, 다른 접근 방식이라고 할 수 있습니다.
JinseFinanceDeSci(탈중앙화 과학)라는 개념은 2018년에 처음 소개되었으며, 아직 대중의 폭넓은 관심을 받지는 못했지만 메사리는 이를 곧 폭발적으로 성장할 새로운 이야기로 보고 있습니다.
JinseFinance"병렬 처리"에는 공유 메모리와 메시지 전달이라는 두 가지 기본 접근 방식이 있으며, AO의 혁신은 메시지 전달을 블록체인과 스마트 컨트랙트에 적용하는 것입니다.
JinseFinanceArweave는 영구적인 데이터 저장 및 액세스 문제를 해결하기 위해 설계된 새로운 블록체인 스토리지 네트워크입니다.
JinseFinanceAO는 실제로 Arweave의 프로토콜에 계산 로그를 저장하기 위한 개방적이고 유연한 데이터 프로토콜입니다. 영구적인 원장이 아니며 네트워크 그 자체도 아닙니다.
JinseFinanceAO는 정확히 무엇이며, 창립자들이 이더와 경쟁할 수 있다는 자신감을 갖게 된 특징은 무엇인가요?
JinseFinance