Nguồn bài viết
Cả tiền điện tử và AI đều đã có những tiến bộ đáng kể trong vài năm qua.
Tiền điện tử đã tổ chức thành công nhưDeFi , và gần đây hơnDesci .
AI ăn mừng thành công nhưAlphaFold2 , và gần đây hơnTrò chuyệnGPT.
Trở lại năm 2018, Peter Thielnhọn trước sự căng thẳng giữa lực lượng phi tập trung của tiền điện tử và lực lượng tập trung của AI, đặt ra thuật ngữ “Crypto là chủ nghĩa tự do, AI là Cộng sản”. Ở đây tôi muốn lập luận rằng chúng ta có thể học được điều gì đó bằng cách kết hợp cả hai.
Tại sao? Bởi vì các kỹ năng và cách tiếp cận được mài giũa bởi cộng đồng bảo mật và tiền điện tử có khả năng mở khóa các ứng dụng hữu ích của AI và giảm thiểu rủi ro AI.
Có phải tất cả chúng ta sẽ chết?
Eliezer Yudkowsky, một nhân vật nổi tiếng về an toàn AI, gần đây đã xuất hiện một cách đáng ngạc nhiên trênPodcast không cần ngân hàng , một podcast Web3 rõ ràng.
Thật ngạc nhiên vì hai lý do:
Đầu tiên, Eliezer nghĩ rằng chúng ta đang trên con đường phát triển Trí tuệ nhân tạo tổng hợp (AGI) nhanh chóng có thể thực hiện hầu như tất cả các nhiệm vụ mà con người phải làm và AGI đó rất có thể sẽ giết chết tất cả chúng ta.
Thứ hai, khi được hỏi liệu có bất cứ điều gì người ta có thể làm để tăng cơ hội nhỏ nhoi mà chúng ta có thể sống sót hay không, anh ấy đã khuyến khích những người định hướng về bảo mật và mật mã với tư duy bảo mật mạnh mẽ tham gia vào việc liên kết AI.
Hãy giải nén nó. Đầu tiên, chúng ta sẽ thảo luận về lý do tại sao chúng ta nên lo lắng về AGI, trước khi đi sâu vào những lời hứa mà tiền điện tử (ở đây chủ yếu có nghĩa là mật mã) và cộng đồng bảo mật có để giảm thiểu một số nguy cơ của AGI.
An toàn AI: khó hơn bạn nghĩ?
Như bất kỳ ai xem qua tin tức gần đây đều có thể chứng thực, không có tuần nào trôi qua mà không có tiến bộ về AI đang tăng tốc đáng kể. Trong trường hợp bạn bỏ lỡ nó, đây chỉ là ba bước phát triển quan trọng:
Đầu tiên, đã có sự thúc đẩy hướng tới việc tập trung hóa AI nhiều hơn, chẳng hạn như việc Microsoft đầu tư vào OpenAI, Google đầu tư vào đối thủ cạnh tranh của OpenAI là Anthropic và DeepMind và Google Brain hợp nhất thành một tổ chức.
Thứ hai, đã có một sự thúc đẩy cho AI tổng quát hơn. Bài báo gần đây “GPT4: Tia sáng của trí tuệ nhân tạo tổng hợp ” cho thấy GPT-4 đã thể hiện những ví dụ đầu tiên về lý thuyết tâm trí, một biện pháp thường được sử dụng để đánh giá trí thông minh của con người.
Thứ ba, đã có sự thúc đẩy để có nhiều cơ quan hơn trong các hệ thống AI, với AutoGPT trở nên có tính chủ động hơn bằng cách tự nhắc lại để đạt được các nhiệm vụ phức tạp hơn.
Trở lại vào tháng 12,phép tính , một nền tảng dự báo, đã dự đoán sự xuất hiện của AGI vào khoảng năm 2039. Bây giờ, vào tháng 5, ngày đó là vào năm 2031 – nói cách khác, mốc thời gian 8 năm giảm xuống trong vòng 5 tháng kể từ khi AI phát triển.
Nếu chúng ta coi những phát triển này là dấu hiệu cho thấy chúng ta đang trên con đường hướng tới Trí tuệ nhân tạo chung, câu hỏi tiếp theo là tại sao an toàn AGI lại được coi là khó khăn như vậy?
Có thể cho rằng, chúng ta có thể chia vấn đề về an toàn AGI thành ba vấn đề phụ:
Liên kết: Làm thế nào chúng ta có thể liên kết AI với các giá trị của con người?
Căn chỉnh AI là một câu hỏi đơn giản về cách chúng ta làm cho AI phù hợp với các giá trị của chúng ta. Nhưng thật dễ dàng để quên rằng chúng ta thậm chí không đồng ý về những giá trị của mình. Kể từ buổi bình minh của nền văn minh, các triết gia cũng như những người bình thường đã tranh luận về đạo đức, với những luận điểm thuyết phục về mọi mặt. Đó là lý do tại sao nền văn minh hiện tại của chúng ta chủ yếu xuất hiện ở chủ nghĩa đa nguyên giá trị (ý tưởng về những con người có các giá trị xung đột cùng tồn tại một cách hòa bình). Điều đó phù hợp với sự đa dạng của các giá trị con người nhưng là một điều khó thực hiện đối với một tác nhân thông minh nhân tạo.
Hãy tưởng tượng trong một phút ngọt ngào rằng chúng ta đã biết đại khái những giá trị đạo đức nào cần trang bị cho AGI. Tiếp theo, chúng ta cần truyền đạt những giá trị nhân văn này đến một thực thể dựa trên silicon không chia sẻ quá trình tiến hóa, cấu trúc tâm trí hoặc bối cảnh của loài người. Khi con người phối hợp với những người khác, chúng ta có thể dựa vào nhiều kiến thức cơ bản ngầm được chia sẻ vì chúng ta chia sẻ đặc điểm sinh học, lịch sử tiến hóa của loài mình và thậm chí thường là một số bối cảnh văn hóa. Với AI, chúng ta không thể dựa vào bối cảnh chung như vậy.
Một vấn đề khác là, để theo đuổi bất kỳ mục tiêu nào, việc sống sót và thu được nhiều tài nguyên hơn thường là công cụ hữu ích. Điều này có nghĩa là, một AI được thiết lập để theo đuổi một mục tiêu cụ thể có thể chống lại việc ngừng hoạt động và tìm kiếm ngày càng nhiều tài nguyên. Với vô số khả năng mà AI có thể đạt được các mục tiêu bao gồm gây thương tích cho con người, bỏ bê, lừa dối, v.v. và với mức độ khó để dự đoán và xác định trước tất cả những hạn chế đó theo cách đáng tin cậy, công việc điều chỉnh kỹ thuật rất khó khăn. .
Máy tính bảo vệ
Ngay cả khi con người đồng ý với một tập hợp các giá trị và tìm ra cách điều chỉnh kỹ thuật AGI với chúng, chúng ta vẫn không thể mong đợi nó hoạt động đáng tin cậy nếu không có bằng chứng rằng bản thân phần mềm và phần cứng cơ bản là đáng tin cậy. Với lợi thế đáng kể mà AGI mang lại cho những người tạo ra nó, các tin tặc độc hại có thể phá hoại hoặc lập trình lại AGI.
Ngoài ra, một lỗi không chủ ý có thể cản trở việc thực hiện mục tiêu của AGI hoặc bản thân AGI có thể khai thác các lỗ hổng trong mã của chính nó, chẳng hạn bằng cách tự lập trình lại theo những cách nguy hiểm.
Thật không may, ngày nay chúng ta đã xây dựng toàn bộ hệ sinh thái trị giá hàng nghìn tỷ đô la trên nền tảng không gian mạng không an toàn. Hầu hết cơ sở hạ tầng vật lý của chúng tôi dựa trên các hệ thống có thể hack được, chẳng hạn như lưới điện, công nghệ vũ khí hạt nhân của chúng tôi. Trong tương lai, ngay cả ô tô tự lái và máy bay không người lái không an toàn cũng có thể bị tấn công để biến thành rô bốt sát thủ. Các cuộc tấn công mạng gia tăng như Sputnick hoặc Solarwinds là nghiêm trọng nhưng có thể lành tính khi so sánh với các cuộc tấn công tiềm ẩn do AG hỗ trợ trong tương lai. Việc chúng tôi không có phản ứng có ý nghĩa đối với các cuộc tấn công này cho thấy rằng chúng tôi không đáp ứng được nhiệm vụ bảo mật an toàn cho AGI, điều này có thể yêu cầu xây dựng lại phần lớn cơ sở hạ tầng không an toàn của chúng tôi.
"Bằng cách tận dụng các công nghệ và kỹ năng trong cộng đồng bảo mật và mật mã, chúng tôi có thể theo đuổi một kịch bản siêu trí tuệ đa cực."
phối hợp
Việc đạt được tiến bộ trong việc liên kết và bảo mật AGI có thể mất thời gian, điều quan trọng là các bên tham gia xây dựng AGI phải phối hợp trong suốt quá trình. Thật không may, việc khuyến khích các chủ thể AI lớn (đây có thể là các tổ chức hợp tác hoặc các quốc gia) hợp tác và tránh thúc đẩy các động lực chạy đua vũ trang để đạt được AGI trước không phải là điều dễ dàng. Thảm họa chỉ cần một bên tham gia từ bỏ thỏa thuận, nghĩa là ngay cả khi những người khác hợp tác, nếu một bên vượt lên dẫn trước, họ sẽ giành được lợi thế quyết định. Lợi thế của người đi trước này vẫn tồn tại cho đến khi AGI được xây dựng và được trao quyền mà việc triển khai thống nhất hệ thống AGI có thể truyền tải cho chủ sở hữu của nó và đó là một sự cám dỗ khó mà chủ sở hữu có thể từ bỏ.
AI đa cực an toàn
Có lẽ bạn đã gật đầu cho đến nay: Vâng, chắc chắn rồi, an toàn AI thực sự rất khó. Nhưng tiền điện tử thì liên quan gì đến nó?
Với tốc độ tiến bộ nhanh chóng của AI và những khó khăn trong việc đảm bảo an toàn cho nó, mối quan tâm truyền thống là chúng ta đang chạy đua hướng tới một kịch bản AGI đơn lẻ, trong đó AGI thay thế nền văn minh nhân loại làm khuôn khổ tổng thể phù hợp cho trí thông minh và thống trị thế giới, có khả năng giết chết nhân loại trên đường đi.
Bằng cách tận dụng các công nghệ và kỹ năng trong cộng đồng bảo mật và mật mã, chúng ta có thể thay đổi hướng đi để theo đuổi một kịch bản siêu trí tuệ đa cực, trong đó các mạng của con người và AI hợp tác một cách an toàn để tổng hợp kiến thức địa phương của họ thành siêu trí tuệ tập thể của nền văn minh.
Đây là một tuyên bố lớn, trừu tượng, vì vậy, hãy giải nén chính xác cách cộng đồng tiền điện tử và bảo mật có thể giúp chế ngự rủi ro AI và giải phóng vẻ đẹp của AI bằng cách mở khóa các ứng dụng mới.
Bảo mật và mật mã có thể chế ngự rủi ro AI như thế nào?
đội đỏ
Paul Christiano, một nhà nghiên cứu an toàn AI có uy tín,gợi ý rằng AI rất cần có thêm đội đỏ, thường là một thuật ngữ được sử dụng trong bảo mật máy tính để chỉ các cuộc tấn công mạng mô phỏng. Ví dụ, các đội đỏ trong bối cảnh AI có thể được sử dụng để tìm kiếm các đầu vào gây ra các hành vi thảm khốc trong các hệ thống máy học.
Lập nhóm đỏ cũng là điều mà cộng đồng tiền điện tử có kinh nghiệm. Cả Bitcoin và Ethereum đều đang phát triển trong một môi trường liên tục bị tấn công bởi các đối thủ, bởi vì các dự án không an toàn có giá trị tương đương với “tiền thưởng lỗi” trị giá hàng triệu đô la.
Các hệ thống không chống đạn bị loại bỏ, chỉ để lại nhiều hệ thống chống đạn hơn trong hệ sinh thái. Các dự án tiền điện tử trải qua một cấp độ thử nghiệm đối nghịch có thể là nguồn cảm hứng tốt cho các hệ thống có khả năng chống lại các cuộc tấn công mạng có thể tàn phá phần mềm thông thường.
chống thông đồng
Vấn đề thứ hai trong AI là nhiều AI mới nổi cuối cùng có thể thông đồng với nhau để lật đổ loài người. Ví dụ, "An toàn AI thông qua tranh luận ,” một chiến lược liên kết phổ biến, dựa trên hai AI tranh luận về các chủ đề với nhau, với một giám khảo là con người trong vòng lặp để quyết định ai thắng. Tuy nhiên, có một điều mà thẩm phán con người có thể không loại trừ được là cả hai AI đều đang thông đồng chống lại cô ấy, không có AI nào thúc đẩy kết quả thực sự.
Một lần nữa, tiền điện tử có kinh nghiệm trong việc tránh các vấn đề thông đồng, chẳng hạn nhưtấn công tội phạm , sử dụng một nút duy nhất để vận hành nhiều danh tính giả đang hoạt động nhằm ngấm ngầm giành được phần lớn ảnh hưởng trong mạng. Để tránh điều này, một lượng lớn công việc về thiết kế cơ chế đang xuất hiện trong tiền điện tử và một số cũng có thể có những bài học hữu ích về sự thông đồng của AI.
Kiểm tra và cân bằng
Một cách tiếp cận an toàn đầy hứa hẹn khác hiện đang được đối thủ cạnh tranh của OpenAI là Anthropic khám phá là “AI hiến pháp ,” trong đó một AI giám sát một AI khác bằng cách sử dụng các quy tắc và nguyên tắc do con người đưa ra. Điều này được lấy cảm hứng từ thiết kế Hiến pháp Hoa Kỳ, thiết lập các lợi ích xung đột và các phương tiện hạn chế trong một hệ thống kiểm tra và cân bằng.
Một lần nữa, các cộng đồng bảo mật và mật mã đã có nhiều kinh nghiệm với các cơ chế kiểm tra và cân bằng giống như hiến pháp. Chẳng hạn, nguyên tắc bảo mật, POLA – Nguyên tắc tối thiểu hóa thẩm quyền – yêu cầu một thực thể chỉ được truy cập vào lượng thông tin và tài nguyên ít nhất cần thiết để thực hiện công việc của mình. Một nguyên tắc hữu ích cần xem xét khi xây dựng các hệ thống AI tiên tiến hơn.
Đó chỉ là ba ví dụ trong số rất nhiều ví dụ, cho thấy kiểu tư duy bảo mật nổi bật trong cộng đồng bảo mật và tiền điện tử có thể hỗ trợ giải quyết các thách thức liên kết AI như thế nào.
Làm thế nào tiền điện tử và bảo mật có thể giải phóng vẻ đẹp của AI?
Ngoài các vấn đề về an toàn AI mà bạn có thể thử, chúng ta hãy xem xét một vài trường hợp trong đó các đổi mới bảo mật tiền điện tử không chỉ giúp chế ngự AI mà còn giải phóng vẻ đẹp của nó, chẳng hạn như bằng cách kích hoạt các ứng dụng mới có lợi.
AI bảo vệ quyền riêng tư
Có một số lĩnh vực mà AI truyền thống không thể thực sự chạm tới, đặc biệt là giải quyết các vấn đề yêu cầu dữ liệu nhạy cảm như thông tin sức khỏe hoặc dữ liệu tài chính của cá nhân có những hạn chế nghiêm trọng về quyền riêng tư.
May mắn thay,Như đã chỉ ra của nhà nghiên cứu mật mã Georgios Kaissis, đó là những lĩnh vực mà các phương pháp tiếp cận mật mã và phụ trợ, chẳng hạn như học liên kết, quyền riêng tư khác biệt, mã hóa đồng cấu, v.v., tỏa sáng. Các phương pháp tính toán mới nổi này có thể xử lý các tập dữ liệu nhạy cảm lớn trong khi vẫn duy trì quyền riêng tư và do đó có lợi thế so sánh so với AI tập trung.
Tận dụng tri thức địa phương
Một lĩnh vực khác mà AI truyền thống gặp khó khăn là tìm nguồn cung ứng kiến thức địa phương thường được yêu cầu để giải quyết các trường hợp khó khăn trong học máy (ML) mà dữ liệu lớn không thể hiểu được.
Hệ sinh thái tiền điện tử có thể hỗ trợ cung cấp dữ liệu cục bộ bằng cách thiết lập các thị trường trong đó các nhà phát triển có thể sử dụng các biện pháp khuyến khích để thu hút dữ liệu cục bộ tốt hơn cho các thuật toán của họ. Chẳng hạn, đồng sáng lập Coinbase Fred Ehrsamgợi ý kết hợp ML riêng tư cho phép đào tạo dữ liệu nhạy cảm với các ưu đãi dựa trên chuỗi khối nhằm thu hút dữ liệu tốt hơn vào dữ liệu dựa trên chuỗi khối và thị trường ML. Mặc dù việc đào tạo thực tế các mô hình ML có thể không khả thi hoặc không an toàn đối với mã nguồn mở, nhưng các thị trường dữ liệu có thể trả tiền cho người sáng tạo để chia sẻ công bằng các đóng góp dữ liệu của họ.
AI được mã hóa
Về lâu dài, thậm chí có thể tận dụng các phương pháp mã hóa để xây dựng các hệ thống AI vừa an toàn vừa mạnh mẽ hơn.
Ví dụ, nhà nghiên cứu mật mã Andrew Traskgợi ý sử dụng mã hóa đồng hình để mã hóa hoàn toàn một mạng lưới thần kinh. Nếu có thể, điều này có nghĩa là trí thông minh của mạng sẽ được bảo vệ khỏi hành vi trộm cắp, cho phép các tác nhân hợp tác giải quyết các vấn đề cụ thể bằng cách sử dụng mô hình và dữ liệu của họ mà không tiết lộ thông tin đầu vào.
Tuy nhiên, quan trọng hơn, nếu AI được mã hóa đồng hình, thì thế giới bên ngoài sẽ được nó coi là được mã hóa. Người kiểm soát khóa bí mật có thể mở khóa các dự đoán riêng lẻ mà AI đưa ra, thay vì để AI tự hoạt động.
Một lần nữa, đây chỉ là ba ví dụ trong số rất nhiều tiềm năng, trong đó tiền điện tử có thể mở khóa các trường hợp sử dụng mới cho AI.
"Ví dụ về các meme kiểm soát meme và các tổ chức kiểm soát các tổ chức cũng cho thấy rằng các hệ thống AI có thể kiểm soát các hệ thống AI."
Đặt các mảnh lại với nhau
AI tập trung bị một điểm thất bại. Nó sẽ không chỉ nén đa nguyên giá trị phức tạp của con người thành một hàm mục tiêu. Nó cũng dễ bị lỗi, tham nhũng nội bộ và tấn công từ bên ngoài. Mặt khác, các hệ thống đa cực an toàn, được xây dựng bởi cộng đồng bảo mật và mật mã, có rất nhiều hứa hẹn; chúng ủng hộ chủ nghĩa đa nguyên về giá trị, có thể tạo ra sự hợp tác đỏ, kiểm tra và cân bằng, và có khả năng cải thiện nghịch cảnh.
Ngoài ra còn có rất nhiều nhược điểm của hệ thống mật mã. Chẳng hạn, mật mã đòi hỏi tiến bộ trong lưu trữ dữ liệu phi tập trung, mã hóa chức năng, thử nghiệm đối nghịch và tắc nghẽn tính toán khiến các phương pháp này vẫn còn rất chậm và tốn kém. Hơn nữa, các hệ thống phi tập trung cũng kém ổn định hơn các hệ thống tập trung và dễ bị các tác nhân lừa đảo luôn có động cơ thông đồng hoặc lật đổ hệ thống để thống trị nó.
Tuy nhiên, với tốc độ nhanh chóng của AI và sự thiếu tương đối của những người có đầu óc bảo mật và mật mã trong AI, có lẽ không còn quá sớm để xem xét liệu bạn có thể đóng góp một cách có ý nghĩa cho AI hay không, mang lại một số lợi ích được thảo luận ở đây.
Lời hứa về AI đa cực an toàn làtóm tắt tốtcủa Eric Drexler, một nhà tiên phong về công nghệ, vào năm 1986: “Các ví dụ về các meme kiểm soát các meme và các tổ chức kiểm soát các tổ chức cũng cho thấy rằng các hệ thống AI có thể kiểm soát các hệ thống AI.”