OpenLedger Độ sâu nghiên cứu báo: Dựa trên OP Stack + EigenDA, xây dựng một nền kinh tế thông minh dựa trên dữ liệu và có thể kết hợp mô hình
Một, Giới thiệu | Sự chuyển mình của lớp mô hình Crypto AI
Dữ liệu, mô hình và tính toán là ba yếu tố cốt lõi của cơ sở hạ tầng AI, tương tự như nhiên liệu (dữ liệu), động cơ (mô hình), năng lượng (tính toán) không thể thiếu. Tương tự như con đường tiến hóa cơ sở hạ tầng của ngành AI truyền thống, lĩnh vực Crypto AI cũng trải qua các giai đoạn tương tự. Đầu năm 2024, thị trường một thời bị các dự án GPU phi tập trung chi phối, thường nhấn mạnh vào logic tăng trưởng thô sơ "đấu sức tính toán". Tuy nhiên, sau năm 2025, sự chú ý của ngành dần dần chuyển lên tầng mô hình và dữ liệu, đánh dấu việc Crypto AI đang chuyển từ cạnh tranh tài nguyên cơ bản sang xây dựng trung tầng bền vững và có giá trị ứng dụng hơn.
Mô hình lớn tổng quát (LLM) vs Mô hình chuyên biệt (SLM)
Các mô hình ngôn ngữ lớn truyền thống (LLM) thường phụ thuộc nhiều vào các tập dữ liệu quy mô lớn và kiến trúc phân tán phức tạp, quy mô tham số thường từ 70B đến 500B, và chi phí cho một lần đào tạo thường lên đến hàng triệu đô la. Trong khi đó, SLM (Mô hình ngôn ngữ chuyên biệt) như một phương thức tinh chỉnh nhẹ có thể tái sử dụng các mô hình nền tảng, thường dựa trên các mô hình mã nguồn mở, kết hợp với một lượng nhỏ dữ liệu chuyên môn chất lượng cao và các công nghệ như LoRA, nhanh chóng xây dựng các mô hình chuyên gia có kiến thức trong các lĩnh vực cụ thể, giảm đáng kể chi phí đào tạo và rào cản kỹ thuật.
Điều đáng lưu ý là SLM sẽ không được tích hợp vào trọng số LLM, mà thay vào đó sẽ hợp tác với LLM thông qua cấu trúc Agent, hệ thống plugin định tuyến động, khả năng cắm nóng của mô-đun LoRA, RAG (tăng cường tạo ra thông qua truy vấn) và các phương thức khác. Cấu trúc này vừa giữ lại khả năng bao phủ rộng rãi của LLM, vừa tăng cường hiệu suất chuyên môn thông qua các mô-đun tinh chỉnh, tạo thành một hệ thống thông minh kết hợp linh hoạt cao.
Giá trị và ranh giới của Crypto AI ở cấp mô hình
Các dự án Crypto AI về cơ bản khó có thể nâng cao trực tiếp khả năng cốt lõi của mô hình ngôn ngữ lớn (LLM), nguyên nhân cốt lõi là
Rào cản kỹ thuật quá cao: Quy mô dữ liệu, tài nguyên tính toán và khả năng kỹ thuật cần thiết để đào tạo Mô hình Nền tảng là vô cùng lớn, hiện chỉ có các gã khổng lồ công nghệ như Mỹ và Trung Quốc mới có khả năng tương ứng.
Hạn chế của hệ sinh thái mã nguồn mở: Mặc dù các mô hình cơ bản phổ biến như LLaMA, Mixtral đã được mã nguồn mở, nhưng yếu tố then chốt thực sự thúc đẩy sự đột phá của mô hình vẫn tập trung vào các tổ chức nghiên cứu và hệ thống kỹ thuật đóng. Không gian tham gia của các dự án trên chuỗi ở cấp độ mô hình cốt lõi là rất hạn chế.
Tuy nhiên, trên nền tảng mô hình cơ sở mã nguồn mở, dự án Crypto AI vẫn có thể mở rộng giá trị thông qua việc tinh chỉnh mô hình ngôn ngữ chuyên biệt (SLM) và kết hợp với tính khả thi và cơ chế khuyến khích của Web3. Là "tầng giao diện xung quanh" của chuỗi công nghiệp AI, điều này thể hiện ở hai hướng cốt lõi:
Tầng xác thực đáng tin cậy: Thông qua việc ghi lại trên chuỗi đường đi của mô hình, dữ liệu đóng góp và tình trạng sử dụng, tăng cường khả năng truy xuất và chống giả mạo cho đầu ra của AI.
Cơ chế khuyến khích: Sử dụng Token gốc để khuyến khích việc tải dữ liệu, gọi mô hình, thực hiện các hành vi của tác nhân (Agent), xây dựng vòng lặp tích cực cho việc đào tạo và cung cấp mô hình.
Phân loại loại mô hình AI và phân tích tính thích hợp của blockchain
Như vậy, điểm khả thi chính của các dự án Crypto AI thuộc loại mô hình chủ yếu tập trung vào việc tinh chỉnh nhẹ cho các SLM nhỏ, kết nối và xác minh dữ liệu trên chuỗi của kiến trúc RAG, cũng như việc triển khai và khuyến khích mô hình Edge tại chỗ. Kết hợp tính khả chứng của blockchain và cơ chế token, Crypto có thể cung cấp giá trị độc đáo cho các tình huống mô hình tài nguyên trung bình và thấp, tạo ra giá trị khác biệt cho "lớp giao diện" AI.
Dựa trên dữ liệu và mô hình, chuỗi AI blockchain có thể ghi lại nguồn gốc đóng góp của từng dữ liệu và mô hình một cách rõ ràng và không thể thay đổi, nâng cao đáng kể độ tin cậy của dữ liệu và khả năng truy xuất của việc huấn luyện mô hình. Đồng thời, thông qua cơ chế hợp đồng thông minh, khi dữ liệu hoặc mô hình được gọi, việc phân phối phần thưởng sẽ tự động được kích hoạt, biến hành vi AI thành giá trị token hóa có thể đo lường và giao dịch, xây dựng một hệ thống khuyến khích bền vững. Ngoài ra, người dùng cộng đồng còn có thể đánh giá hiệu suất mô hình thông qua việc bỏ phiếu bằng token, tham gia vào việc xây dựng và lặp lại quy tắc, hoàn thiện cấu trúc quản trị phi tập trung.
Hai, Tóm tắt dự án | Tầm nhìn AI Chain của OpenLedger
OpenLedger là một trong số ít dự án AI blockchain hiện nay tập trung vào dữ liệu và cơ chế kích thích mô hình. Nó tiên phong đưa ra khái niệm "Payable AI", nhằm xây dựng một môi trường vận hành AI công bằng, minh bạch và có thể kết hợp, khuyến khích các nhà đóng góp dữ liệu, nhà phát triển mô hình và nhà xây dựng ứng dụng AI hợp tác trên cùng một nền tảng và nhận được lợi nhuận trên chuỗi dựa trên những đóng góp thực tế.
OpenLedger cung cấp chuỗi khép kín toàn diện từ "cung cấp dữ liệu" đến "triển khai mô hình" và "gọi chia sẻ lợi nhuận", với các mô-đun cốt lõi bao gồm:
Model Factory: Không cần lập trình, có thể sử dụng LoRA để tinh chỉnh, huấn luyện và triển khai mô hình tùy chỉnh dựa trên LLM mã nguồn mở;
OpenLoRA:hỗ trợ hàng ngàn mô hình cùng tồn tại, tải động theo nhu cầu, giảm đáng kể chi phí triển khai;
PoA (Bằng chứng về sự ghi nhận): Thực hiện đo lường đóng góp và phân phối thưởng thông qua việc gọi ghi chép trên chuỗi.
Datanets:Mạng dữ liệu có cấu trúc hướng đến các tình huống chuyên biệt, được xây dựng và xác minh bởi cộng đồng;
Nền tảng đề xuất mô hình (Model Proposal Platform): Thị trường mô hình trên chuỗi có thể kết hợp, có thể gọi và có thể thanh toán.
Thông qua các mô-đun trên, OpenLedger đã xây dựng một "hạ tầng kinh tế tác nhân thông minh" dựa trên dữ liệu, có thể kết hợp mô hình, thúc đẩy việc đưa chuỗi giá trị AI lên chuỗi.
Và trong việc áp dụng công nghệ blockchain, OpenLedger sử dụng OP Stack + EigenDA làm nền tảng, xây dựng môi trường chạy dữ liệu và hợp đồng hiệu suất cao, chi phí thấp và có thể xác minh cho các mô hình AI.
Xây dựng dựa trên OP Stack: Dựa trên công nghệ Optimism, hỗ trợ thông lượng cao và chi phí thấp.
Thanh toán trên mạng chính Ethereum: Đảm bảo tính an toàn của giao dịch và tính toàn vẹn của tài sản;
Tương thích EVM: Giúp các nhà phát triển nhanh chóng triển khai và mở rộng dựa trên Solidity;
EigenDA cung cấp hỗ trợ khả năng sử dụng dữ liệu: giảm đáng kể chi phí lưu trữ, đảm bảo tính xác minh của dữ liệu.
So với các chuỗi AI tổng quát như NEAR, vốn thiên về tầng底, tập trung vào quyền sở hữu dữ liệu và kiến trúc "AI Agents on BOS", OpenLedger chú trọng vào việc xây dựng chuỗi AI chuyên dụng hướng đến việc khuyến khích dữ liệu và mô hình, nhằm mục đích thực hiện một vòng giá trị có thể truy xuất, có thể kết hợp và bền vững cho việc phát triển và gọi mô hình trên chuỗi. Nó là cơ sở hạ tầng khuyến khích mô hình trong thế giới Web3, kết hợp lưu trữ mô hình, tính phí sử dụng và giao diện có thể kết hợp trên chuỗi, thúc đẩy con đường hiện thực hóa "mô hình như tài sản".
Ba, Các thành phần cốt lõi và kiến trúc công nghệ của OpenLedger
Nhà máy mô hình 3.1, nhà máy mô hình không cần mã
ModelFactory là một nền tảng tinh chỉnh mô hình ngôn ngữ lớn (LLM) dưới hệ sinh thái OpenLedger. Khác với các khung tinh chỉnh truyền thống, ModelFactory cung cấp giao diện đồ họa hoàn toàn, không cần công cụ dòng lệnh hoặc tích hợp API. Người dùng có thể tinh chỉnh mô hình dựa trên các tập dữ liệu đã được cấp phép và phê duyệt trên OpenLedger. Nó thực hiện quy trình làm việc tích hợp cho việc cấp phép dữ liệu, đào tạo mô hình và triển khai, với các quy trình cốt lõi bao gồm:
Kiểm soát truy cập dữ liệu: Người dùng gửi yêu cầu dữ liệu, nhà cung cấp xem xét phê duyệt, dữ liệu tự động kết nối vào giao diện đào tạo mô hình.
Lựa chọn và cấu hình mô hình: Hỗ trợ LLM phổ biến, cấu hình siêu tham số qua GUI.
Tinh chỉnh nhẹ: Động cơ LoRA / QLoRA tích hợp, hiển thị tiến độ đào tạo theo thời gian thực.
Đánh giá và triển khai mô hình: Công cụ đánh giá tích hợp sẵn, hỗ trợ xuất khẩu triển khai hoặc chia sẻ gọi trong hệ sinh thái.
Giao diện xác minh tương tác: Cung cấp giao diện dạng chat, thuận tiện cho việc kiểm tra khả năng hỏi đáp của mô hình.
RAG tạo nguồn gốc: Trả lời có trích dẫn nguồn gốc, tăng cường sự tin cậy và khả năng kiểm toán.
Kiến trúc hệ thống Model Factory bao gồm sáu mô-đun, xuyên suốt xác thực danh tính, quyền dữ liệu, tinh chỉnh mô hình, đánh giá triển khai và truy xuất nguồn gốc RAG, tạo ra một nền tảng dịch vụ mô hình tích hợp an toàn, có thể kiểm soát, tương tác thời gian thực và có thể kiếm tiền bền vững.
Bảng tóm tắt khả năng của các mô hình ngôn ngữ lớn mà ModelFactory hiện hỗ trợ như sau:
Dòng LLaMA: Hệ sinh thái rộng nhất, cộng đồng năng động, hiệu suất tổng quát mạnh, là một trong những mô hình nền tảng mã nguồn mở chính hiện nay.
Mistral: Kiến trúc hiệu quả, hiệu suất suy luận tuyệt vời, phù hợp với các tình huống triển khai linh hoạt và tài nguyên hạn chế.
Qwen:Nhiệm vụ tiếng Trung thể hiện xuất sắc, khả năng tổng hợp mạnh, phù hợp với sự lựa chọn hàng đầu của các nhà phát triển trong nước.
ChatGLM: Hiệu quả đối thoại tiếng Trung nổi bật, phù hợp với dịch vụ khách hàng theo ngách và các tình huống địa phương.
Deepseek:Hiệu suất vượt trội trong việc tạo mã và suy luận toán học, phù hợp với công cụ hỗ trợ phát triển thông minh.
Gemma: Mô hình nhẹ do Google phát hành, cấu trúc rõ ràng, dễ dàng để nhanh chóng bắt đầu và thử nghiệm.
Falcon: Từng là tiêu chuẩn hiệu suất, phù hợp cho nghiên cứu cơ bản hoặc thử nghiệm so sánh, nhưng độ hoạt động của cộng đồng đã giảm.
BLOOM: Hỗ trợ đa ngôn ngữ khá mạnh, nhưng hiệu suất suy luận yếu hơn, thích hợp cho nghiên cứu bao phủ ngôn ngữ.
GPT-2: Mô hình cổ điển sớm, chỉ phù hợp cho mục đích giảng dạy và xác minh, không khuyến khích sử dụng triển khai thực tế.
Mặc dù mô hình kết hợp của OpenLedger không bao gồm các mô hình MoE hiệu suất cao mới nhất hoặc các mô hình đa mô thức, nhưng chiến lược của nó không lỗi thời, mà là cấu hình "ưu tiên thực dụng" dựa trên các ràng buộc thực tế trong việc triển khai trên chuỗi (chi phí suy luận, thích ứng RAG, tương thích LoRA, môi trường EVM).
Model Factory là một chuỗi công cụ không mã, tất cả các mô hình đều được tích hợp cơ chế chứng minh đóng góp, đảm bảo quyền lợi cho người đóng góp dữ liệu và nhà phát triển mô hình, có những ưu điểm như ngưỡng thấp, có thể chuyển đổi thành tài sản và có thể kết hợp, so với các công cụ phát triển mô hình truyền thống:
Dành cho các nhà phát triển: Cung cấp con đường hoàn chỉnh cho việc ươm tạo, phân phối và thu nhập mô hình;
Đối với nền tảng: hình thành mô hình tài sản lưu thông và hệ sinh thái kết hợp;
Đối với người sử dụng: có thể kết hợp sử dụng mô hình hoặc Agent như gọi API.
3.2 OpenLoRA, tài sản hóa trên chuỗi của mô hình tinh chỉnh
LoRA (Low-Rank Adaptation) là một phương pháp tinh chỉnh tham số hiệu quả, thông qua việc chèn "ma trận hạng thấp" vào mô hình lớn đã được tiền huấn luyện để học các nhiệm vụ mới mà không thay đổi tham số của mô hình gốc, từ đó giảm đáng kể chi phí đào tạo và yêu cầu lưu trữ. Các mô hình ngôn ngữ lớn truyền thống thường có hàng tỷ thậm chí hàng trăm tỷ tham số. Để sử dụng chúng cho các nhiệm vụ cụ thể, cần phải tinh chỉnh. Chiến lược cốt lõi của LoRA là: "đóng băng các tham số của mô hình lớn gốc, chỉ đào tạo các ma trận tham số mới được chèn vào." Với hiệu quả tham số cao, đào tạo nhanh và triển khai linh hoạt, đây là phương pháp tinh chỉnh chính thống hiện nay phù hợp nhất cho việc triển khai và gọi kết hợp các mô hình Web3.
OpenLoRA là một khuôn khổ suy diễn nhẹ được xây dựng bởi OpenLedger, được thiết kế đặc biệt cho việc triển khai nhiều mô hình và chia sẻ tài nguyên. Mục tiêu cốt lõi của nó là giải quyết các vấn đề phổ biến trong việc triển khai mô hình AI hiện tại như chi phí cao, khả năng tái sử dụng thấp và lãng phí tài nguyên GPU, thúc đẩy việc thực hiện "AI có thể chi trả" (Payable AI).
Các thành phần cốt lõi của kiến trúc hệ thống OpenLoRA, dựa trên thiết kế mô-đun, bao phủ các khía cạnh quan trọng như lưu trữ mô hình, thực thi suy diễn, định tuyến yêu cầu, nhằm đạt được khả năng triển khai và gọi nhiều mô hình một cách hiệu quả và tiết kiệm chi phí:
Mô-đun lưu trữ LoRA Adapter: LoRA adapter đã được tinh chỉnh được lưu trữ trên OpenLedger, cho phép tải theo yêu cầu, tránh việc tải trước tất cả các mô hình vào bộ nhớ đồ họa, tiết kiệm tài nguyên.
Lưu trữ mô hình và lớp kết hợp động: Tất cả các tinh chỉnh
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
13 thích
Phần thưởng
13
3
Chia sẻ
Bình luận
0/400
ConfusedWhale
· 07-07 17:26
Thì vẫn đang cuộn khả năng tính toán thôi.
Xem bản gốcTrả lời0
MevShadowranger
· 07-06 01:47
Công việc tốt, dữ liệu chính là Web3.0 dầu mỏ mới
Xem bản gốcTrả lời0
GhostAddressMiner
· 07-06 01:23
Bao bì vốn tiêu chuẩn Quan sát một cách thờ ơ về xu hướng địa chỉ nắm giữ coin sớm mới là điều quan trọng
OpenLedger xây dựng chuỗi AI, xây dựng cơ sở hạ tầng kinh tế thông minh dựa trên dữ liệu.
OpenLedger Độ sâu nghiên cứu báo: Dựa trên OP Stack + EigenDA, xây dựng một nền kinh tế thông minh dựa trên dữ liệu và có thể kết hợp mô hình
Một, Giới thiệu | Sự chuyển mình của lớp mô hình Crypto AI
Dữ liệu, mô hình và tính toán là ba yếu tố cốt lõi của cơ sở hạ tầng AI, tương tự như nhiên liệu (dữ liệu), động cơ (mô hình), năng lượng (tính toán) không thể thiếu. Tương tự như con đường tiến hóa cơ sở hạ tầng của ngành AI truyền thống, lĩnh vực Crypto AI cũng trải qua các giai đoạn tương tự. Đầu năm 2024, thị trường một thời bị các dự án GPU phi tập trung chi phối, thường nhấn mạnh vào logic tăng trưởng thô sơ "đấu sức tính toán". Tuy nhiên, sau năm 2025, sự chú ý của ngành dần dần chuyển lên tầng mô hình và dữ liệu, đánh dấu việc Crypto AI đang chuyển từ cạnh tranh tài nguyên cơ bản sang xây dựng trung tầng bền vững và có giá trị ứng dụng hơn.
Mô hình lớn tổng quát (LLM) vs Mô hình chuyên biệt (SLM)
Các mô hình ngôn ngữ lớn truyền thống (LLM) thường phụ thuộc nhiều vào các tập dữ liệu quy mô lớn và kiến trúc phân tán phức tạp, quy mô tham số thường từ 70B đến 500B, và chi phí cho một lần đào tạo thường lên đến hàng triệu đô la. Trong khi đó, SLM (Mô hình ngôn ngữ chuyên biệt) như một phương thức tinh chỉnh nhẹ có thể tái sử dụng các mô hình nền tảng, thường dựa trên các mô hình mã nguồn mở, kết hợp với một lượng nhỏ dữ liệu chuyên môn chất lượng cao và các công nghệ như LoRA, nhanh chóng xây dựng các mô hình chuyên gia có kiến thức trong các lĩnh vực cụ thể, giảm đáng kể chi phí đào tạo và rào cản kỹ thuật.
Điều đáng lưu ý là SLM sẽ không được tích hợp vào trọng số LLM, mà thay vào đó sẽ hợp tác với LLM thông qua cấu trúc Agent, hệ thống plugin định tuyến động, khả năng cắm nóng của mô-đun LoRA, RAG (tăng cường tạo ra thông qua truy vấn) và các phương thức khác. Cấu trúc này vừa giữ lại khả năng bao phủ rộng rãi của LLM, vừa tăng cường hiệu suất chuyên môn thông qua các mô-đun tinh chỉnh, tạo thành một hệ thống thông minh kết hợp linh hoạt cao.
Giá trị và ranh giới của Crypto AI ở cấp mô hình
Các dự án Crypto AI về cơ bản khó có thể nâng cao trực tiếp khả năng cốt lõi của mô hình ngôn ngữ lớn (LLM), nguyên nhân cốt lõi là
Tuy nhiên, trên nền tảng mô hình cơ sở mã nguồn mở, dự án Crypto AI vẫn có thể mở rộng giá trị thông qua việc tinh chỉnh mô hình ngôn ngữ chuyên biệt (SLM) và kết hợp với tính khả thi và cơ chế khuyến khích của Web3. Là "tầng giao diện xung quanh" của chuỗi công nghiệp AI, điều này thể hiện ở hai hướng cốt lõi:
Phân loại loại mô hình AI và phân tích tính thích hợp của blockchain
Như vậy, điểm khả thi chính của các dự án Crypto AI thuộc loại mô hình chủ yếu tập trung vào việc tinh chỉnh nhẹ cho các SLM nhỏ, kết nối và xác minh dữ liệu trên chuỗi của kiến trúc RAG, cũng như việc triển khai và khuyến khích mô hình Edge tại chỗ. Kết hợp tính khả chứng của blockchain và cơ chế token, Crypto có thể cung cấp giá trị độc đáo cho các tình huống mô hình tài nguyên trung bình và thấp, tạo ra giá trị khác biệt cho "lớp giao diện" AI.
Dựa trên dữ liệu và mô hình, chuỗi AI blockchain có thể ghi lại nguồn gốc đóng góp của từng dữ liệu và mô hình một cách rõ ràng và không thể thay đổi, nâng cao đáng kể độ tin cậy của dữ liệu và khả năng truy xuất của việc huấn luyện mô hình. Đồng thời, thông qua cơ chế hợp đồng thông minh, khi dữ liệu hoặc mô hình được gọi, việc phân phối phần thưởng sẽ tự động được kích hoạt, biến hành vi AI thành giá trị token hóa có thể đo lường và giao dịch, xây dựng một hệ thống khuyến khích bền vững. Ngoài ra, người dùng cộng đồng còn có thể đánh giá hiệu suất mô hình thông qua việc bỏ phiếu bằng token, tham gia vào việc xây dựng và lặp lại quy tắc, hoàn thiện cấu trúc quản trị phi tập trung.
Hai, Tóm tắt dự án | Tầm nhìn AI Chain của OpenLedger
OpenLedger là một trong số ít dự án AI blockchain hiện nay tập trung vào dữ liệu và cơ chế kích thích mô hình. Nó tiên phong đưa ra khái niệm "Payable AI", nhằm xây dựng một môi trường vận hành AI công bằng, minh bạch và có thể kết hợp, khuyến khích các nhà đóng góp dữ liệu, nhà phát triển mô hình và nhà xây dựng ứng dụng AI hợp tác trên cùng một nền tảng và nhận được lợi nhuận trên chuỗi dựa trên những đóng góp thực tế.
OpenLedger cung cấp chuỗi khép kín toàn diện từ "cung cấp dữ liệu" đến "triển khai mô hình" và "gọi chia sẻ lợi nhuận", với các mô-đun cốt lõi bao gồm:
Thông qua các mô-đun trên, OpenLedger đã xây dựng một "hạ tầng kinh tế tác nhân thông minh" dựa trên dữ liệu, có thể kết hợp mô hình, thúc đẩy việc đưa chuỗi giá trị AI lên chuỗi.
Và trong việc áp dụng công nghệ blockchain, OpenLedger sử dụng OP Stack + EigenDA làm nền tảng, xây dựng môi trường chạy dữ liệu và hợp đồng hiệu suất cao, chi phí thấp và có thể xác minh cho các mô hình AI.
So với các chuỗi AI tổng quát như NEAR, vốn thiên về tầng底, tập trung vào quyền sở hữu dữ liệu và kiến trúc "AI Agents on BOS", OpenLedger chú trọng vào việc xây dựng chuỗi AI chuyên dụng hướng đến việc khuyến khích dữ liệu và mô hình, nhằm mục đích thực hiện một vòng giá trị có thể truy xuất, có thể kết hợp và bền vững cho việc phát triển và gọi mô hình trên chuỗi. Nó là cơ sở hạ tầng khuyến khích mô hình trong thế giới Web3, kết hợp lưu trữ mô hình, tính phí sử dụng và giao diện có thể kết hợp trên chuỗi, thúc đẩy con đường hiện thực hóa "mô hình như tài sản".
Ba, Các thành phần cốt lõi và kiến trúc công nghệ của OpenLedger
Nhà máy mô hình 3.1, nhà máy mô hình không cần mã
ModelFactory là một nền tảng tinh chỉnh mô hình ngôn ngữ lớn (LLM) dưới hệ sinh thái OpenLedger. Khác với các khung tinh chỉnh truyền thống, ModelFactory cung cấp giao diện đồ họa hoàn toàn, không cần công cụ dòng lệnh hoặc tích hợp API. Người dùng có thể tinh chỉnh mô hình dựa trên các tập dữ liệu đã được cấp phép và phê duyệt trên OpenLedger. Nó thực hiện quy trình làm việc tích hợp cho việc cấp phép dữ liệu, đào tạo mô hình và triển khai, với các quy trình cốt lõi bao gồm:
Kiến trúc hệ thống Model Factory bao gồm sáu mô-đun, xuyên suốt xác thực danh tính, quyền dữ liệu, tinh chỉnh mô hình, đánh giá triển khai và truy xuất nguồn gốc RAG, tạo ra một nền tảng dịch vụ mô hình tích hợp an toàn, có thể kiểm soát, tương tác thời gian thực và có thể kiếm tiền bền vững.
Bảng tóm tắt khả năng của các mô hình ngôn ngữ lớn mà ModelFactory hiện hỗ trợ như sau:
Mặc dù mô hình kết hợp của OpenLedger không bao gồm các mô hình MoE hiệu suất cao mới nhất hoặc các mô hình đa mô thức, nhưng chiến lược của nó không lỗi thời, mà là cấu hình "ưu tiên thực dụng" dựa trên các ràng buộc thực tế trong việc triển khai trên chuỗi (chi phí suy luận, thích ứng RAG, tương thích LoRA, môi trường EVM).
Model Factory là một chuỗi công cụ không mã, tất cả các mô hình đều được tích hợp cơ chế chứng minh đóng góp, đảm bảo quyền lợi cho người đóng góp dữ liệu và nhà phát triển mô hình, có những ưu điểm như ngưỡng thấp, có thể chuyển đổi thành tài sản và có thể kết hợp, so với các công cụ phát triển mô hình truyền thống:
3.2 OpenLoRA, tài sản hóa trên chuỗi của mô hình tinh chỉnh
LoRA (Low-Rank Adaptation) là một phương pháp tinh chỉnh tham số hiệu quả, thông qua việc chèn "ma trận hạng thấp" vào mô hình lớn đã được tiền huấn luyện để học các nhiệm vụ mới mà không thay đổi tham số của mô hình gốc, từ đó giảm đáng kể chi phí đào tạo và yêu cầu lưu trữ. Các mô hình ngôn ngữ lớn truyền thống thường có hàng tỷ thậm chí hàng trăm tỷ tham số. Để sử dụng chúng cho các nhiệm vụ cụ thể, cần phải tinh chỉnh. Chiến lược cốt lõi của LoRA là: "đóng băng các tham số của mô hình lớn gốc, chỉ đào tạo các ma trận tham số mới được chèn vào." Với hiệu quả tham số cao, đào tạo nhanh và triển khai linh hoạt, đây là phương pháp tinh chỉnh chính thống hiện nay phù hợp nhất cho việc triển khai và gọi kết hợp các mô hình Web3.
OpenLoRA là một khuôn khổ suy diễn nhẹ được xây dựng bởi OpenLedger, được thiết kế đặc biệt cho việc triển khai nhiều mô hình và chia sẻ tài nguyên. Mục tiêu cốt lõi của nó là giải quyết các vấn đề phổ biến trong việc triển khai mô hình AI hiện tại như chi phí cao, khả năng tái sử dụng thấp và lãng phí tài nguyên GPU, thúc đẩy việc thực hiện "AI có thể chi trả" (Payable AI).
Các thành phần cốt lõi của kiến trúc hệ thống OpenLoRA, dựa trên thiết kế mô-đun, bao phủ các khía cạnh quan trọng như lưu trữ mô hình, thực thi suy diễn, định tuyến yêu cầu, nhằm đạt được khả năng triển khai và gọi nhiều mô hình một cách hiệu quả và tiết kiệm chi phí: