【AI şeffaf değil mi? Datanets'ten verilerin nasıl "izlenebilir" hale geldiğine bakalım】



Geçtiğimiz yılın AI patlama dalgasında, büyük modeller teknoloji sınırlarını bir kez daha aştı, ancak her zaman çözülmemiş bir sorun ortaya çıktı - veri kaynaklarının kara kutu problemi. Bir modelin hangi metinler üzerinde eğitildiğini, kimin kritik verileri sağladığını bilmemiz mümkün değil ve modelin çıktısının kimin içerik haklarını ihlal edip etmediğini de değerlendiremiyoruz. Bu "şeffaf olmayan" durum, AI'nın daha fazla ölçeklenmesini sağlamak için bir engel haline geliyor.

OpenLedger'ın kesişim noktası, bu derin yapısal sorunun çözülmesi—veri tarafında AI'nın şeffaflığını ve teşvik mantığını yeniden yapılandırmak. Temel unsur ise: Datanets.

Bir. Datanets nedir? AI için tasarlanmış bir veri ağı mimarisi.

Datanets, OpenLedger tarafından inşa edilen temel sistemdir ve hedefi AI modellerinin kullandığı verilerin "izlenebilir" ve "ölçülen teşvikler" olmasını sağlamaktır. Bu, basit bir veritabanı veya kitle kaynaklı bir platform değil, verilerin sağlanması, işlenmesi ve tüketim sürecini yapılandırılmış bir şekilde organize edebilen, zincir üzerindeki mülkiyetin, görev yönetiminin ve ekonomik teşviklerin birleştiği modüler bir ağ sistemidir.

Her Datanet, belirli bir veri toplama ve görev işbirliği alanıdır ve DeFi göstergeleri, NFT proje tanıtımları, AI diyalog verileri gibi belirli bir dikey alan etrafında şekillenir. Bu tasarım, OpenLedger'in "özel dil modeli (SLM)" ekosistemine dair anlayışını yansıtır: Daha fazla veri almak değil, daha yüksek kaliteli, daha alan özel veriler almak önemlidir.

İkincisi, mekanizmanın çekirdeği: PoA, Infini-gram ve veri işbirliği için yeni bir paradigma.

OpenLedger, Datanets'te geleneksel "veri sağlama → model eğitimi" sürecini yeniden yapılandırarak iki temel mekanizma tanıttı:

(1) Atıf Kanıtı (PoA): Veri katkıcıları ile AI çıktısı arasındaki bağlantıyı kaydetmek için kullanılan bir mekanizma. Modelin her bir çıktısı, eğitimde kullanılan verilere kısmen "izlenebilir" hale getirerek, teşviklerin takip edilebilir bir şekilde dağıtılmasını sağlar.

(2) Infini-gram model ünitesi: OpenLedger, modeli daha ince bileşenlere ayıran daha esnek bir model mikro modül tasarımı kullanır; her bileşen, ilgili veri kaynağına bağlanabilir. Bu tasarım, modelin bileşenlerini birleştirebilirliğini artırmanın yanı sıra, "veri üzerinden sorumluluk" ilkesini de mümkün kılar.

Datanets yalnızca izole bir şekilde var değildir, aynı zamanda modüler arayüzler aracılığıyla Agents ve Payable AI modelleri ile bir araya gelerek "görev - veri - model - uygulama" tam akış zincirini oluşturur. Bu, gelecekte yalnızca veri sağlamakla kalmayıp, aynı zamanda eğitim görevlerine katılabileceğiniz, modelleri kullanabileceğiniz ve geri bildirim ve kazanç elde edebileceğiniz anlamına gelir.

Üçüncü olarak, geleneksel kitle kaynakları ile veri etiketleme platformları karşılaştırıldığında, Datanets neyi çözüyor?

Geçmişte, Amazon Mechanical Turk, Scale AI gibi birçok Web2 crowdsourcing veri platformu gördük; bu platformlar belirli bir ölçekte başarı elde etti, ancak genelde iki sorunla karşılaştılar:

(1) Verilerin mülkiyeti yok: Katılımcıların sağladığı veriler nihayetinde platformun mülkiyetine geçer ve bir kez AI tarafından kullanıldığında, sonrasında takip edilmesi veya gelir paylaşımının yapılması zorlaşır.

(2) Görevlerin dağınık, tekrarlayıcı ve teşvik edici olmaması: Birçok görev, uzun vadeli hedefler veya yapılandırılmış işbirliğinden yoksundur, bu da tekrar eden işlere ve veri kalitesinin sağlanmasının zorlaşmasına yol açar.

Datanets'in amacı ise "veri görevlerini" uzun vadeli bir işbirliği varlığına dönüştürmektir; artık platformun tek seferlik bir sömürü eylemi değil, sürekli bir ilişki kurmaktır. Sağladığınız veriler zincir üzerindeki varlıklardır, katıldığınız görevler ise modüller olarak birleştirilebilir, katkılarınız sonraki herhangi bir model tarafından çağrılabilir ve geri dönüş alabilir.

Dördüncü, Özet: Datanets, özel bir AI dönemi veri altyapısıdır.

OpenLedger, bir sonraki ChatGPT olmayı hedeflemiyor, aksine bir ChatGPT'nin çözemediği temel bir sorunu çözmeye çalışıyor: AI'nın veri üretim mantığı nasıl yeniden yapılandırılabilir?

Datanets'in ortaya çıkışı ve pratiği, OpenLedger'in "şeffaflık, işbirliği, ölçülebilirlik" ilkelerini veri sisteminin temel prensipleri olarak benimsediğini göstermektedir. Bu, Web3 bağlamında AI'ya en temel bir yanıt olarak değerlendirilebilir. Gelecekte AI modellerinin güvenilir olup olmadığı, belki de parametre ölçeğine değil, "kullanılan verilerin ne olduğunu açıklayıp açıklayamadığına" bağlı olacaktır.
DEFI8.17%
View Original
post-image
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Reward
  • Comment
  • Share
Comment
0/400
No comments
Trade Crypto Anywhere Anytime
qrCode
Scan to download Gate app
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)