De la IA verificable a la IA componible - Reflexiones sobre escenarios de aplicación de ZKML

Intermedio12/17/2023, 5:56:24 PM
Este documento vuelve a examinar soluciones de IA verificables desde una perspectiva de aplicación, y analiza en qué escenarios se necesitan de inmediato, y en qué escenarios la demanda es relativamente débil. Finalmente, se discutió el modelo de ecosistema de IA basado en la cadena pública, y se propusieron dos modelos de desarrollo diferentes, horizontal y vertical.
  1. Si se necesita IA verificable depende de: si los datos en cadena se modifican, y si la equidad y la privacidad están involucradas

    1. Cuando la IA no afecta el estado en cadena, la IA puede actuar como asesor. Las personas pueden juzgar la calidad de los servicios de IA a través de resultados reales sin verificar el proceso de cálculo.
    2. Cuando el estado en cadena se ve afectado, si el servicio se dirige a individuos y no afecta la privacidad, entonces los usuarios todavía pueden juzgar directamente la calidad de los servicios de IA sin verificar el proceso de cálculo.
    3. Cuando la salida de IA afecta la equidad y la privacidad personal entre muchas personas, como usar la IA para evaluar y distribuir recompensas a los miembros de la comunidad, usar la IA para optimizar el AMM o involucrar datos biológicos, las personas querrán revisar los cálculos de IA. Aquí es donde se puede verificar que la IA puede encontrar PMF.
  2. Ecosistema de aplicaciones de IA vertical: Dado que un extremo de la IA verificable es un contrato inteligente, las aplicaciones de IA verificables e incluso las dapps de IA y nativas pueden ser capaces de utilizarse entre sí sin confianza. Este es un ecosistema potencial de aplicaciones de IA componibles

  3. Ecosistema de aplicación de IA horizontal: El sistema de cadena pública puede manejar problemas como el pago de servicios, la coordinación de disputas de pago y la coincidencia de las necesidades de los usuarios y el contenido del servicio para los proveedores de servicios de IA, de modo que los usuarios puedan disfrutar de una experiencia de servicio de IA descentralizada con un mayor grado de libertad.

1. Información general y casos de aplicación de Modulus Labs

1.1 Introducción y soluciones principales

Modulus Labs es una empresa de IA 'on-chain' que cree que la IA puede mejorar significativamente las capacidades de los contratos inteligentes y hacer que las aplicaciones web3 sean más poderosas. Sin embargo, existe una contradicción cuando se aplica la IA a web3, es decir, la IA requiere una gran cantidad de potencia de cálculo para funcionar, y la IA es una caja negra para el cálculo fuera de la cadena. Esto no cumple con los requisitos básicos de web3 de ser sin confianza y verificable.

Por lo tanto, Modulus Labs se basó en el esquema zk rollup [preprocesamiento fuera de la cadena+verificación en cadena] y propuso una arquitectura que puede verificar la IA. Específicamente, el modelo de ML se ejecuta fuera de la cadena, y además, se genera un zkp para el proceso de cálculo de ML fuera de la cadena. A través de este zkp, se pueden verificar la arquitectura, los pesos y las entradas (inputs) del modelo fuera de la cadena. Por supuesto, este zkp también se puede publicar en la cadena para su verificación por contratos inteligentes. En este punto, la IA y los contratos en cadena pueden interactuar de manera más confiable, es decir, se ha realizado la “IA en cadena”.

Basándose en la idea de IA verificable, Modulus Labs ha lanzado hasta ahora tres aplicaciones de “IA en cadena”, y también ha propuesto muchos posibles escenarios de aplicación.

1.2 Casos de aplicación

  1. El primero en lanzarse fue Rocky Bot, una IA de trading automatizada. Rocky fue entrenado con datos históricos del par de trading Weth/USDC. Juzga las tendencias futuras de weth basándose en datos históricos. Después de tomar una decisión de trading, generará un zkp para el proceso de decisión (proceso de cálculo) y enviará un mensaje a L1 para desencadenar la transacción.
  2. El segundo es el juego de ajedrez en cadena "Leela vs. the World". Ambos jugadores en el juego son IA y humanos, y la situación del juego está en un contrato. El jugador opera a través de una billetera (interactúa con contratos). Sin embargo, la IA lee la nueva situación del juego de ajedrez, hace un juicio y genera zkp para todo el proceso de cálculo. Ambos pasos se completan en la nube de AWS, y zkp es verificado por un contrato en cadena. Después de que la verificación sea exitosa, el contrato del juego se utiliza para "jugar al ajedrez".
  3. El tercero es un artista de IA "en cadena" y lanzó la serie NFT zKMon. El núcleo es que la IA genera NFT y los publica en la cadena, y también genera un zkp. Los usuarios pueden verificar si su NFT se generó a partir del modelo de IA correspondiente a través de zkp.

Además, Modulus Labs mencionó algunos otros casos de uso:

  1. Utilice la IA para evaluar los datos personales en la cadena y otra información, generar calificaciones de reputación personal y publicar zkp para la verificación de los usuarios;
  2. Usar IA para optimizar el rendimiento del AMM y publicar zkp para que los usuarios lo verifiquen;
  3. Utilice IA verificable para ayudar a los proyectos de privacidad a hacer frente a la presión regulatoria, pero al mismo tiempo sin exponer la privacidad (quizás utilizando ML para demostrar que esta transacción no es lavado de dinero, sin revelar información como las direcciones de usuario);
  4. oráculos de IA, y liberar zkp para que todos puedan verificar la confiabilidad de los datos fuera de la cadena;
  5. En la competencia de modelos de IA, los concursantes envían su propia arquitectura y pesos, luego ejecutan el modelo con una entrada de prueba unificada para generar zkp para el cálculo, y el contrato final envía automáticamente el dinero del premio al ganador;
  6. Worldcoin dijo que en el futuro, los usuarios podrían ser capaces de descargar un modelo de iris para generar el código correspondiente en el dispositivo local, ejecutar el modelo localmente y generar zkp. De esta manera, el contrato en cadena puede utilizar zkp para verificar que el código de iris del usuario se genera a partir del modelo correcto y el iris razonable, mientras que la información biológica no sale del propio dispositivo del usuario;

Crédito de la foto: Modulus Labs

1.3 Discutir diferentes escenarios de aplicación basados en la necesidad de IA verificable

1.3.1 Escenarios que pueden verificar que la IA puede no ser necesaria

En el escenario del bot Rocky, es posible que los usuarios no tengan que verificar el proceso de cálculo de ML. En primer lugar, los usuarios no tienen experiencia ni capacidad para realizar una verificación real. Incluso si hubiera una herramienta de verificación, en opinión del usuario, "presiono un botón, la interfaz me indica que este servicio de IA fue generado realmente por un cierto modelo", y la autenticidad no puede ser determinada. En segundo lugar, los usuarios no necesitan verificar, porque les importa si el rendimiento de la IA es alto. Los usuarios migran cuando la rentabilidad es baja, y siempre eligen el modelo que funciona mejor. En resumen, cuando el resultado final de la IA es lo que el usuario busca, es posible que el proceso de verificación no sea significativo porque el usuario solo necesita migrar al servicio que funciona mejor.

Una posible solución es que la IA actúe solo como asesora, y el usuario ejecute la transacción de forma independiente. Cuando las personas ingresan sus objetivos comerciales en la IA, la IA calcula y devuelve un mejor camino de transacción / dirección comercial fuera de la cadena, y el usuario decide si ejecutarlo. Las personas tampoco necesitan verificar el modelo detrás de él; solo necesitan elegir el producto con el mayor rendimiento.

Otra situación peligrosa pero altamente probable es que a las personas no les importa en absoluto su control sobre los activos o el proceso de cálculo de la IA. Cuando aparece un robot que gana dinero automáticamente, las personas incluso están dispuestas a alojar dinero directamente en él, al igual que poner tokens en Gate o bancos tradicionales para su gestión financiera. Debido a que a las personas no les importan los principios detrás de ello; solo les importa cuánto dinero obtienen al final, o incluso cuánto dinero les muestra el partido del proyecto para ganar, este tipo de servicio puede adquirir rápidamente un gran número de usuarios, e incluso iterar más rápido que los productos del lado del proyecto que utilizan IA verificable.

Dando un paso atrás, si la IA no participa en cambios de estado en cadena en absoluto, sino que simplemente recopila datos en cadena y los preprocesa para los usuarios, entonces no hay necesidad de generar ZKP para el proceso de cálculo. Aquí hay algunos ejemplos de este tipo de aplicación como un "servicio de datos":

  1. El chatbox proporcionado por Mest es un servicio de datos típico. Los usuarios pueden utilizar preguntas y respuestas para entender sus datos en cadena, como preguntar cuánto dinero han gastado en NFT;
  2. ChaingPT es un asistente de IA multifuncional que puede interpretar contratos inteligentes por ti antes de negociar, decirte si estás negociando con el grupo correcto, o decirte si la transacción probablemente será atrapada o arrebatada. ChaingPT también se está preparando para hacer recomendaciones de noticias de IA, ingresar sugerencias para generar automáticamente imágenes y publicarlas como NFT y otros servicios;
  3. RSS3 proporciona AIOP, por lo que los usuarios pueden seleccionar qué datos en cadena desean y realizar cierto preprocesamiento, de modo que sea fácil entrenar la IA con datos específicos en cadena;
  4. DeVillama y RSS3 también han desarrollado complementos de ChatGPT, donde los usuarios pueden obtener datos en cadena a través de conversaciones;

1.3.2 Escenarios que requieren IA verificable

Este artículo argumenta que los escenarios que involucran a múltiples personas, que implican equidad y privacidad, requieren ZKP para proporcionar verificación, y aquí se discuten varias de las aplicaciones mencionadas por Modulus Labs:

  1. Cuando una comunidad recompensa a individuos basándose en reputaciones personales generadas por IA, los miembros de la comunidad inevitablemente solicitarán una revisión del proceso de decisión de evaluación, que es el proceso de cálculo de ML;
  2. Los escenarios de optimización de IA para AMM implican la distribución de beneficios entre varias personas, y el proceso de cálculo de IA también debe ser verificado regularmente;
  3. Al equilibrar la privacidad y la regulación, ZK es actualmente una de las mejores soluciones. Si el proveedor de servicios utiliza ML en el servicio para procesar datos privados, necesita generar ZKP para todo el proceso de cálculo;
  4. Dado que los oráculos tienen un amplio rango de influencia, si son controlados por IA, se necesita generar ZKP regularmente para verificar si la IA está funcionando correctamente;
  5. En la competencia, se requiere que el público y otros participantes verifiquen si la computación de ML cumple con las especificaciones de la competencia;
  6. Entre los posibles casos de uso de Worldcoin, la protección de los datos biológicos personales también es un requisito importante;

En general, cuando la IA es similar a un tomador de decisiones, y su resultado tiene un amplio alcance de influencia e implica la equidad de muchas partes, entonces la gente exigirá una revisión del proceso de toma de decisiones, o simplemente asegurarse de que no haya problemas importantes con el proceso de toma de decisiones de la IA, y proteger la privacidad personal es un requisito muy inmediato.

Por lo tanto, "si la salida de la IA modifica el estado on-chain" y "si afecta a la equidad/privacidad" son dos criterios para juzgar si se necesita una solución de IA verificable

  1. Cuando la salida de AI no modifica el estado en cadena, el servicio de AI puede actuar como un recomendador. Las personas pueden juzgar la calidad del servicio de AI a través del efecto de recomendación sin verificar el proceso de cálculo;
  2. Cuando la salida de IA modifica el estado en cadena, si los objetivos del servicio son solo individuos y no afectan la privacidad, entonces los usuarios aún pueden juzgar directamente la calidad del servicio de IA sin verificar el proceso de cálculo;
  3. Cuando la salida de la IA afecta directamente a la equidad entre muchas personas, y la IA modifica automáticamente los datos en cadena, la comunidad y el público necesitan probar el proceso de toma de decisiones de la IA;
  4. Cuando los datos procesados por ML involucran privacidad personal, también se necesita zk para proteger la privacidad y así cumplir con los requisitos regulatorios.

Crédito de la foto: Kernel Ventures

2. Dos modelos de ecosistema de IA basados en dos cadenas públicas

En cualquier caso, la solución de Modulus Labs es muy instructiva sobre cómo la IA puede combinar la criptografía y aportar valor práctico a la aplicación. Sin embargo, el sistema de cadena pública no solo mejora las capacidades de los servicios de IA individuales, sino que también tiene el potencial de construir un nuevo ecosistema de aplicaciones de IA. Este nuevo ecosistema ha provocado una relación diferente entre los servicios de IA y Web2, la relación entre los servicios de IA y los usuarios, e incluso la forma en que colaboran los enlaces aguas arriba y aguas abajo. Podemos resumir los posibles modelos de ecosistema de aplicaciones de IA en dos tipos: modo vertical y modelo horizontal.

Modo vertical 2.1: Enfoque en lograr la composabilidad entre AIs

El caso de uso de ajedrez en cadena “Leela vs. the World” tiene un lugar especial. Las personas pueden realizar apuestas en humanos o en IA, y los tokens se distribuyen automáticamente después de que termina el juego. En este punto, el significado de zkp no es solo para que los usuarios verifiquen los cálculos de IA, sino también como una garantía de confianza para activar transiciones de estado en cadena. Con la garantía de confianza, también puede haber composabilidad a nivel de dapp entre servicios de IA y entre IA y dapps nativas de cripto.

Fuente de la imagen: Kernel Ventures, con referencia de Modulus Labs

La unidad básica de AI combinable es [modelo ML fuera de la cadena - generación zkp - contrato de verificación en la cadena - contrato principal]. Esta unidad se basa en el marco “Leela vs. the World”, pero la arquitectura real de una única aplicación de AI puede no ser la misma que se muestra en la imagen anterior. En primer lugar, la situación del juego de ajedrez en el ajedrez requiere un contrato, pero en la realidad, AI puede no necesitar un contrato en la cadena. Sin embargo, en lo que respecta a la arquitectura de AI combinable, si el negocio principal se registra a través de contratos, puede ser más conveniente para que otras aplicaciones lo combinen. En segundo lugar, el contrato principal no necesariamente necesita afectar el modelo ML de la propia aplicación de AI, porque una aplicación de AI puede tener un efecto unidireccional. Después de que el modelo ML se procesa, es suficiente para activar un contrato relacionado con su propio negocio, y el contrato será llamado por otras aplicaciones.

Ampliamente, las llamadas entre contratos son llamadas entre diferentes aplicaciones web3. Son llamadas para identidad personal, activos, servicios financieros e incluso información social. Podemos imaginar una combinación específica de aplicaciones de IA:

  1. Worldcoin utiliza ML para generar códigos de iris y zkp para datos personales de iris;
  2. La aplicación de IA de puntuación de reputación primero verifica si la persona detrás de este DID es una persona real (con datos de iris en la parte trasera), luego asigna NFT a los usuarios en función de la reputación en cadena;
  3. El servicio de préstamo ajusta la participación del préstamo de acuerdo con el NFT propiedad del usuario;

La interacción entre la inteligencia artificial en el marco de la cadena pública no es algo que no se haya discutido. Loaf, un colaborador del ecosistema de Realms de juegos de cadena completa, propuso una vez que los NPC de IA pueden comerciar entre sí como jugadores, de modo que todo el sistema económico pueda optimizarse y operar automáticamente. AI Arena ha desarrollado un juego de batalla automatizado de IA. Los usuarios primero compran un NFT. Un NFT representa un robot de batalla, y detrás de él hay un modelo de IA. Los usuarios primero juegan a juegos por su cuenta, luego entregan los datos a la IA para el aprendizaje simulado. Cuando los usuarios sienten que la IA es lo suficientemente fuerte, pueden jugar automáticamente contra otras IA en la arena. Modulus Labs mencionó que AI Arena quiere convertir toda esta IA en IA verificable. Ambos casos vieron la posibilidad de que la IA interactúe entre sí y modifique directamente los datos en la cadena.

Sin embargo, todavía hay muchos problemas por discutir en la implementación específica de la IA combinable, como por ejemplo cómo diferentes dapps pueden utilizar los zkps de otros o verificar contratos. Sin embargo, también hay muchos proyectos excelentes en el campo de zk. Por ejemplo, RISC Zero ha avanzado mucho en la realización de cálculos complejos fuera de la cadena y liberando zkps en la cadena. Quizás algún día sea posible unir una solución adecuada.

2.2 Modelo horizontal: plataformas de servicios de IA que se centran en la descentralización

En este sentido, principalmente presentamos una plataforma de IA descentralizada llamada SAKSHI, que fue propuesta conjuntamente por personas de Princeton, la Universidad Tsinghua, la Universidad de Illinois en Urbana-Champaign, la Universidad de Ciencia y Tecnología de Hong Kong, Witness Chain y Eigen Layer. Su objetivo principal es permitir a los usuarios acceder a servicios de IA de manera más descentralizada, haciendo que todo el proceso sea más confiable y automatizado.

Crédito de la foto: SAKSHI

La estructura de SAKSHI se puede dividir en seis capas: capa de servicio (capa de servicio), capa de control (capa de control), capa de transacción (capa de transacción), capa de prueba (capa de prueba), capa económica (capa económica) y capa de mercado (Marketplace)

El mercado es el nivel más cercano al usuario. Hay agregadores en el mercado que proporcionan servicios a los usuarios en nombre de diferentes proveedores de IA. Los usuarios realizan pedidos a través de los agregadores y llegan a acuerdos con los agregadores sobre la calidad del servicio y los precios de pago (los acuerdos se llaman SLA-acuerdos de nivel de servicio).

A continuación, la capa de servicio proporciona una API para el lado del cliente, luego el cliente realiza una solicitud de inferencia de ML al agregador, y la solicitud se envía a un servidor utilizado para emparejar al proveedor de servicios de IA (la ruta utilizada para transmitir la solicitud forma parte de la capa de control). Por lo tanto, la capa de servicio y la capa de control son similares a un servicio con varios servidores web2, pero los servidores diferentes son operados por entidades diferentes, y cada servidor está enlazado a través de un SLA (acuerdo de servicio previamente firmado) y un agregador.

Los SLA se despliegan en la cadena en forma de contratos inteligentes, todos los cuales pertenecen a la capa de transacción (nota: en esta solución, se despliegan en la Cadena de Testigos). La capa de transacción también registra el estado actual de un pedido de servicio y se utiliza para coordinar a los usuarios, agregadores y proveedores de servicios para manejar disputas de pago.

Para que la capa de transacción tenga evidencia en la que basarse al manejar disputas, la capa de prueba (Capa de Prueba) verificará si el proveedor de servicios utiliza el modelo acordado en el SLA. Sin embargo, SAKSHI no optó por generar zkp para el proceso de cálculo de ML, sino que en su lugar utilizó la idea de prueba optimista, con la esperanza de establecer una red de nodos desafiantes para probar el servicio. Los incentivos de los nodos son soportados por Witness Chain.

Aunque SLA y la red de nodos desafiantes se encuentran en Witness Chain, en el plan de SAKSHI, Witness Chain no tiene previsto utilizar sus incentivos de token nativo para lograr una seguridad independiente, sino que utiliza la seguridad de Ethereum a través de Eigen Layer, por lo que toda la economía depende en realidad de Eigen Layer.

Como se puede ver, SAKSHI se encuentra entre los proveedores de servicios de IA y los usuarios, y organiza diferentes IAs de manera descentralizada para brindar servicios a los usuarios. Esto se asemeja más a una solución horizontal. El núcleo de SAKSHI es que permite a los proveedores de servicios de IA centrarse más en la gestión de sus propios cálculos de modelos fuera de la cadena, en la coincidencia de las necesidades de los usuarios con los servicios de modelos, en el pago de servicios y en la verificación de la calidad del servicio a través de acuerdos en la cadena, y en tratar de resolver automáticamente disputas de pago. Por supuesto, en la actualidad SAKSHI todavía se encuentra en la etapa teórica, y también hay muchos detalles de implementación que vale la pena determinar.

3. Futuras perspectivas

Ya sea AI combinable o plataformas de AI descentralizadas, el modelo de ecosistema de AI basado en la cadena pública parece tener algo en común. Por ejemplo, los proveedores de servicios de AI no se conectan directamente con los usuarios; solo necesitan proporcionar modelos de ML y realizar cálculos fuera de la cadena. Los pagos, la resolución de disputas y la coordinación entre las necesidades de los usuarios y los servicios pueden resolverse mediante acuerdos descentralizados. Como una infraestructura sin confianza, la cadena pública reduce la fricción entre los proveedores de servicios y los usuarios, y los usuarios también tienen una mayor autonomía en este momento.

Aunque los beneficios de utilizar la cadena pública como base de aplicación son clichés, es cierto que también se aplica a los servicios de IA. Sin embargo, la diferencia entre las aplicaciones de IA y las aplicaciones dapp existentes es que las aplicaciones de IA no pueden colocar todas las computaciones en la cadena, por lo que es necesario utilizar pruebas zk u optimistas para conectar los servicios de IA al sistema de cadena pública de una manera más confiable.

Con la implementación de una serie de soluciones de optimización de la experiencia como la abstracción de cuentas, los usuarios pueden no ser capaces de percibir la existencia de mnemónicos, cadenas y gas. Esto acerca el ecosistema de la cadena pública más a web2 en términos de experiencia, mientras que los usuarios pueden obtener un mayor grado de libertad y composabilidad que los servicios web2. Esto será muy atractivo para los usuarios. El ecosistema de aplicaciones de IA basado en la cadena pública merece ser esperado con ansias.


Kernel Ventures es un fondo de capital de riesgo criptográfico impulsado por una comunidad de investigación y desarrollo con más de 70 inversiones en etapas iniciales centradas en infraestructura, middleware, dApps, especialmente ZK, Rollup, DEX, blockchains modulares y verticales que albergarán a los próximos mil millones de usuarios de cripto, como abstracción de cuentas, disponibilidad de datos, escalabilidad, etc. En los últimos siete años, nos hemos comprometido a apoyar el desarrollo de comunidades de desarrollo centrales y asociaciones universitarias de blockchain en todo el mundo.

Descargo de responsabilidad:

  1. Este artículo es reimpreso de[espejo]. Todos los derechos de autor pertenecen al autor original [Kernel Ventures Jerry Luo]. Si hay objeciones a esta reimpresión, por favor contacte al equipo de Gate Learn(gatelearn@gate.io) y ellos lo resolverán rápidamente.
  2. Descargo de responsabilidad: Las opiniones expresadas en este artículo son únicamente del autor y no constituyen asesoramiento de inversión.
  3. Las traducciones del artículo a otros idiomas son realizadas por el equipo de Gate Learn. A menos que se mencione, está prohibido copiar, distribuir o plagiar los artículos traducidos.

De la IA verificable a la IA componible - Reflexiones sobre escenarios de aplicación de ZKML

Intermedio12/17/2023, 5:56:24 PM
Este documento vuelve a examinar soluciones de IA verificables desde una perspectiva de aplicación, y analiza en qué escenarios se necesitan de inmediato, y en qué escenarios la demanda es relativamente débil. Finalmente, se discutió el modelo de ecosistema de IA basado en la cadena pública, y se propusieron dos modelos de desarrollo diferentes, horizontal y vertical.
  1. Si se necesita IA verificable depende de: si los datos en cadena se modifican, y si la equidad y la privacidad están involucradas

    1. Cuando la IA no afecta el estado en cadena, la IA puede actuar como asesor. Las personas pueden juzgar la calidad de los servicios de IA a través de resultados reales sin verificar el proceso de cálculo.
    2. Cuando el estado en cadena se ve afectado, si el servicio se dirige a individuos y no afecta la privacidad, entonces los usuarios todavía pueden juzgar directamente la calidad de los servicios de IA sin verificar el proceso de cálculo.
    3. Cuando la salida de IA afecta la equidad y la privacidad personal entre muchas personas, como usar la IA para evaluar y distribuir recompensas a los miembros de la comunidad, usar la IA para optimizar el AMM o involucrar datos biológicos, las personas querrán revisar los cálculos de IA. Aquí es donde se puede verificar que la IA puede encontrar PMF.
  2. Ecosistema de aplicaciones de IA vertical: Dado que un extremo de la IA verificable es un contrato inteligente, las aplicaciones de IA verificables e incluso las dapps de IA y nativas pueden ser capaces de utilizarse entre sí sin confianza. Este es un ecosistema potencial de aplicaciones de IA componibles

  3. Ecosistema de aplicación de IA horizontal: El sistema de cadena pública puede manejar problemas como el pago de servicios, la coordinación de disputas de pago y la coincidencia de las necesidades de los usuarios y el contenido del servicio para los proveedores de servicios de IA, de modo que los usuarios puedan disfrutar de una experiencia de servicio de IA descentralizada con un mayor grado de libertad.

1. Información general y casos de aplicación de Modulus Labs

1.1 Introducción y soluciones principales

Modulus Labs es una empresa de IA 'on-chain' que cree que la IA puede mejorar significativamente las capacidades de los contratos inteligentes y hacer que las aplicaciones web3 sean más poderosas. Sin embargo, existe una contradicción cuando se aplica la IA a web3, es decir, la IA requiere una gran cantidad de potencia de cálculo para funcionar, y la IA es una caja negra para el cálculo fuera de la cadena. Esto no cumple con los requisitos básicos de web3 de ser sin confianza y verificable.

Por lo tanto, Modulus Labs se basó en el esquema zk rollup [preprocesamiento fuera de la cadena+verificación en cadena] y propuso una arquitectura que puede verificar la IA. Específicamente, el modelo de ML se ejecuta fuera de la cadena, y además, se genera un zkp para el proceso de cálculo de ML fuera de la cadena. A través de este zkp, se pueden verificar la arquitectura, los pesos y las entradas (inputs) del modelo fuera de la cadena. Por supuesto, este zkp también se puede publicar en la cadena para su verificación por contratos inteligentes. En este punto, la IA y los contratos en cadena pueden interactuar de manera más confiable, es decir, se ha realizado la “IA en cadena”.

Basándose en la idea de IA verificable, Modulus Labs ha lanzado hasta ahora tres aplicaciones de “IA en cadena”, y también ha propuesto muchos posibles escenarios de aplicación.

1.2 Casos de aplicación

  1. El primero en lanzarse fue Rocky Bot, una IA de trading automatizada. Rocky fue entrenado con datos históricos del par de trading Weth/USDC. Juzga las tendencias futuras de weth basándose en datos históricos. Después de tomar una decisión de trading, generará un zkp para el proceso de decisión (proceso de cálculo) y enviará un mensaje a L1 para desencadenar la transacción.
  2. El segundo es el juego de ajedrez en cadena "Leela vs. the World". Ambos jugadores en el juego son IA y humanos, y la situación del juego está en un contrato. El jugador opera a través de una billetera (interactúa con contratos). Sin embargo, la IA lee la nueva situación del juego de ajedrez, hace un juicio y genera zkp para todo el proceso de cálculo. Ambos pasos se completan en la nube de AWS, y zkp es verificado por un contrato en cadena. Después de que la verificación sea exitosa, el contrato del juego se utiliza para "jugar al ajedrez".
  3. El tercero es un artista de IA "en cadena" y lanzó la serie NFT zKMon. El núcleo es que la IA genera NFT y los publica en la cadena, y también genera un zkp. Los usuarios pueden verificar si su NFT se generó a partir del modelo de IA correspondiente a través de zkp.

Además, Modulus Labs mencionó algunos otros casos de uso:

  1. Utilice la IA para evaluar los datos personales en la cadena y otra información, generar calificaciones de reputación personal y publicar zkp para la verificación de los usuarios;
  2. Usar IA para optimizar el rendimiento del AMM y publicar zkp para que los usuarios lo verifiquen;
  3. Utilice IA verificable para ayudar a los proyectos de privacidad a hacer frente a la presión regulatoria, pero al mismo tiempo sin exponer la privacidad (quizás utilizando ML para demostrar que esta transacción no es lavado de dinero, sin revelar información como las direcciones de usuario);
  4. oráculos de IA, y liberar zkp para que todos puedan verificar la confiabilidad de los datos fuera de la cadena;
  5. En la competencia de modelos de IA, los concursantes envían su propia arquitectura y pesos, luego ejecutan el modelo con una entrada de prueba unificada para generar zkp para el cálculo, y el contrato final envía automáticamente el dinero del premio al ganador;
  6. Worldcoin dijo que en el futuro, los usuarios podrían ser capaces de descargar un modelo de iris para generar el código correspondiente en el dispositivo local, ejecutar el modelo localmente y generar zkp. De esta manera, el contrato en cadena puede utilizar zkp para verificar que el código de iris del usuario se genera a partir del modelo correcto y el iris razonable, mientras que la información biológica no sale del propio dispositivo del usuario;

Crédito de la foto: Modulus Labs

1.3 Discutir diferentes escenarios de aplicación basados en la necesidad de IA verificable

1.3.1 Escenarios que pueden verificar que la IA puede no ser necesaria

En el escenario del bot Rocky, es posible que los usuarios no tengan que verificar el proceso de cálculo de ML. En primer lugar, los usuarios no tienen experiencia ni capacidad para realizar una verificación real. Incluso si hubiera una herramienta de verificación, en opinión del usuario, "presiono un botón, la interfaz me indica que este servicio de IA fue generado realmente por un cierto modelo", y la autenticidad no puede ser determinada. En segundo lugar, los usuarios no necesitan verificar, porque les importa si el rendimiento de la IA es alto. Los usuarios migran cuando la rentabilidad es baja, y siempre eligen el modelo que funciona mejor. En resumen, cuando el resultado final de la IA es lo que el usuario busca, es posible que el proceso de verificación no sea significativo porque el usuario solo necesita migrar al servicio que funciona mejor.

Una posible solución es que la IA actúe solo como asesora, y el usuario ejecute la transacción de forma independiente. Cuando las personas ingresan sus objetivos comerciales en la IA, la IA calcula y devuelve un mejor camino de transacción / dirección comercial fuera de la cadena, y el usuario decide si ejecutarlo. Las personas tampoco necesitan verificar el modelo detrás de él; solo necesitan elegir el producto con el mayor rendimiento.

Otra situación peligrosa pero altamente probable es que a las personas no les importa en absoluto su control sobre los activos o el proceso de cálculo de la IA. Cuando aparece un robot que gana dinero automáticamente, las personas incluso están dispuestas a alojar dinero directamente en él, al igual que poner tokens en Gate o bancos tradicionales para su gestión financiera. Debido a que a las personas no les importan los principios detrás de ello; solo les importa cuánto dinero obtienen al final, o incluso cuánto dinero les muestra el partido del proyecto para ganar, este tipo de servicio puede adquirir rápidamente un gran número de usuarios, e incluso iterar más rápido que los productos del lado del proyecto que utilizan IA verificable.

Dando un paso atrás, si la IA no participa en cambios de estado en cadena en absoluto, sino que simplemente recopila datos en cadena y los preprocesa para los usuarios, entonces no hay necesidad de generar ZKP para el proceso de cálculo. Aquí hay algunos ejemplos de este tipo de aplicación como un "servicio de datos":

  1. El chatbox proporcionado por Mest es un servicio de datos típico. Los usuarios pueden utilizar preguntas y respuestas para entender sus datos en cadena, como preguntar cuánto dinero han gastado en NFT;
  2. ChaingPT es un asistente de IA multifuncional que puede interpretar contratos inteligentes por ti antes de negociar, decirte si estás negociando con el grupo correcto, o decirte si la transacción probablemente será atrapada o arrebatada. ChaingPT también se está preparando para hacer recomendaciones de noticias de IA, ingresar sugerencias para generar automáticamente imágenes y publicarlas como NFT y otros servicios;
  3. RSS3 proporciona AIOP, por lo que los usuarios pueden seleccionar qué datos en cadena desean y realizar cierto preprocesamiento, de modo que sea fácil entrenar la IA con datos específicos en cadena;
  4. DeVillama y RSS3 también han desarrollado complementos de ChatGPT, donde los usuarios pueden obtener datos en cadena a través de conversaciones;

1.3.2 Escenarios que requieren IA verificable

Este artículo argumenta que los escenarios que involucran a múltiples personas, que implican equidad y privacidad, requieren ZKP para proporcionar verificación, y aquí se discuten varias de las aplicaciones mencionadas por Modulus Labs:

  1. Cuando una comunidad recompensa a individuos basándose en reputaciones personales generadas por IA, los miembros de la comunidad inevitablemente solicitarán una revisión del proceso de decisión de evaluación, que es el proceso de cálculo de ML;
  2. Los escenarios de optimización de IA para AMM implican la distribución de beneficios entre varias personas, y el proceso de cálculo de IA también debe ser verificado regularmente;
  3. Al equilibrar la privacidad y la regulación, ZK es actualmente una de las mejores soluciones. Si el proveedor de servicios utiliza ML en el servicio para procesar datos privados, necesita generar ZKP para todo el proceso de cálculo;
  4. Dado que los oráculos tienen un amplio rango de influencia, si son controlados por IA, se necesita generar ZKP regularmente para verificar si la IA está funcionando correctamente;
  5. En la competencia, se requiere que el público y otros participantes verifiquen si la computación de ML cumple con las especificaciones de la competencia;
  6. Entre los posibles casos de uso de Worldcoin, la protección de los datos biológicos personales también es un requisito importante;

En general, cuando la IA es similar a un tomador de decisiones, y su resultado tiene un amplio alcance de influencia e implica la equidad de muchas partes, entonces la gente exigirá una revisión del proceso de toma de decisiones, o simplemente asegurarse de que no haya problemas importantes con el proceso de toma de decisiones de la IA, y proteger la privacidad personal es un requisito muy inmediato.

Por lo tanto, "si la salida de la IA modifica el estado on-chain" y "si afecta a la equidad/privacidad" son dos criterios para juzgar si se necesita una solución de IA verificable

  1. Cuando la salida de AI no modifica el estado en cadena, el servicio de AI puede actuar como un recomendador. Las personas pueden juzgar la calidad del servicio de AI a través del efecto de recomendación sin verificar el proceso de cálculo;
  2. Cuando la salida de IA modifica el estado en cadena, si los objetivos del servicio son solo individuos y no afectan la privacidad, entonces los usuarios aún pueden juzgar directamente la calidad del servicio de IA sin verificar el proceso de cálculo;
  3. Cuando la salida de la IA afecta directamente a la equidad entre muchas personas, y la IA modifica automáticamente los datos en cadena, la comunidad y el público necesitan probar el proceso de toma de decisiones de la IA;
  4. Cuando los datos procesados por ML involucran privacidad personal, también se necesita zk para proteger la privacidad y así cumplir con los requisitos regulatorios.

Crédito de la foto: Kernel Ventures

2. Dos modelos de ecosistema de IA basados en dos cadenas públicas

En cualquier caso, la solución de Modulus Labs es muy instructiva sobre cómo la IA puede combinar la criptografía y aportar valor práctico a la aplicación. Sin embargo, el sistema de cadena pública no solo mejora las capacidades de los servicios de IA individuales, sino que también tiene el potencial de construir un nuevo ecosistema de aplicaciones de IA. Este nuevo ecosistema ha provocado una relación diferente entre los servicios de IA y Web2, la relación entre los servicios de IA y los usuarios, e incluso la forma en que colaboran los enlaces aguas arriba y aguas abajo. Podemos resumir los posibles modelos de ecosistema de aplicaciones de IA en dos tipos: modo vertical y modelo horizontal.

Modo vertical 2.1: Enfoque en lograr la composabilidad entre AIs

El caso de uso de ajedrez en cadena “Leela vs. the World” tiene un lugar especial. Las personas pueden realizar apuestas en humanos o en IA, y los tokens se distribuyen automáticamente después de que termina el juego. En este punto, el significado de zkp no es solo para que los usuarios verifiquen los cálculos de IA, sino también como una garantía de confianza para activar transiciones de estado en cadena. Con la garantía de confianza, también puede haber composabilidad a nivel de dapp entre servicios de IA y entre IA y dapps nativas de cripto.

Fuente de la imagen: Kernel Ventures, con referencia de Modulus Labs

La unidad básica de AI combinable es [modelo ML fuera de la cadena - generación zkp - contrato de verificación en la cadena - contrato principal]. Esta unidad se basa en el marco “Leela vs. the World”, pero la arquitectura real de una única aplicación de AI puede no ser la misma que se muestra en la imagen anterior. En primer lugar, la situación del juego de ajedrez en el ajedrez requiere un contrato, pero en la realidad, AI puede no necesitar un contrato en la cadena. Sin embargo, en lo que respecta a la arquitectura de AI combinable, si el negocio principal se registra a través de contratos, puede ser más conveniente para que otras aplicaciones lo combinen. En segundo lugar, el contrato principal no necesariamente necesita afectar el modelo ML de la propia aplicación de AI, porque una aplicación de AI puede tener un efecto unidireccional. Después de que el modelo ML se procesa, es suficiente para activar un contrato relacionado con su propio negocio, y el contrato será llamado por otras aplicaciones.

Ampliamente, las llamadas entre contratos son llamadas entre diferentes aplicaciones web3. Son llamadas para identidad personal, activos, servicios financieros e incluso información social. Podemos imaginar una combinación específica de aplicaciones de IA:

  1. Worldcoin utiliza ML para generar códigos de iris y zkp para datos personales de iris;
  2. La aplicación de IA de puntuación de reputación primero verifica si la persona detrás de este DID es una persona real (con datos de iris en la parte trasera), luego asigna NFT a los usuarios en función de la reputación en cadena;
  3. El servicio de préstamo ajusta la participación del préstamo de acuerdo con el NFT propiedad del usuario;

La interacción entre la inteligencia artificial en el marco de la cadena pública no es algo que no se haya discutido. Loaf, un colaborador del ecosistema de Realms de juegos de cadena completa, propuso una vez que los NPC de IA pueden comerciar entre sí como jugadores, de modo que todo el sistema económico pueda optimizarse y operar automáticamente. AI Arena ha desarrollado un juego de batalla automatizado de IA. Los usuarios primero compran un NFT. Un NFT representa un robot de batalla, y detrás de él hay un modelo de IA. Los usuarios primero juegan a juegos por su cuenta, luego entregan los datos a la IA para el aprendizaje simulado. Cuando los usuarios sienten que la IA es lo suficientemente fuerte, pueden jugar automáticamente contra otras IA en la arena. Modulus Labs mencionó que AI Arena quiere convertir toda esta IA en IA verificable. Ambos casos vieron la posibilidad de que la IA interactúe entre sí y modifique directamente los datos en la cadena.

Sin embargo, todavía hay muchos problemas por discutir en la implementación específica de la IA combinable, como por ejemplo cómo diferentes dapps pueden utilizar los zkps de otros o verificar contratos. Sin embargo, también hay muchos proyectos excelentes en el campo de zk. Por ejemplo, RISC Zero ha avanzado mucho en la realización de cálculos complejos fuera de la cadena y liberando zkps en la cadena. Quizás algún día sea posible unir una solución adecuada.

2.2 Modelo horizontal: plataformas de servicios de IA que se centran en la descentralización

En este sentido, principalmente presentamos una plataforma de IA descentralizada llamada SAKSHI, que fue propuesta conjuntamente por personas de Princeton, la Universidad Tsinghua, la Universidad de Illinois en Urbana-Champaign, la Universidad de Ciencia y Tecnología de Hong Kong, Witness Chain y Eigen Layer. Su objetivo principal es permitir a los usuarios acceder a servicios de IA de manera más descentralizada, haciendo que todo el proceso sea más confiable y automatizado.

Crédito de la foto: SAKSHI

La estructura de SAKSHI se puede dividir en seis capas: capa de servicio (capa de servicio), capa de control (capa de control), capa de transacción (capa de transacción), capa de prueba (capa de prueba), capa económica (capa económica) y capa de mercado (Marketplace)

El mercado es el nivel más cercano al usuario. Hay agregadores en el mercado que proporcionan servicios a los usuarios en nombre de diferentes proveedores de IA. Los usuarios realizan pedidos a través de los agregadores y llegan a acuerdos con los agregadores sobre la calidad del servicio y los precios de pago (los acuerdos se llaman SLA-acuerdos de nivel de servicio).

A continuación, la capa de servicio proporciona una API para el lado del cliente, luego el cliente realiza una solicitud de inferencia de ML al agregador, y la solicitud se envía a un servidor utilizado para emparejar al proveedor de servicios de IA (la ruta utilizada para transmitir la solicitud forma parte de la capa de control). Por lo tanto, la capa de servicio y la capa de control son similares a un servicio con varios servidores web2, pero los servidores diferentes son operados por entidades diferentes, y cada servidor está enlazado a través de un SLA (acuerdo de servicio previamente firmado) y un agregador.

Los SLA se despliegan en la cadena en forma de contratos inteligentes, todos los cuales pertenecen a la capa de transacción (nota: en esta solución, se despliegan en la Cadena de Testigos). La capa de transacción también registra el estado actual de un pedido de servicio y se utiliza para coordinar a los usuarios, agregadores y proveedores de servicios para manejar disputas de pago.

Para que la capa de transacción tenga evidencia en la que basarse al manejar disputas, la capa de prueba (Capa de Prueba) verificará si el proveedor de servicios utiliza el modelo acordado en el SLA. Sin embargo, SAKSHI no optó por generar zkp para el proceso de cálculo de ML, sino que en su lugar utilizó la idea de prueba optimista, con la esperanza de establecer una red de nodos desafiantes para probar el servicio. Los incentivos de los nodos son soportados por Witness Chain.

Aunque SLA y la red de nodos desafiantes se encuentran en Witness Chain, en el plan de SAKSHI, Witness Chain no tiene previsto utilizar sus incentivos de token nativo para lograr una seguridad independiente, sino que utiliza la seguridad de Ethereum a través de Eigen Layer, por lo que toda la economía depende en realidad de Eigen Layer.

Como se puede ver, SAKSHI se encuentra entre los proveedores de servicios de IA y los usuarios, y organiza diferentes IAs de manera descentralizada para brindar servicios a los usuarios. Esto se asemeja más a una solución horizontal. El núcleo de SAKSHI es que permite a los proveedores de servicios de IA centrarse más en la gestión de sus propios cálculos de modelos fuera de la cadena, en la coincidencia de las necesidades de los usuarios con los servicios de modelos, en el pago de servicios y en la verificación de la calidad del servicio a través de acuerdos en la cadena, y en tratar de resolver automáticamente disputas de pago. Por supuesto, en la actualidad SAKSHI todavía se encuentra en la etapa teórica, y también hay muchos detalles de implementación que vale la pena determinar.

3. Futuras perspectivas

Ya sea AI combinable o plataformas de AI descentralizadas, el modelo de ecosistema de AI basado en la cadena pública parece tener algo en común. Por ejemplo, los proveedores de servicios de AI no se conectan directamente con los usuarios; solo necesitan proporcionar modelos de ML y realizar cálculos fuera de la cadena. Los pagos, la resolución de disputas y la coordinación entre las necesidades de los usuarios y los servicios pueden resolverse mediante acuerdos descentralizados. Como una infraestructura sin confianza, la cadena pública reduce la fricción entre los proveedores de servicios y los usuarios, y los usuarios también tienen una mayor autonomía en este momento.

Aunque los beneficios de utilizar la cadena pública como base de aplicación son clichés, es cierto que también se aplica a los servicios de IA. Sin embargo, la diferencia entre las aplicaciones de IA y las aplicaciones dapp existentes es que las aplicaciones de IA no pueden colocar todas las computaciones en la cadena, por lo que es necesario utilizar pruebas zk u optimistas para conectar los servicios de IA al sistema de cadena pública de una manera más confiable.

Con la implementación de una serie de soluciones de optimización de la experiencia como la abstracción de cuentas, los usuarios pueden no ser capaces de percibir la existencia de mnemónicos, cadenas y gas. Esto acerca el ecosistema de la cadena pública más a web2 en términos de experiencia, mientras que los usuarios pueden obtener un mayor grado de libertad y composabilidad que los servicios web2. Esto será muy atractivo para los usuarios. El ecosistema de aplicaciones de IA basado en la cadena pública merece ser esperado con ansias.


Kernel Ventures es un fondo de capital de riesgo criptográfico impulsado por una comunidad de investigación y desarrollo con más de 70 inversiones en etapas iniciales centradas en infraestructura, middleware, dApps, especialmente ZK, Rollup, DEX, blockchains modulares y verticales que albergarán a los próximos mil millones de usuarios de cripto, como abstracción de cuentas, disponibilidad de datos, escalabilidad, etc. En los últimos siete años, nos hemos comprometido a apoyar el desarrollo de comunidades de desarrollo centrales y asociaciones universitarias de blockchain en todo el mundo.

Descargo de responsabilidad:

  1. Este artículo es reimpreso de[espejo]. Todos los derechos de autor pertenecen al autor original [Kernel Ventures Jerry Luo]. Si hay objeciones a esta reimpresión, por favor contacte al equipo de Gate Learn(gatelearn@gate.io) y ellos lo resolverán rápidamente.
  2. Descargo de responsabilidad: Las opiniones expresadas en este artículo son únicamente del autor y no constituyen asesoramiento de inversión.
  3. Las traducciones del artículo a otros idiomas son realizadas por el equipo de Gate Learn. A menos que se mencione, está prohibido copiar, distribuir o plagiar los artículos traducidos.
Розпочати зараз
Зареєструйтеся та отримайте ваучер на
$100
!