Si se necesita IA verificable depende de: si los datos en cadena se modifican, y si la equidad y la privacidad están involucradas
Ecosistema de aplicaciones de IA vertical: Dado que un extremo de la IA verificable es un contrato inteligente, las aplicaciones de IA verificables e incluso las dapps de IA y nativas pueden ser capaces de utilizarse entre sí sin confianza. Este es un ecosistema potencial de aplicaciones de IA componibles
Modulus Labs es una empresa de IA 'on-chain' que cree que la IA puede mejorar significativamente las capacidades de los contratos inteligentes y hacer que las aplicaciones web3 sean más poderosas. Sin embargo, existe una contradicción cuando se aplica la IA a web3, es decir, la IA requiere una gran cantidad de potencia de cálculo para funcionar, y la IA es una caja negra para el cálculo fuera de la cadena. Esto no cumple con los requisitos básicos de web3 de ser sin confianza y verificable.
Por lo tanto, Modulus Labs se basó en el esquema zk rollup [preprocesamiento fuera de la cadena+verificación en cadena] y propuso una arquitectura que puede verificar la IA. Específicamente, el modelo de ML se ejecuta fuera de la cadena, y además, se genera un zkp para el proceso de cálculo de ML fuera de la cadena. A través de este zkp, se pueden verificar la arquitectura, los pesos y las entradas (inputs) del modelo fuera de la cadena. Por supuesto, este zkp también se puede publicar en la cadena para su verificación por contratos inteligentes. En este punto, la IA y los contratos en cadena pueden interactuar de manera más confiable, es decir, se ha realizado la “IA en cadena”.
Basándose en la idea de IA verificable, Modulus Labs ha lanzado hasta ahora tres aplicaciones de “IA en cadena”, y también ha propuesto muchos posibles escenarios de aplicación.
Además, Modulus Labs mencionó algunos otros casos de uso:
Crédito de la foto: Modulus Labs
En el escenario del bot Rocky, es posible que los usuarios no tengan que verificar el proceso de cálculo de ML. En primer lugar, los usuarios no tienen experiencia ni capacidad para realizar una verificación real. Incluso si hubiera una herramienta de verificación, en opinión del usuario, "presiono un botón, la interfaz me indica que este servicio de IA fue generado realmente por un cierto modelo", y la autenticidad no puede ser determinada. En segundo lugar, los usuarios no necesitan verificar, porque les importa si el rendimiento de la IA es alto. Los usuarios migran cuando la rentabilidad es baja, y siempre eligen el modelo que funciona mejor. En resumen, cuando el resultado final de la IA es lo que el usuario busca, es posible que el proceso de verificación no sea significativo porque el usuario solo necesita migrar al servicio que funciona mejor.
Una posible solución es que la IA actúe solo como asesora, y el usuario ejecute la transacción de forma independiente. Cuando las personas ingresan sus objetivos comerciales en la IA, la IA calcula y devuelve un mejor camino de transacción / dirección comercial fuera de la cadena, y el usuario decide si ejecutarlo. Las personas tampoco necesitan verificar el modelo detrás de él; solo necesitan elegir el producto con el mayor rendimiento.
Otra situación peligrosa pero altamente probable es que a las personas no les importa en absoluto su control sobre los activos o el proceso de cálculo de la IA. Cuando aparece un robot que gana dinero automáticamente, las personas incluso están dispuestas a alojar dinero directamente en él, al igual que poner tokens en Gate o bancos tradicionales para su gestión financiera. Debido a que a las personas no les importan los principios detrás de ello; solo les importa cuánto dinero obtienen al final, o incluso cuánto dinero les muestra el partido del proyecto para ganar, este tipo de servicio puede adquirir rápidamente un gran número de usuarios, e incluso iterar más rápido que los productos del lado del proyecto que utilizan IA verificable.
Dando un paso atrás, si la IA no participa en cambios de estado en cadena en absoluto, sino que simplemente recopila datos en cadena y los preprocesa para los usuarios, entonces no hay necesidad de generar ZKP para el proceso de cálculo. Aquí hay algunos ejemplos de este tipo de aplicación como un "servicio de datos":
Este artículo argumenta que los escenarios que involucran a múltiples personas, que implican equidad y privacidad, requieren ZKP para proporcionar verificación, y aquí se discuten varias de las aplicaciones mencionadas por Modulus Labs:
En general, cuando la IA es similar a un tomador de decisiones, y su resultado tiene un amplio alcance de influencia e implica la equidad de muchas partes, entonces la gente exigirá una revisión del proceso de toma de decisiones, o simplemente asegurarse de que no haya problemas importantes con el proceso de toma de decisiones de la IA, y proteger la privacidad personal es un requisito muy inmediato.
Por lo tanto, "si la salida de la IA modifica el estado on-chain" y "si afecta a la equidad/privacidad" son dos criterios para juzgar si se necesita una solución de IA verificable
Crédito de la foto: Kernel Ventures
En cualquier caso, la solución de Modulus Labs es muy instructiva sobre cómo la IA puede combinar la criptografía y aportar valor práctico a la aplicación. Sin embargo, el sistema de cadena pública no solo mejora las capacidades de los servicios de IA individuales, sino que también tiene el potencial de construir un nuevo ecosistema de aplicaciones de IA. Este nuevo ecosistema ha provocado una relación diferente entre los servicios de IA y Web2, la relación entre los servicios de IA y los usuarios, e incluso la forma en que colaboran los enlaces aguas arriba y aguas abajo. Podemos resumir los posibles modelos de ecosistema de aplicaciones de IA en dos tipos: modo vertical y modelo horizontal.
El caso de uso de ajedrez en cadena “Leela vs. the World” tiene un lugar especial. Las personas pueden realizar apuestas en humanos o en IA, y los tokens se distribuyen automáticamente después de que termina el juego. En este punto, el significado de zkp no es solo para que los usuarios verifiquen los cálculos de IA, sino también como una garantía de confianza para activar transiciones de estado en cadena. Con la garantía de confianza, también puede haber composabilidad a nivel de dapp entre servicios de IA y entre IA y dapps nativas de cripto.
Fuente de la imagen: Kernel Ventures, con referencia de Modulus Labs
La unidad básica de AI combinable es [modelo ML fuera de la cadena - generación zkp - contrato de verificación en la cadena - contrato principal]. Esta unidad se basa en el marco “Leela vs. the World”, pero la arquitectura real de una única aplicación de AI puede no ser la misma que se muestra en la imagen anterior. En primer lugar, la situación del juego de ajedrez en el ajedrez requiere un contrato, pero en la realidad, AI puede no necesitar un contrato en la cadena. Sin embargo, en lo que respecta a la arquitectura de AI combinable, si el negocio principal se registra a través de contratos, puede ser más conveniente para que otras aplicaciones lo combinen. En segundo lugar, el contrato principal no necesariamente necesita afectar el modelo ML de la propia aplicación de AI, porque una aplicación de AI puede tener un efecto unidireccional. Después de que el modelo ML se procesa, es suficiente para activar un contrato relacionado con su propio negocio, y el contrato será llamado por otras aplicaciones.
Ampliamente, las llamadas entre contratos son llamadas entre diferentes aplicaciones web3. Son llamadas para identidad personal, activos, servicios financieros e incluso información social. Podemos imaginar una combinación específica de aplicaciones de IA:
La interacción entre la inteligencia artificial en el marco de la cadena pública no es algo que no se haya discutido. Loaf, un colaborador del ecosistema de Realms de juegos de cadena completa, propuso una vez que los NPC de IA pueden comerciar entre sí como jugadores, de modo que todo el sistema económico pueda optimizarse y operar automáticamente. AI Arena ha desarrollado un juego de batalla automatizado de IA. Los usuarios primero compran un NFT. Un NFT representa un robot de batalla, y detrás de él hay un modelo de IA. Los usuarios primero juegan a juegos por su cuenta, luego entregan los datos a la IA para el aprendizaje simulado. Cuando los usuarios sienten que la IA es lo suficientemente fuerte, pueden jugar automáticamente contra otras IA en la arena. Modulus Labs mencionó que AI Arena quiere convertir toda esta IA en IA verificable. Ambos casos vieron la posibilidad de que la IA interactúe entre sí y modifique directamente los datos en la cadena.
Sin embargo, todavía hay muchos problemas por discutir en la implementación específica de la IA combinable, como por ejemplo cómo diferentes dapps pueden utilizar los zkps de otros o verificar contratos. Sin embargo, también hay muchos proyectos excelentes en el campo de zk. Por ejemplo, RISC Zero ha avanzado mucho en la realización de cálculos complejos fuera de la cadena y liberando zkps en la cadena. Quizás algún día sea posible unir una solución adecuada.
2.2 Modelo horizontal: plataformas de servicios de IA que se centran en la descentralización
En este sentido, principalmente presentamos una plataforma de IA descentralizada llamada SAKSHI, que fue propuesta conjuntamente por personas de Princeton, la Universidad Tsinghua, la Universidad de Illinois en Urbana-Champaign, la Universidad de Ciencia y Tecnología de Hong Kong, Witness Chain y Eigen Layer. Su objetivo principal es permitir a los usuarios acceder a servicios de IA de manera más descentralizada, haciendo que todo el proceso sea más confiable y automatizado.
Crédito de la foto: SAKSHI
La estructura de SAKSHI se puede dividir en seis capas: capa de servicio (capa de servicio), capa de control (capa de control), capa de transacción (capa de transacción), capa de prueba (capa de prueba), capa económica (capa económica) y capa de mercado (Marketplace)
El mercado es el nivel más cercano al usuario. Hay agregadores en el mercado que proporcionan servicios a los usuarios en nombre de diferentes proveedores de IA. Los usuarios realizan pedidos a través de los agregadores y llegan a acuerdos con los agregadores sobre la calidad del servicio y los precios de pago (los acuerdos se llaman SLA-acuerdos de nivel de servicio).
A continuación, la capa de servicio proporciona una API para el lado del cliente, luego el cliente realiza una solicitud de inferencia de ML al agregador, y la solicitud se envía a un servidor utilizado para emparejar al proveedor de servicios de IA (la ruta utilizada para transmitir la solicitud forma parte de la capa de control). Por lo tanto, la capa de servicio y la capa de control son similares a un servicio con varios servidores web2, pero los servidores diferentes son operados por entidades diferentes, y cada servidor está enlazado a través de un SLA (acuerdo de servicio previamente firmado) y un agregador.
Los SLA se despliegan en la cadena en forma de contratos inteligentes, todos los cuales pertenecen a la capa de transacción (nota: en esta solución, se despliegan en la Cadena de Testigos). La capa de transacción también registra el estado actual de un pedido de servicio y se utiliza para coordinar a los usuarios, agregadores y proveedores de servicios para manejar disputas de pago.
Para que la capa de transacción tenga evidencia en la que basarse al manejar disputas, la capa de prueba (Capa de Prueba) verificará si el proveedor de servicios utiliza el modelo acordado en el SLA. Sin embargo, SAKSHI no optó por generar zkp para el proceso de cálculo de ML, sino que en su lugar utilizó la idea de prueba optimista, con la esperanza de establecer una red de nodos desafiantes para probar el servicio. Los incentivos de los nodos son soportados por Witness Chain.
Aunque SLA y la red de nodos desafiantes se encuentran en Witness Chain, en el plan de SAKSHI, Witness Chain no tiene previsto utilizar sus incentivos de token nativo para lograr una seguridad independiente, sino que utiliza la seguridad de Ethereum a través de Eigen Layer, por lo que toda la economía depende en realidad de Eigen Layer.
Como se puede ver, SAKSHI se encuentra entre los proveedores de servicios de IA y los usuarios, y organiza diferentes IAs de manera descentralizada para brindar servicios a los usuarios. Esto se asemeja más a una solución horizontal. El núcleo de SAKSHI es que permite a los proveedores de servicios de IA centrarse más en la gestión de sus propios cálculos de modelos fuera de la cadena, en la coincidencia de las necesidades de los usuarios con los servicios de modelos, en el pago de servicios y en la verificación de la calidad del servicio a través de acuerdos en la cadena, y en tratar de resolver automáticamente disputas de pago. Por supuesto, en la actualidad SAKSHI todavía se encuentra en la etapa teórica, y también hay muchos detalles de implementación que vale la pena determinar.
Ya sea AI combinable o plataformas de AI descentralizadas, el modelo de ecosistema de AI basado en la cadena pública parece tener algo en común. Por ejemplo, los proveedores de servicios de AI no se conectan directamente con los usuarios; solo necesitan proporcionar modelos de ML y realizar cálculos fuera de la cadena. Los pagos, la resolución de disputas y la coordinación entre las necesidades de los usuarios y los servicios pueden resolverse mediante acuerdos descentralizados. Como una infraestructura sin confianza, la cadena pública reduce la fricción entre los proveedores de servicios y los usuarios, y los usuarios también tienen una mayor autonomía en este momento.
Aunque los beneficios de utilizar la cadena pública como base de aplicación son clichés, es cierto que también se aplica a los servicios de IA. Sin embargo, la diferencia entre las aplicaciones de IA y las aplicaciones dapp existentes es que las aplicaciones de IA no pueden colocar todas las computaciones en la cadena, por lo que es necesario utilizar pruebas zk u optimistas para conectar los servicios de IA al sistema de cadena pública de una manera más confiable.
Con la implementación de una serie de soluciones de optimización de la experiencia como la abstracción de cuentas, los usuarios pueden no ser capaces de percibir la existencia de mnemónicos, cadenas y gas. Esto acerca el ecosistema de la cadena pública más a web2 en términos de experiencia, mientras que los usuarios pueden obtener un mayor grado de libertad y composabilidad que los servicios web2. Esto será muy atractivo para los usuarios. El ecosistema de aplicaciones de IA basado en la cadena pública merece ser esperado con ansias.
Kernel Ventures es un fondo de capital de riesgo criptográfico impulsado por una comunidad de investigación y desarrollo con más de 70 inversiones en etapas iniciales centradas en infraestructura, middleware, dApps, especialmente ZK, Rollup, DEX, blockchains modulares y verticales que albergarán a los próximos mil millones de usuarios de cripto, como abstracción de cuentas, disponibilidad de datos, escalabilidad, etc. En los últimos siete años, nos hemos comprometido a apoyar el desarrollo de comunidades de desarrollo centrales y asociaciones universitarias de blockchain en todo el mundo.
Descargo de responsabilidad:
Si se necesita IA verificable depende de: si los datos en cadena se modifican, y si la equidad y la privacidad están involucradas
Ecosistema de aplicaciones de IA vertical: Dado que un extremo de la IA verificable es un contrato inteligente, las aplicaciones de IA verificables e incluso las dapps de IA y nativas pueden ser capaces de utilizarse entre sí sin confianza. Este es un ecosistema potencial de aplicaciones de IA componibles
Modulus Labs es una empresa de IA 'on-chain' que cree que la IA puede mejorar significativamente las capacidades de los contratos inteligentes y hacer que las aplicaciones web3 sean más poderosas. Sin embargo, existe una contradicción cuando se aplica la IA a web3, es decir, la IA requiere una gran cantidad de potencia de cálculo para funcionar, y la IA es una caja negra para el cálculo fuera de la cadena. Esto no cumple con los requisitos básicos de web3 de ser sin confianza y verificable.
Por lo tanto, Modulus Labs se basó en el esquema zk rollup [preprocesamiento fuera de la cadena+verificación en cadena] y propuso una arquitectura que puede verificar la IA. Específicamente, el modelo de ML se ejecuta fuera de la cadena, y además, se genera un zkp para el proceso de cálculo de ML fuera de la cadena. A través de este zkp, se pueden verificar la arquitectura, los pesos y las entradas (inputs) del modelo fuera de la cadena. Por supuesto, este zkp también se puede publicar en la cadena para su verificación por contratos inteligentes. En este punto, la IA y los contratos en cadena pueden interactuar de manera más confiable, es decir, se ha realizado la “IA en cadena”.
Basándose en la idea de IA verificable, Modulus Labs ha lanzado hasta ahora tres aplicaciones de “IA en cadena”, y también ha propuesto muchos posibles escenarios de aplicación.
Además, Modulus Labs mencionó algunos otros casos de uso:
Crédito de la foto: Modulus Labs
En el escenario del bot Rocky, es posible que los usuarios no tengan que verificar el proceso de cálculo de ML. En primer lugar, los usuarios no tienen experiencia ni capacidad para realizar una verificación real. Incluso si hubiera una herramienta de verificación, en opinión del usuario, "presiono un botón, la interfaz me indica que este servicio de IA fue generado realmente por un cierto modelo", y la autenticidad no puede ser determinada. En segundo lugar, los usuarios no necesitan verificar, porque les importa si el rendimiento de la IA es alto. Los usuarios migran cuando la rentabilidad es baja, y siempre eligen el modelo que funciona mejor. En resumen, cuando el resultado final de la IA es lo que el usuario busca, es posible que el proceso de verificación no sea significativo porque el usuario solo necesita migrar al servicio que funciona mejor.
Una posible solución es que la IA actúe solo como asesora, y el usuario ejecute la transacción de forma independiente. Cuando las personas ingresan sus objetivos comerciales en la IA, la IA calcula y devuelve un mejor camino de transacción / dirección comercial fuera de la cadena, y el usuario decide si ejecutarlo. Las personas tampoco necesitan verificar el modelo detrás de él; solo necesitan elegir el producto con el mayor rendimiento.
Otra situación peligrosa pero altamente probable es que a las personas no les importa en absoluto su control sobre los activos o el proceso de cálculo de la IA. Cuando aparece un robot que gana dinero automáticamente, las personas incluso están dispuestas a alojar dinero directamente en él, al igual que poner tokens en Gate o bancos tradicionales para su gestión financiera. Debido a que a las personas no les importan los principios detrás de ello; solo les importa cuánto dinero obtienen al final, o incluso cuánto dinero les muestra el partido del proyecto para ganar, este tipo de servicio puede adquirir rápidamente un gran número de usuarios, e incluso iterar más rápido que los productos del lado del proyecto que utilizan IA verificable.
Dando un paso atrás, si la IA no participa en cambios de estado en cadena en absoluto, sino que simplemente recopila datos en cadena y los preprocesa para los usuarios, entonces no hay necesidad de generar ZKP para el proceso de cálculo. Aquí hay algunos ejemplos de este tipo de aplicación como un "servicio de datos":
Este artículo argumenta que los escenarios que involucran a múltiples personas, que implican equidad y privacidad, requieren ZKP para proporcionar verificación, y aquí se discuten varias de las aplicaciones mencionadas por Modulus Labs:
En general, cuando la IA es similar a un tomador de decisiones, y su resultado tiene un amplio alcance de influencia e implica la equidad de muchas partes, entonces la gente exigirá una revisión del proceso de toma de decisiones, o simplemente asegurarse de que no haya problemas importantes con el proceso de toma de decisiones de la IA, y proteger la privacidad personal es un requisito muy inmediato.
Por lo tanto, "si la salida de la IA modifica el estado on-chain" y "si afecta a la equidad/privacidad" son dos criterios para juzgar si se necesita una solución de IA verificable
Crédito de la foto: Kernel Ventures
En cualquier caso, la solución de Modulus Labs es muy instructiva sobre cómo la IA puede combinar la criptografía y aportar valor práctico a la aplicación. Sin embargo, el sistema de cadena pública no solo mejora las capacidades de los servicios de IA individuales, sino que también tiene el potencial de construir un nuevo ecosistema de aplicaciones de IA. Este nuevo ecosistema ha provocado una relación diferente entre los servicios de IA y Web2, la relación entre los servicios de IA y los usuarios, e incluso la forma en que colaboran los enlaces aguas arriba y aguas abajo. Podemos resumir los posibles modelos de ecosistema de aplicaciones de IA en dos tipos: modo vertical y modelo horizontal.
El caso de uso de ajedrez en cadena “Leela vs. the World” tiene un lugar especial. Las personas pueden realizar apuestas en humanos o en IA, y los tokens se distribuyen automáticamente después de que termina el juego. En este punto, el significado de zkp no es solo para que los usuarios verifiquen los cálculos de IA, sino también como una garantía de confianza para activar transiciones de estado en cadena. Con la garantía de confianza, también puede haber composabilidad a nivel de dapp entre servicios de IA y entre IA y dapps nativas de cripto.
Fuente de la imagen: Kernel Ventures, con referencia de Modulus Labs
La unidad básica de AI combinable es [modelo ML fuera de la cadena - generación zkp - contrato de verificación en la cadena - contrato principal]. Esta unidad se basa en el marco “Leela vs. the World”, pero la arquitectura real de una única aplicación de AI puede no ser la misma que se muestra en la imagen anterior. En primer lugar, la situación del juego de ajedrez en el ajedrez requiere un contrato, pero en la realidad, AI puede no necesitar un contrato en la cadena. Sin embargo, en lo que respecta a la arquitectura de AI combinable, si el negocio principal se registra a través de contratos, puede ser más conveniente para que otras aplicaciones lo combinen. En segundo lugar, el contrato principal no necesariamente necesita afectar el modelo ML de la propia aplicación de AI, porque una aplicación de AI puede tener un efecto unidireccional. Después de que el modelo ML se procesa, es suficiente para activar un contrato relacionado con su propio negocio, y el contrato será llamado por otras aplicaciones.
Ampliamente, las llamadas entre contratos son llamadas entre diferentes aplicaciones web3. Son llamadas para identidad personal, activos, servicios financieros e incluso información social. Podemos imaginar una combinación específica de aplicaciones de IA:
La interacción entre la inteligencia artificial en el marco de la cadena pública no es algo que no se haya discutido. Loaf, un colaborador del ecosistema de Realms de juegos de cadena completa, propuso una vez que los NPC de IA pueden comerciar entre sí como jugadores, de modo que todo el sistema económico pueda optimizarse y operar automáticamente. AI Arena ha desarrollado un juego de batalla automatizado de IA. Los usuarios primero compran un NFT. Un NFT representa un robot de batalla, y detrás de él hay un modelo de IA. Los usuarios primero juegan a juegos por su cuenta, luego entregan los datos a la IA para el aprendizaje simulado. Cuando los usuarios sienten que la IA es lo suficientemente fuerte, pueden jugar automáticamente contra otras IA en la arena. Modulus Labs mencionó que AI Arena quiere convertir toda esta IA en IA verificable. Ambos casos vieron la posibilidad de que la IA interactúe entre sí y modifique directamente los datos en la cadena.
Sin embargo, todavía hay muchos problemas por discutir en la implementación específica de la IA combinable, como por ejemplo cómo diferentes dapps pueden utilizar los zkps de otros o verificar contratos. Sin embargo, también hay muchos proyectos excelentes en el campo de zk. Por ejemplo, RISC Zero ha avanzado mucho en la realización de cálculos complejos fuera de la cadena y liberando zkps en la cadena. Quizás algún día sea posible unir una solución adecuada.
2.2 Modelo horizontal: plataformas de servicios de IA que se centran en la descentralización
En este sentido, principalmente presentamos una plataforma de IA descentralizada llamada SAKSHI, que fue propuesta conjuntamente por personas de Princeton, la Universidad Tsinghua, la Universidad de Illinois en Urbana-Champaign, la Universidad de Ciencia y Tecnología de Hong Kong, Witness Chain y Eigen Layer. Su objetivo principal es permitir a los usuarios acceder a servicios de IA de manera más descentralizada, haciendo que todo el proceso sea más confiable y automatizado.
Crédito de la foto: SAKSHI
La estructura de SAKSHI se puede dividir en seis capas: capa de servicio (capa de servicio), capa de control (capa de control), capa de transacción (capa de transacción), capa de prueba (capa de prueba), capa económica (capa económica) y capa de mercado (Marketplace)
El mercado es el nivel más cercano al usuario. Hay agregadores en el mercado que proporcionan servicios a los usuarios en nombre de diferentes proveedores de IA. Los usuarios realizan pedidos a través de los agregadores y llegan a acuerdos con los agregadores sobre la calidad del servicio y los precios de pago (los acuerdos se llaman SLA-acuerdos de nivel de servicio).
A continuación, la capa de servicio proporciona una API para el lado del cliente, luego el cliente realiza una solicitud de inferencia de ML al agregador, y la solicitud se envía a un servidor utilizado para emparejar al proveedor de servicios de IA (la ruta utilizada para transmitir la solicitud forma parte de la capa de control). Por lo tanto, la capa de servicio y la capa de control son similares a un servicio con varios servidores web2, pero los servidores diferentes son operados por entidades diferentes, y cada servidor está enlazado a través de un SLA (acuerdo de servicio previamente firmado) y un agregador.
Los SLA se despliegan en la cadena en forma de contratos inteligentes, todos los cuales pertenecen a la capa de transacción (nota: en esta solución, se despliegan en la Cadena de Testigos). La capa de transacción también registra el estado actual de un pedido de servicio y se utiliza para coordinar a los usuarios, agregadores y proveedores de servicios para manejar disputas de pago.
Para que la capa de transacción tenga evidencia en la que basarse al manejar disputas, la capa de prueba (Capa de Prueba) verificará si el proveedor de servicios utiliza el modelo acordado en el SLA. Sin embargo, SAKSHI no optó por generar zkp para el proceso de cálculo de ML, sino que en su lugar utilizó la idea de prueba optimista, con la esperanza de establecer una red de nodos desafiantes para probar el servicio. Los incentivos de los nodos son soportados por Witness Chain.
Aunque SLA y la red de nodos desafiantes se encuentran en Witness Chain, en el plan de SAKSHI, Witness Chain no tiene previsto utilizar sus incentivos de token nativo para lograr una seguridad independiente, sino que utiliza la seguridad de Ethereum a través de Eigen Layer, por lo que toda la economía depende en realidad de Eigen Layer.
Como se puede ver, SAKSHI se encuentra entre los proveedores de servicios de IA y los usuarios, y organiza diferentes IAs de manera descentralizada para brindar servicios a los usuarios. Esto se asemeja más a una solución horizontal. El núcleo de SAKSHI es que permite a los proveedores de servicios de IA centrarse más en la gestión de sus propios cálculos de modelos fuera de la cadena, en la coincidencia de las necesidades de los usuarios con los servicios de modelos, en el pago de servicios y en la verificación de la calidad del servicio a través de acuerdos en la cadena, y en tratar de resolver automáticamente disputas de pago. Por supuesto, en la actualidad SAKSHI todavía se encuentra en la etapa teórica, y también hay muchos detalles de implementación que vale la pena determinar.
Ya sea AI combinable o plataformas de AI descentralizadas, el modelo de ecosistema de AI basado en la cadena pública parece tener algo en común. Por ejemplo, los proveedores de servicios de AI no se conectan directamente con los usuarios; solo necesitan proporcionar modelos de ML y realizar cálculos fuera de la cadena. Los pagos, la resolución de disputas y la coordinación entre las necesidades de los usuarios y los servicios pueden resolverse mediante acuerdos descentralizados. Como una infraestructura sin confianza, la cadena pública reduce la fricción entre los proveedores de servicios y los usuarios, y los usuarios también tienen una mayor autonomía en este momento.
Aunque los beneficios de utilizar la cadena pública como base de aplicación son clichés, es cierto que también se aplica a los servicios de IA. Sin embargo, la diferencia entre las aplicaciones de IA y las aplicaciones dapp existentes es que las aplicaciones de IA no pueden colocar todas las computaciones en la cadena, por lo que es necesario utilizar pruebas zk u optimistas para conectar los servicios de IA al sistema de cadena pública de una manera más confiable.
Con la implementación de una serie de soluciones de optimización de la experiencia como la abstracción de cuentas, los usuarios pueden no ser capaces de percibir la existencia de mnemónicos, cadenas y gas. Esto acerca el ecosistema de la cadena pública más a web2 en términos de experiencia, mientras que los usuarios pueden obtener un mayor grado de libertad y composabilidad que los servicios web2. Esto será muy atractivo para los usuarios. El ecosistema de aplicaciones de IA basado en la cadena pública merece ser esperado con ansias.
Kernel Ventures es un fondo de capital de riesgo criptográfico impulsado por una comunidad de investigación y desarrollo con más de 70 inversiones en etapas iniciales centradas en infraestructura, middleware, dApps, especialmente ZK, Rollup, DEX, blockchains modulares y verticales que albergarán a los próximos mil millones de usuarios de cripto, como abstracción de cuentas, disponibilidad de datos, escalabilidad, etc. En los últimos siete años, nos hemos comprometido a apoyar el desarrollo de comunidades de desarrollo centrales y asociaciones universitarias de blockchain en todo el mundo.
Descargo de responsabilidad: