Reformando los límites de la computación: La situación actual y perspectivas de la Potencia computacional descentralizada

Intermedio1/4/2024, 5:09:37 PM
Con el desarrollo de la IA y otros campos, muchas industrias experimentarán grandes cambios en la lógica subyacente, la potencia computacional pasará a ocupar una posición más importante y diversos aspectos relacionados con ella también generarán una amplia exploración en la industria. Las redes de potencia computacional descentralizadas tienen sus propias ventajas que pueden reducir el riesgo de centralización y también pueden servir como un complemento a la potencia computacional centralizada.

Potencia computacional en demanda

Desde el lanzamiento de “Avatar” en 2009, se inició la primera batalla de películas en 3D con imágenes reales incomparables. Como un gran contribuyente detrás de esto, Weta Digital contribuyó al renderizado de efectos visuales de toda la película. En su granja de servidores de 10,000 pies cuadrados en Nueva Zelanda, su clúster de computadoras procesó hasta 1.4 millones de tareas por día y procesó 8 GB de datos por segundo. Aun así, continuó funcionando durante más de un mes antes de que se completaran todas las renderizaciones.

Con la implementación a gran escala de máquinas e inversión de costos, “Avatar” ha logrado logros sobresalientes en la historia del cine.

El 3 de enero del mismo año, Satoshi Nakamoto minó el bloque génesis de Bitcoin en un pequeño servidor en Helsinki, Finlandia, y recibió una recompensa de bloque de 50 BTC. Desde el primer día de la criptomoneda, la potencia computacional ha desempeñado un papel muy importante en la industria.

La cadena más larga no solo sirve como prueba de la secuencia de eventos presenciados, sino como prueba de que proviene del mayor grupo de potencia computacional.

—— Libro blanco de Bitcoin

En el contexto del mecanismo de consenso de PoW, la contribución de la potencia computacional proporciona garantía para la seguridad de la cadena. Al mismo tiempo, la tasa de hash en constante aumento también puede demostrar la inversión continua de los mineros en potencia computacional y expectativas de ingresos positivos. La demanda real de la industria de potencia computacional también ha promovido en gran medida el desarrollo de fabricantes de chips. Los chips de máquinas mineras han pasado por etapas de desarrollo como CPU, GPU, FPGA y ASIC. Actualmente, las máquinas mineras de Bitcoin suelen ser chips basados en la tecnología ASIC (Circuito Integrado Específico de Aplicación) que pueden ejecutar eficientemente algoritmos específicos, como SHA-256. Los enormes beneficios económicos generados por Bitcoin también han aumentado la demanda de potencia computacional en la minería relacionada. Sin embargo, el equipo excesivamente especializado y los efectos de agrupación han causado un efecto de sifón entre sus propios participantes, ya sean mineros o fabricantes de máquinas mineras. Todos muestran una tendencia de desarrollo concentrado intensivo en capital.

Con la llegada de los contratos inteligentes de Ethereum, su programabilidad, composabilidad y otras características han formado una amplia gama de aplicaciones, especialmente en el campo de DeFi, lo que ha hecho que el precio de ETH suba constantemente, mientras que aún se encuentra en el consenso PoW. La dificultad de minería de Ethereum en esta etapa también ha ido aumentando. Los requisitos de potencia informática de los mineros para las máquinas de minería de Ethereum también están aumentando día a día. Sin embargo, a diferencia de Bitcoin, que utiliza chips ASIC, Ethereum necesita utilizar una unidad de procesamiento gráfico (GPU) para cálculos de minería, como la serie Nvidia RTX. De esta manera, es más adecuado para que el hardware informático general participe. Esto incluso desencadenó la competencia en el mercado de las GPU, lo que provocó que las tarjetas gráficas de alta gama en el mercado se agotaran.

Cuando llegó el 30 de noviembre de 2022, ChatGPT desarrollado por OpenAI también demostró la significancia revolucionaria en el campo de la IA. Los usuarios se maravillaron con la nueva experiencia que trajo ChatGPT, el cual puede completar varias tareas propuestas por el usuario basadas en el contexto como si fuera una persona real. Requiere. En la nueva versión lanzada en septiembre de este año, la IA generativa que agrega características multi-modales como voz e imágenes ha llevado la experiencia del usuario a un nuevo nivel.

Pero, en consecuencia, GPT4 tiene más de un billón de parámetros implicados en el preentrenamiento del modelo y su posterior ajuste. Estas son las dos partes con mayor demanda de potencia de cómputo en el campo de la IA. En la fase de pre-entrenamiento, se estudia una gran cantidad de texto para dominar los patrones lingüísticos, la gramática y el contexto asociado. Permítale comprender los patrones lingüísticos para generar texto coherente y contextual basado en la entrada. Después del entrenamiento previo, GPT4 se ajusta para adaptarse mejor a tipos específicos de contenido o estilos y mejorar el rendimiento y la especialización en escenarios de demanda específicos.

Dado que la arquitectura Transformer adoptada por GPT introduce el mecanismo de autoatención, este mecanismo permite que el modelo preste atención simultáneamente a la relación entre diferentes partes de la secuencia al procesar la secuencia de entrada. Por lo tanto, la demanda de potencia computacional ha aumentado considerablemente. Especialmente al procesar secuencias largas, se requiere una gran cantidad de cálculos paralelos y almacenamiento de una gran cantidad de puntuaciones de atención, lo que también requiere una gran cantidad de memoria y capacidades de transmisión de datos de alta velocidad. Los LLM de corriente principal actuales con la misma arquitectura tienen una gran demanda de GPU de alto rendimiento, lo que también muestra que el costo de inversión en el campo de los modelos grandes de IA es enorme. Según las estimaciones relevantes de SemiAnalysis, el costo de entrenar un modelo GPT4 es de hasta $63 millones. Para lograr una buena experiencia interactiva, GPT4 también necesita invertir mucha potencia computacional en sus operaciones diarias para mantener sus operaciones diarias.

Clasificación del hardware de computación

Aquí necesitamos entender los tipos actuales principales de potencia computacional. ¿Qué escenarios de demanda de potencia computacional pueden ser manejados respectivamente por CPU, GPU, FPGA y ASIC?

• Desde el diagrama arquitectónico de la CPU y GPU, la GPU contiene más núcleos, lo que permite que la GPU procese múltiples tareas de computación al mismo tiempo. La computación paralela tiene capacidades de procesamiento más fuertes y es adecuada para procesar una gran cantidad de tareas de computación, por lo que en los campos de aprendizaje automático y aprendizaje profundo se ha utilizado ampliamente. La CPU tiene un número menor de núcleos y es adecuada para procesar un cálculo complejo o tarea de secuencia de forma más intensiva, pero no es tan eficiente como la GPU al procesar tareas de computación paralela. En tareas de renderizado y tareas de computación de redes neuronales, generalmente se necesitan procesar una gran cantidad de cálculos repetidos y cálculos paralelos, por lo que la GPU es más eficiente y adecuada que la CPU en este aspecto.

• FPGA (Field Programmable Gate Array) es un circuito semipersonalizado en el campo del circuito integrado específico de la aplicación (ASIC). Un conjunto compuesto por una gran cantidad de pequeñas unidades de procesamiento, FPGA puede entenderse como un chip integrado de circuito lógico digital programable. La aplicación actual se centra principalmente en la aceleración de hardware, y otras tareas aún se completan en la CPU, lo que permite que la FPGA y la CPU trabajen juntas.

• ASIC (Circuito Integrado Específico de la Aplicación) se refiere a un circuito integrado diseñado para cumplir con los requisitos específicos del usuario y las necesidades de sistemas electrónicos específicos. En comparación con los circuitos integrados de propósito general, ASIC tiene las ventajas de un tamaño más pequeño, menor consumo de energía, mayor fiabilidad, mejor rendimiento, mayor confidencialidad y menor costo durante la producción en masa. Por lo tanto, en el escenario inherente de la minería de Bitcoin, que solo necesita realizar tareas de cálculo específicas, ASIC es el más adecuado. Google también ha lanzado una TPU (Unidad de Procesamiento Tensorial) diseñada especialmente para el aprendizaje automático como un tipo de ASIC, pero actualmente principalmente proporciona servicios de alquiler de potencia informática a través de Google Cloud.

• ASIC en comparación con FPGA, ASIC es un circuito integrado de aplicación específica y el circuito integrado se fija una vez que se completa el diseño. FPGA integra un gran número de puertas y memorias de circuitos digitales básicos en la matriz. Los desarrolladores pueden definir el circuito programando la configuración de FPGA, y esta programación es reemplazable. Sin embargo, dada la velocidad de actualización actual en el campo de la IA, los chips personalizados o semipersonalizados no se pueden ajustar y reconfigurar a tiempo para realizar diferentes tareas o adaptarse a nuevos algoritmos. Por lo tanto, la adaptabilidad general y la flexibilidad de la GPU la hacen brillar en el campo de la IA. Los principales fabricantes de GPU también han realizado optimizaciones relevantes para la adaptación de las GPU en el campo de la IA. Tomando a Nvidia como ejemplo, ha lanzado la serie Tesla y las GPU de arquitectura Ampere diseñadas específicamente para el aprendizaje profundo. Este hardware contiene unidades de hardware (Tensor Cores) optimizadas para el aprendizaje automático y los cálculos de aprendizaje profundo, lo que permite que la GPU funcione de manera más eficiente y eficiente. Bajo consumo de energía para realizar la propagación hacia adelante y hacia atrás de las redes neuronales. Además, se proporciona una amplia gama de herramientas y bibliotecas para respaldar el desarrollo de IA, como CUDA (Compute Unified Device Architecture) para ayudar a los desarrolladores a usar GPU para computación paralela de propósito general.

Potencia computacional descentralizada

La potencia informática descentralizada se refiere al método de proporcionar potencia de procesamiento a través de recursos informáticos distribuidos. Este enfoque descentralizado suele combinarse con la tecnología blockchain o una tecnología de registro distribuido similar para agrupar recursos informáticos inactivos y distribuirlos a los usuarios que lo necesiten para lograr el intercambio de recursos, transacciones y gestión.

Antecedentes

• Fuerte demanda de hardware de computación. La prosperidad de la economía creadora ha llevado el procesamiento de medios digitales a una era de creación universal. La demanda de renderización de efectos visuales ha aumentado, y han surgido estudios especializados de externalización de renderización, plataformas de renderización en la nube y otras formas. Sin embargo, este enfoque también requiere invertir mucho dinero en la adquisición inicial de hardware de potencia computacional.

• El hardware de potencia computacional proviene de una sola fuente. El desarrollo del campo de la IA ha intensificado la demanda de hardware de computación. Las principales empresas fabricantes de GPU del mundo, lideradas por Nvidia, han ganado mucho dinero en esta competencia de potencia computacional de IA. Incluso su capacidad de suministro se ha convertido en un factor clave que puede restringir el desarrollo de cierta industria. El valor de mercado de Nvidia también superó el billón de dólares estadounidenses por primera vez este año.

• La provisión de potencia computacional todavía depende principalmente de plataformas de nube centralizadas. Lo que realmente se beneficia del aumento de la demanda de computación de alto rendimiento son los proveedores de nube centralizados representados por AWS. Han lanzado servicios de computación en la nube con GPU. Tomando el actual AWS p4d.24xlarge como ejemplo, alquilar un servidor HPC especializado en ML, que contiene ocho Nvidia A100 40GB GPUs, cuesta US$32.8 por hora, y se estima que su margen de beneficio bruto es del 61%. Esto también ha llevado a otros gigantes de la nube a apresurarse a participar y acaparar hardware para obtener la mayor ventaja posible en las primeras etapas del desarrollo de la industria.

• La intervención política, humana y otros factores conducen al desarrollo desigual de la industria. No es difícil ver que la propiedad y la concentración de las GPU están más inclinadas hacia las organizaciones y países con fondos y tecnología abundantes, y dependen de clusters de computación de alto rendimiento. Esto ha provocado que los poderes de fabricación de chips y semiconductores representados por Estados Unidos también implementen restricciones más estrictas en la exportación de chips de IA para debilitar las capacidades de investigación de otros países en el campo de la inteligencia artificial general.

• La asignación de recursos de potencia computacional está demasiado concentrada. La iniciativa de desarrollo en el campo de la IA está en manos de unas pocas empresas gigantes. Actualmente, los gigantes representados por OpenAI tienen la bendición de Microsoft, y detrás de ellos se encuentran los ricos recursos informáticos proporcionados por Microsoft Azure. Esto hace que cada lanzamiento de nuevos productos de OpenAI sea una reconfiguración e integración de la industria actual de IA, lo que dificulta que otros equipos sigan el ritmo en el campo de los grandes modelos.

Entonces, ¿ante altos costos de hardware, restricciones geográficas y un desarrollo industrial desigual, existen otras soluciones?

La plataforma de potencia informática descentralizada surgió como lo requieren los tiempos. El propósito de la plataforma es crear un mercado abierto, transparente y autorregulado para utilizar de manera más efectiva los recursos informáticos globales.

análisis adaptativo

  1. Lado de suministro de potencia informática descentralizada

Los actuales altos precios de hardware y el control artificial en el lado de la oferta han proporcionado el terreno para la construcción de redes de potencia computacional descentralizadas.

• Desde la perspectiva de la composición de la potencia computacional descentralizada, diversos proveedores de potencia computacional van desde computadoras personales hasta equipos pequeños de Internet de las cosas, tan grandes como centros de datos, IDC, etc., y la potencia computacional acumulada puede proporcionar soluciones informáticas más flexibles y escalables, ayudando así a más desarrolladores de IA y organizaciones a hacer un uso más efectivo de los recursos limitados. El intercambio de potencia computacional descentralizada se puede lograr a través de la potencia computacional inactiva de individuos u organizaciones. Sin embargo, la disponibilidad y estabilidad de esta potencia computacional están sujetas a las restricciones de uso de los usuarios o al límite superior de compartición.

• Una posible fuente potencial de potencia informática de alta calidad es la potencia informática proporcionada directamente por la transformación de minas relevantes después de que Ethereum se convierte en PoS. recursos humanos. Tomemos como ejemplo a Coreweave, el principal proveedor de potencia informática integrada de GPU en los Estados Unidos. Anteriormente fue la granja minera de Ethereum más grande de América del Norte y se basa en una infraestructura completa que ha sido construida. Además, las máquinas mineras de Ethereum retiradas también contienen una gran cantidad de GPU inactivas. Se informa que había alrededor de 27 millones de GPU trabajando en línea en el pico de la era minera de Ethereum. Revitalizar estas GPU también puede convertirse en una parte importante de la red de potencia informática descentralizada.

  1. Lado de la demanda de potencia informática descentralizada

• Desde el punto de vista de la implementación técnica, los recursos informáticos descentralizados se utilizan en la representación de gráficos y la transcodificación de vídeo. Estos cálculos son complejos. En el caso de las tareas de bajo nivel, el sistema económico que combina la tecnología blockchain y la web3 puede aportar incentivos de ingresos tangibles a los participantes de la red y acumular modelos de negocio y grupos de clientes eficaces, garantizando al mismo tiempo la transmisión segura de los datos de información. El campo de la IA implica una gran cantidad de computación paralela, comunicación y sincronización entre nodos, y tiene requisitos muy altos en el entorno de red y otros aspectos. Por lo tanto, las aplicaciones actuales también se centran en el ajuste fino, la inferencia, AIGC y otras capas de aplicación más.

• Desde una perspectiva de lógica empresarial, un mercado que simplemente compra y vende potencia computacional carece de imaginación, y la industria solo puede ocuparse de la cadena de suministro y la fijación de precios. Estrategias, pero estas resultan ser las ventajas de los servicios de nube centralizados. Por lo tanto, el techo del mercado es bajo y no hay espacio para más imaginación, por lo que también podemos ver que las redes que originalmente se dedicaban a la simple representación gráfica están buscando la transformación de IA. Por ejemplo, Render Network y en el primer trimestre de 2023 lanzaron una herramienta nativa integrada de Estabilidad IA, con la que los usuarios pueden. Esta función introduce operaciones de Difusión Estable, y el negocio ya no se limita a operaciones de representación, sino que se expande al campo de la IA.

• Desde la perspectiva de los principales grupos de clientes, es obvio que los grandes clientes del lado B preferirán los servicios centralizados e integrados en la nube. Por lo general, con presupuestos suficientes, suelen dedicarse al desarrollo de grandes modelos subyacentes y requieren una forma más eficiente de agregación de potencia de cómputo; Por lo tanto, la potencia informática descentralizada sirve a más equipos de desarrollo pequeños y medianos o a individuos, y se dedica principalmente al ajuste fino de modelos. O el desarrollo de la capa de aplicación, que no tiene altos requisitos en cuanto a la forma de potencia de cálculo proporcionada. Son más sensibles al precio. La potencia de cómputo descentralizada puede reducir fundamentalmente la inversión de costos iniciales, por lo que el costo total de uso también es menor. Con base en el costo previamente calculado por Gensyn, la potencia de cómputo se convierte en el valor equivalente proporcionado por V100. En cuanto a la potencia informática, el precio de Gensyn es de solo 0,4 dólares por hora, lo que supone un 80 % menos que la potencia informática equivalente a AWS, que es de 2 dólares por hora. Aunque esta parte del negocio no representa la mayor parte del gasto en la industria actual, a medida que los escenarios de uso de las aplicaciones de IA continúan expandiéndose, no se puede subestimar el tamaño futuro del mercado.

• Desde la perspectiva de los servicios proporcionados, se puede encontrar que el proyecto actual se asemeja más al concepto de una plataforma de nube descentralizada, proporcionando un conjunto completo de gestión desde el desarrollo, implementación, en línea, distribución y transacción. La ventaja de esto es atraer a los desarrolladores, que pueden utilizar componentes de herramientas relevantes para simplificar el desarrollo y la implementación y mejorar la eficiencia; al mismo tiempo, puede atraer a los usuarios a utilizar estos productos de aplicaciones completos en la plataforma, formando un foso ecológico basado en su propia red de potencia computacional. Pero esto también plantea mayores requisitos para las operaciones del proyecto. Cómo atraer a excelentes desarrolladores y usuarios y lograr la retención es particularmente importante.

Aplicaciones en diferentes campos

1. Procesamiento de Medios Digitales

Render Network Una plataforma global de renderizado basada en blockchain, cuyo objetivo es ayudar a los creadores con la creatividad digital. Permite a los creadores extender el trabajo de renderizado de GPU a nodos GPU globales según la demanda, proporcionando una capacidad de renderizado más rápida y económica. Después de que el creador confirma los resultados del renderizado, la red blockchain envía el código al nodo. Recompensas en monedas. En comparación con los métodos tradicionales de implementación de efectos visuales, establecer una infraestructura de renderizado local o agregar gastos de GPU correspondientes a los servicios en la nube comprados requiere una alta inversión inicial.

Desde su fundación en 2017, los usuarios de la Red Render han renderizado más de 16 millones de cuadros y cerca de 500,000 escenas en la red. Los datos publicados por Render Network en el segundo trimestre de 2023 también muestran que tanto el número de trabajos de cuadros de renderizado como el número de nodos activos están aumentando. Además, Render Network y el primer trimestre de 2023 también han lanzado un conjunto de herramientas de IA de estabilidad integradas de forma nativa. Los usuarios pueden utilizar esta función para introducir operaciones de Difusión Estable, y el negocio ya no se limita a operaciones de renderizado y se expande al campo de la IA.

Livepeer proporciona servicios de transcodificación de video en tiempo real a los creadores a través de los participantes de la red que contribuyen con su propia potencia computacional de GPU y ancho de banda. Los radiodifusores pueden completar la transcodificación de varios tipos de videos enviando videos a Livepeer y distribuyéndolos a varios usuarios finales, logrando así la difusión de contenido de video. Al mismo tiempo, puedes pagar fácilmente en moneda legal para obtener servicios como transcodificación de video, transmisión y almacenamiento.

En la red Livepeer, se permite a cualquiera contribuir con recursos informáticos personales (CPU, GPU y ancho de banda) para transcodificar y distribuir videos y ganar tarifas. El token nativo (LPT) representa los derechos e intereses de los participantes de la red en la red. El número de tokens comprometidos determina el peso del nodo en la red, afectando así sus posibilidades de obtener tareas de transcodificación. Al mismo tiempo, LPT también juega un papel en guiar a los nodos para completar tareas asignadas de manera segura, confiable y rápida.

2. exposición de AIarea

En el ecosistema actual en el campo de la inteligencia artificial, los principales actores pueden dividirse aproximadamente en:

Desde el lado de la demanda, existen diferencias obvias en las demandas de potencia computacional en diferentes etapas de la industria. Tomando el desarrollo del modelo subyacente como ejemplo, el proceso de pre-entrenamiento requiere una alta computación en paralelo, almacenamiento, comunicación, etc. para garantizar la efectividad de los resultados del entrenamiento. Esto requiere un gran clúster de potencia computacional para completar tareas relacionadas. En la actualidad, el suministro principal de potencia computacional depende principalmente de salas de ordenadores autoconstruidas y plataformas de servicios en la nube centralizadas. En las etapas posteriores de ajuste fino del modelo, razonamiento en tiempo real y desarrollo de aplicaciones, los requisitos de computación en paralelo y comunicación entre nodos no son tan altos. Aquí es exactamente donde la potencia computacional descentralizada puede mostrar todo su potencial.

Al observar los proyectos que han ganado considerable popularidad anteriormente, Akash Nework ha realizado algunos intentos en la dirección de la potencia computacional descentralizada:

Akash Network combina diferentes componentes tecnológicos para permitir a los usuarios implementar y gestionar aplicaciones de manera eficiente y flexible en un entorno de nube descentralizada. Los usuarios pueden utilizar la tecnología de contenedor Docker para empaquetar aplicaciones, y luego implementarlas y escalarlas a través de Kubernetes a través de CloudMOS en los recursos en la nube proporcionados por Akash. Akash utiliza un enfoque de “subasta inversa”, lo que hace que el precio sea más bajo que los servicios de nube tradicionales.

Akash Network también anunció en agosto de este año que lanzaría la sexta actualización de su red principal, incorporando soporte para GPUs en sus servicios en la nube y brindando potencia computacional a más equipos de IA en el futuro.

Gensyn.ai, un proyecto que ha atraído mucha atención en la industria este año, fue liderado por a16z y completó una financiación de Serie A de US$43 millones. A juzgar por los documentos publicados hasta ahora, el proyecto es una red principal basada en el protocolo L1 PoS de la red Polkadot, centrándose en el aprendizaje profundo. Su objetivo es empujar los límites del aprendizaje automático creando una red global de clúster de supercomputación. Esta red conecta dispositivos que van desde centros de datos con potencia informática excedente hasta PCs que pueden contribuir potencialmente con sus GPU personales, ASICs personalizados y SoCs.

Para resolver algunos de los problemas que actualmente existen en la potencia computacional descentralizada, Gensyn se basa en algunos nuevos resultados de investigación teórica en el ámbito académico:

  1. Adoptar la prueba de aprendizaje probabilístico, es decir, utilizar metadatos del proceso de optimización basado en el gradiente para construir pruebas de ejecución de tareas relevantes para acelerar el proceso de verificación;

  2. El Protocolo de Pinpoint basado en gráficos, GPP, sirve como un puente, conectando la ejecución fuera de línea de DNN (Redes Neuronales Profundas) y el marco de contratos inteligentes en la cadena de bloques, resolviendo las inconsistencias que pueden ocurrir fácilmente entre dispositivos de hardware y asegura la consistencia de la verificación.

  3. Un método de incentivos similar a Truebit, a través de una combinación de apuestas y castigos, establece un sistema de incentivos que permite a los participantes económicamente racionales realizar honestamente las tareas asignadas. El mecanismo utiliza métodos de criptografía y teoría de juegos. Este sistema de verificación es esencial para mantener la integridad y confiabilidad de cálculos de entrenamiento de modelos grandes.

Sin embargo, vale la pena señalar que el contenido anterior se centra más en resolver el nivel de verificación de la finalización de tareas, en lugar de la potencia computacional descentralizada para lograr funciones de entrenamiento de modelos como el punto principal en el documento del proyecto, especialmente sobre la computación paralela y la optimización distribuida de la comunicación, sincronización y otros problemas entre hardware. Actualmente, afectado por la latencia de red (Latencia) y el ancho de banda (Ancho de banda), la comunicación frecuente entre nodos aumentará el tiempo de iteración y los costos de comunicación. Esto no solo no traerá una optimización real, sino que reducirá la eficiencia de entrenamiento. El enfoque de Gensyn para manejar la comunicación de nodos y la computación paralela en el entrenamiento de modelos puede implicar protocolos de coordinación complejos para gestionar la naturaleza distribuida de la computación. Sin embargo, sin información técnica más detallada o una comprensión más profunda de sus métodos específicos, el mecanismo exacto por el cual Gensyn logra el entrenamiento de modelos a gran escala a través de su red no se revelará realmente hasta que el proyecto esté en línea.

También prestamos atención al protocolo Edge Matrix Computing (EMC) que utiliza tecnología blockchain para aplicar potencia computacional a la inteligencia artificial, renderizado e investigación científica, acceso al comercio electrónico de IA y otros tipos de escenarios, las tareas se distribuyen a diferentes nodos de potencia computacional a través de computación elástica. Este método no solo mejora la eficiencia de la potencia computacional, sino que también asegura la seguridad de la transmisión de datos. Al mismo tiempo, proporciona un mercado de potencia computacional donde los usuarios pueden acceder e intercambiar recursos informáticos. Es conveniente para que los desarrolladores implementen y lleguen a los usuarios más rápido. Combinado con la forma económica de Web3, los proveedores de potencia computacional también pueden obtener beneficios reales y subsidios de protocolo basados en el uso real de los usuarios, y los desarrolladores de IA también pueden obtener costos más bajos de razonamiento y renderizado. A continuación se presenta una descripción general de sus principales componentes y funciones:

También se espera que se lancen productos RWA basados en GPU. La clave para esto es revitalizar el hardware que originalmente estaba fijo en la sala de computadoras y dividirlo y circularlo en forma de RWA para obtener liquidez adicional. Una GPU de alta calidad puede ser utilizada como activo subyacente de RWA. La razón es que la potencia computacional puede ser considerada como una moneda fuerte en el campo de la IA. Actualmente existe una clara contradicción entre la oferta y la demanda, y esta contradicción no puede resolverse a corto plazo, por lo que el precio de la GPU es relativamente estable.

Además, implementar grupos de potencia computacional desplegando salas de ordenadores IDC también es una parte clave del protocolo EMC. Esto no solo permite que las GPUs operen en un entorno unificado, sino que también maneja de manera más eficiente tareas relacionadas con el consumo de potencia computacional a gran escala, como el preentrenamiento de modelos. Esto satisface las necesidades de los usuarios profesionales. Al mismo tiempo, la sala de ordenadores IDC también puede alojar y ejecutar de manera centralizada un gran número de GPUs para garantizar las especificaciones técnicas del mismo tipo de hardware de alta calidad, lo que facilita su comercialización como productos RWA y abre nuevas ideas para DeFi.

En los últimos años, la comunidad académica también ha desarrollado nuevas teorías técnicas y prácticas de aplicación en el campo de la computación en el borde. Como complemento y optimización de la computación en la nube, la computación en el borde es parte de la inteligencia artificial que se está acelerando desde la nube hasta el borde y en dispositivos IoT cada vez más pequeños. Estos dispositivos IoT suelen ser pequeños, por lo que se prefiere el aprendizaje automático ligero para abordar problemas como el consumo de energía, la latencia y la precisión.

Network3 se construye mediante la construcción de una capa de IA dedicada Layer2 para proporcionar a los desarrolladores de IA de todo el mundo la optimización y compresión de algoritmos de modelos de IA, aprendizaje federado, computación en el borde y computación de privacidad. Proporcionar servicios para ayudarles a entrenar o verificar modelos de forma rápida, conveniente y eficiente. Al utilizar una gran cantidad de dispositivos de hardware IoT inteligentes, puede centrarse en modelos pequeños para proporcionar la potencia informática correspondiente, y mediante la construcción de un TEE (Entorno de Ejecución Confiable), los usuarios pueden completar la capacitación relevante solo subiendo gradientes de modelos para garantizar la privacidad y seguridad de los datos relacionados con el usuario.

En resumen

• Con el desarrollo de la IA y otros campos, muchas industrias sufrirán cambios enormes en su lógica subyacente, la potencia computacional ascenderá a una posición más importante, y varios aspectos relacionados con ella también provocarán una amplia exploración en la industria. Las redes de potencia computacional descentralizadas tienen sus propias ventajas, pueden reducir el riesgo de centralización y también pueden servir como un complemento a la potencia computacional centralizada.

• Y los equipos en el campo de la IA también se encuentran en una encrucijada. La elección de si utilizar modelos grandes entrenados para construir sus propios productos o participar en el entrenamiento de grandes modelos en sus respectivas regiones es en su mayoría dialéctica. Por lo tanto, la potencia computacional descentralizada puede satisfacer diferentes necesidades comerciales. Esta tendencia de desarrollo es bienvenida, y con la actualización de la tecnología y la iteración de algoritmos, inevitablemente habrá avances en áreas clave.

• No tengas miedo, simplemente descúbrelo lentamente.

Referencia

https://www.semianalysis.com/p/gpt-4-architecture-infrastructure

https://medium.com/render-token/render-network-q2-highlights-part-2-network-statistics-ac5aa6bfa4e5

https://know.rendernetwork.com/

https://medium.com/livepeer-blog/una-visión-general-de-la-red-livepeer-y-lpt-44985f9321ff

https://www.youtube.com/watch?v=FDA9wqZmsY8

https://mirror.xyz/1kx.eth/q0s9RCH43JCDq8Z2w2Zo6S5SYcFt9ZQaRITzR4G7a_k

https://mirror.xyz/gensyn.eth/_K2v2uuFZdNnsHxVL3Bjrs4GORu3COCMJZJi7_MxByo

https://docs.gensyn.ai/litepaper/#solution

https://a16zcrypto.com/posts/announcement/investing-in-gensyn/

https://www.pinecone.io/learn/chunking-strategies/

https://akash.network/blog/the-fast-evolving-ai-landscape/

https://aws.amazon.com/cn/blogs/compute/amazon-ec2-p4d-instances-deep-dive/

https://manual.edgematrix.pro/emc-network/what-is-emc-and-poc

https://arstechnica.com/gaming/2022/09/el-fin-de-la-mineria-de-ethereum-podria-ser-una-fortuna-para-los-compradores-de-gpu/

Descargo de responsabilidad:

  1. Este artículo es reimpreso de [ PANews]. Todos los derechos de autor pertenecen al autor original [Campus Future3]. Si hay objeciones a esta reimpresión, por favor contacte alGate Learnequipo y ellos lo resolverán rápidamente.
  2. Descargo de responsabilidad: Las opiniones y puntos de vista expresados en este artículo son únicamente los del autor y no constituyen ningún consejo de inversión.
  3. Las traducciones del artículo a otros idiomas son realizadas por el equipo Gate Learn. A menos que se mencione, está prohibido copiar, distribuir o plagiar los artículos traducidos.

Reformando los límites de la computación: La situación actual y perspectivas de la Potencia computacional descentralizada

Intermedio1/4/2024, 5:09:37 PM
Con el desarrollo de la IA y otros campos, muchas industrias experimentarán grandes cambios en la lógica subyacente, la potencia computacional pasará a ocupar una posición más importante y diversos aspectos relacionados con ella también generarán una amplia exploración en la industria. Las redes de potencia computacional descentralizadas tienen sus propias ventajas que pueden reducir el riesgo de centralización y también pueden servir como un complemento a la potencia computacional centralizada.

Potencia computacional en demanda

Desde el lanzamiento de “Avatar” en 2009, se inició la primera batalla de películas en 3D con imágenes reales incomparables. Como un gran contribuyente detrás de esto, Weta Digital contribuyó al renderizado de efectos visuales de toda la película. En su granja de servidores de 10,000 pies cuadrados en Nueva Zelanda, su clúster de computadoras procesó hasta 1.4 millones de tareas por día y procesó 8 GB de datos por segundo. Aun así, continuó funcionando durante más de un mes antes de que se completaran todas las renderizaciones.

Con la implementación a gran escala de máquinas e inversión de costos, “Avatar” ha logrado logros sobresalientes en la historia del cine.

El 3 de enero del mismo año, Satoshi Nakamoto minó el bloque génesis de Bitcoin en un pequeño servidor en Helsinki, Finlandia, y recibió una recompensa de bloque de 50 BTC. Desde el primer día de la criptomoneda, la potencia computacional ha desempeñado un papel muy importante en la industria.

La cadena más larga no solo sirve como prueba de la secuencia de eventos presenciados, sino como prueba de que proviene del mayor grupo de potencia computacional.

—— Libro blanco de Bitcoin

En el contexto del mecanismo de consenso de PoW, la contribución de la potencia computacional proporciona garantía para la seguridad de la cadena. Al mismo tiempo, la tasa de hash en constante aumento también puede demostrar la inversión continua de los mineros en potencia computacional y expectativas de ingresos positivos. La demanda real de la industria de potencia computacional también ha promovido en gran medida el desarrollo de fabricantes de chips. Los chips de máquinas mineras han pasado por etapas de desarrollo como CPU, GPU, FPGA y ASIC. Actualmente, las máquinas mineras de Bitcoin suelen ser chips basados en la tecnología ASIC (Circuito Integrado Específico de Aplicación) que pueden ejecutar eficientemente algoritmos específicos, como SHA-256. Los enormes beneficios económicos generados por Bitcoin también han aumentado la demanda de potencia computacional en la minería relacionada. Sin embargo, el equipo excesivamente especializado y los efectos de agrupación han causado un efecto de sifón entre sus propios participantes, ya sean mineros o fabricantes de máquinas mineras. Todos muestran una tendencia de desarrollo concentrado intensivo en capital.

Con la llegada de los contratos inteligentes de Ethereum, su programabilidad, composabilidad y otras características han formado una amplia gama de aplicaciones, especialmente en el campo de DeFi, lo que ha hecho que el precio de ETH suba constantemente, mientras que aún se encuentra en el consenso PoW. La dificultad de minería de Ethereum en esta etapa también ha ido aumentando. Los requisitos de potencia informática de los mineros para las máquinas de minería de Ethereum también están aumentando día a día. Sin embargo, a diferencia de Bitcoin, que utiliza chips ASIC, Ethereum necesita utilizar una unidad de procesamiento gráfico (GPU) para cálculos de minería, como la serie Nvidia RTX. De esta manera, es más adecuado para que el hardware informático general participe. Esto incluso desencadenó la competencia en el mercado de las GPU, lo que provocó que las tarjetas gráficas de alta gama en el mercado se agotaran.

Cuando llegó el 30 de noviembre de 2022, ChatGPT desarrollado por OpenAI también demostró la significancia revolucionaria en el campo de la IA. Los usuarios se maravillaron con la nueva experiencia que trajo ChatGPT, el cual puede completar varias tareas propuestas por el usuario basadas en el contexto como si fuera una persona real. Requiere. En la nueva versión lanzada en septiembre de este año, la IA generativa que agrega características multi-modales como voz e imágenes ha llevado la experiencia del usuario a un nuevo nivel.

Pero, en consecuencia, GPT4 tiene más de un billón de parámetros implicados en el preentrenamiento del modelo y su posterior ajuste. Estas son las dos partes con mayor demanda de potencia de cómputo en el campo de la IA. En la fase de pre-entrenamiento, se estudia una gran cantidad de texto para dominar los patrones lingüísticos, la gramática y el contexto asociado. Permítale comprender los patrones lingüísticos para generar texto coherente y contextual basado en la entrada. Después del entrenamiento previo, GPT4 se ajusta para adaptarse mejor a tipos específicos de contenido o estilos y mejorar el rendimiento y la especialización en escenarios de demanda específicos.

Dado que la arquitectura Transformer adoptada por GPT introduce el mecanismo de autoatención, este mecanismo permite que el modelo preste atención simultáneamente a la relación entre diferentes partes de la secuencia al procesar la secuencia de entrada. Por lo tanto, la demanda de potencia computacional ha aumentado considerablemente. Especialmente al procesar secuencias largas, se requiere una gran cantidad de cálculos paralelos y almacenamiento de una gran cantidad de puntuaciones de atención, lo que también requiere una gran cantidad de memoria y capacidades de transmisión de datos de alta velocidad. Los LLM de corriente principal actuales con la misma arquitectura tienen una gran demanda de GPU de alto rendimiento, lo que también muestra que el costo de inversión en el campo de los modelos grandes de IA es enorme. Según las estimaciones relevantes de SemiAnalysis, el costo de entrenar un modelo GPT4 es de hasta $63 millones. Para lograr una buena experiencia interactiva, GPT4 también necesita invertir mucha potencia computacional en sus operaciones diarias para mantener sus operaciones diarias.

Clasificación del hardware de computación

Aquí necesitamos entender los tipos actuales principales de potencia computacional. ¿Qué escenarios de demanda de potencia computacional pueden ser manejados respectivamente por CPU, GPU, FPGA y ASIC?

• Desde el diagrama arquitectónico de la CPU y GPU, la GPU contiene más núcleos, lo que permite que la GPU procese múltiples tareas de computación al mismo tiempo. La computación paralela tiene capacidades de procesamiento más fuertes y es adecuada para procesar una gran cantidad de tareas de computación, por lo que en los campos de aprendizaje automático y aprendizaje profundo se ha utilizado ampliamente. La CPU tiene un número menor de núcleos y es adecuada para procesar un cálculo complejo o tarea de secuencia de forma más intensiva, pero no es tan eficiente como la GPU al procesar tareas de computación paralela. En tareas de renderizado y tareas de computación de redes neuronales, generalmente se necesitan procesar una gran cantidad de cálculos repetidos y cálculos paralelos, por lo que la GPU es más eficiente y adecuada que la CPU en este aspecto.

• FPGA (Field Programmable Gate Array) es un circuito semipersonalizado en el campo del circuito integrado específico de la aplicación (ASIC). Un conjunto compuesto por una gran cantidad de pequeñas unidades de procesamiento, FPGA puede entenderse como un chip integrado de circuito lógico digital programable. La aplicación actual se centra principalmente en la aceleración de hardware, y otras tareas aún se completan en la CPU, lo que permite que la FPGA y la CPU trabajen juntas.

• ASIC (Circuito Integrado Específico de la Aplicación) se refiere a un circuito integrado diseñado para cumplir con los requisitos específicos del usuario y las necesidades de sistemas electrónicos específicos. En comparación con los circuitos integrados de propósito general, ASIC tiene las ventajas de un tamaño más pequeño, menor consumo de energía, mayor fiabilidad, mejor rendimiento, mayor confidencialidad y menor costo durante la producción en masa. Por lo tanto, en el escenario inherente de la minería de Bitcoin, que solo necesita realizar tareas de cálculo específicas, ASIC es el más adecuado. Google también ha lanzado una TPU (Unidad de Procesamiento Tensorial) diseñada especialmente para el aprendizaje automático como un tipo de ASIC, pero actualmente principalmente proporciona servicios de alquiler de potencia informática a través de Google Cloud.

• ASIC en comparación con FPGA, ASIC es un circuito integrado de aplicación específica y el circuito integrado se fija una vez que se completa el diseño. FPGA integra un gran número de puertas y memorias de circuitos digitales básicos en la matriz. Los desarrolladores pueden definir el circuito programando la configuración de FPGA, y esta programación es reemplazable. Sin embargo, dada la velocidad de actualización actual en el campo de la IA, los chips personalizados o semipersonalizados no se pueden ajustar y reconfigurar a tiempo para realizar diferentes tareas o adaptarse a nuevos algoritmos. Por lo tanto, la adaptabilidad general y la flexibilidad de la GPU la hacen brillar en el campo de la IA. Los principales fabricantes de GPU también han realizado optimizaciones relevantes para la adaptación de las GPU en el campo de la IA. Tomando a Nvidia como ejemplo, ha lanzado la serie Tesla y las GPU de arquitectura Ampere diseñadas específicamente para el aprendizaje profundo. Este hardware contiene unidades de hardware (Tensor Cores) optimizadas para el aprendizaje automático y los cálculos de aprendizaje profundo, lo que permite que la GPU funcione de manera más eficiente y eficiente. Bajo consumo de energía para realizar la propagación hacia adelante y hacia atrás de las redes neuronales. Además, se proporciona una amplia gama de herramientas y bibliotecas para respaldar el desarrollo de IA, como CUDA (Compute Unified Device Architecture) para ayudar a los desarrolladores a usar GPU para computación paralela de propósito general.

Potencia computacional descentralizada

La potencia informática descentralizada se refiere al método de proporcionar potencia de procesamiento a través de recursos informáticos distribuidos. Este enfoque descentralizado suele combinarse con la tecnología blockchain o una tecnología de registro distribuido similar para agrupar recursos informáticos inactivos y distribuirlos a los usuarios que lo necesiten para lograr el intercambio de recursos, transacciones y gestión.

Antecedentes

• Fuerte demanda de hardware de computación. La prosperidad de la economía creadora ha llevado el procesamiento de medios digitales a una era de creación universal. La demanda de renderización de efectos visuales ha aumentado, y han surgido estudios especializados de externalización de renderización, plataformas de renderización en la nube y otras formas. Sin embargo, este enfoque también requiere invertir mucho dinero en la adquisición inicial de hardware de potencia computacional.

• El hardware de potencia computacional proviene de una sola fuente. El desarrollo del campo de la IA ha intensificado la demanda de hardware de computación. Las principales empresas fabricantes de GPU del mundo, lideradas por Nvidia, han ganado mucho dinero en esta competencia de potencia computacional de IA. Incluso su capacidad de suministro se ha convertido en un factor clave que puede restringir el desarrollo de cierta industria. El valor de mercado de Nvidia también superó el billón de dólares estadounidenses por primera vez este año.

• La provisión de potencia computacional todavía depende principalmente de plataformas de nube centralizadas. Lo que realmente se beneficia del aumento de la demanda de computación de alto rendimiento son los proveedores de nube centralizados representados por AWS. Han lanzado servicios de computación en la nube con GPU. Tomando el actual AWS p4d.24xlarge como ejemplo, alquilar un servidor HPC especializado en ML, que contiene ocho Nvidia A100 40GB GPUs, cuesta US$32.8 por hora, y se estima que su margen de beneficio bruto es del 61%. Esto también ha llevado a otros gigantes de la nube a apresurarse a participar y acaparar hardware para obtener la mayor ventaja posible en las primeras etapas del desarrollo de la industria.

• La intervención política, humana y otros factores conducen al desarrollo desigual de la industria. No es difícil ver que la propiedad y la concentración de las GPU están más inclinadas hacia las organizaciones y países con fondos y tecnología abundantes, y dependen de clusters de computación de alto rendimiento. Esto ha provocado que los poderes de fabricación de chips y semiconductores representados por Estados Unidos también implementen restricciones más estrictas en la exportación de chips de IA para debilitar las capacidades de investigación de otros países en el campo de la inteligencia artificial general.

• La asignación de recursos de potencia computacional está demasiado concentrada. La iniciativa de desarrollo en el campo de la IA está en manos de unas pocas empresas gigantes. Actualmente, los gigantes representados por OpenAI tienen la bendición de Microsoft, y detrás de ellos se encuentran los ricos recursos informáticos proporcionados por Microsoft Azure. Esto hace que cada lanzamiento de nuevos productos de OpenAI sea una reconfiguración e integración de la industria actual de IA, lo que dificulta que otros equipos sigan el ritmo en el campo de los grandes modelos.

Entonces, ¿ante altos costos de hardware, restricciones geográficas y un desarrollo industrial desigual, existen otras soluciones?

La plataforma de potencia informática descentralizada surgió como lo requieren los tiempos. El propósito de la plataforma es crear un mercado abierto, transparente y autorregulado para utilizar de manera más efectiva los recursos informáticos globales.

análisis adaptativo

  1. Lado de suministro de potencia informática descentralizada

Los actuales altos precios de hardware y el control artificial en el lado de la oferta han proporcionado el terreno para la construcción de redes de potencia computacional descentralizadas.

• Desde la perspectiva de la composición de la potencia computacional descentralizada, diversos proveedores de potencia computacional van desde computadoras personales hasta equipos pequeños de Internet de las cosas, tan grandes como centros de datos, IDC, etc., y la potencia computacional acumulada puede proporcionar soluciones informáticas más flexibles y escalables, ayudando así a más desarrolladores de IA y organizaciones a hacer un uso más efectivo de los recursos limitados. El intercambio de potencia computacional descentralizada se puede lograr a través de la potencia computacional inactiva de individuos u organizaciones. Sin embargo, la disponibilidad y estabilidad de esta potencia computacional están sujetas a las restricciones de uso de los usuarios o al límite superior de compartición.

• Una posible fuente potencial de potencia informática de alta calidad es la potencia informática proporcionada directamente por la transformación de minas relevantes después de que Ethereum se convierte en PoS. recursos humanos. Tomemos como ejemplo a Coreweave, el principal proveedor de potencia informática integrada de GPU en los Estados Unidos. Anteriormente fue la granja minera de Ethereum más grande de América del Norte y se basa en una infraestructura completa que ha sido construida. Además, las máquinas mineras de Ethereum retiradas también contienen una gran cantidad de GPU inactivas. Se informa que había alrededor de 27 millones de GPU trabajando en línea en el pico de la era minera de Ethereum. Revitalizar estas GPU también puede convertirse en una parte importante de la red de potencia informática descentralizada.

  1. Lado de la demanda de potencia informática descentralizada

• Desde el punto de vista de la implementación técnica, los recursos informáticos descentralizados se utilizan en la representación de gráficos y la transcodificación de vídeo. Estos cálculos son complejos. En el caso de las tareas de bajo nivel, el sistema económico que combina la tecnología blockchain y la web3 puede aportar incentivos de ingresos tangibles a los participantes de la red y acumular modelos de negocio y grupos de clientes eficaces, garantizando al mismo tiempo la transmisión segura de los datos de información. El campo de la IA implica una gran cantidad de computación paralela, comunicación y sincronización entre nodos, y tiene requisitos muy altos en el entorno de red y otros aspectos. Por lo tanto, las aplicaciones actuales también se centran en el ajuste fino, la inferencia, AIGC y otras capas de aplicación más.

• Desde una perspectiva de lógica empresarial, un mercado que simplemente compra y vende potencia computacional carece de imaginación, y la industria solo puede ocuparse de la cadena de suministro y la fijación de precios. Estrategias, pero estas resultan ser las ventajas de los servicios de nube centralizados. Por lo tanto, el techo del mercado es bajo y no hay espacio para más imaginación, por lo que también podemos ver que las redes que originalmente se dedicaban a la simple representación gráfica están buscando la transformación de IA. Por ejemplo, Render Network y en el primer trimestre de 2023 lanzaron una herramienta nativa integrada de Estabilidad IA, con la que los usuarios pueden. Esta función introduce operaciones de Difusión Estable, y el negocio ya no se limita a operaciones de representación, sino que se expande al campo de la IA.

• Desde la perspectiva de los principales grupos de clientes, es obvio que los grandes clientes del lado B preferirán los servicios centralizados e integrados en la nube. Por lo general, con presupuestos suficientes, suelen dedicarse al desarrollo de grandes modelos subyacentes y requieren una forma más eficiente de agregación de potencia de cómputo; Por lo tanto, la potencia informática descentralizada sirve a más equipos de desarrollo pequeños y medianos o a individuos, y se dedica principalmente al ajuste fino de modelos. O el desarrollo de la capa de aplicación, que no tiene altos requisitos en cuanto a la forma de potencia de cálculo proporcionada. Son más sensibles al precio. La potencia de cómputo descentralizada puede reducir fundamentalmente la inversión de costos iniciales, por lo que el costo total de uso también es menor. Con base en el costo previamente calculado por Gensyn, la potencia de cómputo se convierte en el valor equivalente proporcionado por V100. En cuanto a la potencia informática, el precio de Gensyn es de solo 0,4 dólares por hora, lo que supone un 80 % menos que la potencia informática equivalente a AWS, que es de 2 dólares por hora. Aunque esta parte del negocio no representa la mayor parte del gasto en la industria actual, a medida que los escenarios de uso de las aplicaciones de IA continúan expandiéndose, no se puede subestimar el tamaño futuro del mercado.

• Desde la perspectiva de los servicios proporcionados, se puede encontrar que el proyecto actual se asemeja más al concepto de una plataforma de nube descentralizada, proporcionando un conjunto completo de gestión desde el desarrollo, implementación, en línea, distribución y transacción. La ventaja de esto es atraer a los desarrolladores, que pueden utilizar componentes de herramientas relevantes para simplificar el desarrollo y la implementación y mejorar la eficiencia; al mismo tiempo, puede atraer a los usuarios a utilizar estos productos de aplicaciones completos en la plataforma, formando un foso ecológico basado en su propia red de potencia computacional. Pero esto también plantea mayores requisitos para las operaciones del proyecto. Cómo atraer a excelentes desarrolladores y usuarios y lograr la retención es particularmente importante.

Aplicaciones en diferentes campos

1. Procesamiento de Medios Digitales

Render Network Una plataforma global de renderizado basada en blockchain, cuyo objetivo es ayudar a los creadores con la creatividad digital. Permite a los creadores extender el trabajo de renderizado de GPU a nodos GPU globales según la demanda, proporcionando una capacidad de renderizado más rápida y económica. Después de que el creador confirma los resultados del renderizado, la red blockchain envía el código al nodo. Recompensas en monedas. En comparación con los métodos tradicionales de implementación de efectos visuales, establecer una infraestructura de renderizado local o agregar gastos de GPU correspondientes a los servicios en la nube comprados requiere una alta inversión inicial.

Desde su fundación en 2017, los usuarios de la Red Render han renderizado más de 16 millones de cuadros y cerca de 500,000 escenas en la red. Los datos publicados por Render Network en el segundo trimestre de 2023 también muestran que tanto el número de trabajos de cuadros de renderizado como el número de nodos activos están aumentando. Además, Render Network y el primer trimestre de 2023 también han lanzado un conjunto de herramientas de IA de estabilidad integradas de forma nativa. Los usuarios pueden utilizar esta función para introducir operaciones de Difusión Estable, y el negocio ya no se limita a operaciones de renderizado y se expande al campo de la IA.

Livepeer proporciona servicios de transcodificación de video en tiempo real a los creadores a través de los participantes de la red que contribuyen con su propia potencia computacional de GPU y ancho de banda. Los radiodifusores pueden completar la transcodificación de varios tipos de videos enviando videos a Livepeer y distribuyéndolos a varios usuarios finales, logrando así la difusión de contenido de video. Al mismo tiempo, puedes pagar fácilmente en moneda legal para obtener servicios como transcodificación de video, transmisión y almacenamiento.

En la red Livepeer, se permite a cualquiera contribuir con recursos informáticos personales (CPU, GPU y ancho de banda) para transcodificar y distribuir videos y ganar tarifas. El token nativo (LPT) representa los derechos e intereses de los participantes de la red en la red. El número de tokens comprometidos determina el peso del nodo en la red, afectando así sus posibilidades de obtener tareas de transcodificación. Al mismo tiempo, LPT también juega un papel en guiar a los nodos para completar tareas asignadas de manera segura, confiable y rápida.

2. exposición de AIarea

En el ecosistema actual en el campo de la inteligencia artificial, los principales actores pueden dividirse aproximadamente en:

Desde el lado de la demanda, existen diferencias obvias en las demandas de potencia computacional en diferentes etapas de la industria. Tomando el desarrollo del modelo subyacente como ejemplo, el proceso de pre-entrenamiento requiere una alta computación en paralelo, almacenamiento, comunicación, etc. para garantizar la efectividad de los resultados del entrenamiento. Esto requiere un gran clúster de potencia computacional para completar tareas relacionadas. En la actualidad, el suministro principal de potencia computacional depende principalmente de salas de ordenadores autoconstruidas y plataformas de servicios en la nube centralizadas. En las etapas posteriores de ajuste fino del modelo, razonamiento en tiempo real y desarrollo de aplicaciones, los requisitos de computación en paralelo y comunicación entre nodos no son tan altos. Aquí es exactamente donde la potencia computacional descentralizada puede mostrar todo su potencial.

Al observar los proyectos que han ganado considerable popularidad anteriormente, Akash Nework ha realizado algunos intentos en la dirección de la potencia computacional descentralizada:

Akash Network combina diferentes componentes tecnológicos para permitir a los usuarios implementar y gestionar aplicaciones de manera eficiente y flexible en un entorno de nube descentralizada. Los usuarios pueden utilizar la tecnología de contenedor Docker para empaquetar aplicaciones, y luego implementarlas y escalarlas a través de Kubernetes a través de CloudMOS en los recursos en la nube proporcionados por Akash. Akash utiliza un enfoque de “subasta inversa”, lo que hace que el precio sea más bajo que los servicios de nube tradicionales.

Akash Network también anunció en agosto de este año que lanzaría la sexta actualización de su red principal, incorporando soporte para GPUs en sus servicios en la nube y brindando potencia computacional a más equipos de IA en el futuro.

Gensyn.ai, un proyecto que ha atraído mucha atención en la industria este año, fue liderado por a16z y completó una financiación de Serie A de US$43 millones. A juzgar por los documentos publicados hasta ahora, el proyecto es una red principal basada en el protocolo L1 PoS de la red Polkadot, centrándose en el aprendizaje profundo. Su objetivo es empujar los límites del aprendizaje automático creando una red global de clúster de supercomputación. Esta red conecta dispositivos que van desde centros de datos con potencia informática excedente hasta PCs que pueden contribuir potencialmente con sus GPU personales, ASICs personalizados y SoCs.

Para resolver algunos de los problemas que actualmente existen en la potencia computacional descentralizada, Gensyn se basa en algunos nuevos resultados de investigación teórica en el ámbito académico:

  1. Adoptar la prueba de aprendizaje probabilístico, es decir, utilizar metadatos del proceso de optimización basado en el gradiente para construir pruebas de ejecución de tareas relevantes para acelerar el proceso de verificación;

  2. El Protocolo de Pinpoint basado en gráficos, GPP, sirve como un puente, conectando la ejecución fuera de línea de DNN (Redes Neuronales Profundas) y el marco de contratos inteligentes en la cadena de bloques, resolviendo las inconsistencias que pueden ocurrir fácilmente entre dispositivos de hardware y asegura la consistencia de la verificación.

  3. Un método de incentivos similar a Truebit, a través de una combinación de apuestas y castigos, establece un sistema de incentivos que permite a los participantes económicamente racionales realizar honestamente las tareas asignadas. El mecanismo utiliza métodos de criptografía y teoría de juegos. Este sistema de verificación es esencial para mantener la integridad y confiabilidad de cálculos de entrenamiento de modelos grandes.

Sin embargo, vale la pena señalar que el contenido anterior se centra más en resolver el nivel de verificación de la finalización de tareas, en lugar de la potencia computacional descentralizada para lograr funciones de entrenamiento de modelos como el punto principal en el documento del proyecto, especialmente sobre la computación paralela y la optimización distribuida de la comunicación, sincronización y otros problemas entre hardware. Actualmente, afectado por la latencia de red (Latencia) y el ancho de banda (Ancho de banda), la comunicación frecuente entre nodos aumentará el tiempo de iteración y los costos de comunicación. Esto no solo no traerá una optimización real, sino que reducirá la eficiencia de entrenamiento. El enfoque de Gensyn para manejar la comunicación de nodos y la computación paralela en el entrenamiento de modelos puede implicar protocolos de coordinación complejos para gestionar la naturaleza distribuida de la computación. Sin embargo, sin información técnica más detallada o una comprensión más profunda de sus métodos específicos, el mecanismo exacto por el cual Gensyn logra el entrenamiento de modelos a gran escala a través de su red no se revelará realmente hasta que el proyecto esté en línea.

También prestamos atención al protocolo Edge Matrix Computing (EMC) que utiliza tecnología blockchain para aplicar potencia computacional a la inteligencia artificial, renderizado e investigación científica, acceso al comercio electrónico de IA y otros tipos de escenarios, las tareas se distribuyen a diferentes nodos de potencia computacional a través de computación elástica. Este método no solo mejora la eficiencia de la potencia computacional, sino que también asegura la seguridad de la transmisión de datos. Al mismo tiempo, proporciona un mercado de potencia computacional donde los usuarios pueden acceder e intercambiar recursos informáticos. Es conveniente para que los desarrolladores implementen y lleguen a los usuarios más rápido. Combinado con la forma económica de Web3, los proveedores de potencia computacional también pueden obtener beneficios reales y subsidios de protocolo basados en el uso real de los usuarios, y los desarrolladores de IA también pueden obtener costos más bajos de razonamiento y renderizado. A continuación se presenta una descripción general de sus principales componentes y funciones:

También se espera que se lancen productos RWA basados en GPU. La clave para esto es revitalizar el hardware que originalmente estaba fijo en la sala de computadoras y dividirlo y circularlo en forma de RWA para obtener liquidez adicional. Una GPU de alta calidad puede ser utilizada como activo subyacente de RWA. La razón es que la potencia computacional puede ser considerada como una moneda fuerte en el campo de la IA. Actualmente existe una clara contradicción entre la oferta y la demanda, y esta contradicción no puede resolverse a corto plazo, por lo que el precio de la GPU es relativamente estable.

Además, implementar grupos de potencia computacional desplegando salas de ordenadores IDC también es una parte clave del protocolo EMC. Esto no solo permite que las GPUs operen en un entorno unificado, sino que también maneja de manera más eficiente tareas relacionadas con el consumo de potencia computacional a gran escala, como el preentrenamiento de modelos. Esto satisface las necesidades de los usuarios profesionales. Al mismo tiempo, la sala de ordenadores IDC también puede alojar y ejecutar de manera centralizada un gran número de GPUs para garantizar las especificaciones técnicas del mismo tipo de hardware de alta calidad, lo que facilita su comercialización como productos RWA y abre nuevas ideas para DeFi.

En los últimos años, la comunidad académica también ha desarrollado nuevas teorías técnicas y prácticas de aplicación en el campo de la computación en el borde. Como complemento y optimización de la computación en la nube, la computación en el borde es parte de la inteligencia artificial que se está acelerando desde la nube hasta el borde y en dispositivos IoT cada vez más pequeños. Estos dispositivos IoT suelen ser pequeños, por lo que se prefiere el aprendizaje automático ligero para abordar problemas como el consumo de energía, la latencia y la precisión.

Network3 se construye mediante la construcción de una capa de IA dedicada Layer2 para proporcionar a los desarrolladores de IA de todo el mundo la optimización y compresión de algoritmos de modelos de IA, aprendizaje federado, computación en el borde y computación de privacidad. Proporcionar servicios para ayudarles a entrenar o verificar modelos de forma rápida, conveniente y eficiente. Al utilizar una gran cantidad de dispositivos de hardware IoT inteligentes, puede centrarse en modelos pequeños para proporcionar la potencia informática correspondiente, y mediante la construcción de un TEE (Entorno de Ejecución Confiable), los usuarios pueden completar la capacitación relevante solo subiendo gradientes de modelos para garantizar la privacidad y seguridad de los datos relacionados con el usuario.

En resumen

• Con el desarrollo de la IA y otros campos, muchas industrias sufrirán cambios enormes en su lógica subyacente, la potencia computacional ascenderá a una posición más importante, y varios aspectos relacionados con ella también provocarán una amplia exploración en la industria. Las redes de potencia computacional descentralizadas tienen sus propias ventajas, pueden reducir el riesgo de centralización y también pueden servir como un complemento a la potencia computacional centralizada.

• Y los equipos en el campo de la IA también se encuentran en una encrucijada. La elección de si utilizar modelos grandes entrenados para construir sus propios productos o participar en el entrenamiento de grandes modelos en sus respectivas regiones es en su mayoría dialéctica. Por lo tanto, la potencia computacional descentralizada puede satisfacer diferentes necesidades comerciales. Esta tendencia de desarrollo es bienvenida, y con la actualización de la tecnología y la iteración de algoritmos, inevitablemente habrá avances en áreas clave.

• No tengas miedo, simplemente descúbrelo lentamente.

Referencia

https://www.semianalysis.com/p/gpt-4-architecture-infrastructure

https://medium.com/render-token/render-network-q2-highlights-part-2-network-statistics-ac5aa6bfa4e5

https://know.rendernetwork.com/

https://medium.com/livepeer-blog/una-visión-general-de-la-red-livepeer-y-lpt-44985f9321ff

https://www.youtube.com/watch?v=FDA9wqZmsY8

https://mirror.xyz/1kx.eth/q0s9RCH43JCDq8Z2w2Zo6S5SYcFt9ZQaRITzR4G7a_k

https://mirror.xyz/gensyn.eth/_K2v2uuFZdNnsHxVL3Bjrs4GORu3COCMJZJi7_MxByo

https://docs.gensyn.ai/litepaper/#solution

https://a16zcrypto.com/posts/announcement/investing-in-gensyn/

https://www.pinecone.io/learn/chunking-strategies/

https://akash.network/blog/the-fast-evolving-ai-landscape/

https://aws.amazon.com/cn/blogs/compute/amazon-ec2-p4d-instances-deep-dive/

https://manual.edgematrix.pro/emc-network/what-is-emc-and-poc

https://arstechnica.com/gaming/2022/09/el-fin-de-la-mineria-de-ethereum-podria-ser-una-fortuna-para-los-compradores-de-gpu/

Descargo de responsabilidad:

  1. Este artículo es reimpreso de [ PANews]. Todos los derechos de autor pertenecen al autor original [Campus Future3]. Si hay objeciones a esta reimpresión, por favor contacte alGate Learnequipo y ellos lo resolverán rápidamente.
  2. Descargo de responsabilidad: Las opiniones y puntos de vista expresados en este artículo son únicamente los del autor y no constituyen ningún consejo de inversión.
  3. Las traducciones del artículo a otros idiomas son realizadas por el equipo Gate Learn. A menos que se mencione, está prohibido copiar, distribuir o plagiar los artículos traducidos.
Comece agora
Inscreva-se e ganhe um cupom de
$100
!