Recientemente, el Laboratorio de Inteligencia Artificial de Shanghai lanzó XTuner, una caja de herramientas de código abierto para el entrenamiento de modelos grandes, reduciendo una vez más el umbral para el entrenamiento de modelos grandes. Se informa que XTuner se centra en el proceso de ajuste fino y proporciona un marco de ajuste fino liviano para varios modelos grandes de código abierto, consolidando una vez más los atributos de herramienta práctica del sistema de código abierto de cadena completa. XTuner admite la adaptación de múltiples niveles de hardware. Los desarrolladores solo necesitan usar un mínimo de 8 GB de memoria de video de nivel de consumidor para entrenar un "modelo grande exclusivo" adecuado para escenarios de demanda específicos.


#contentMINING# #ContentMining#
#content星# #ContentStar#
#Envío de recompensa# #BountyCreator#
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)