El drama anual de Silicon Valley "The Legend of the Truth" ha terminado, pero las noticias relacionadas siguen atrayendo la atención. El día 17 terminó en San Francisco la cumbre de la APEC 2023, en la que Altman insinuó que OpenAI estaba trabajando en un producto más potente que la última versión de GPT-4 y superaba con creces las expectativas de la gente, y fue despedido al día siguiente. Otra carta de advertencia supuestamente enviada a la junta directiva también muestra que se ha dado un gran salto dentro de uno de los grandes modelos de OpenAI. Según Reuters, citando a personas familiarizadas con el asunto, esta carta es la primera vez que se divulga, y también es una de las razones importantes que llevaron a la decisión final de la junta directiva de OpenAI de destituir a Altman.
La CTO de OpenAI, Mira Murati, la primera CEO interina, mencionó el proyecto llamado Q* (pronunciado Q-Star), el miércoles y escribió una carta a la junta directiva antes de que se produjera el "golpe". Como resultado, la junta directiva comenzó a sospechar y creyó que Altman estaba impulsando un proyecto potencialmente amenazante sin la junta. Al mismo tiempo, algunos investigadores internos creen que el progreso de OpenaAI en Q* se convertirá en un avance importante para AGI, que está más cerca del objetivo que la última versión de GPT-4. Sin embargo, pronto, TradingStrategy.ai cofundador Mick Otama dijo que el "gran avance" ha sido falsificado por los expertos de OpenAI.
Además de la carta de Mira, otro evento que corrobora el proyecto Q* fue el discurso de Altman en una reunión de APEC. Insinuó que OpenAI ha desarrollado algo más poderoso e inimaginable que GPT-4, superando con creces las expectativas. "Habrá un salto en las capacidades del modelo grande que nadie esperaba, y a diferencia de lo que la gente esperaba, el salto es increíble. El cambio tecnológico que se está produciendo actualmente revolucionará nuestra forma de vida, la estructura de nuestra economía y sociedad, y todas las demás limitaciones posibles... Esto se ha hecho cuatro veces en la historia de OpenAI, siendo la más reciente en las últimas semanas. Ha sido un privilegio en mi carrera estar allí mientras descorrí el velo de la ignorancia y exploro los límites de lo desconocido. Fue expulsado por la junta directiva de OpenAI al día siguiente de que hablara, y es difícil decir que no hay conexión entre los dos eventos. Algunas personas pueden decir que Altman filtró sus propios secretos, pero la declaración de que la junta directiva de OpenAI "no es lo suficientemente honesta" obviamente está diciendo que Altman está actuando en contra del yin y promoviendo el proyecto detrás de la junta directiva. Aunque ahora parece que "no es lo suficientemente honesto" es más bien un pecado de querer añadir.
Un portavoz de OpenAI dijo que el mensaje, enviado por el CTO Mira, recordaba a los empleados que fueran conscientes de su redacción cuando se enfrentaran a la cobertura de los medios, pero no se comprometía con su precisión. Otra fuente señaló que, desde el punto de vista interno de OpenAI, AGI puede definirse como "un sistema autónomo que supera a los humanos en las tareas más valiosas económicamente".
Debido a la enorme potencia de cálculo, el nuevo modelo grande puede resolver ciertos problemas matemáticos. Aunque es solo un problema matemático a nivel de escuela primaria, los investigadores son muy optimistas sobre el futuro de Q* a través de dicha prueba. En la carta a la junta directiva, los investigadores también señalaron la fuerza y los peligros potenciales de la IA, pero no especificaron los problemas de seguridad exactos mencionados en la carta, según los informantes. Los investigadores también señalaron el trabajo de un equipo llamado "AI Scientists", que ha sido confirmado por múltiples fuentes.
Algunos empleados de OpenAI creen que los comentarios de Altman deberían ser una referencia a algunas de las investigaciones innovadoras anteriores de la compañía que les permitieron desarrollar modelos GPT cada vez más potentes. ** El trabajo, dirigido por el equipo de la jefa científica Ireya, nunca se había informado antes y causa preocupación entre algunos empleados. Les preocupa que la empresa no cuente actualmente con las salvaguardias adecuadas para garantizar que esta tecnología avanzada pueda comercializarse. En los meses siguientes, los investigadores sénior de OpenAI utilizaron la innovación para construir sistemas que resuelven problemas matemáticos básicos.
Según The Information, Q* es en realidad un hito tecnológico importante para dos investigadores de OpenAI, Jager y Simon, que utilizaron el trabajo de Ilya para construir un gran modelo que nunca antes había visto. Cualquiera que utilice regularmente modelos grandes sabe que, aunque los modelos grandes son generalmente elocuentes, los problemas matemáticos siempre han sido una tarea difícil. En junio, GPT-4 fue capaz de hacer cinco preguntas de matemáticas para el examen de ingreso a la universidad con modelos convencionales en el país y en el extranjero, especialmente cuando se compara el "muy lejos" en la conferencia de prensa, pero al final fue el resultado de las diez preguntas incorrectas.
Las demostraciones de Q's * han estado circulando dentro de OpenAI en las últimas semanas, y el rápido ritmo de desarrollo de la IA en sí a menudo ha dejado boquiabiertos a los investigadores de seguridad. No solo eso, sino que estos avances en Q también permiten que OpenAI ya no esté limitado por datos insuficientes con calidad y cantidad al entrenar nuevos modelos grandes, que es el principal obstáculo que afecta a los desarrolladores de todo el mundo para superar la próxima generación de modelos grandes**.
Como científico jefe de OpenAI, Ilya ha estado trabajando durante años en cómo hacer que GPT-4 resuelva tareas que involucran razonamiento, como problemas matemáticos o científicos. Antes de unirse a OpenAI, Ilya, que todavía estaba en Google DeepMind, trabajó en esta dirección durante muchos años. En 2021, lanzó un proyecto llamado GPT-0, que es un homenaje a su antiguo club AlphaGo Zero, que es la última versión de Alpha Dog. No solo Go, también puede jugar al ajedrez y al shogi. En ese momento, el equipo de DeepMind asumió que mientras los modelos grandes tuvieran suficiente tiempo y potencia de cálculo, algún día podrían lograr nuevos avances académicos. Especialmente para las capacidades matemáticas y de razonamiento de los grandes modelos actuales que necesitan ser mejorados urgentemente, puede haber una gran mejora en el futuro**. Poco después, Ilya se unió a OpenAI a instancias de Musk.
Aunque "The True Biography" también ha llegado a su fin después de que Altman regresara ayer al puesto de CEO, las contradicciones entre los ejecutivos de OpenAI aún parecen no haber sido eliminadas, y pueden continuar durante mucho tiempo. La razón principal de esto es que la tensión dentro de OpenAI sobre el progreso del trabajo no ha disminuido. La propia Ilya es conocida por su inteligencia e integridad, que incluso Musk elogia, y presumiblemente todavía tiene reservas sobre la tecnología. Este verano, reunió un equipo de alineación para limitar la amenaza que los sistemas de IA podrían representar para la humanidad.
En opinión del equipo de alineación liderado por Ierya, aunque la superIA aún está lejos, puede ser posible en la próxima década. Además, después de que Altman fuera despedido la semana pasada, varias personas también renunciaron rápidamente. Y tras el regreso de Altman ayer, estas personas también regresaron a OpenAI. El presidente y cofundador de OpenAI, Brockman, también apoya la tecnología y se compromete a integrarla en nuevos productos. Él y Altman también son muy férreos, y "escribe código esta noche" es exactamente lo que se dijo ayer.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
El nuevo gran modelo de OpenAI: nuevas capacidades, incluso poniéndose en peligro a sí misma
El drama anual de Silicon Valley "The Legend of the Truth" ha terminado, pero las noticias relacionadas siguen atrayendo la atención. El día 17 terminó en San Francisco la cumbre de la APEC 2023, en la que Altman insinuó que OpenAI estaba trabajando en un producto más potente que la última versión de GPT-4 y superaba con creces las expectativas de la gente, y fue despedido al día siguiente. Otra carta de advertencia supuestamente enviada a la junta directiva también muestra que se ha dado un gran salto dentro de uno de los grandes modelos de OpenAI. Según Reuters, citando a personas familiarizadas con el asunto, esta carta es la primera vez que se divulga, y también es una de las razones importantes que llevaron a la decisión final de la junta directiva de OpenAI de destituir a Altman.
La CTO de OpenAI, Mira Murati, la primera CEO interina, mencionó el proyecto llamado Q* (pronunciado Q-Star), el miércoles y escribió una carta a la junta directiva antes de que se produjera el "golpe". Como resultado, la junta directiva comenzó a sospechar y creyó que Altman estaba impulsando un proyecto potencialmente amenazante sin la junta. Al mismo tiempo, algunos investigadores internos creen que el progreso de OpenaAI en Q* se convertirá en un avance importante para AGI, que está más cerca del objetivo que la última versión de GPT-4. Sin embargo, pronto, TradingStrategy.ai cofundador Mick Otama dijo que el "gran avance" ha sido falsificado por los expertos de OpenAI.
Un portavoz de OpenAI dijo que el mensaje, enviado por el CTO Mira, recordaba a los empleados que fueran conscientes de su redacción cuando se enfrentaran a la cobertura de los medios, pero no se comprometía con su precisión. Otra fuente señaló que, desde el punto de vista interno de OpenAI, AGI puede definirse como "un sistema autónomo que supera a los humanos en las tareas más valiosas económicamente".
Algunos empleados de OpenAI creen que los comentarios de Altman deberían ser una referencia a algunas de las investigaciones innovadoras anteriores de la compañía que les permitieron desarrollar modelos GPT cada vez más potentes. ** El trabajo, dirigido por el equipo de la jefa científica Ireya, nunca se había informado antes y causa preocupación entre algunos empleados. Les preocupa que la empresa no cuente actualmente con las salvaguardias adecuadas para garantizar que esta tecnología avanzada pueda comercializarse. En los meses siguientes, los investigadores sénior de OpenAI utilizaron la innovación para construir sistemas que resuelven problemas matemáticos básicos.
Según The Information, Q* es en realidad un hito tecnológico importante para dos investigadores de OpenAI, Jager y Simon, que utilizaron el trabajo de Ilya para construir un gran modelo que nunca antes había visto. Cualquiera que utilice regularmente modelos grandes sabe que, aunque los modelos grandes son generalmente elocuentes, los problemas matemáticos siempre han sido una tarea difícil. En junio, GPT-4 fue capaz de hacer cinco preguntas de matemáticas para el examen de ingreso a la universidad con modelos convencionales en el país y en el extranjero, especialmente cuando se compara el "muy lejos" en la conferencia de prensa, pero al final fue el resultado de las diez preguntas incorrectas.
Como científico jefe de OpenAI, Ilya ha estado trabajando durante años en cómo hacer que GPT-4 resuelva tareas que involucran razonamiento, como problemas matemáticos o científicos. Antes de unirse a OpenAI, Ilya, que todavía estaba en Google DeepMind, trabajó en esta dirección durante muchos años. En 2021, lanzó un proyecto llamado GPT-0, que es un homenaje a su antiguo club AlphaGo Zero, que es la última versión de Alpha Dog. No solo Go, también puede jugar al ajedrez y al shogi. En ese momento, el equipo de DeepMind asumió que mientras los modelos grandes tuvieran suficiente tiempo y potencia de cálculo, algún día podrían lograr nuevos avances académicos. Especialmente para las capacidades matemáticas y de razonamiento de los grandes modelos actuales que necesitan ser mejorados urgentemente, puede haber una gran mejora en el futuro**. Poco después, Ilya se unió a OpenAI a instancias de Musk.
En opinión del equipo de alineación liderado por Ierya, aunque la superIA aún está lejos, puede ser posible en la próxima década. Además, después de que Altman fuera despedido la semana pasada, varias personas también renunciaron rápidamente. Y tras el regreso de Altman ayer, estas personas también regresaron a OpenAI. El presidente y cofundador de OpenAI, Brockman, también apoya la tecnología y se compromete a integrarla en nuevos productos. Él y Altman también son muy férreos, y "escribe código esta noche" es exactamente lo que se dijo ayer.