Según un informe de Sina Technology del 6 de julio, OpenAI, el desarrollador de ChatGPT, dijo que planea invertir más recursos y establecer un nuevo equipo de investigación para estudiar cómo garantizar la seguridad de la IA para los humanos y, finalmente, darse cuenta del uso de AI para supervisar AI. El cofundador de OpenAI, Ilya Sutskeffer, y la líder de AI Alignment, Jane Lake, dijeron en el blog oficial: "Las enormes capacidades de la superinteligencia podrían conducir a la pérdida de poder o incluso a la extinción de los seres humanos. Actualmente, no tenemos una solución para manipular o controlar un posible IA superinteligente y evitar que se convierta en un pícaro". La publicación del blog predice que la IA superinteligente, sistemas que son más inteligentes que los humanos, pueden surgir en los próximos 10 años. Los humanos necesitan una tecnología más poderosa que la disponible actualmente para controlar la IA superinteligente, por lo que se necesitan avances en la "investigación de alineación de la IA", que es un problema importante en el control de la IA, que requiere que los objetivos de la IA y los valores e intenciones humanos sean consistentes. OpenAI dedicará el 20% de su poder de cómputo a resolver este problema en los próximos 4 años.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Según un informe de Sina Technology del 6 de julio, OpenAI, el desarrollador de ChatGPT, dijo que planea invertir más recursos y establecer un nuevo equipo de investigación para estudiar cómo garantizar la seguridad de la IA para los humanos y, finalmente, darse cuenta del uso de AI para supervisar AI. El cofundador de OpenAI, Ilya Sutskeffer, y la líder de AI Alignment, Jane Lake, dijeron en el blog oficial: "Las enormes capacidades de la superinteligencia podrían conducir a la pérdida de poder o incluso a la extinción de los seres humanos. Actualmente, no tenemos una solución para manipular o controlar un posible IA superinteligente y evitar que se convierta en un pícaro". La publicación del blog predice que la IA superinteligente, sistemas que son más inteligentes que los humanos, pueden surgir en los próximos 10 años. Los humanos necesitan una tecnología más poderosa que la disponible actualmente para controlar la IA superinteligente, por lo que se necesitan avances en la "investigación de alineación de la IA", que es un problema importante en el control de la IA, que requiere que los objetivos de la IA y los valores e intenciones humanos sean consistentes. OpenAI dedicará el 20% de su poder de cómputo a resolver este problema en los próximos 4 años.