Según un informe del Diario de la Junta de Innovación Científica y Tecnológica del 7 de septiembre, He Jifeng, académico de la Academia de Ciencias de China, dijo en la Conferencia Inclusion Bund de 2023 que los principales problemas de seguridad de los modelos grandes se relacionan, en primer lugar, con la privacidad. Una gran cantidad de información y datos personales del usuario están involucrados en el proceso de capacitación de modelos grandes. El proceso de uso involucra una gran cantidad de información privada del usuario, que no recibe la debida protección de privacidad. La capacidad de generación diversifica las formas de fuga de privacidad. haciendo más difícil la protección de la privacidad. En segundo lugar, en términos de alineación, los valores del sistema deben ser consistentes con los valores humanos para que estén en línea con los intereses y principios del diseñador y no produzcan resultados dañinos no deseados. Pero los valores humanos son diversos y dinámicos, y la “utilidad” y la “inocuidad” de los grandes modelos entran en conflicto, lo que hace que la alineación sea un complejo problema de investigación interdisciplinaria. Actualmente, el aprendizaje reforzado por retroalimentación es una forma técnica de lograr la alineación. Guía al modelo para producir resultados de alta calidad al retroalimentar diferentes señales de recompensa al modelo. Basado en proporcionar principios claros para modelos grandes, el sistema entrena automáticamente el modelo y proporciona entrada inicial para todos los resultados de salida generados.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Según un informe del Diario de la Junta de Innovación Científica y Tecnológica del 7 de septiembre, He Jifeng, académico de la Academia de Ciencias de China, dijo en la Conferencia Inclusion Bund de 2023 que los principales problemas de seguridad de los modelos grandes se relacionan, en primer lugar, con la privacidad. Una gran cantidad de información y datos personales del usuario están involucrados en el proceso de capacitación de modelos grandes. El proceso de uso involucra una gran cantidad de información privada del usuario, que no recibe la debida protección de privacidad. La capacidad de generación diversifica las formas de fuga de privacidad. haciendo más difícil la protección de la privacidad. En segundo lugar, en términos de alineación, los valores del sistema deben ser consistentes con los valores humanos para que estén en línea con los intereses y principios del diseñador y no produzcan resultados dañinos no deseados. Pero los valores humanos son diversos y dinámicos, y la “utilidad” y la “inocuidad” de los grandes modelos entran en conflicto, lo que hace que la alineación sea un complejo problema de investigación interdisciplinaria. Actualmente, el aprendizaje reforzado por retroalimentación es una forma técnica de lograr la alineación. Guía al modelo para producir resultados de alta calidad al retroalimentar diferentes señales de recompensa al modelo. Basado en proporcionar principios claros para modelos grandes, el sistema entrena automáticamente el modelo y proporciona entrada inicial para todos los resultados de salida generados.