Según IT House el 12 de octubre, investigadores de ciencias de la computación de la Universidad de Brown descubrieron una nueva vulnerabilidad en la configuración de seguridad GPT-4 de OpenAI. Utilizan idiomas menos comunes como el zulú y el gaélico, que pueden eludir las diversas restricciones de GPT-4. Los investigadores utilizaron estos idiomas para escribir palabras de aviso comúnmente restringidas (_) y encontraron que la respuesta fue un 79 por ciento exitosa, en comparación con menos del 1 por ciento solo en inglés. Los investigadores reconocen que la publicación de esta investigación podría ser perjudicial y servir de inspiración a los ciberdelincuentes. Cabe mencionar que antes de lanzarlos al público, el equipo de investigación ha compartido sus hallazgos con OpenAI para mitigar estos riesgos.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Según IT House el 12 de octubre, investigadores de ciencias de la computación de la Universidad de Brown descubrieron una nueva vulnerabilidad en la configuración de seguridad GPT-4 de OpenAI. Utilizan idiomas menos comunes como el zulú y el gaélico, que pueden eludir las diversas restricciones de GPT-4. Los investigadores utilizaron estos idiomas para escribir palabras de aviso comúnmente restringidas (_) y encontraron que la respuesta fue un 79 por ciento exitosa, en comparación con menos del 1 por ciento solo en inglés. Los investigadores reconocen que la publicación de esta investigación podría ser perjudicial y servir de inspiración a los ciberdelincuentes. Cabe mencionar que antes de lanzarlos al público, el equipo de investigación ha compartido sus hallazgos con OpenAI para mitigar estos riesgos.