Selon IT House le 12 octobre, des chercheurs en informatique de l’Université Brown ont découvert une nouvelle vulnérabilité dans les paramètres de sécurité GPT-4 d’OpenAI. Ils utilisent des langues moins courantes telles que le zoulou et le gaélique, qui peuvent contourner les diverses restrictions du GPT-4. Les chercheurs ont utilisé ces langues pour écrire des mots d’invite couramment restreints (_) et ont constaté que la réponse était réussie à 79%, contre moins de 1% en anglais seul. Les chercheurs reconnaissent que la publication de cette recherche pourrait être nuisible et inspirer les cybercriminels. Il convient de mentionner qu’avant de les rendre publics, l’équipe de recherche a partagé ses résultats avec OpenAI pour atténuer ces risques.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Selon IT House le 12 octobre, des chercheurs en informatique de l’Université Brown ont découvert une nouvelle vulnérabilité dans les paramètres de sécurité GPT-4 d’OpenAI. Ils utilisent des langues moins courantes telles que le zoulou et le gaélique, qui peuvent contourner les diverses restrictions du GPT-4. Les chercheurs ont utilisé ces langues pour écrire des mots d’invite couramment restreints (_) et ont constaté que la réponse était réussie à 79%, contre moins de 1% en anglais seul. Les chercheurs reconnaissent que la publication de cette recherche pourrait être nuisible et inspirer les cybercriminels. Il convient de mentionner qu’avant de les rendre publics, l’équipe de recherche a partagé ses résultats avec OpenAI pour atténuer ces risques.