Як повідомляє IT House 12 жовтня, дослідники комп'ютерних наук з Університету Брауна виявили нову вразливість у налаштуваннях безпеки GPT-4 OpenAI. Вони використовують менш поширені мови, такі як зулуська та гельська, які можуть обійти різні обмеження GPT-4. Дослідники використовували ці мови для написання слів-підказок з поширеними обмеженнями (_) і виявили, що відповідь була успішною на 79 відсотків, порівняно з менш ніж 1 відсотком лише англійською мовою. Дослідники визнають, що публікація цього дослідження може бути шкідливою та надихнути кіберзлочинців. Варто зазначити, що перед тим, як оприлюднити їх, дослідницька група поділилася своїми висновками з OpenAI, щоб пом'якшити ці ризики.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Як повідомляє IT House 12 жовтня, дослідники комп'ютерних наук з Університету Брауна виявили нову вразливість у налаштуваннях безпеки GPT-4 OpenAI. Вони використовують менш поширені мови, такі як зулуська та гельська, які можуть обійти різні обмеження GPT-4. Дослідники використовували ці мови для написання слів-підказок з поширеними обмеженнями (_) і виявили, що відповідь була успішною на 79 відсотків, порівняно з менш ніж 1 відсотком лише англійською мовою. Дослідники визнають, що публікація цього дослідження може бути шкідливою та надихнути кіберзлочинців. Варто зазначити, що перед тим, як оприлюднити їх, дослідницька група поділилася своїми висновками з OpenAI, щоб пом'якшити ці ризики.