Згідно зі звітом "Kechuangban Daily" від 7 вересня, Хе Цзіфен, академік Академії наук Китаю, сказав на конференції Inclusion Bund 2023, що основними проблемами безпеки великих моделей є конфіденційність. Велика кількість особистої інформації користувачів і дані залучаються до процесу навчання великих моделей. , процес використання включає багато приватної інформації користувача, яка не отримала належного захисту конфіденційності, а можливість генерації урізноманітнює способи розкриття конфіденційності, ускладнюючи захист конфіденційності. По-друге, з точки зору узгодження, необхідно зробити цінності системи узгодженими з людськими цінностями, щоб вона відповідала інтересам і принципам дизайнера і не призводила до несподіваних шкідливих результатів. Проте людські цінності різноманітні та динамічно змінюються, і існують конфлікти між «корисністю» та «нешкідливістю» великих моделей, що робить узгодження складною міждисциплінарною проблемою дослідження. Наразі навчання з підсиленням зворотного зв’язку є технічним способом досягнення узгодженості. Посилаючи на модель різні сигнали винагороди, воно керує високоякісним результатом моделі; на основі надання чітких принципів для великої моделі система автоматично навчає модель і забезпечує початкове сортування.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити