Дослідження, опубліковане в Journal of Pediatrics Американської медичної асоціації, показало, що GPT-4 був лише на 17% точним у діагностиці педіатричних медичних випадків, порівняно з 39% загальних медичних випадків минулого року, як повідомляв Webmaster's House 5 січня. У дослідженні, проведеному Дитячим медичним центром Коена в Нью-Йорку, ChatGPT-4 використовувався для аналізу 100 педіатричних випадків, опублікованих JAMA Pediatrics і NEJM у період з 2013 по 2023 рік. Дослідники вставили текст відповідних кейсів у підказки ChatGPT, а відповіді, згенеровані штучним інтелектом, були оцінені двома кваліфікованими медичними дослідниками. У ChatGPT було лише 17 правильних діагнозів зі 100 випадків, 72 хибних діагнози та 11 випадків, коли діагноз не був повністю зафіксований. З них 57% помилкових діагнозів зосереджені в одній і тій же системі органів. Цей низький рівень успішності показує реальність того, що педіатри навряд чи втратять роботу за короткий проміжок часу, і дослідження підкреслює незамінний характер клінічного досвіду в медичній сфері. Дослідники зазначили, що високий рівень помилок ChatGPT в основному пов'язаний з відсутністю ідентифікації взаємозв'язків між захворюваннями, і припустили, що точність моделі можна підвищити, вибірково навчаючись на точній і достовірній медичній літературі, а також надаючи більше медичних даних у реальному часі.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити