Исследование, опубликованное в Journal of Pediatrics of the American Medical Association, показало, что GPT-4 был точен только на 17% в диагностике педиатрических заболеваний, по сравнению с 39% общих медицинских случаев в прошлом году, как сообщил Webmaster's House 5 января. В исследовании, проведенном Детским медицинским центром Коэна в Нью-Йорке, ChatGPT-4 был использован для анализа 100 педиатрических случаев, опубликованных JAMA Pediatrics и NEJM в период с 2013 по 2023 год. Исследователи вставили текст соответствующих случаев в подсказки ChatGPT, а ответы, сгенерированные искусственным интеллектом, были оценены двумя квалифицированными медицинскими исследователями. У ChatGPT было только 17 правильных диагнозов из 100 случаев, 72 ложных диагноза и 11 случаев, когда диагноз не был полностью зафиксирован. Из них 57% ошибочных диагнозов сосредоточены в одной и той же системе органов. Этот низкий уровень успеха показывает реальность того, что педиатры вряд ли потеряют работу в течение короткого периода времени, и исследование подчеркивает незаменимый характер клинического опыта в области медицины. Исследователи отметили, что высокая частота ошибок ChatGPT была в основном связана с отсутствием идентификации взаимосвязей между заболеваниями, и предположили, что точность модели может быть улучшена за счет выборочного обучения на точной и достоверной медицинской литературе, а также предоставления большего количества медицинских данных в режиме реального времени.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Исследование, опубликованное в Journal of Pediatrics of the American Medical Association, показало, что GPT-4 был точен только на 17% в диагностике педиатрических заболеваний, по сравнению с 39% общих медицинских случаев в прошлом году, как сообщил Webmaster's House 5 января. В исследовании, проведенном Детским медицинским центром Коэна в Нью-Йорке, ChatGPT-4 был использован для анализа 100 педиатрических случаев, опубликованных JAMA Pediatrics и NEJM в период с 2013 по 2023 год. Исследователи вставили текст соответствующих случаев в подсказки ChatGPT, а ответы, сгенерированные искусственным интеллектом, были оценены двумя квалифицированными медицинскими исследователями. У ChatGPT было только 17 правильных диагнозов из 100 случаев, 72 ложных диагноза и 11 случаев, когда диагноз не был полностью зафиксирован. Из них 57% ошибочных диагнозов сосредоточены в одной и той же системе органов. Этот низкий уровень успеха показывает реальность того, что педиатры вряд ли потеряют работу в течение короткого периода времени, и исследование подчеркивает незаменимый характер клинического опыта в области медицины. Исследователи отметили, что высокая частота ошибок ChatGPT была в основном связана с отсутствием идентификации взаимосвязей между заболеваниями, и предположили, что точность модели может быть улучшена за счет выборочного обучения на точной и достоверной медицинской литературе, а также предоставления большего количества медицинских данных в режиме реального времени.