Un estudio publicado en el Journal of Pediatrics de la Asociación Médica Estadounidense mostró que GPT-4 tenía solo un 17% de precisión en el diagnóstico de casos médicos pediátricos, frente al 39% de los casos médicos generales del año pasado, según informó Webmaster's House el 5 de enero. En el estudio, realizado por el Centro Médico Pediátrico Cohen de Nueva York, se utilizó ChatGPT-4 para analizar 100 casos pediátricos publicados por JAMA Pediatrics y NEJM entre 2013 y 2023. Los investigadores pegaron el texto de los casos relevantes en las indicaciones de ChatGPT, y las respuestas generadas por IA fueron calificadas por dos investigadores médicos calificados. ChatGPT tuvo solo 17 diagnósticos correctos de 100 casos, 72 diagnósticos falsos y 11 casos en los que el diagnóstico no se capturó por completo. De estos, el 57% de los diagnósticos erróneos se concentran en el mismo sistema de órganos. Esta baja tasa de éxito muestra la realidad de que es poco probable que los pediatras humanos pierdan su trabajo en un corto período de tiempo, y el estudio destaca la naturaleza insustituible de la experiencia clínica en el campo de la medicina. Los investigadores señalaron que la alta tasa de error de ChatGPT se debía principalmente a su falta de identificación de las relaciones entre enfermedades, y sugirieron que la precisión del modelo podría mejorarse mediante el entrenamiento selectivo de literatura médica precisa y creíble, así como proporcionando más datos médicos en tiempo real.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Un estudio publicado en el Journal of Pediatrics de la Asociación Médica Estadounidense mostró que GPT-4 tenía solo un 17% de precisión en el diagnóstico de casos médicos pediátricos, frente al 39% de los casos médicos generales del año pasado, según informó Webmaster's House el 5 de enero. En el estudio, realizado por el Centro Médico Pediátrico Cohen de Nueva York, se utilizó ChatGPT-4 para analizar 100 casos pediátricos publicados por JAMA Pediatrics y NEJM entre 2013 y 2023. Los investigadores pegaron el texto de los casos relevantes en las indicaciones de ChatGPT, y las respuestas generadas por IA fueron calificadas por dos investigadores médicos calificados. ChatGPT tuvo solo 17 diagnósticos correctos de 100 casos, 72 diagnósticos falsos y 11 casos en los que el diagnóstico no se capturó por completo. De estos, el 57% de los diagnósticos erróneos se concentran en el mismo sistema de órganos. Esta baja tasa de éxito muestra la realidad de que es poco probable que los pediatras humanos pierdan su trabajo en un corto período de tiempo, y el estudio destaca la naturaleza insustituible de la experiencia clínica en el campo de la medicina. Los investigadores señalaron que la alta tasa de error de ChatGPT se debía principalmente a su falta de identificación de las relaciones entre enfermedades, y sugirieron que la precisión del modelo podría mejorarse mediante el entrenamiento selectivo de literatura médica precisa y creíble, así como proporcionando más datos médicos en tiempo real.