Associated Press publicó pautas para el uso de inteligencia artificial generativa cuando la destacada organización de noticias destacó el papel de la supervisión humana en el periodismo.
Associated Press. Imagen: Shutterstock
En un esfuerzo por eliminar cualquier posible impacto negativo en sus informes, The Associated Press emitió nuevas pautas el miércoles que limitan el uso de herramientas de inteligencia artificial generativa por parte de los periodistas para informar.
Amanda Barrett, vicepresidenta de estándares e inclusión de AP, expuso algunas restricciones sobre cómo AP manejará los problemas futuros de IA. Primero, los periodistas no pueden usar ChatGPT para crear contenido publicable.
“Cualquier resultado de las herramientas generativas de inteligencia artificial debe considerarse material de origen no examinado”, escribió Barrett, y agregó que el personal debe usar su juicio editorial y los estándares de abastecimiento de los medios al considerar cualquier información para su publicación.
Además, AP no permite el uso de inteligencia artificial generativa para agregar o eliminar elementos de fotos, videos o audio. Tampoco transmitirá imágenes generadas por IA sospechosas de estar "falsamente representadas", conocidas como falsificaciones profundas, a menos que sea el tema de una historia y esté claramente etiquetada.
Barrett advirtió al personal que debido a que la IA generativa puede difundir fácilmente información errónea, Barrett aconsejó a los reporteros de AP que sean diligentes y ejerzan su cautela y escepticismo habituales, incluso tratando de identificar la fuente del contenido original.
“Si los periodistas tienen alguna duda sobre la veracidad de este material”, escribió, “no deberían usarlo”.
Si bien el artículo destacaba las limitaciones de la capacidad de los periodistas de AP para utilizar la IA generativa, en algunos sectores tenía un tono optimista, lo que sugería que las herramientas de IA también podrían beneficiar los reportajes de los periodistas.
"La precisión, la imparcialidad y la velocidad son los valores rectores de los informes de noticias de AP, y creemos que el uso cuidadoso de la inteligencia artificial puede servir a esos valores y mejorar la forma en que trabajamos con el tiempo", escribió Barrett.
Además, aclaró que la organización de noticias de 177 años no cree que AI pueda reemplazar a los reporteros y agregó que los reporteros de AP son responsables de la precisión y la imparcialidad de la información que comparten.
Barrett señaló un acuerdo de licencia que AP firmó con OpenAI el mes pasado que les dio a los creadores de ChatGPT acceso al archivo de noticias de AP que se remonta a 1985. A cambio, el acuerdo brinda a los medios de comunicación acceso al conjunto de productos y tecnologías de OpenAI.
La noticia del acuerdo con OpenAI llega días después de que la startup de inteligencia artificial comprometiera $5 millones al US Journal Project. Ese mismo mes, OpenAI firmó un contrato de seis años con la plataforma de medios de stock Shutterstock para obtener acceso a su amplia biblioteca de imágenes y medios.
En medio de toda la exageración sobre el potencial de la inteligencia artificial generativa y la capacidad de encontrar información de forma conversacional a través de chatbots, existe una creciente preocupación sobre la precisión de parte de la información que finalmente se proporciona a los usuarios.
Si bien los chatbots de IA pueden generar respuestas que parecen reales, también tienen el conocido hábito de provocar respuestas que en realidad son irreales. Este fenómeno, conocido como alucinaciones de IA, puede generar contenido, noticias o información falsa sobre personas, eventos o hechos. A
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Directrices de AP restringen el uso de inteligencia artificial generativa por parte de periodistas
Associated Press publicó pautas para el uso de inteligencia artificial generativa cuando la destacada organización de noticias destacó el papel de la supervisión humana en el periodismo.
Associated Press. Imagen: Shutterstock
En un esfuerzo por eliminar cualquier posible impacto negativo en sus informes, The Associated Press emitió nuevas pautas el miércoles que limitan el uso de herramientas de inteligencia artificial generativa por parte de los periodistas para informar.
Amanda Barrett, vicepresidenta de estándares e inclusión de AP, expuso algunas restricciones sobre cómo AP manejará los problemas futuros de IA. Primero, los periodistas no pueden usar ChatGPT para crear contenido publicable.
“Cualquier resultado de las herramientas generativas de inteligencia artificial debe considerarse material de origen no examinado”, escribió Barrett, y agregó que el personal debe usar su juicio editorial y los estándares de abastecimiento de los medios al considerar cualquier información para su publicación.
Además, AP no permite el uso de inteligencia artificial generativa para agregar o eliminar elementos de fotos, videos o audio. Tampoco transmitirá imágenes generadas por IA sospechosas de estar "falsamente representadas", conocidas como falsificaciones profundas, a menos que sea el tema de una historia y esté claramente etiquetada.
Barrett advirtió al personal que debido a que la IA generativa puede difundir fácilmente información errónea, Barrett aconsejó a los reporteros de AP que sean diligentes y ejerzan su cautela y escepticismo habituales, incluso tratando de identificar la fuente del contenido original.
“Si los periodistas tienen alguna duda sobre la veracidad de este material”, escribió, “no deberían usarlo”.
Si bien el artículo destacaba las limitaciones de la capacidad de los periodistas de AP para utilizar la IA generativa, en algunos sectores tenía un tono optimista, lo que sugería que las herramientas de IA también podrían beneficiar los reportajes de los periodistas.
"La precisión, la imparcialidad y la velocidad son los valores rectores de los informes de noticias de AP, y creemos que el uso cuidadoso de la inteligencia artificial puede servir a esos valores y mejorar la forma en que trabajamos con el tiempo", escribió Barrett.
Además, aclaró que la organización de noticias de 177 años no cree que AI pueda reemplazar a los reporteros y agregó que los reporteros de AP son responsables de la precisión y la imparcialidad de la información que comparten.
Barrett señaló un acuerdo de licencia que AP firmó con OpenAI el mes pasado que les dio a los creadores de ChatGPT acceso al archivo de noticias de AP que se remonta a 1985. A cambio, el acuerdo brinda a los medios de comunicación acceso al conjunto de productos y tecnologías de OpenAI.
La noticia del acuerdo con OpenAI llega días después de que la startup de inteligencia artificial comprometiera $5 millones al US Journal Project. Ese mismo mes, OpenAI firmó un contrato de seis años con la plataforma de medios de stock Shutterstock para obtener acceso a su amplia biblioteca de imágenes y medios.
En medio de toda la exageración sobre el potencial de la inteligencia artificial generativa y la capacidad de encontrar información de forma conversacional a través de chatbots, existe una creciente preocupación sobre la precisión de parte de la información que finalmente se proporciona a los usuarios.
Si bien los chatbots de IA pueden generar respuestas que parecen reales, también tienen el conocido hábito de provocar respuestas que en realidad son irreales. Este fenómeno, conocido como alucinaciones de IA, puede generar contenido, noticias o información falsa sobre personas, eventos o hechos. A