Conforme relatado pela Webmaster's House em 17 de outubro, especialistas levantaram preocupações sobre o fenômeno de alucinação de programas de IA como o ChatGPT em plataformas populares. As alucinações de IA são fenómenos em que a informação parece estar correta, mas na verdade é imprecisa. Plataformas como o ChatGPT fornecem informações imprecisas. Por exemplo, a Duke University Library apontou para o problema das citações falsas, a Forbes publicou uma notícia de que o ChatGPT enganou os cientistas com resumos falsos e a revista Fortune citou um estudo que mostra que a precisão do ChatGPT em responder a perguntas de matemática caiu de 98% para apenas 2%. À pergunta se o ChatGPT está fabricando informações, interpretando dados incorretamente ou confiando em desinformação, o ChatGPT responde que sua resposta é gerada com base nos padrões que ele treinou e inseriu a partir da última atualização, em setembro de 2021. No entanto, os modelos de IA podem produzir informações incorretas ou imprecisas se os dados de entrada ou consulta forem falhos, mas isso não é o mesmo que alucinações no sentido tradicional.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Conforme relatado pela Webmaster's House em 17 de outubro, especialistas levantaram preocupações sobre o fenômeno de alucinação de programas de IA como o ChatGPT em plataformas populares. As alucinações de IA são fenómenos em que a informação parece estar correta, mas na verdade é imprecisa. Plataformas como o ChatGPT fornecem informações imprecisas. Por exemplo, a Duke University Library apontou para o problema das citações falsas, a Forbes publicou uma notícia de que o ChatGPT enganou os cientistas com resumos falsos e a revista Fortune citou um estudo que mostra que a precisão do ChatGPT em responder a perguntas de matemática caiu de 98% para apenas 2%. À pergunta se o ChatGPT está fabricando informações, interpretando dados incorretamente ou confiando em desinformação, o ChatGPT responde que sua resposta é gerada com base nos padrões que ele treinou e inseriu a partir da última atualização, em setembro de 2021. No entanto, os modelos de IA podem produzir informações incorretas ou imprecisas se os dados de entrada ou consulta forem falhos, mas isso não é o mesmo que alucinações no sentido tradicional.