Новые исследования выявили серьёзную проблему в работе искусственного интеллекта: многие модели, включая популярные чат-боты, при ответах на вопросы опираются на данные из научных статей, которые были официально отозваны или признаны недостоверными. Это касается медицины, биологии и других областей науки, где отозванные публикации продолжают использоваться ИИ для формулировки рекомендаций и объяснений.
Команда исследователей из Университета Теннесси (США) провела тесты с использованием 21 отозванной статьи по медицинской визуализации и обнаружила, что современные версии ChatGPT (например, GPT-4o) при цитировании упоминали эти недействительные источники в ряде случаев, причём чаще, чем предупреждали об их статусе. Другое исследование показало, что при проверке более чем 200 отклонённых и недостоверных работ многие ИИ-модели не сообщали об их статусе, а порой признавали спорные утверждения верными. Значимо, что большинство таких исследований проводилось на версиях моделей с ограниченным знанием и без доступа к информации в интернете.