Публичные новости

Сгенерированные ответы Google AI Overviews оказались источником дезинформации: миллионы ошибок при «высокой точности»

Функция AI Overviews от Google, которая предоставляет краткие ответы на запросы пользователей, оказалась источником масштабной дезинформации. Согласно анализу стартапа Oumi, проведённому по заказу The New York Times, точность ответов составляет около 91%. Однако с учётом того, что Google обрабатывает более пяти триллионов запросов в год, это означает миллионы неверных ответов каждый час.

Исследование выявило, что пользователи склонны безоговорочно доверять сгенерированным ИИ ответам. Один из экспериментов показал, что только 8% пользователей проверяют ответы, а 80% продолжают доверять ИИ, даже если он предоставляет неверную информацию. Этот феномен получил название «когнитивная капитуляция» (cognitive surrender).

Анализ проводился с использованием теста SimpleQA, разработанного OpenAI. В октябре 2025 года тестировалась версия AI Overviews на базе модели Gemini 2, а в феврале 2026 года — обновлённая Gemini 3. Точность Gemini 3 составила 91%, тогда как Gemini 2 показала 85%. Однако с улучшением точности выросла и доля «необоснованных ответов», где ссылки на источники не подтверждали предоставленную информацию: с 37% у Gemini 2 до 56% у Gemini 3.

Иллюстрация: Sora

Google признала, что сгенерированные ответы AI Overviews могут содержать ошибки, но раскритиковала исследование Oumi. Тем не менее, внутренние тесты Google также выявили проблемы: модель Gemini 3 предоставляла неверную информацию в 28% случаев. Компания утверждает, что AI Overviews более точны, так как используют результаты поиска для формирования ответов.

Дополнительные примеры показывают, как сгенерированные ответы могут вводить пользователей в заблуждение. Например, в одном случае система неверно указала год открытия музея Боба Марли, ссылаясь на источники, которые не подтверждали эту информацию. В другом случае AI Overview ошибочно интерпретировала данные о реке в Северной Каролине, предоставив неверный ответ.

Несмотря на улучшения моделей, их способность генерировать «необоснованные ответы» остаётся серьёзным вызовом для разработчиков. Важно перепроверять информацию из нескольких источников, чтобы избежать ошибок.

Original: iXBT.com: новости

Средний рейтинг 0

Комментарии:

Здесь нет комментариев.
Здесь пока нет ни одного комментария, вы можете стать первым!

16+ Сайт может содержать контент, не предназначенный для лиц младше 16 лет