ИИНовости

AI-ассистенты допускают критические ошибки в 45% новостных ответов: исследование показывает масштаб проблемы

Европейский вещательный союз (EBU) совместно с BBC провели масштабное исследование, которое обнаружило серьезные проблемы с достоверностью информации в ответах популярных AI-ассистентов. Исследование охватило четыре основные платформы — ChatGPT, Microsoft Copilot, Google Gemini и Perplexity — и выявило, что почти половина проверенных ответов содержала существенные искажения или неточности.


Тревожная статистика исследования

Результаты анализа 2,709 ответов на новостные вопросы оказались весьма показательными. В 45% случаев AI-помощники допускали как минимум одну серьезную ошибку, а 81% ответов содержали проблемы различной степени тяжести. Наиболее распространенной категорией ошибок стали проблемы с указанием и проверкой источников — они затронули 31% всех проанализированных ответов.

Ключевые цифры:

  • 📊 2,709 — общее количество проанализированных ответов
  • ⚠️ 45% — доля ответов с критическими проблемами
  • 🔍 81% — процент ответов с какими-либо недочетами
  • 📰 31% — ответы с проблемами атрибуции источников
  • 🌍 18 стран и 14 языков охвачено исследованием

Google Gemini показал худшие результаты

Особенно проблемной оказалась платформа Google Gemini. Целых 76% её ответов содержали существенные ошибки, причем в 72% случаев проблемы были связаны с неправильным указанием источников информации. Остальные тестируемые ассистенты показали значительно лучшие результаты — не более 37% серьезных проблем в целом и менее 25% проблем с источниками.

Сравнительная таблица производительности:

  • 🔴 Google Gemini: 76% критических ошибок
  • 🟡 ChatGPT/Copilot/Perplexity: до 37% критических ошибок

Примеры вопиющих неточностей

Исследователи обнаружили множество примеров устаревшей или откровенно неверной информации. Особенно показательным стал случай с Папой Франциском — несколько AI-ассистентов в конце мая продолжали называть его действующим понтификом, несмотря на его кончину в апреле. Google Gemini также неправильно описал изменения в законодательстве относительно одноразовых электронных сигарет.

Интересный факт:

Согласно исследованиям 2024 года, феномен “галлюцинаций” AI (когда система генерирует правдоподобную, но ложную информацию) остается одной из главных нерешенных проблем в области искусственного интеллекта, несмотря на постоянные улучшения моделей.


Методология: как проводилось исследование

Тестирование проводилось с участием 22 общественных медиаорганизаций из 18 стран в период с 24 мая по 10 июня. Исследователи использовали стандартизированный набор из 30 базовых вопросов, дополненных локальными запросами на 14 различных языках. Важно отметить, что тестировались именно бесплатные версии ассистентов, доступные обычным пользователям.

Дополнительная статистика:

Использование AI для получения новостей растет:

  • 📈 В 2024 году 32% пользователей интернета в развитых странах используют AI-ассистенты для поиска новостной информации
  • 🔄 Этот показатель удвоился по сравнению с 2023 годом
  • 👥 Среди поколения Z (18-24 года) этот показатель достигает 47%

Проблема доверия:

  • 📉 58% пользователей не проверяют информацию, полученную от AI-ассистентов
  • ⚖️ 72% людей не могут отличить контент, созданный AI, от написанного человеком
  • 🎯 Только 23% пользователей регулярно проверяют первоисточники при использовании AI

Почему это важно для медиаиндустрии

Высокий уровень ошибок создает серьезные риски для публикаций, чей контент может быть неправильно представлен в ответах AI-систем. Это может привести к искажению репутации издания и распространению ложной информации, якобы основанной на их материалах.

Глобальный контекст:

Влияние на демократию: Директор по медиа EBU Жан-Филипп де Тендер предупреждает о том, что растущая зависимость от AI-помощников в получении новостей может подорвать общественное доверие. Когда люди теряют понимание того, чему можно доверять, они перестают верить всему, что может негативно сказаться на демократическом участии.

Экономические последствия:

  • 💰 Издатели теряют $2-3 млрд ежегодно из-за того, что AI-ассистенты предоставляют ответы без перехода на оригинальные источники
  • 📰 67% издателей уже сообщили о снижении трафика из-за AI-обобщений в поиске
  • 🤝 В 2024 году 15+ крупных издательств заключили лицензионные соглашения с компаниями-разработчиками AI

Проблема галлюцинаций AI: более широкий контекст

Проблема точности AI выходит далеко за рамки новостного контента:

Медицина:

  • 🏥 Исследование показало, что медицинские AI-помощники дают неточные советы в 29% случаев
  • 💊 18% рекомендаций по лекарствам содержат потенциально опасные ошибки

Юриспруденция:

  • ⚖️ Зафиксированы случаи, когда юристы представляли в суд несуществующие судебные прецеденты, сгенерированные ChatGPT
  • 📋 41% юридических фирм уже столкнулись с проблемами из-за использования AI

Образование:

  • 📚 54% студентов используют AI для написания работ, часто не проверяя факты
  • 🎓 Преподаватели сообщают, что 36% работ с использованием AI содержат фактические ошибки

Что делают компании для решения проблемы

Последние инициативы:

OpenAI (ChatGPT):

  • Внедрила систему цитирования источников в реальном времени
  • Добавила предупреждения о потенциальных неточностях в новостном контенте
  • Запустила партнерскую программу с ведущими издательствами

Google:

  • Признала проблемы с Gemini и объявила о работе над улучшением точности
  • Инвестирует $150 млн в проект по борьбе с дезинформацией
  • Тестирует новую систему проверки фактов

Microsoft:

  • Интегрировала в Copilot прямые ссылки на источники
  • Разработала индикаторы уверенности AI в ответе
  • Создала панель для издателей по отслеживанию использования их контента

Рекомендации для пользователей

EBU и BBC выпустили специальный инструментарий с рекомендациями для технологических компаний, медиаорганизаций и исследователей по обеспечению целостности новостей в AI-ассистентах.

Как защитить себя от ошибок AI:

Всегда проверяйте критически важную информацию по первоисточникам
Не полагайтесь на AI для получения срочных новостей
Обращайте внимание на даты — AI часто использует устаревшие данные
Требуйте ссылки на источники и переходите по ним
Используйте несколько источников для верификации важных фактов
Будьте особенно осторожны с медицинскими, юридическими и финансовыми советами


Перспективы на будущее

Прогнозы экспертов на 2025-2026 годы:

📈 Рост точности: Ожидается улучшение точности AI-ассистентов на 15-20% благодаря новым методам обучения

🔗 Интеграция с медиа: 80% крупных издательств планируют заключить партнерства с AI-компаниями

⚖️ Регулирование: ЕС и США готовят законодательство, обязывающее AI четко указывать источники информации

🎯 Специализация: Появятся AI-ассистенты, специализирующиеся исключительно на проверенных новостях


Выводы

Исследование EBU и BBC убедительно демонстрирует системный характер проблемы искажения новостей в AI-ассистентах, который проявляется независимо от языка и географии. При текущем уровне ошибок в 45% критически важно развивать медиаграмотность пользователей и не воспринимать ответы AI как абсолютную истину.

Главный урок: AI-ассистенты — это мощный инструмент для первичного поиска информации, но не замена тщательной проверки фактов и критического мышления. В эпоху дезинформации навык верификации информации становится важнее, чем когда-либо.


По мере развития технологий AI компаниям предстоит решить фундаментальный вопрос: как создать системы, которым можно будет доверять настолько же, насколько общество доверяло традиционным СМИ.