Исследование Европейского вещательного союза (EBU) и BBC бросает тень сомнения на надежность искусственного интеллекта. Анализ более 3000 ответов от популярных моделей — ChatGPT, Copilot, Gemini и Perplexity — на новостные запросы на 14 языках показал тревожные результаты: 45% ответов содержат серьезные ошибки, а 81% — мелкие неточности. Это не просто статистические данные, а сигнал о системных проблемах в работе ИИ.
Особенно удручающе выглядит производительность Gemini от Google: три четверти ее ответов признаны недостоверными. Нейросети часто ссылаются на вымышленные источники, оперируют устаревшей информацией или смешивают факты с мнениями, что может ввести в заблуждение пользователей. Авторы исследования объясняют это принципом работы больших языковых моделей: они обучаются на ограниченном наборе данных и генерируют ответы на основе вероятностей, а не абсолютной истины. Кроме того, даже «умные» ИИ-браузеры уязвимы к манипуляциям через prompt-инъекции, когда злоумышленники могут обмануть систему.
В контексте растущего доверия к ИИ для получения информации — от новостей до советов — такие ошибки ставят под удар не только пользователей, но и общество в целом. Представьте, как это влияет на журналистику, образование или принятие решений: ложная информация может распространяться молниеносно. Эксперты призывают к улучшению алгоритмов и этическим стандартам, чтобы ИИ стал более прозрачным и точным. Пока же, в мире, где ИИ обещает революцию, это исследование напоминает: технологии — это инструмент, требующий человеческого контроля.
Служба информации Copyright.ru

