ИИ-помощники искажают новостной контент почти в половине запросов пользователей

В 45% всех ответов искусственного интеллекта содержится "как минимум одна значимая ошибка", говорится в исследовании Европейского вещательного союза и вещательной корпорации.

Авторы исследования, проведенного Европейским вещательным союзом (EBU) при содействии вещательной корпорацией Би-би-си выявили, что ИИ-помощники дают искаженные ответы на запросы пользователей почти в половине случаев. 

Согласно заявлению союза, профессиональные журналисты из 22 организаций общественных СМИ 18 стран, работающие на 14 языках, оценили более 3 тыс. ответов чат-ботов ChatGPT, Copilot, Gemini и Perplexity на точность, выбор источника информации, способность отделять мнение от фактов и предоставление контекста. Эксперты пришли к выводу о том, что "ИИ-помощники, которые уже являются ежедневным информационным порталом для миллионов людей, регулярно искажают новостной контент независимо от языка, региона или платформы ИИ, на которой проводится тестирование".

В 45% всех ответов ИИ, по их данным, содержится "как минимум одна значимая ошибка". В 31% ответов выявлены "серьезные проблемы с поиском источника: отсутствующие, вводящие в заблуждение или неверные атрибуции". Пятая часть всех ответов имеет серьезные проблемы с точностью, включая неверные детали и устаревшую информацию. 

«Ошибки ИИ-инструментов — не технологическая случайность, а результат отсутствия прозрачных стандартов данных и системной валидации. Для снижения риска требуется доверенная инфраструктура, национальные модели и аудит качества — именно вокруг этого строится стратегический фокус развития ИИ в «Группе Астра», — говорит Станислав Ежов, директор по ИИ «Группы Астра». 

Тематики: Web

Ключевые слова: Искусственный интеллект, Нейросети, Группа Астра