Искусственный интеллект путает факты и создаёт мифы — вот как с этим справиться
Галлюцинации нейросетей — это ошибки в генерации текста. Сообщение может выглядеть правдоподобно, но содержать вымышленные факты, неточные данные или ссылки на несуществующие источники. Такие ошибки не только затрудняют работу с информацией, но и могут привести к финансовым и репутационным рискам для бизнеса. Специалисты ВТБ назвали ключевые способы борьбы с так называемыми галлюцинациями искусственного интеллекта.Бывают случаи, когда нейросеть предлагает несуществующие книги в списке рекомендаций или формирует условия продукта, которых на самом деле нет. Модель не проверяет факты, а подбирает наиболее вероятный ответ, поэтому ошибки выглядят правдоподобно, но вводят в заблуждение. В первую очередь, снизить количество галлюцинаций можно за счёт чётко сформулированных запросов: чем точнее и яснее формулировка, тем меньше вероятность, что модель начнёт «фантазировать». Однако, как подчёркивают специалисты, самым надёжным способом контроля остаётся внимательная проверка результата человеком. Для предотвращения искажений информации со стороны искусственного интеллекта важно учитывать и понимать характер самих ошибок. Языковые модели не понимают смысл информации и не проверяют её достоверность в реальном времени, поэтому сбои проявляются по‑разному. В одних случаях система искажает проверяемые данные, в других — формирует вымышленные сведения или неверно следует заданным инструкциям. Об этом сообщил лидер одной из команд по разработке моделей Алексей Пустынников.— Галлюцинации в р...