Разработан метод предотвращения галлюцинаций больших языковых моделей

Разработан метод предотвращения галлюцинаций больших языковых моделей

Большие языковые модели (LLM), такие как ChatGPT, научились генерировать тексты, почти не отличимые от написанных человеком, и давать убедительные ответы. Но иногда случаются сбои, и тогда на вполне внятный запрос нейросеть выдаёт какую-то белиберду. Это явление получило название галлюцинации LLM. К нему же относятся связные ответы ИИ, содержащие...
11:50, 23.05.2024
Источник: www.pravda.ru  
Рубрика: «Наука и Технологии»   Поделиться: Поделиться новостью в Facebook Поделиться новостью в Twittere Поделиться новостью в VK Поделиться новостью в Pinterest Поделиться новостью в Reddit

Опубликован BoN, метод обхода фильтров больших языковых моделейОпубликован BoN, метод обхода фильтров больших языковых моделей Выявлен новый метод атаки, позволяющий обойти механизмы противодействия генерации опасного ...

МГУ о применении мультимодальных больших языковых моделей в видеоаналитикеМГУ о применении мультимодальных больших языковых моделей в видеоаналитике Ученые МГУ провели исследование по проблеме перевода видео в текст, что позволит значитель ...

GPT на языке бизнеса: особенности применения больших языковых моделейGPT на языке бизнеса: особенности применения больших языковых моделей Использование больших языковых моделей для генерации контента популярно не только среди ча ...

Яндекс открывает библиотеку YaFSDP для обучения больших языковых моделей«Яндекс» открывает библиотеку YaFSDP для обучения больших языковых моделей Компания «Яндекс» выложила в опенсорс библиотеку YaFSDP, которая ускоряет обучение больших ...

CHASPIK.SPB.RU Поиск в новостях