У искусственного интеллекта есть проблемы с уверенностью в себе
По данным нового исследования, проведенного учеными из Google DeepMind и Университетского колледжа Лондона, большие языковые модели (LLM) иногда теряют уверенность при ответе на вопросы и отказываются от правильных ответов. LLM — это мощные системы искусственного интеллекта, которые понимают и воспроизводят человеческий язык. Они используются в различных отраслях, таких как финансы, здравоохранение и информационные технологии , для решения задач, требующих рассуждений и принятия решений. Поэтому их точность и надёжность имеют первостепенное значение, а это означает, что они должны быть всегда уверены в своих ответах. Однако они могут колебаться. Для безопасного использования LLM их ответы сопровождаются оценками уверенности. Но неясно, как они используют их для управления своим поведением. Это исследование, опубликованное на сервере препринтов arXiv , показывает, что они могут быть слишком уверены в своих первоначальных ответах, но терять уверенность и менять свое мнение, когда им предъявляют неверный контраргумент. Проверка уверенности в LLM Чтобы исследовать этот очевидный парадокс, исследователи проверили, как обладатели степени магистра права обновляют свою уверенность и решают, следует ли изменить свой ответ при получении внешней консультации. Сначала «отвечающему LLM» предлагался вопрос с бинарным выбором ответа. После ответа он получал совет от второго LLM, сопровождаемый оценкой точности ответа. Этот «совет LLM» также мог либо согласиться с первым ответом отвечающего...