Большие языковые модели испытывают трудности с координацией в социальных и кооперативных играх
Большие языковые модели (LLM), такие как модель, лежащая в основе функционирования популярной диалоговой платформы ChatGPT, в настоящее время широко используются людьми по всему миру для получения информации, а также для обобщения, анализа и создания текстов. Исследования, изучающие ответы, предоставляемые LLM в различных сценариях, могут помочь глубже понять их тенденции во время социальных взаимодействий, что может способствовать их будущему развитию. Исследователи из Института ИИ, ориентированного на человека, имени Гельмгольца в Мюнхене, Института биологической кибернетики Макса Планка и Тюбингенского университета недавно приступили к изучению того, как ведут себя разные LLM, когда они взаимодействуют друг с другом, в частности, во время игры в различные кооперативные или конкурентные игры. Их выводы, опубликованные в Nature Human Behaviour , предполагают, что, хотя LLM не очень хорошо справляются с играми, требующими координации, есть способы сделать их взаимодействие во время игры в эти игры более похожим на человеческое. «На эту работу меня вдохновил простой, но важный вопрос: если LLM собираются взаимодействовать с людьми и друг с другом в реальных приложениях, насколько хорошо они на самом деле понимают социальную динамику?» — рассказала Элиф Аката, первый автор статьи. «Мы опирались на поведенческую теорию игр — математический подход, позволяющий понять, как люди принимают стратегические решения в интерактивных ситуациях, — и применили его к магистрам права». Многие...