Исследователи опровергли экзистенциальную угрозу ИИ для человечества
Новое исследование: большие языковые модели не представляют экзистенциальной угрозы человечеству Согласно новому исследованию Университета Бата и Технического университета Дармштадта в Германии, большие языковые модели (LLM), такие как ChatGPT, не способны обучаться самостоятельно или приобретать новые навыки, что означает, что они не представляют экзистенциальной угрозы человечеству. Исследование, опубликованное в рамках материалов 62-го ежегодного собрания Ассоциации компьютерной лингвистики (ACL 2024), показывает, что языковые модели обладают поверхностной способностью следовать инструкциям и преуспевать во владении языком, однако у них нет потенциала для освоения новых навыков без явных инструкций. Это означает, что они остаются по своей сути контролируемыми, предсказуемыми и безопасными. Источник: DALL-E Исследовательская группа под руководством профессора Ирины Гуревич из Технического университета Дармштадта в Германии провела эксперименты, чтобы проверить способность моделей выполнять задачи, с которыми модели никогда ранее не сталкивались. Результаты показали, что сочетание способности LLM следовать инструкциям и лингвистических навыков может объяснить как возможности, так и ограничения, демонстрируемые LLM. «Распространённое мнение о том, что этот тип ИИ представляет угрозу человечеству, препятствует широкому внедрению и развитию этих технологий, а также отвлекает внимание от реальных проблем, требующих внимания», — сказал доктор Хариш Тайяр М...