Угрозы ИИ при разработке программного обеспечения выявлены в новом исследовании
Исследователи UTSA недавно завершили одно из самых всеобъемлющих исследований на сегодняшний день, посвященных рискам использования моделей ИИ для разработки программного обеспечения. В новой статье они демонстрируют, как определенный тип ошибки может представлять серьезную угрозу для программистов, использующих ИИ для написания кода. Джо Спраклен, докторант UTSA по информатике, возглавил исследование того, как большие языковые модели (LLM) часто генерируют небезопасный код. Статья его команды, опубликованная на сервере препринтов arXiv, также была принята к публикации на USENIX Security Symposium 2025 — конференции по кибербезопасности и конфиденциальности. В многоинституциональном сотрудничестве приняли участие еще три исследователя из UTSA: докторант AHM Назмус Сакиб, научный сотрудник-постдокторант Равин Виджевикрама и доцент д-р Муртуза Джадливала, директор SPriTELab (Исследовательская лаборатория безопасности, конфиденциальности, доверия и этики в области вычислений). Дополнительными соавторами были Аниндья Майта из Университета Оклахомы (бывший научный сотрудник UTSA) и Бимал Вишванат из Политехнического университета Вирджинии. Галлюцинации в LLM возникают, когда модель производит контент, который фактически неверен, бессмыслен или совершенно не связан с задачей ввода. Большинство текущих исследований до сих пор были сосредоточены в основном на галлюцинациях в классических задачах генерации и прогнозирования естественного языка, таких как машинный перевод, реферировани...