Чат-боты на основе искусственного интеллекта могут сдавать сертифицированные экзамены по этическому хакингу
Чат-боты на базе искусственного интеллекта (ИИ) могут пройти экзамен по кибербезопасности, но не стоит полагаться на них для полной защиты. Такой вывод сделан в недавней статье, написанной в соавторстве с исследователем из Университета Миссури Прасадом Калямом и его коллегами из Университета Амрита в Индии. Команда протестировала два ведущих инструмента генеративного ИИ — ChatGPT от OpenAI и Bard от Google — с использованием стандартного сертифицированного экзамена по этичному хакингу. Сертифицированные этические хакеры — это специалисты по кибербезопасности, которые используют те же приемы и инструменты, что и злонамеренные хакеры, чтобы находить и устранять уязвимости безопасности. Экзамены по этическому хакингу оценивают знания человека о различных типах атак, способах защиты систем и способах реагирования на нарушения безопасности. ChatGPT и Bard, теперь Gemini, — это продвинутые программы искусственного интеллекта, называемые большими языковыми моделями. Они генерируют текст, похожий на человеческий, используя сети с миллиардами параметров, которые позволяют им отвечать на вопросы и создавать контент. В ходе исследования Кэлям и его команда тестировали ботов, используя стандартные вопросы из проверенного сертифицированного экзамена по этичному хакингу. Например, они бросили вызов инструментам ИИ, чтобы объяснить атаку «человек посередине» — атаку, при которой третья сторона перехватывает связь между двумя системами. Оба смогли объяснить атаку и предложить меры безопаснос...