Согласно расследованию Microsoft и OpenAI, хакеры используют большие языковые модели (LLM) для проведения исследований, написания сценариев атак или фишинговых писем.
«Группы киберпреступников исследуют и тестируют различные технологии искусственного интеллекта по мере их появления, пытаясь понять потенциальную ценность для своих операций и средства контроля безопасности, которые им, возможно, придется обойти», — говорится в блоге Microsoft.
В отчете упоминается о кибергруппировках, поддерживаемых россией, Северной Кореей, Ираном и Китаем.
В настоящее время установлено, что хакеры Strontium, связанные с российской военной разведкой, используют большую языковую модель «для понимания протоколов спутниковой связи, технологий радиолокационных изображений и конкретных технических параметров».
Группа, также известная как APT28 или Fancy Bear, была активной во время российско-украинской войны, а также участвовала в атаках на президентскую кампанию Хиллари Клинтон в 2016 году. По словам Microsoft, хакеры также используют LLM для помощи в «основных задачах сценариев, включая манипулирование файлами, выбор данных, регулярные выражения и многопроцессорную обработку, чтобы потенциально автоматизировать или оптимизировать технические операции».
Северокорейская хакерская группа, известная как Thallium, использует LLM для изучения публично известных уязвимостей и целевых организаций, для помощи в базовых задачах сценариев и для разработки контента для фишинговых кампаний.
Иранская группа, известная как Curium, также использует большие языковые модели для создания фишинговых электронных писем и даже кода, чтобы избежать обнаружения антивирусными программами. Китайские государственные хакеры также используют LLM для исследований, создания сценариев, переводов и совершенствования существующих инструментов.
Курс Business English для проджект-менеджерів. Курс на якому ви здолаєте всі бар’єри кроскультурної комунікації, навчитеся розв’язувати конфлікти, попереджати ризики та ефективно презентувати результати роботи іноземним стейкхолдерам. Більше про курс
Хотя использование искусственного интеллекта в кибератаках в настоящее время кажется ограниченным, Microsoft предупреждает о потенциальных случаях его использования для имитации голоса.
«Синтез голоса — пример того, как на образце продолжительностью 3 секунды можно воспроизвести звучание кого угодно», — говорит Microsoft. «Даже что-то безобидное, вроде вашей приветственной записи для голосовой почты также можно использовать».
Microsoft сейчас создает Security Copilot — нового помощника с искусственным интеллектом, разработанного для специалистов по кибербезопасности с целью помочь в віявлениинарушения и лучше понимать огромное количество сигналов и данных, ежедневно генерируемых инструментами кибербезопасности.
Российские хакеры сломали Microsoft благодаря слабой защите корпоративной сети
Присоединяйся к конкурса авторов ИТС! Выигрывай крутые призы от наших партнеров Logitech — профессиональный игровой руль и низкопрофильные игровые клавиатуры.