Специалисты Unit 42 рассказали о тревожной тенденции: крупные языковые модели (LLM), которые раньше считались помощниками для разработчиков и аналитиков, всё чаще используются злоумышленниками.
В свежем отчёте описаны случаи, когда такие модели превращаются в полноценные «фабрики» для фишинга, написания вредоносного кода и подготовки атак.
Исследователи выделяют два ключевых преимущества LLM, которые делают их привлекательными для киберпреступников.
Первое - способность генерировать грамотно сформулированный текст, пригодный для социальных инженерных атак, фишинга и мошеннических рассылок.
Второе - высокая скорость и лёгкость генерации кода, включая скрипты и модули эксплойтов. Это значит, что для создания вредоносного ПО уже не требуется глубокое знание программирования, достаточно сформулировать нужный запрос.
В отчёте названы две платформы с LLM, предназначенными специально для кибератак: WormGPT и KawaiiGPT. Эти модели лишены моральных фильтров и могут мгновенно выдавать фишинговые письма, скрипты для ransomware, инструменты для скрытого проникновения и др. Их продают или распространяют через специализированные чаты: любой, кто заплатит, получает готовый арсенал.
Главная угроза - снижение порога безопасности: для проведения серьёзной атаки достаточно базовых знаний и доступа к Интернету. Преступники теперь могут масштабировать атаки, запускать кампании массового фишинга, распространять вредоносные программы с минимальными усилиями и быстро адаптироваться.
Авторы отчёта предупреждают: компании, специалисты по безопасности и госорганы должны учитывать, что LLM могут выступать не только как инструменты защиты, но и как инструменты нападения. Необходим комплексный подход: ограничение доступа к таким моделям, мониторинг активности, усиление проверок и развития систем автоматического обнаружения подозрительных сценариев, где участвует ИИ.
Источник
В свежем отчёте описаны случаи, когда такие модели превращаются в полноценные «фабрики» для фишинга, написания вредоносного кода и подготовки атак.
Исследователи выделяют два ключевых преимущества LLM, которые делают их привлекательными для киберпреступников.
Первое - способность генерировать грамотно сформулированный текст, пригодный для социальных инженерных атак, фишинга и мошеннических рассылок.
Второе - высокая скорость и лёгкость генерации кода, включая скрипты и модули эксплойтов. Это значит, что для создания вредоносного ПО уже не требуется глубокое знание программирования, достаточно сформулировать нужный запрос.
В отчёте названы две платформы с LLM, предназначенными специально для кибератак: WormGPT и KawaiiGPT. Эти модели лишены моральных фильтров и могут мгновенно выдавать фишинговые письма, скрипты для ransomware, инструменты для скрытого проникновения и др. Их продают или распространяют через специализированные чаты: любой, кто заплатит, получает готовый арсенал.
Главная угроза - снижение порога безопасности: для проведения серьёзной атаки достаточно базовых знаний и доступа к Интернету. Преступники теперь могут масштабировать атаки, запускать кампании массового фишинга, распространять вредоносные программы с минимальными усилиями и быстро адаптироваться.
Авторы отчёта предупреждают: компании, специалисты по безопасности и госорганы должны учитывать, что LLM могут выступать не только как инструменты защиты, но и как инструменты нападения. Необходим комплексный подход: ограничение доступа к таким моделям, мониторинг активности, усиление проверок и развития систем автоматического обнаружения подозрительных сценариев, где участвует ИИ.
Источник









