Новости ИИ на стороне преступников: исследователи предупреждают об опасности «вредоносных» LLM

BOOX

Стаж на ФС с 2012 года
Команда форума
Служба безопасности
Private Club
Регистрация
23/1/18
Сообщения
37.565
Репутация
13.605
Реакции
68.013
USD
0
Специалисты Unit 42 рассказали о тревожной тенденции: крупные языковые модели (LLM), которые раньше считались помощниками для разработчиков и аналитиков, всё чаще используются злоумышленниками.

В свежем отчёте описаны случаи, когда такие модели превращаются в полноценные «фабрики» для фишинга, написания вредоносного кода и подготовки атак.

ИИ на стороне преступников: исследователи предупреждают об опасности «вредоносных» LLM


Исследователи выделяют два ключевых преимущества LLM, которые делают их привлекательными для киберпреступников.

Первое - способность генерировать грамотно сформулированный текст, пригодный для социальных инженерных атак, фишинга и мошеннических рассылок.
Второе - высокая скорость и лёгкость генерации кода, включая скрипты и модули эксплойтов. Это значит, что для создания вредоносного ПО уже не требуется глубокое знание программирования, достаточно сформулировать нужный запрос.

В отчёте названы две платформы с LLM, предназначенными специально для кибератак: WormGPT и KawaiiGPT. Эти модели лишены моральных фильтров и могут мгновенно выдавать фишинговые письма, скрипты для ransomware, инструменты для скрытого проникновения и др. Их продают или распространяют через специализированные чаты: любой, кто заплатит, получает готовый арсенал.

Главная угроза - снижение порога безопасности: для проведения серьёзной атаки достаточно базовых знаний и доступа к Интернету. Преступники теперь могут масштабировать атаки, запускать кампании массового фишинга, распространять вредоносные программы с минимальными усилиями и быстро адаптироваться.

Авторы отчёта предупреждают: компании, специалисты по безопасности и госорганы должны учитывать, что LLM могут выступать не только как инструменты защиты, но и как инструменты нападения. Необходим комплексный подход: ограничение доступа к таким моделям, мониторинг активности, усиление проверок и развития систем автоматического обнаружения подозрительных сценариев, где участвует ИИ.


Источник
 
Назад
Сверху Снизу