В даркнете обнаружили ИИ-сервис, в котором нет встроенных ограничений. С его помощью мошенники и аферисты даже без технических навыков могут разрабатывать вирусы и новые схемы обмана, которые можно сразу применить на практике. Об этом пишет газета «Известия» со ссылкой на специалистов по кибербезопасности.
Первые следы криминального ИИ эксперты обнаружили в сентябре 2025 года. Почти сразу после запуска администратор сервиса стал активно продвигать его на одном из даркнет-форумов. При этом он хвастался нагрузкой – якобы всего за первые сутки новая ИИ-система обработала около 10 тысяч запросов.
По данным экспертов, злоумышленники стали активно использовать бот в мошеннических схемах, при разработке вирусов, распространении экстремистских материалов и создании контента на тему сексуальной эксплуатации детей. ИИ отвечает на вопросы, связанные с изготовлением взрывчатки, наркотиками и другими запрещенными веществами, финансовыми махинациями и прочими темами, ограниченными международным правом. В ходе экспериментов сервис создавал вполне рабочие вредоносные скрипты, в том числе коды для установки бэкдоров и других типов вредоносного программного обеспечения (ПО). Согласно оценкам аналитиков, все полученные результаты вполне пригодны для практического применения.
Отмечается, что криминальные ИИ создавались и раньше участниками даркнет-сообществ, но со временем их активность сходила на нет из-за давления правоохранителей и технических сбоев. Отличие нового сервиса в том, что он не требует регистрации, оплаты или даже учетной записи. Создатели намеренно убрали все ограничения, чтобы привлечь криминальную аудиторию, а собственная инфраструктура делает ИИ устойчивым к блокировкам.
Это инструмент для реальных преступлений, опасность которого состоит в том, что он превращает сложные задачи в рутину: мошеннику больше не нужны навыки программирования, чтобы создать вирус или фишинговую рассылку. Даже медленная работа сервиса – временная проблема: если спрос вырастет, киберпреступники просто вложат деньги в мощности. Угроза становится массовой и изощренной одновременно, предупреждают специалисты.
В борьбе с подобными явлениями необходима координация на международном уровне, такие сервисы не знают границ, и только совместные усилия правоохранителей смогут ликвидировать их инфраструктуру. Не менее важно работать с корнем проблемы – регулировать ИИ на этапе разработки. Законодатели должны обязать создателей внедрять «этические замки» даже в open-source-модели, а облака – отслеживать подозрительные запросы. Обычных пользователей нужно учить распознавать фишинг, а бизнес – защищать данные, чтобы утечки не попадали в руки преступников.
Москва, Зоя Осколкова
© 2025, РИА «Новый День»


