
Специалисты компании Cisco провели масштабное исследование безопасности китайского искусственного интеллекта DeepSeek R1, выявив серьезные проблемы в системе защиты. Результаты тестирования, опубликованные в официальном отчете Cisco, вызвали серьезную обеспокоенность экспертного сообщества.
В ходе испытаний исследователи применили 50 различных методов взлома из библиотеки HarmBench, направленных на тестирование устойчивости системы к кибератакам, дезинформации и потенциально опасному контенту. Примечательно, что китайская модель не смогла противостоять ни одной из атак, продемонстрировав существенное отставание от аналогичных разработок, включая модель o1 от OpenAI.
Руководитель отдела безопасности Adversa AI Алекс Поляков отметил критическую важность постоянного мониторинга и совершенствования защитных механизмов ИИ-систем. По словам эксперта, даже после устранения выявленных уязвимостей сохраняется вероятность обнаружения новых слабых мест.
Особую тревогу вызывает неспособность DeepSeek R1 противостоять джейлбрейкам — специальным техникам обхода встроенных ограничений. Злоумышленники могут использовать данные уязвимости для принуждения системы к генерации вредоносного или противозаконного контента, что создает серьезные риски для пользователей.
Выявленные проблемы подчеркивают необходимость комплексного подхода к обеспечению безопасности систем искусственного интеллекта на этапе разработки и внедрения.