Компания OpenAI представила масштабный отчет Disrupting Malicious Uses of AI, раскрывающий методы использования искусственного интеллекта государственными структурами и мошенниками. Несмотря на рост угроз, ИИ в три раза чаще используется для обнаружения обмана, чем с их реализацией.
Специалисты по безопасности обнаружили аномальные паттерны активности пользователя, связанного с правоохранительными органами Китая. Субъект использовал ChatGPT в качестве личного помощника для анализа и редактирования секретных отчетов о кибероперациях. В ходе расследования выяснилось, что масштабная кампания включала работу сотен сотрудников и управление тысячами фейковых аккаунтов.
Для оказания давления на инакомыслящих злоумышленники применяли широкий спектр методов психологического воздействия. Они рассылали предупреждения от лица иммиграционных властей США и подделывали судебные документы для принудительного удаления публикаций в социальных сетях. Крайней мерой стало распространение ложных некрологов и фотографий могил живых людей, что вызывало широкий общественный резонанс. Для блокировки неугодных аккаунтов применялась тактика массовой подачи жалоб в службы поддержки платформ.
В октябре 2025 года OpenAI выявила план по дестабилизации политической ситуации в Японии. Целью кампании стала премьер-министр Такаиши после её победы на выборах. Организаторы пытались сформировать антиправительственных и антисША нарративы на платформах X, Pixiv и Blogspot, планируя привлечь японских инфлюенсеров для тиражирования контента.
Столкнувшись с отказом ChatGPT генерировать вредоносный контент из-за политик безопасности, злоумышленники перешли на китайскую модель DeepSeek для обхода ограничений. Однако позже они вернулись к инструментам OpenAI для редактирования отчетов о прогрессе своей работы в DeepSeek. Это позволило расследователям сопоставить хэштеги в социальных сетях и подтвердить связь между субъектами, хотя реальный охват аудитории в данной кампании остался ограниченным.
Отчет раскрыл деятельность китайских групп, специализирующихся на романтическом мошенничестве. Преступники использовали генеративный ИИ для создания таргетированной рекламы сайтов знакомств, ориентированной на жителей Индонезии. Комбинируя ручной ввод и автоматизированные системы, злоумышленники ежегодно вовлекали в схемы сотни жертв.
Другим направлением стало создание фальшивых юридических фирм. Мошенники имитировали деятельность правоохранительных органов, предлагая помощь в возврате средств жертвам предыдущих преступлений. Искусственный интеллект применялся для генерации фиктивных адвокатских удостоверений, членств в профессиональных палатах и рекламного контента. Такая автоматизация позволила перевести преступную деятельность на промышленный масштаб, стирая языковые барьеры для атак по всему миру.
Согласно статистике OpenAI, современные технологии искусственного интеллекта в три раза чаще помогают выявлять обман, чем способствуют его совершению. Несмотря на это, государственные репрессии и инфо-операции адаптируются к новым условиям, используя менее регулируемые модели для обхода систем безопасности крупных платформ.
В компании фиксируют процесс адаптации обычных пользователей, которые начинают применять мощные инструменты ИИ для поиска истины и выявления цифровых фальсификаций. Сражение между методами атаки и средствами защиты в цифровом пространстве продолжается. На текущий момент безопасность платформ сталкивается с вызовами, связанными с внедрением технологий глубокой подделки лиц и попытками государственного вмешательства в информационную среду.