В основе метода — анализ публичных данных о ботах. Данный подход может пригодиться компаниям, которые используют соцсети в коммерческих целях для выявления и противодействия информационным атакам.
При анализе групп ботов разработчики использовали открытые сведения о неявных социальных связях между аккаунтами. Эта информация является входными данными для искусственного интеллекта.
«Проведенные эксперименты показали, что наши подходы могут обнаруживать даже замаскированных ботов. Для обучения нейросети мы создали специальные группы в социальных сетях, в которые ввели ботов, причем разного качества — и простых, и тех, которые могут хорошо маскироваться под реальных пользователей. После проведения анализа, мы оценивали, насколько правильно наши методы определяют ботов и справляются с их маскировкой», — сказал Андрей Чечулин, ведущий научный сотрудник лаборатории проблем компьютерной безопасности Санкт-Петербургского института информатики и автоматизации РАН.
Как отметил участник проекта, младший научный сотрудник СПб ФИЦ РАН Максим Коломеец, эффективность системы оценивается по анализу различных групп ботов и контрольным группам пользователей.
«Обмануть систему можно создав очень реалистичный аккаунт. Однако со временем в нем все равно накопится достаточно аномалий, которые наш алгоритм сможет обнаружить. Точность распознавания варьируется от качества ботов — от 60 до 90% при 5-10% ложных срабатываний», — пояснил он.
Проект поддержан грантом Российского научного фонда.