06 июня 2023 в 04:29

Новое приложение может выявлять вредоносных ботов

Российские исследователи разработали программу, которая находит ботов, участвующих в кибератаках. Для этого приложение использует открытые данные о развитии ботов по самым разным параметрам. Они-то и помогают понять, что «искусственный пользователь» может навредить системе. Такая программа пригодится компаниям, которые используют социальные сети, чтобы обнаруживать и предотвращать целенаправленные вредоносные воздействия. Результаты исследования, поддержанного грантом Российского научного фонда, опубликованы в журнале Social Network Analysis and Mining.

Боты — важный элемент для эффективного функционирования социальных сетей. Они помогают вести чаты поддержки пользователей, распространяют рекламу. Однако иногда этот инструмент используется и во вред. Например, накручивать рейтинги, писать ложные положительные отзывы о товарах и услугах, распространять дезинформацию и многое другое. При этом они могут «вести себя» очень естественно, напоминая обычного человека. Именно поэтому распознавать их очень трудно.

«В основе разработки лежит нейросеть, учитывающая более тысячи метрик, которые отличают ботов от живых людей. Причем эти метрики связаны не столько с их текущей активностью, которую боты научились хорошо имитировать, сколько с тем, как они развиваются во времени», — рассказал ведущий научный сотрудник Лаборатории проблем компьютерной безопасности СПб ФИЦ РАН Андрей Чечулин.

Так, приложение смотрит на «возраст» аккаунта, описание профиля, оригинальность фото и видео контента, характеристики и связи друзей с ним и друг с другом и многое другое. «Например, аккаунт пользователя может существовать много лет, в то время как бот создается быстро и под конкретную задачу. Как правило, у бота нет оригинальных фотографий. Аккаунт человека последовательно развивается в соцсетях: учится, работает, женится, заводит друзей. Динамика развития этих характеристик у бота иная, а количество друзей и связи с ними носят более хаотичный порядок», — пояснил Андрей Чечулин.

Чтобы научить нейросеть обнаруживать вредоносных ботов, ученые создали экспериментальные группы в соцсетях, куда ввели специально подготовленных ботов. На собранных данных и учился искусственный интеллект.

«Результаты эксперимента, показали, что новый подход действительно работает и позволяет извлекать метрики, необходимые для более качественного выявления свойств целенаправленных воздействий в социальных сетях и анализа эволюции вредоносных ботов. В перспективе наше приложение может стать основой для перехода от простого обнаружения кибератаки с помощью ботов к более глубокому анализу атакующего и его возможностей», — рассказал Андрей Чечулин.

Рассказать друзьям

Читайте также