Социальные сети уязвимы для относительно простых манипуляций с искусственным интеллектом и поляризации

Регистрация | Забыли свой пароль?
15.04.2025

Кажется, что какой бы ни была тема разговора, мнения в интернете по этому поводу будут разделены на два, казалось бы, непримиримых лагеря.

Во многом это связано с дизайном платформ социальных сетей, поскольку алгоритмы, лежащие в их основе, направляют пользователей к единомышленникам. Это создаёт онлайн-сообщества, которые очень легко превращаются в «эхо-камеры», усугубляя поляризацию.

Уязвимость платформ перед внешними манипуляциями делает их заманчивыми целями для злоумышленников, которые надеются посеять раздор и дестабилизировать общество.

В недавней статье, опубликованной исследователями из Конкордии в журнале IEEE Xplore, описывается новый метод, упрощающий эту задачу. Этот подход использует обучение с подкреплением, чтобы определить, какой взломанный аккаунт в социальных сетях лучше всего подходит для максимизации онлайн-поляризации с наименьшими усилиями.

«Мы использовали теорию систем для моделирования динамики общественного мнения, разработанную в психологии за последние 20 лет, — говорит Растко Селмик, профессор кафедры электротехники и вычислительной техники в Школе инженерии и компьютерных наук Джины Коди и соавтор статьи. – Новизна заключается в использовании этих моделей для больших групп людей и применении искусственного интеллекта (ИИ) для определения места размещения ботов — этих автоматизированных враждебных агентов — и разработке метода оптимизации».

Ведущий автор статьи, кандидат наук Мохамед Зарир, объясняет, что цель этого исследования — усовершенствовать механизмы обнаружения и выявить уязвимости в социальных сетях.

Небольшое количество данных может принести большой вред

Исследователи использовали данные примерно четырёх миллионов аккаунтов в социальной сети Twitter (ныне X), которые, как было установлено, высказывали мнения о вакцинах и вакцинации.

Они создали враждебных агентов, которые использовали метод под названием Double Deep Q-Learning. Этот подход к обучению с подкреплением позволяет ботам выполнять сложные задачи, основанные на вознаграждении, в таких сложных средах, как социальные сети, при относительно небольшом контроле со стороны программистов-людей.

«Мы разработали наше исследование таким образом, чтобы оно было простым и оказывало как можно большее влияние», — говорит Зарир.

В их модели у враждебно настроенных агентов будет только два источника информации: текущие мнения владельца аккаунта и количество подписчиков. Исследователи применили свой алгоритм к трём вероятностным моделям, которые они протестировали на синтетических сетях из 20 агентов, что, по их словам, делает результаты репрезентативными и обобщаемыми.

Эти и другие эксперименты имитируют реальные угрозы, такие как боты или скоординированные кампании по дезинформации. Они подтверждают эффективность усиления поляризации и создания разногласий в социальных сетях.

Исследователи надеются, что их работа повлияет на политиков и владельцев платформ, побудив их разработать новые меры защиты от вредоносных манипуляций со стороны злоумышленников и способствуя прозрачности и этичному использованию ИИ.

Источник: Tech Xplore


Возврат к списку публикаций


Ваше мнение о статье

Интернет-ресурсы

Популярные тэги ntsr.info

Нано в играх

Нанотехнологическое общество России

email: orgnanosociety@mail.ru