|
РУС | ENG
| |
![]() |
Социальные сети уязвимы для относительно простых манипуляций с искусственным интеллектом и поляризации |
| |
15.04.2025
Кажется, что какой бы ни была тема разговора, мнения в интернете по этому поводу будут разделены на два, казалось бы, непримиримых лагеря. Во многом это связано с дизайном платформ социальных сетей, поскольку алгоритмы, лежащие в их основе, направляют пользователей к единомышленникам. Это создаёт онлайн-сообщества, которые очень легко превращаются в «эхо-камеры», усугубляя поляризацию. Уязвимость платформ перед внешними манипуляциями делает их заманчивыми целями для злоумышленников, которые надеются посеять раздор и дестабилизировать общество. В недавней статье, опубликованной исследователями из Конкордии в журнале IEEE Xplore, описывается новый метод, упрощающий эту задачу. Этот подход использует обучение с подкреплением, чтобы определить, какой взломанный аккаунт в социальных сетях лучше всего подходит для максимизации онлайн-поляризации с наименьшими усилиями. «Мы использовали теорию систем для моделирования динамики общественного мнения, разработанную в психологии за последние 20 лет, — говорит Растко Селмик, профессор кафедры электротехники и вычислительной техники в Школе инженерии и компьютерных наук Джины Коди и соавтор статьи. – Новизна заключается в использовании этих моделей для больших групп людей и применении искусственного интеллекта (ИИ) для определения места размещения ботов — этих автоматизированных враждебных агентов — и разработке метода оптимизации». Ведущий автор статьи, кандидат наук Мохамед Зарир, объясняет, что цель этого исследования — усовершенствовать механизмы обнаружения и выявить уязвимости в социальных сетях. Небольшое количество данных может принести большой вред
Исследователи использовали данные примерно четырёх миллионов аккаунтов в социальной сети Twitter (ныне X), которые, как было установлено, высказывали мнения о вакцинах и вакцинации. Они создали враждебных агентов, которые использовали метод под названием Double Deep Q-Learning. Этот подход к обучению с подкреплением позволяет ботам выполнять сложные задачи, основанные на вознаграждении, в таких сложных средах, как социальные сети, при относительно небольшом контроле со стороны программистов-людей. «Мы разработали наше исследование таким образом, чтобы оно было простым и оказывало как можно большее влияние», — говорит Зарир. В их модели у враждебно настроенных агентов будет только два источника информации: текущие мнения владельца аккаунта и количество подписчиков. Исследователи применили свой алгоритм к трём вероятностным моделям, которые они протестировали на синтетических сетях из 20 агентов, что, по их словам, делает результаты репрезентативными и обобщаемыми. Эти и другие эксперименты имитируют реальные угрозы, такие как боты или скоординированные кампании по дезинформации. Они подтверждают эффективность усиления поляризации и создания разногласий в социальных сетях. Исследователи надеются, что их работа повлияет на политиков и владельцев платформ, побудив их разработать новые меры защиты от вредоносных манипуляций со стороны злоумышленников и способствуя прозрачности и этичному использованию ИИ. Источник: Tech Xplore Ваше мнение о статье |
Популярные тэги ntsr.info |