Эй, чат-бот, это правда? ИИ «проверяет факты» и распространяет дезинформацию

Регистрация | Забыли свой пароль?
02.06.2025

Когда во время четырёхдневного конфликта между Индией и Пакистаном разразился информационный кризис, пользователи социальных сетей обратились за подтверждением к чат-боту с искусственным интеллектом — только для того, чтобы столкнуться с ещё большим количеством ложных сведений, что подчёркивает его ненадёжность как инструмента для проверки фактов.

Поскольку технологические платформы сокращают штат специалистов по проверке фактов, пользователи всё чаще полагаются на чат-боты на базе искусственного интеллекта, в том числе на Grok от xAI, ChatGPT от OpenAI и Gemini от Google, в поисках достоверной информации.

«Эй, @Grok, это правда?» — этот вопрос стал распространённым на платформе Илона Маска X, где встроен помощник с искусственным интеллектом, что отражает растущую тенденцию к мгновенному опровержению информации в социальных сетях.

Но сами ответы часто содержат ложную информацию.

Grok, который сейчас находится под пристальным вниманием из-за того, что в не связанные между собой запросы он вставлял «белый геноцид» — ультраправую теорию заговора, — ошибочно идентифицировал старые видеозаписи из аэропорта Хартума в Судане как ракетный удар по пакистанской авиабазе Нур-Хан во время недавнего конфликта между Пакистаном и Индией.

Не связанные между собой кадры горящего здания в Непале были ошибочно приняты за «вероятную» реакцию Пакистана на удары Индии.

«Растущая зависимость от Grok в качестве средства проверки фактов происходит на фоне того, что X и другие крупные технологические компании сокращают инвестиции в людей, занимающихся проверкой фактов», — сказал AFP Маккензи Садеги, исследователь из организации NewsGuard, занимающейся борьбой с дезинформацией. - Наши исследования неоднократно показывали, что чат-боты с искусственным интеллектом не являются надёжными источниками новостей и информации, особенно когда речь идёт о последних новостях», — предупредил он.

«Сфабриковано»

Исследование NewsGuard показало, что 10 ведущих чат-ботов склонны повторять ложные утверждения, в том числе российскую дезинформацию и ложные или вводящие в заблуждение заявления, связанные с недавними выборами в Австралии.

В недавнем исследовании восьми поисковых инструментов с искусственным интеллектом Центр цифровой журналистики Тау при Колумбийском университете обнаружил, что чат-боты «в целом плохо справляются с отказом от ответов на вопросы, на которые они не могут ответить точно, и вместо этого предлагают неверные или предположительные ответы».

Когда сотрудники AFP, проверяющие факты в Уругвае, спросили Gemini о созданном искусственным интеллектом изображении женщины, он не только подтвердил его подлинность, но и сфабриковал подробности о её личности и о том, где, скорее всего, было сделано это изображение.

Недавно Grok назвал «подлинным» видео, на котором якобы гигантская анаконда плавает в реке Амазонке, даже сославшись на заслуживающие доверия научные экспедиции в поддержку своего ложного утверждения. На самом деле видео было сгенерировано искусственным интеллектом, сообщили проверяющие факты AFP в Латинской Америке, отметив, что многие пользователи ссылались на оценку Grok как на доказательство того, что ролик был реальным.

Такие результаты вызывают беспокойство, поскольку, согласно опросам, онлайн-пользователи всё чаще переходят от традиционных поисковых систем к чат-ботам с искусственным интеллектом для сбора и проверки информации.

Этот сдвиг также связан с тем, что ранее в этом году Meta объявила о прекращении своей программы проверки фактов сторонними организациями в Соединённых Штатах, передав задачу по разоблачению ложных сведений обычным пользователям в рамках модели, известной как «Заметки сообщества», популяризированной X.

Исследователи неоднократно ставили под сомнение эффективность «Заметок сообщества» в борьбе с ложью.

«Предвзятые ответы»

Проверка фактов человеком уже давно стала предметом споров в гиперполяризованном политическом климате, особенно в Соединённых Штатах, где сторонники консерваторов утверждают, что она подавляет свободу слова и подвергает цензуре контент правого толка, — что категорически отвергают профессиональные специалисты по проверке фактов.

В настоящее время AFP работает на 26 языках в рамках программы Facebook по проверке фактов, в том числе в Азии, Латинской Америке и Европейском союзе.

Качество и точность работы чат-ботов с искусственным интеллектом могут различаться в зависимости от того, как они обучены и запрограммированы, что вызывает опасения, что их работа может подвергаться политическому влиянию или контролю.

Компания Маска xAI недавно обвинила «несанкционированную модификацию» в том, что она заставила Grok генерировать нежелательные посты со ссылками на «белый геноцид» в Южной Африке.

Когда эксперт по искусственному интеллекту Дэвид Касуэлл спросил Grok, кто мог изменить его системное сообщение, чат-бот назвал Маска «наиболее вероятным» виновником.

Маск, южноафриканский миллиардер, поддерживающий президента Дональда Трампа, ранее распространял необоснованные заявления о том, что лидеры Южной Африки «открыто призывают к геноциду» белых людей.

«Мы видели, как помощники с искусственным интеллектом могут либо искажать результаты, либо давать предвзятые ответы после того, как программисты специально изменяют их инструкции», — сказала AFP Энджи Холан, директор Международной сети по проверке фактов. - Меня особенно беспокоит то, как Grok неправильно обрабатывал запросы, касающиеся очень деликатных вопросов, после получения инструкций предоставлять заранее одобренные ответы».

Источник: Tech Xplore


Возврат к списку публикаций


Ваше мнение о статье

Интернет-ресурсы

Популярные тэги ntsr.info

Нано в играх

Нанотехнологическое общество России

email: orgnanosociety@mail.ru