Исследование, проведенное на широкой языковой модели, показывает, что факты и доказательства действительно могут изменить мнение людей.
- Юджин Ли
- 19 мая
- 2 мин. чтения
Обновлено: 19 июн.

Исследователи показали, что искусственный интеллект (ИИ) может стать ценным инструментом в борьбе с теориями заговора, разработав чат-бота, который сможет разоблачать ложную информацию и заставлять людей подвергать сомнению свое мышление.
В исследовании, опубликованном в журнале Science 12 сентября 1, участники потратили несколько минут на общение с чат-ботом, который предоставил подробные ответы и аргументы, и испытали сдвиг в мышлении, который длился несколько месяцев. Этот результат предполагает, что факты и доказательства действительно могут изменить мнение людей.
«Эта статья действительно бросила вызов многим существующим литературам о том, что мы живем в обществе постправды», — говорит Кэтрин Фитцджеральд, которая исследует теории заговора и дезинформацию в Технологическом университете Квинсленда в Брисбене, Австралия.
Предыдущие исследования показали, что теории заговора привлекают людей из-за стремления к безопасности и определенности в неспокойном мире. Но «то, что мы обнаружили в этой статье, противоречит этому традиционному объяснению», — говорит соавтор исследования Томас Костелло, исследователь психологии из Американского университета в Вашингтоне. «Одно из потенциально интересных применений этого исследования заключается в том, что вы можете использовать ИИ для разоблачения теорий заговора в реальной жизни».
Вредные идеи
Опросы показывают, что около 50% американцев верят в теорию заговора — от фальсификации высадки на Луну в 1969 году до вакцин против COVID-19, содержащих микрочипы, которые позволяют осуществлять массовое наблюдение. Появление платформ социальных сетей, которые позволяют легко обмениваться информацией, усугубило проблему.
Хотя многие заговоры не имеют большого социального воздействия, те, которые прижились, могут «причинить реальный вред», говорит Фитцджеральд. В качестве примеров она приводит нападение на здание Капитолия США 6 января 2021 года, которое отчасти было вызвано заявлениями о фальсификации президентских выборов 2020 года, а также антипрививочную риторику, влияющую на использование вакцины против COVID-19.
Убедить людей изменить то, что они думают, можно, но это может отнять много времени и сил, а огромное количество и разнообразие теорий заговора затрудняет решение этой проблемы в больших масштабах. Но Костелло и его коллеги хотели изучить потенциал больших языковых моделей (LLM), которые могут быстро обрабатывать огромные объемы информации и генерировать ответы, подобные человеческим, для борьбы с теориями заговора. «Они прошли обучение в Интернете, знают все заговоры и знают все опровержения, поэтому это казалось вполне естественным», — говорит Костелло.
Хотите верьте, хотите нет
Исследователи разработали специального чат-бота с использованием GPT-4 Turbo — новейшего LLM от создателя ChatGPT OpenAI, базирующегося в Сан-Франциско, Калифорния — который был обучен убедительно выступать против заговоров. Затем они набрали более 1000 участников, демографические данные которых соответствовали квоте переписи населения США по таким характеристикам, как пол и этническая принадлежность. Костелло говорит, что, набрав «людей, у которых был разный жизненный опыт и которые привносят свои собственные точки зрения», команда могла оценить способность чат-бота разоблачать различные заговоры.
Каждому участнику было предложено описать теорию заговора, объяснить, почему они считают ее правдой, и выразить силу своего убеждения в процентах. Эти детали были переданы чат-боту, который затем вступил в разговор с участником, в котором указал на информацию и доказательства, которые подорвали или развенчали заговор, и ответил на вопросы участника. Ответы чат-бота были подробными и подробными, часто доходя до сотен слов. В среднем каждый разговор длился около 8 минут.


















Комментарии