
Фейковые новости, дезинформация, ложь и не только.
Около двух с половиной тысяч лет назад Сократа приговорили к смерти из-за ложного доноса — его обвинили в неуважении к богам Афин, «нечестии» и «развращении молодёжи». Эта история напоминает, что фейковая информация сопровождает человечество с древних времён.
Но сегодня, похоже, она распространена больше, чем когда-либо прежде.Обнаружение и пресечение фальшивых новостей, стремительно разлетающихся по социальным сетям, — задача сложная и до конца не решённая. Да, на помощь надеются позвать искусственный интеллект, но парадокс в том, что сами ИИ-боты активно используют для фабрикации и тиражирования поддельного контента. В этом материале мы собрали результаты научных работ, в которых систематизируются подходы к выявлению и предотвращению лжи в соцсетях.
Негативные последствия
Getty
Социальные сети упростили мгновенное распространение информации, но их массовость и удобство одновременно ускорили оборот обмана. Последствия для общества значительны: сфабриковать и переупаковать ложь стало проще, чем её распознать, а тактики акторов дезинформации непрерывно меняются, усложняя работу проверяющих.
Достаточно взглянуть на данные исследований, чтобы понять масштаб проблемы. Так, в исследовании распространения новостей в Twitter показано, что ложная информация распространяется онлайн в шесть раз быстрее, чем достоверный контент, а 70% пользователей не могут уверенно отличить правду от лжи. Неправда во всех категориях распространяется гораздо быстрее, глубже и шире, чем правдивая информация.
Особенно это выражено в политических темах. Наиболее опасный: намеренно вводящий в заблуждение контент и сюжеты с высоким общественным резонансом, скрытыми целями и стремительным распространением через социальные платформы. Именно такие фейкньюс несут в себе реальную опасность (с точки зрения последствий).
Главная трудность автоматического распознавания фейков в том, что они сконструированы так, чтобы быть максимально похожими на правду. Поэтому полагаться лишь на алгоритмы машин часто недостаточно — в соцсетях нужны более комплексные стратегии. Поддельный контент — проблема не только социальных платформ. Он стал серьёзным глобальным вызовом всего человечества, и его влияние распространилось на такие области, как экономика, психология, политология, науки о здоровье и науки об окружающей среде.
Для описания данного явления используют несколько терминов. В ходу выражения «дезинформация», «загрязнение информационного поля», «неверная информация» и «поддельная информация», «фейк-информация», фейкньюс» и т. п. По намерению распространителя различают следующие виды ненастоящей информации:
- Неверная информация (misinformation). Ошибочные сведения, которые делятся без умысла обмануть, по недосмотру или из-за незнания.
- Дезинформация (disinformation). Сознательное распространение лжи ради манипуляции общественным мнением или в интересах определённых групп.
- Вредоносная подача правды (Malinformation). Распространение формально верных фактов в вырванном из контекста или искажённом виде с целью навредить, например, публикация утечек личных данных или частичных цитат, меняющих смысл.
Как фейки и искусственный интеллект меняют соцсети: советы пользователям
404 Media
Научные работы показывают: для быстрого и точного выявления подделок нужен набор методов, в котором важную роль играют алгоритмы искусственного интеллекта. И, как это ни странно, именно машины нам могут помочь массово выявлять ложь в сети. Но и пользовательские привычки решают многое. Без нашего личного участия одним искусственным интеллектом не обойтись. Что же стоит знать каждому из нас?
Внимательность / внимание — лучшая защита от фальшивок. Даже несколько дополнительных секунд на вдумчивое чтение, проверку источников и даты публикации помогают отделить правду от вымысла. Полезно задать себе три вопроса: кто автор, на какие факты он ссылается и зачем текст создан.
Поддельные видео и аудио (дипфейки) распознать трудно. Люди с небольшим опытом в цифровых технологиях особенно легко принимают такие ролики за чистую монету. В целом большинство из нас склонно верить тому, что видит в сети, — этим и пользуются фабриканты фейков. Мы переоцениваем собственную способность отличать правду от лжи. Исследования показывают: уверенность пользователей высока, но реальная точность распознавания невелика. Значит, осознанности и медиаграмотности всё ещё не хватает.
Доказано, что мы охотнее принимаем информацию, подтверждающую наши существующие взгляды и убеждения, и быстрее отвергаем информацию, противоречащую им. Из-за этого естественного перекоса мы чаще ошибаемся в оценке достоверности контента.
Дезинформированные опаснее неосведомлённых. Сформированные ложные убеждения упорно держатся, и даже предъявленные доказательства не всегда помогают переубедить людей. Например, если их знания окажутся ошибочными, они не смогут легко от них отказаться. Даже если они принимают верную информацию, их прежние заблуждения всё равно могут влиять на их взгляды.
Недостоверные новости часто представляют собой сложные истории без ссылок на источники и появляются в разных формах: от текстов и видео до мемов и «скриншотов». Поэтому ручная проверка в сетях затруднена и требует времени.
Полезно оценивать цель контента: зачем в сети распространяют материал? Возможные цели — популяризация конкретного субъекта, например, чиновника, депутата, оппозиционера, политической партии, получение прибыли каким-то учреждением или организацией, разжигание ненависти, сеяние паники или злобы, фабрикация информации о людях и организациях посредством слухов, манипулятивная подача текста или видео (подача материала неполностью, вырывая факты из контекста или подача искажённой информации) для изменения восприятия пользователя и введения его в заблуждение.
Создатели вводящих в заблуждение постов подбирают формулировки крайне тщательно, чтобы уйти от прямой ответственности и затруднить проверку. Поэтому без дополнительной верификации данных (службы фактчекинга, независимые источники) ИИ-моделям и людям часто сложно надёжно определить истинность информации.
Влияние заголовков велико. Исследования показывают, что люди склонны проверять достоверность новости лишь тогда, когда заголовок кажется правдоподобным. Это значит, что мы часто доверяем не содержанию, а «упаковке», позволяя своим внутренним убеждениям верить фейковым постам.
Показатели одобрения (лайки, «нравится») и репосты в социальных сетях искажают восприятие. Большое число отметок повышает ощущение достоверности новостей, но также усиливает и доверие к неправде — и это опасно. Поэтому нужно развивать привычку оценивать и содержание контента, и сигналы социальной активности отдельно.
В распространении дезинформации участвуют боты — алгоритмы, имитирующие людей и автоматически публикующие сообщения. Принято считать, что именно они и создают «лавину фейкньюс», но многие исследования показывают: основными «распространителями» остаются люди. Дело в том, что боты охотнее взаимодействуют не с себе подобными машинами, а с реальными пользователями сети, используют разговорный язык и маскируются под аккаунты с небольшим числом подписчиков — так проще посеять сомнения и продвинуть ложь.
Социальные автоматизированные программы для продвижения нужного инфоповода/поста/фейка применяют две основные стратегии:
1) разгоняют активность в момент публикации, чтобы придать контенту вид «достоверности» и вывести его в топ лент рекомендательных и новостных систем;
2) адресно продвигают материал к влиятельным (известным) пользователям, формируя впечатление доверия и стимулируя перепостинг. Отдельно существуют «фермы ботов/троллей» — организованные группы людей, которые массированно продвигают лживые сюжеты за вознаграждение. Цель — массовое распространение дезинформации.
Атака с помощью отрицательных отзывов (ревью-бомбинг, англ. review bombing). Скоординированные группы пользователей массово ставят заниженные оценки и негативные комментарии фильмам, играм, приложениям, публикациям или товарам, чтобы искусственно испортить рейтинг и ввести аудиторию в заблуждение. Такие кампании проводят как реальные люди, так и автоматизированные бот-аккаунты.
Ложные новости в Интернете распространяются очень быстро, поэтому их раннее обнаружение становится критически важной и неотложной задачей. На динамичных платформах (например, в соцсетях) это сделать особенно трудно, и потому важны оперативная верификация контента людьми-экспертами.
Но полагаться только на ручную проверку нельзя — это дорого и медленно, а фальшивый контент тем временем будет расходиться в интернете всё быстрее и дальше. Подходы коллективной проверки (краудсорсинг) используют «мудрость толпы», когда сеть добровольцев помогает помечать сомнительный контент и тем самым снижать скорость его распространения.
Наиболее частые виды фальшивых новостей
Приманочные заголовки (клик-наживка, кликбейт)
Броские заголовки и обложки, подталкивающие к клику, но не соответствующие сути (чаще они обманывают пользователей). Цель — накрутить посещаемость и просмотры, а не дать полезную информацию.
Фальшивка (мистификация)
Сознательно выдуманные истории, подаваемые как правдивые: «смерть знаменитости», «чудодейственное средство» и т. п. В пандемию COVID-19 подобного информационного мусора в сети было особенно много. К этому же виду обмана относят и дипфейки, фотожабы и поддельные предметы (деньги, документы, произведения искусства).
Слухи
Непроверенное утверждение из сомнительного источника; может оказаться как верным, так и ложным, но подаётся без достаточных доказательств.
Сатира и юмор
Ироничные и юмористические тексты, не преследующие цель обмануть, но нередко воспринимаемые как настоящие новости теми, кто не уловил жанр.
Пропаганда
Политически мотивированные материалы, рассчитанные на манипуляцию аудиторией и продвижение идеологии; часто сопровождаются очернением оппонентов.
Когнитивное искажение (фрейминг)
Манипуляция подачей информации и формулировками: например, фразу «нейтрализую соперника» подают как «уничтожу», меняя эмоциональный фон и смыслы.
Теории заговора
Убеждения, обычно социального, политического или психологического происхождения, основанные на вере в то, что у могущественных групп есть скрытые мотивы.
Какие существуют методы автоматизации обнаружения фальшивых новостей в научной литературе?
1GAI
Методы c участием людей
Краудсорсинг и фактчекинг (проверка фактов) с опорой на экспертизу человека: профессиональные и добровольные команды людей сверяют сведения и факты в материалах, маркируют сомнительные публикации и обновляют статусы материалов.
Методы с участием искусственного интеллекта
Классическое машинное обучение, глубокие нейронные сети и технологии обработки естественного языка анализируют лексические, стилистические и сетевые признаки: частотность слов, эмоциональную окраску, структуру распространения, связь аккаунтов и др.
Методы на основе блокчейна
Технологии распределённого реестра для контроля происхождения и отслеживаемости материалов, фиксации надёжности источников и неизменности записей — чтобы усложнить подмену контента. Этот способ лишает стимула тех, кто распространяет «утки».
В итоге что мы видим: для того, чтобы справиться с потоком дезинформации в сети силы одного пользователя недостаточно. Но мы всё равно можем снизить риски — как для себя, так и для окружающих. Для этого нужно уделять немного больше времени внимательному чтению и просмотру контента.
Наша задача — попытаться понять намерение автора, отделив зерна от плевел. А привычка к быстрой проверке фактов и просто здоровый скепсис помогает обществу стать сдерживающим фактором, и превращают нас из невольных распространителей фейков в защитников интернета от распространения дезинформации.
Обложка:
Свежие комментарии