Из-за «инфодемии» – дезинформации о коронавирусе – трудно отличить точную информацию от ложных и вводящих в заблуждение рекомендаций. Крупные технологические компании отреагировали на этот вызов, предприняв беспрецедентный шаг к совместной работе по борьбе с дезинформацией о COVID-19. Частью этой инициативы является продвижение контента из государственных учреждений здравоохранения и других авторитетных источников, а также внедрение мер по выявлению и удалению контента, который может причинить вред.
Например, Twitter расширил свое определение вреда, чтобы указать на контент, который противоречит рекомендациям авторитетных источников информации в области общественного здравоохранения. А Facebook нанял дополнительные службы проверки фактов, чтобы удалить дезинформацию, которая может привести к неминуемым физическим повреждениям. Канал YouTube опубликовал политику медицинской дезинформации о COVID-19, которая запрещает «контент о COVID-19, представляющий серьезные риски ущерба».
Фото: https://ms.detector.media/
Проблема такого подхода в том, что нет единого понимания того, что составляет вред. Различные способы, которыми эти компании определяют вред, могут привести к очень разным результатам, что подрывает доверие общества к способности технологических фирм ограничивать информацию о здоровье. Как утверждается в недавнем исследовательском документе, для решения этой проблемы этим компаниям необходимо быть более последовательными в том, как они определяют вред, и более прозрачными в том, как они на него реагируют.
Ключевой проблемой при оценке дезинформации о здоровье во время пандемии была новизна вируса. Мы все еще многого не знаем о COVID-19, и многое из того, что мы думаем, что мы знаем, может измениться в зависимости от новых открытий. Это напрямую влияет на то, какой контент считается вредным.
Принуждение ученых производить и делиться своими выводами во время пандемии также может подорвать качество научных исследований. Серверы предварительной печати позволяют ученым быстро публиковать результаты исследований до того, как они будут рассмотрены. На качественные рандомизированные контролируемые испытания нужно время. Несколько статей в рецензируемых журналах были отозваны из-за ненадежных источников данных.
Даже Всемирная организация здравоохранения (ВОЗ) изменила свою позицию в отношении передачи и профилактики болезни. Например, она не рекомендовала здоровым людям носить маски в общественных местах до 5 июня, «основываясь на новых научных открытиях». Тем не менее, крупные компании, занимающиеся социальными сетями, пообещали удалить утверждения, противоречащие рекомендациям ВОЗ. В результате они могут удалить контент, который позже окажется точным.
Это подчеркивает пределы основывания политики в отношении ущерба на единственном авторитетном источнике. Изменения присущи научному методу. Даже авторитетный совет подлежит обсуждению, изменению и пересмотру.
Фото: https://rossaprimavera.ru/
Такая оценка вреда также не учитывает несоответствия в сообщениях общественного здравоохранения в разных странах. Например, первоначальная реакция Швеции и Новой Зеландии на COVID-19 была диаметрально противоположной: первая была основана на «коллективном иммунитете», а вторая была направлена на ликвидацию вируса. Однако оба они основывались на авторитетных научных советах. Даже внутри страны политика общественного здравоохранения различается на уровне штата и страны, и между научными экспертами существуют разногласия.
То, что считается вредным, может стать политическим, о чем свидетельствуют дебаты по поводу использования гидроксихлорохина и ибупрофена в качестве потенциальных средств лечения COVID-19. Более того, есть вопросы, на которые наука не может дать однозначного ответа. Например, стоит ли отдавать приоритет общественному здравоохранению или экономике. Эти этические соображения по-прежнему подвергаются серьезным спорам.
Модерирование онлайн-контента неизбежно предполагает арбитраж между конкурирующими интересами и ценностями. Чтобы реагировать на скорость и масштаб пользовательского контента, модерация социальных сетей в основном полагается на компьютерные алгоритмы. Пользователи также могут отмечать потенциально опасный контент или сообщать о нем. Однако несмотря на то, что эти системы предназначены для снижения вреда, опытные пользователи могут использовать их для создания публичности и недоверия. Это особенно верно в отношении кампаний дезинформации, которые стремятся вызвать страх, неуверенность и сомнения.
Пользователи могут воспользоваться подробным языком о профилактике и лечении заболеваний. Например, личный опыт «иммуностимулирующих» диет и добавок может вводить в заблуждение, но их трудно проверить. В результате эти претензии не всегда подпадают под определение вреда. Точно так же использование юмора и извлечение контента из контекста (превращение контекста в оружие) – это стратегии, обычно используемые для обхода модерации контента. Интернет-мемы, изображения и вопросы также сыграли решающую роль в порождении недоверия к господствующей науке и политике во время пандемии и помогли разжечь теории заговора.
Фото: https://news.liga.net/
Расплывчатость и непоследовательность модерации контента технологических компаний означает, что некоторый контент и учетные записи пользователей понижаются или удаляются, в то время как другой, возможно, вредоносный контент остается в сети. «Отчеты о прозрачности», публикуемые Twitter и Facebook, содержат только общую статистику о запросах стран на удаление контента и мало подробностей о том, что удаляется и почему.
Отсутствие прозрачности означает, что эти компании не могут быть должным образом привлечены к ответственности за проблемы, связанные с их попытками бороться с дезинформацией, и ситуация вряд ли улучшится. По этой причине ученые считают, что технологические компании должны быть обязаны публиковать подробную информацию о своих алгоритмах модерации и регистрировать удаленную дезинформацию о состоянии здоровья. Это повысит подотчетность и даст возможность публичных дебатов, когда контент или учетные записи, по-видимому, были удалены несправедливо.
Кроме того, эти компании должны выделять заявления, которые могут не быть явно вредными, но потенциально вводят в заблуждение или противоречат официальным рекомендациям. Такой вид маркировки предоставит пользователям достоверную информацию для интерпретации этих утверждений, не подавляя споров. А за счет большей последовательности и прозрачности модерации технологические компании будут предоставлять более надежный контент и повышать общественное доверие – что никогда не было так важно.