Отношение общества к использованию ИИ в журналистике

Отношение общества к использованию ИИ в журналистике

 

Искусственный интеллект (ИИ) и подобные технологии уже некоторое время используются новостными организациями, но их использование в основном остается за кулисами. 

Тем не менее, недавние разработки в области больших языковых моделей (LLM) и публичный запуск ChatGPT в конце 2022 года, за которым последовал шквал других генеративных инструментов ИИ, ознаменовали реальный сдвиг в общественном интересе и в том, как  и что издатели думают об ИИ для производства новостного контента.

Исследования, посвященные использованию ИИ в новостных агентствах, быстро растут (например, Beckett and Yaseen 2023; Simon 2024), но мы знаем гораздо меньше о том, как аудитория новостей может воспринимать эти внедрения, особенно в условиях низкого или падающего доверия к новостям во многих странах. Мы включили вопросы на эту тему в опрос этого года – в то время, когда аудитория сама изучает и формирует свое мнение об ИИ в целом и лишь немногие понимают, как эти технологии могут быть использованы непосредственно в журналистике.

В приведенном ниже анализе данные  опроса  дополнены иллюстративными цитатами и выводами из качественного исследования, проведенного агентством маркетинговых исследований Craft среди 45 пользователей цифровых новостей в Мексике, Великобритании и США.

Осведомленность об ИИ и как она формирует комфорт с помощью ИИ в журналистике

Прежде чем спрашивать респондентов об ИИ в новостях, мы хотели получить представление об их осведомленности об ИИ в целом. 

На 28 рынках, где были включены вопросы об искусственном интеллекте, осведомленность респондентов относительно низка:

  • менее половины (45%) респондентов заявили, что слышали или читали об этом большое или умеренное количество информации. 
  • 40% респондентов говорят, что слышали или читали мало, 
  • 9% вообще ничего не знают об этом

Помимо различий на уровне стран, осведомленность об ИИ варьируется в зависимости от социально-демографических групп, с заметными различиями в возрасте, поле и уровне образования.

 В среднем мы обнаруживаем, что осведомленность об ИИ выше среди молодых людей, мужчин и людей с более высоким уровнем образования.

Эти цифры дают нам представление о том, с каким объемом информации об ИИ сталкивались респонденты, но не о том, где они ее видели, что это за информация или какой опыт общения с ИИ они имели сами. 

Недавние исследования показывают, что люди не всегда понимают, что такое ИИ, и большинство из них не используют его на регулярной основе. 

1 Полученные данные подтверждают эти выводы, а также показывают, что, хотя небольшая часть людей уже может использовать инструменты ИИ и многие из них сталкивались с информацией о нем в новостях и социальных сетях, для других научно-фантастические сериалы и фильмы также формируют их восприятие.

Искусственный интеллект присутствует во всех устройствах, которыми мы сейчас пользуемся — в телефоне, компьютере, во всем, что мы делаем в Интернете.
 И есть более продвинутые вещи, такие как ChatGPT, которыми студенты сейчас часто пользуются.
Женщина, 26 лет, Мексика
Меня немного беспокоит, что если мы станем очень зависимыми от ИИ и ИИ станет большой вещью, то ИИ может просто уничтожить мир. Это очень «необычный» подход, но это один из тех, о которых мы просто не можем не думать. Я обожаю научную фантастику, «Терминатора», «Космическую одиссею».
Мужчина, 19 лет, Великобритания

 

Понимание того, сколько людей видели или слышали об ИИ, важно для издателей, потому что в отсутствие личного опыта популярные изображения играют огромную роль в окрашивании восприятия ИИ в целом, что, в свою очередь, формирует отношение к использованию новостей, сделанных с помощью ИИ или с помощью ИИ

Данные нашего опроса показывают, что во всех странах только меньшинство в настоящее время чувствует себя комфортно, используя новости, созданные людьми с помощью ИИ (36%), и еще меньшая доля чувствует себя комфортно, используя новости, созданные в основном ИИ под контролем человека (19%).

 

Мы также обнаружили, что люди с более высокой осведомленностью об ИИ, как правило, чувствуют себя относительно более комфортно при использовании ИИ в журналистике. 

Несмотря на все еще очень низкий уровень комфорта при использовании новостей, сделанных в основном с помощью ИИ, в два раза выше среди тех, кто видел или слышал больше об ИИ (26%), по сравнению с теми, кто видел меньше (13%). 

Мы видим аналогичный разрыв, когда спрашиваем о комфорте использования новостей, созданных в основном журналистом-человеком с некоторой помощью искусственного интеллекта (45% против 30%).

Разные уровни комфорта для разных применений ИИ

Большинство аудиторий не задумывались о том, как можно использовать ИИ для новостей, и наше качественное исследование показывает, что отправной точкой для людей, как правило, является сопротивление, подозрение и страх.

 Тем не менее, в ходе тестирования различных вариантов использования ИИ в журналистике участники часто вырабатывали и формулировали более тонкие мнения о том, где им более или менее комфортно при внедрении ИИ, в зависимости от того, используется ли он за кулисами, для подачи новостей новыми способами или для создания совершенно нового контента. 

Представления об ИИ быстро меняются, и хотя большинство в принципе отпугиваются новостями об ИИ, вполне возможно, что по мере того, как аудитория все больше знакомится с ИИ, некоторые из них могут стать более открытыми для его внедрения, по крайней мере, для определенных функций.

Если бы мне сообщили, что это было сделано искусственным интеллектом, я, вероятно, подумал бы: «Хорошо, тогда я просто не буду это читать».
Великобритания, Мужчина, 40 лет

 

Многие издатели в течение многих лет использовали искусственный интеллект и подобные технологии для выполнения закулисных задач, таких как мониторинг актуальных тем в Интернете, расшифровка интервью и персонализация рекомендаций для читателей (Beckett 2019).

 Тем не менее, опасения по поводу ограничений и лучших практик стали очевидными, поскольку все больше редакций изучают возможность использования генеративного ИИ для все более общедоступных приложений. 

Например, в США Men’s Journal использовал искусственный интеллект для написания кратких статей на основе предыдущих статей.

 В Мексике и Великобритании радио и телеканалы экспериментировали с синтетическими программами чтения новостей. 

Другие опробовали такие приложения, как тестирование заголовков, сводные буллеты, чат-боты, генерация изображений и перевод статей. 

Тем не менее, большинство издателей действуют осторожно, учась на неудачах других издателей, которые попали под пристальное внимание из-за недостаточного раскрытия информации и надзора, что в некоторых случаях приводит к тому, что неточная информация попадает на новостные сайты. 2

Examples of AI generated content

 

Наше исследование показало, что люди, как правило, лучше всего относятся к приложениям «за кадрами», когда журналисты используют ИИ для повышения эффективности своей работы, а также в тех случаях, когда это не видно непосредственно аудитории.

В меньшей степени, но в некоторых случаях все же открыто, они относятся к использованию ИИ для подачи новостей в новых форматах и способах, особенно если это улучшает их пользовательский опыт и повышает доступность.

В наименьшей степени их устраивает использование ИИ для создания совершенно нового контента.

Независимо от сферы применения, все согласны с тем, что полная автоматизация должна быть исключена, а человек всегда должен оставаться «в обойме», что совпадает с мнением большинства издателей о внедрении генеративного ИИ.

 

Комфорт аудитории с использованием искусственного интеллекта на разных этапах производства новостей

Chart on comfort with uses of AI

Мне в некоторой степени/в основном комфортно с… ИИ в некоторой степени манипулирует и переформатирует информацию, но в этих сценариях ИИ, похоже, намеренно не создает новый контент.
Женщина, 24 года, США

 

В то время как аудитория, как правило, чувствует себя некомфортно при использовании искусственного интеллекта для создания нового контента, не все формы контента воспринимаются одинаково. 

Мы обнаружили, что участники наименее устойчивы к использованию искусственного интеллекта для создания текстового контента, за которым следуют иллюстрации или стилизованная графика и анимация, которые, по мнению многих, не являются чем-то новым и добавляют эстетической привлекательности. 

Между тем, они наиболее решительно выступают против использования ИИ для создания реалистично выглядящих фотографий и особенно видео, даже если они раскрыты. 

Прошлые исследования показывают, что люди часто полагаются на изображения и видео в качестве «ментального ярлыка», пытаясь понять, чему доверять в Интернете, при этом многие выражают идею о том, что «увидеть — значит поверить» (например, Ross Arguedas et al. 2023).

 Эта важнейшая функция изображений, часто служащая доказательством того, о чем сообщается, помогает объяснить, почему синтетические образы, нарушающие эту логику, вызывают еще большее беспокойство.

Некоторые варианты использования ИИ ничего не меняют, они являются графикой, дополняют изображения и могут сделать контент более привлекательным.
Женщина, 24 года, Мексика
Для создания изображений и тому подобных вещей это немного сложнее, потому что он может генерировать изображения, которые кажутся демонстрирующими что-то, что не соответствует действительности, особенно когда автор дает подсказки.
Мужчина, 41 год, США

Примеры различных форматов, показанных участникам исследования

different AI formats

 

Как отмечается в резюме, рассматриваемая тема также формирует уровень комфорта. 

Несмотря на то, что уровень комфорта низок по всем направлениям, аудитория выражает больший дискомфорт от использования ИИ для создания контента на более значимые темы, такие как политика, по сравнению с менее значимыми темами, такими как спорт.

 В нашем качественном исследовании участники отмечают, что потенциал причинения вреда и масштабы такого вреда значительно варьируются в зависимости от предмета исследования.

 

Разные типы новостей имеют разный вес. Искусственный интеллект проверяет результаты футбольных матчей … Для спортивной статьи почти не имеет последствий, если она сообщает что-то неправильно/с предвзятостью. 
Проверка фактов в статье о политической партии или новостях о выборах может привести к катастрофическим последствиям.
Небинарный, 24 года, США

 

Тип генерируемой информации также формирует восприятие, поскольку некоторые люди более открыты для использования генеративного ИИ для создания выходных данных на основе проверяемых «фактов» и «цифр», таких как спортивные результаты или даже отчеты о выборах, чем когда речь идет о более сложных новостях, которые, по их мнению, требуют человеческой интерпретации, нюансов, чувствительности и даже эмоций. 

Такие различия связаны не только с точностью, но и с более философскими вопросами о том, что такое журналистика и какие виды работы, по мнению людей, являются и должны оставаться в основе своей человеческой.

Лучше всего попытаться ограничить использование ИИ фактами, цифрами, статистикой, а не анализом или мнением, где необходимо дать больше контекста. Вот где нужны люди, чтобы обеспечить эту ценность.
Женщина, 52 года, Мексика
Когда вы сообщаете, например, действительно тревожные и мрачные новости, это очень эмоционально. Независимо от того, хотите ли вы этого, это так или иначе повлияет на вас, и мне кажется, что у людей есть такой эмоциональный контекст.
Мужчина, 19 лет, Великобритания

Новости, раскрытие информации и доверие к искусственному интеллекту

Одна из ключевых проблем для издателей, экспериментирующих с искусственным интеллектом, заключается в том, как использование этих технологий может повлиять на общественное доверие к новостям, которое, как показывают данные Digital News Report, снизилось во многих странах в последние годы.

 Многие беспокоятся о том, что ИИ может генерировать предвзятую, неточную или ложную информацию. 

Однако, помимо обеспечения качества информации, некоторые из них борются с передовыми практиками раскрытия информации об использовании ИИ

С одной стороны, обеспечение прозрачности в отношении того, как они используют ИИ, может помочь управлять ожиданиями и продемонстрировать добросовестность.

 С другой стороны, в той степени, в которой аудитория не доверяет технологиям искусственного интеллекта, простое знание о том, что новостные организации их используют, может снизить доверие. 

Ранние экспериментальные исследования показывают, что аудитория воспринимает новости, помеченные как созданные искусственным интеллектом, как менее достоверные, чем те, которые созданы людьми. 3 Это противоречие означает, что новостные организации захотят тщательно подумать о том, когда необходимо раскрывать информацию и как ее донести.

 

Очень важно, чтобы был контроль со стороны человека. Я больше доверяю человеку, потому что у нас есть способность анализировать и различать, в то время как ИИ не чувствителен, у него есть ошибки, он не знает, как решить, что делать… У него нет морального компаса.
Мужчина, 28 лет, Мексика

 

Когда участников нашего исследования спрашивают о раскрытии информации в целом, они приветствуют и часто требуют полной прозрачности в отношении использования ИИ в журналистике. 

Однако при дальнейшем изучении различных приложений ИИ не все считают это необходимым во всех сценариях использования.

 Некоторые считают, что маркировка менее важна, когда речь идет о закулисном использовании, когда журналисты используют ИИ для ускорения своей работы, но крайне важна для общедоступных материалов, особенно тех, которые в основном создаются с помощью ИИ, поскольку это может повлиять на их подход к информации или на то, хотят ли они использовать ее в первую очередь.

Я не думаю, что им нужно раскрывать, когда… за кулисами, и это все еще человек, взаимодействующий с обоими этими сервисами. Это по-прежнему основано на человеке, они просто помогают со вспомогательными инструментами, так что я думаю, что это нормально, и это значительно ускоряет процесс.
Мужчина, 26 лет, Великобритания
Новостные организации и журналисты всегда должны сообщать потребителям о том, что они используют ИИЯ думаю, что в такой прозрачности есть чистая выгода… Таким образом, потребители могут сами принимать решение о том, хотят ли они потреблять этот контент или нет.
Женщина, 28 лет, США

 

Кроме того, доверие само по себе может определять, насколько комфортно аудитории будет пользоваться новостями, созданными искусственным интеллектом или с его помощью. 

Мы обнаружили, что доверчивая аудитория, как правило, чувствует себя более комфортно, особенно когда речь идет об использовании новостей, созданных в основном людьми с помощью искусственного интеллекта, при этом разрыв в уровнях комфорта между доверчивой и недоверяющей аудиторией колеблется от 24 процентных пунктов в США до 10 процентных пунктов в Мексике. 

Вполне вероятно, что аудитория, которая склонна доверять новостям в целом, больше верит в способность издателей ответственно использовать ИИ по сравнению с их недоверчивыми коллегами.

Доказательством этого мы видим и в наших качественных результатах, как в целом, так и на уровне сбыта. 

Люди, которые доверяют определенным новостным организациям, особенно тем, которые они описывают как авторитетные или престижные, также, как правило, более открыты к ним, используя ИИ

Будь то потому, что они считают такие СМИ более доброжелательными, больше верят в свои возможности по надзору или просто считают, что потеряют больше всего, если будут делать это небрежно, эти сегменты аудитории кажутся менее неудобными, когда журналисты используют ИИ

С другой стороны, аудитория, которая уже скептически или цинично относится к новостным организациям, может столкнуться с тем, что их доверие еще больше подорвано внедрением этих технологий.

Смотря кто его использует… Если серьезная, признанная, престижная новостная компания использует его, я чувствую, что он будет хорошо использован, потому что я не думаю, что компания будет ставить на карту свой престиж.
Мужчина, 28 лет, Мексика

Заключение

Точно так же, как не существует единой технологии или приложения ИИ, не существует единого мнения аудитории о том, приемлемо ли использование ИИ новостными организациями или нет. 

Несмотря на то, что отправной точкой в основном является сопротивление, при изучении конкретных вариантов использования аудитория выражает нюансы мнений по целому ряду различных применений, и наши результаты подчеркивают области, которые они кажутся более комфортными, а также те, которые являются более опасными областями, где новостные организации захотят действовать осторожно или полностью избегать.

Наши результаты показывают, что аудитория наиболее открыта для использования ИИ, которое находится “за кулисами”, и областей, где ИИ может помочь улучшить их опыт с помощью новостей, предоставляя более персонализированную и доступную информацию.

Они менее одобряются аудиторией, когда речь идет о общедоступном контенте, деликатных или важных темах, а также о синтетических видео или изображениях, которые могут казаться реальными, и где последствия ошибки рассматриваются как наиболее значимые.

В целом, существует консенсус в отношении того, что человек всегда должен быть в курсе событий, а полная автоматизация должна быть запрещена.

Осторожность в раскрытии информации об использовании ИИ будет иметь решающее значение для издателей, обеспокоенных доверием аудитории, а также объяснение аудитории, как выглядит использование ИИ в журналистике. 

Чрезмерная или расплывчатая маркировка может отпугнуть людей с уже низким уровнем доверия и/или тех, кто имеет ограниченные знания о том, что влечет за собой такое использование, которые, скорее всего, по умолчанию будут придерживаться негативных предположений. 

Но неспособность предоставить аудитории информацию, которую они могут захотеть решить, какие новости использовать и которым доверять, может оказаться в равной степени вредной.

Это все еще только начало, и общественное отношение к применению ИИ в журналистике будет продолжать развиваться, особенно по мере того, как баланс между абстрактными соображениями и более практическим опытом смещается, если большая часть населения будет больше использовать инструменты ИИ в своей личной и профессиональной жизни. 

В настоящее время многие ясно понимают, что есть области, которые, по их мнению, должны оставаться в руках людей. Такого рода работа, которая требует человеческих эмоций, суждений и связи, — это то, где издатели захотят держать людей в главных ролях.

Сноски

1Смотрите ONS и Исследовательский центр Pew.

2 См. AP.

3 https://ora.ox.ac.uk/objects/uuid:5f3db236-dd1c-4822-aa02-ce2d03fc61f7/files/s9306t097c

Last Updated on 04.09.2024 by iskova