Редакции The Washington Post, Los Angeles Times и ряда региональных изданий активно внедряют инструменты на базе искусственного интеллекта для мониторинга событий, автоматической подготовки черновиков и верификации фактов. Разбираем, что изменилось и чему стоит учиться журналистам уже сегодня.
Мониторинг: от ручного поиска к семантическому анализу
Ещё пять лет назад типичный дежурный редактор проводил первые два часа смены, вручную просматривая ленты AP, Reuters и местной полиции. Сегодня в ряде редакций эту функцию выполняет система семантического мониторинга: алгоритм отслеживает тысячи источников одновременно, кластеризует события по теме и географии и уведомляет дежурного журналиста о потенциально значимых материалах.
В Washington Post собственная система Heliograf работает с 2016 года. Изначально она генерировала короткие заметки об олимпийских результатах и итогах выборов по шаблону. К 2024 году функционал системы расширился до мониторинга муниципальных бюджетов, школьных советов и местных судебных решений — областей, которые крупные редакции традиционно не успевали покрывать.
«Задача ИИ — не написать репортаж. Задача — сделать так, чтобы ни одна важная история не осталась незамеченной. Всё остальное делает журналист.» — Рон Кляйн, главный редактор отдела инноваций, Washington Post
Автоматические черновики: помощь или угроза профессии?
Самый острый дискуссионный вопрос в журналистском сообществе последних двух лет — насколько уместно использование генеративных языковых моделей для создания первичных черновиков. Позиции редакций существенно расходятся.
Los Angeles Times в 2023 году внедрил инструмент на базе GPT-4 для подготовки черновиков новостных сводок по финансовым отчётам публичных компаний. По словам редакторов, это позволило высвободить до 40% времени репортёров для более сложных аналитических материалов. При этом каждый черновик обязательно проверяется журналистом, несущим персональную ответственность за опубликованный текст.
Иначе смотрят на ситуацию в ProPublica: организация намеренно отказалась от генеративных инструментов для создания текстов, сославшись на риски фактических ошибок и невозможность автоматической передачи «голоса» источника. Здесь ИИ используется исключительно для анализа массивов данных и поиска аномалий в базах FOIA-запросов.
Верификация: как ИИ помогает в фактчекинге
Один из наиболее практически ценных кейсов — применение машинного зрения и языковых моделей для верификации фотографий и видеозаписей. Сервис InVID, широко используемый в Reuters и BBC Verify, позволяет автоматически отслеживать цифровой след медиафайла: когда и где он впервые появился в сети, не является ли он фрагментом более старой записи.
Схожую задачу решает проект ClaimBuster из Техасского университета, который анализирует устные высказывания политиков и общественных деятелей в реальном времени, выявляя утверждения, поддающиеся фактической проверке. В 2024 году сервис был интегрирован несколькими региональными телестанциями США для использования во время предвыборных дебатов.
Что это означает для начинающих журналистов?
Анализ вакансий ведущих американских редакций за 2024 год показывает устойчивый рост требований к «цифровой грамотности» — знанию базовых принципов работы алгоритмов, умению интерпретировать данные и работать с API. Но параллельно растёт и ценность навыков, которые ИИ воспроизвести не может: глубокое понимание контекста, навыки интервьюирования, умение строить доверие с источниками.
В программах Mediora мы рассматриваем ИИ-инструменты не как угрозу профессии, а как новый слой инфраструктуры — такой же, каким в своё время стали CMS и социальные сети. Журналист 2025 года должен понимать, как эти инструменты работают, где они полезны и, главное, где они ошибаются.