ИИ пишет статьи
Что ждет журналистику в ближайшем будущем?
Искусственный интеллект уже давно перестал быть фантастикой: сегодня он активно используется в самых разных сферах. Это мощный инструмент, открывающий новые горизонты для бизнеса, творчества и повседневной жизни. Многие уверены: нейросети вскоре заменят человека.

Фото: Искусственный интеллект успел запятнать себя не только в судебных процессах, множество громких ошибок произошло и в журналистике
И в этом утверждении есть зерно истины: ИИ все чаще применяют для создания видеороликов, отчетов, сценариев и даже статей как для онлайн-изданий, так и для печатных СМИ. Но является ли это безусловным благом? Насколько хорошо ИИ справляется с задачами журналистики, и какие последствия нас ждут? Попробуем разобраться.
ЧАСТЬ 1: ГАЛЛЮЦИНАЦИИ ИИ
В 2023 году в США произошел показательный случай, ставший одним из первых громких прецедентов "галлюцинаций" искусственного интеллекта. Опытный юрист Стивен Шварц попал в неприятную ситуацию: при подготовке материалов по делу против авиакомпании Avianca он воспользовался ChatGPT и тот сгенерировал несуществующие судебные прецеденты. Как сообщает The New York Times, Шварц использовал популярного диалогового ИИ для составления исковых документов, не проверив достоверность представленных ссылок. В результате в официальных бумагах оказались полностью вымышленные дела, которых никогда не существовало.
Еще один случай произошел совсем недавно, в мае 2025 года, и снова в США. Тогда известная юридическая фирма Butler Snow, защищавшая штат Алабама в деле, касающемся условий содержания заключенных, подала в суд документы, подготовленные с использованием ChatGPT. Как выяснилось позже, в материалах было обнаружено как минимум пять полностью вымышленных судебных прецедентов, которых никогда не существовало. Эти ссылки были сгенерированы ИИ и поданы как реальные юридические основания. Сейчас суд рассматривает возможность наложения санкций на фирму, а сам случай стал очередным напоминанием о том, насколько опасными могут быть "галлюцинации" нейросетей в критически важных сферах, особенно там, где от документации зависит судьба людей. Однако искусственный интеллект успел запятнать себя не только в судебных процессах, множество громких ошибок произошло и в журналистике. Один из примеров - жалоба авторитетного британского издания BBC на компанию Apple.
В декабре 2024 года BBC обвинила Apple News в том, что ее система push-уведомлений, основанная на искусственном интеллекте, распространяла ложные новости от имени BBC. Некоторые пользователи получили уведомления, якобы от BBC, с фейковыми заголовками, включая сообщения о несуществующих инцидентах. Самым резонансным стало уведомление о самоубийстве, которого на самом деле не было. BBC подала официальную жалобу, подчеркнув, что подобное поведение подрывает доверие к журналистике и может быть опасным. Apple в ответ заявила, что пересмотрит принципы генерации уведомлений. Но самым громким случаем все же остается история из Германии, связанная с именем легендарного автогонщика Михаэля Шумахера. В апреле 2023 года немецкий таблоид Die Aktuelle опубликовал на обложке сенсационный заголовок: "Михаэль Шумахер: первое интервью!".
Материал был представлен как настоящее интервью с гонщиком, который с 2013 года находится в тяжелом состоянии после черепно-мозговой травмы. Внутри были приведены якобы прямые цитаты Шумахера о его самочувствии, семье и планах на будущее. Однако ближе к концу текста небольшим шрифтом было указано, что все интервью сгенерировано ИИ. Это вызвало волну возмущения. Семья Шумахера подала иск, обвинив издание в нарушении права на частную жизнь и введении читателей в заблуждение. Редактор был уволен, а в 2024 году суд обязал издательство выплатить семье компенсацию в размере 200000 евро. Этот случай стал первым подобным судебным прецедентом в Европе, связанным с безответственным применением искусственного интеллекта в журналистике.
ЧАСТЬ 2: КТО НЕСЕТ ОТВЕТСТВЕННОСТЬ ЗА ОШИБКИ?
И вот, когда мы с вами рассмотрели несколько показательных случаев, возникает закономерный вопрос: а кто в итоге виноват? Ответ, как мне кажется, очевиден: тот, кто использует искусственный интеллект, слепо доверяя ему. Многие все еще искренне верят, что ИИ это нечто безошибочное и всезнающее, почти абсолютный источник истины. Но это далеко от реальности. ИИ все еще учится, и, как любой инструмент, он может ошибаться. Поэтому ответственность всегда лежит на человеке, который задает вопросы, интерпретирует ответы и, главное, должен проверять полученную информацию. ИИ не виноват в обмане, он просто работает с тем, что ему дали. Виноват тот, кто не проверил. А если вы все же решите использовать подобные технологии в своей работе, проверяйте и перепроверяйте каждую строчку, которую предлагает ИИ. Не полагайтесь на красивую подачу или уверенный тон, искусственный интеллект не несет ответственности за правду, он лишь моделирует речь.
Поэтому именно на вас ложится задача фильтровать, уточнять и доводить материал до читателя с полным пониманием последствий.
ЧАСТЬ 3: ТАК ЗАМЕНИТ ЛИ ИИ ЖУРНАЛИСТОВ?
Нет, я не считаю, что искусственный интеллект в ближайшем будущем сможет заменить журналистов. Он не обладает ни субъективностью, ни эмоциями, а значит, не способен подать информацию с человеческой точки зрения. Да, его тексты могут выглядеть ровно и красиво, но за этим фасадом часто скрываются неточности, искажения и выдумки.
Поэтому я уверен: редакции обязаны маркировать любые материалы, в которых использовался ИИ. Это вопрос честности и ответственности перед читателем. Я принципиально не использовал искусственный интеллект при написании этой статьи. Все факты и прецеденты вы можете проверить самостоятельно, они доступны в открытых источниках.


Новые сообщения публикуются после модерации