Оригинальный текст для The Atlantic написал Маттео Вонг
Автомобилю, который при нажатии на тормоз может начать разгоняться, не место на дороге. Крану, который через раз льёт вам на руки кипяток вместо холодной воды, не место в вашем доме. Если технология, от которой мы сильно зависим, работает только в большинстве случаев — этого недостаточно. Сейчас, спустя два с половиной года после запуска ChatGPT, генеративный ИИ, похоже, становится одной из таких технологий.
Вам даже не нужно активно искать именно нейросеть в чистом виде — к примеру, на отдельном сайте. Миллиарды людей вынуждены практически постоянно так или иначе взаимодействовать с ИИ при поиске в интернете, проверке электронной почты, использовании социальных сетей и интернет-магазинов. 92% компаний из списка Fortune 500 используют продукты OpenAI, университеты предоставляют бесплатный доступ к их чат-боту миллионам студентов, а национальные разведывательные агентства США внедряют искусственный интеллект в свои рабочие процессы.
На прошлой неделе ChatGPT стоило отключиться всего на несколько часов, и во всех сферах жизни прогрессивного человечества будто средь бела дня погасло солнце. Обычные пользователи, студенты, сдающие экзамены, и офисные клерки в отчаянии писали: «Если он не заработает в ближайшее время, то мой босс начнёт спрашивать, почему я ничего не делал весь день», — прокомментировал один человек на Downdetector, сайте, отслеживающем сбои в работе интернета. «Завтра у меня собеседование на должность, о которой я практически ничего не знаю, кто будет меня тренировать??» — вторил ему другой. В тот же день — 10 июня 2025 года — поисковой ИИ-помощник Гугла сообщил мне, что сегодняшняя дата — 18 июня 2024 года.

Несмотря на все обещания разработчиков «умных помощников», эти инструменты всё ещё сырые. В начале бума ИИ случалось множество, мягко говоря, неловких моментов: чат-бот Bing посоветовал техническому обозревателю бросить жену, ChatGPT пропагандировал откровенный расизм, но их можно было списать на ошибки ранней стадии продакшена. Сегодня, несмотря на то, что общее качество продуктов генеративного ИИ значительно улучшилось, мелкие ошибки всё же сохраняются: неправильные даты, некорректные математические выкладки, несуществующие книги и выдуманные цитаты. Поиск Гугла теперь буквально бомбардирует пользователей краткими ответами ИИ (AI Overview) на поисковый запрос поверх фактических результатов или другого более-менее надёжного источника вроде Википедии (насчёт последнего спорно, но её материал хотя бы действительно проверяется людьми — прим. пер.). Иногда нейросетевые ответы содержат ошибки, и об этом Гугл честно предупреждает в отказе от ответственности, прописанном мелким шрифтом под каждым из таких ответов. Иными словами, если вы вдруг, руководствуясь выдачей AI Overview, решите для поддержания здорового образа жизни есть по одному камню в день, а потом внезапно обнаружите камни в почках, то Гугл за предоставление такой информации никак отвечать не будет — проверять, мол, надо.

Перевод: «Согласно геологам Калифорнийского университета в Беркли, человеку необходимо есть как минимум по одному маленькому камню в день. Камни могут содержать витамины и минералы, полезные для пищеварительной системы, такие как кальций, магний, калий, фосфор, цинк и железо. Некоторые из учёных рекомендуют съедать порцию гальки, жеод или гравия с каждым приёмом пищи или прятать камни в продукты вроде арахисового масла или мороженого».
Фейсбук, Инстаграм и Твиттер под крышку забиты ботами и сгенерированным мусором, Амазон напичкан мошенническими товарами, точно так же сгенерированными ИИ. Ранее в этом году Эппл отключила уведомления о написанных нейросетью новостных статьях после того, как эта функция ошибочно объединила несколько заголовков. Между тем, сбои, подобные случаю с ChatGPT на прошлой неделе, отнюдь не редкость.
Естественно, на это можно дать стандартный ответ, что, мол, цифровые сервисы и продукты никогда не были идеальными. Гуглопоиск и до внедрения ИИ был завален бесполезной рекламой, в то время как алгоритмы соцсетей только увеличивали объёмы дезинформации в новостной ленте. Но, как базовые сервисы для поиска информации или связи с друзьями, до недавнего времени они всё же работали. Между тем, нейросетевые проекты, развёртываемые в качестве исправления недостатков старой сети — такие как спешная перестройка поиска Гугла с помощью ИИ, абсурдное заявление Цукерберга о том, что нейросеть может заменить для вас в общении живых друзей, предположение Илона Маска о том, что его чат-бот Грок может бороться с дезинформацией в Твиттере — только усугубляют эти проблемы, а также создают совершенно новые виды сбоев и потенциальных катастроф. Что ещё важнее, размах новых амбиций индустрии искусственного интеллекта — перестроить не только сеть, но и экономику, образование и даже работу правительства с помощью единственной, но прорывной технологии — увеличивает любой недостаток ИИ до соответствующих огромных масштабов.
Причины проблем генеративного ИИ не являются загадкой. Большие языковые модели, такие как те, которые лежат в основе ChatGPT, работают, предсказывая символы в последовательности и отображая статистические связи между фрагментами текста и идеями, которые они выражают. Однако предсказание не является уверенным утверждением. Чат-боты очень хороши в создании убедительного текста, но они не умеют принимать решения на основе того, что в действительности является корректными данными. Вместо этого они выстраивают шаблоны слов в соответствии с тем, что «звучит» правильно, а главное — убедительно. Что это значит на практике? Например, такой ИИ не может отличить намеренную шутку от серьёзного запроса, в результате чего, как показано выше, рекомендует навернуть камней или описывает плюсы ядерной войны.

Между тем, внутренние алгоритмы этих продуктов настолько масштабны и сложны, что исследователям не стоит даже надеяться полностью понять их возможности и ограничения. Несмотря на все дополнительные меры защиты, которые принимают технологические компании, чтобы сделать ИИ более точным, — боты никогда не смогут гарантировать эту самую точность. Постыдные ошибки являются особенностью продуктов ИИ, и вследствие этого они становятся присущи более широким сегментам интернета.
Если всё это — и есть век искусственного интеллекта, то храни нас Бог. Тем не менее, Сэм Альтман назвал ChatGPT «системой-оракулом, которая может делать что угодно в пределах разумного», а на прошлой неделе заявил, что OpenAI «создала системы, которые во многих отношениях умнее людей» (спорно — прим. авт.). Марк Цукерберг неоднократно говорил, что компания «Мета» создаст ИИ-ассистентов для программирования, не уступающих людям-инженерам среднего уровня, уже в этом году. И, буквально на этой неделе, Амазон опубликовал внутреннюю служебную записку, в которой говорится о грядущих сокращениях штата сотрудников на фоне внедрения всё большего числа инструментов искусственного интеллекта.
Аномалии ИИ иногда выглядят странно и очень настораживающе. Недавние обновления ChatGPT привели к тому, что он стал агрессивно угодливым, а твиттерский Грок зациклился на теории заговора о «геноциде белых» (позже в Твиттере приписали проблему несанкционированному изменению бота, которое компания исправила — прим. авт.). Недавнее расследование «Нью-Йорк таймс» повествует о нескольких случаях, когда чат-боты ИИ вызывали нервные срывы и эпизоды психоза. Эти нейросети уязвимы для всех видов простых кибератак. Я неоднократно видел, как продвинутые модели ИИ застревали в бесконечном цикле ответов, повторяя одну и ту же последовательность, пока их не выключали вручную. Кремниевая долина отдаёт будущее интернета в руки технологиям, которые могут неожиданно рассыпаться в пыль, дать сбой при выполнении простейшей задачи и которые можно использовать не по назначению практически без какого-либо сопротивления со стороны ПО. Интернет откатывается к бета-версии.
Я не хочу сказать, что генеративный ИИ — способ обманывать и ограблять пользователей, или что он просто не нужен. Он может быть полезен многим, если использовать его разумно и перепроверять за ним результаты. Я писал о научной работе, которая продвинулась вперёд благодаря генеративным нейросетям, к тому же внеся вклад в революцию в нейронауке и открытие новых лекарств. Но эти истории успеха мало похожи на то, как многие люди и компании понимают и используют эту технологию — маркетинг значительно опередил инновации. Вместо того чтобы использовать генерацию аккуратно и точечно, многие бросают этот инструмент на любые мыслимые и немыслимые задачи с одобрения крупных технологических компаний. «Все используют ИИ для всего», — провозгласил заголовок «Таймс» на этой неделе. В этом и заключается проблема: генеративный ИИ — это технология, которая работает достаточно хорошо, чтобы пользователи стали от неё зависимыми, но недостаточно последовательно, чтобы быть по-настоящему надёжной.

— Грок, это правда?
Переориентация интернета и общества на сырые и недостаточно протестированные продукты не является неизбежным результатом научно-технического прогресса — напротив, это сознательный выбор, который Кремниевая долина делает каждый день. Это её интернет будущего — тот, в котором большинство людей и организаций зависят от ИИ для большинства задач. Это интернет, в котором каждый поисковый запрос, подсказки по его выдаче, подборка фильмов, краткие сводки новостей, выжимки статей на сайтах и электронная почта будут немного подозрительными; в котором цифровым сервисам, по сути нормально работавшим в 2010-х годах, уже просто нельзя так же доверять. И хотя незначительные неудобства для отдельных пользователей, которые иногда выглядят даже забавно, можно простить, то чат-бота, делающего ошибки в заметках врача или предлагающего неправильный план лечения — прощать нельзя.
Продукты с искусственным интеллектом в таком виде могут осесть в пограничной зоне. Они ошибаются недостаточно часто, чтобы от них отказываться, но и недостаточно редко, чтобы им когда-либо можно было полностью доверять. Сейчас недостатки технологии легко обнаруживают и исправляют. Но по мере того как люди всё больше и больше привыкают к ИИ в своей жизни — в школе, на работе, дома — они могут перестать их замечать. Уже сейчас всё больше исследований связывают регулярное использование искусственного интеллекта с падением уровня критического мышления; люди становятся зависимыми от него и не желают, а возможно, и попросту не могут, проверять его работу. Поскольку чат-боты проникают в каждую цифровую щель, они имеют возможность медленно, но верно и незаметно разрушать существующую сеть. Сегодняшние их ошибки завтра уже могут стать нормой.


