"> ?>
Наверх

2026: год, когда слепое доверие ИИ станет дороже, чем его внедрение

Хватит выбирать между «быстро» и «безопасно». Есть восемь принципов, которые ломают этот шаблон. Это не теория — это инструкция по сборке конкурентного преимущества, где скорость разработки ИИ растет именно за счет встроенной надежности.

Опубликовано 05.01.2026 в 05:06 5 мин
5 мин
ИИ

Основные идеи

61% компаний уже внедряют ответственный ИИ в ключевые процессы и решения (опрос PwC).
Тестируйте ИИ в «песочницах» с правилами, это сохраняет скорость разработки.
За каждую функцию ИИ должен отвечать конкретный человек — за успех и за провал.
Создайте простой и понятный устав по ИИ для всех сотрудников, чтобы повысить доверие.

Мнение автора

Главный инсайт - просто начните тестировать всё в изоляции, поставив четкие правила. Ну, например, «никакого корпоративного бренда вовне». Вот так, друзья, вы сможете сочетать быстрые эксперименты и при этом не натворить дел. Сначала докажите, что ваша штука безопасна на каких-нибудь внутренних процессов, а уж потом вкладывайте деньги в масштабирование.

Знаменитый писатель Майкл Коннелли, автор тех самых крутых детективов про «Адвоката Линкольна», теперь взялся за искусственный интеллект. В своей новой книжке «Испытательный полигон» он разворачивает дико актуальную историю.

Представляете? Его герой-адвокат подает в суд на одну крупную ИИ-контору. И всё из-за их чат-бота, который дал «гениальный» совет шестнадцатилетнему пареньку. Бот на полном серьёзе заявил, что убить бывшую девушку за измену — это, в общем-то, вариант.

И вот этот самый случай в книге — он как раз и показывает всю суть сегодняшнего ИИ-бизнеса. Дело-то в чём? А в том, что эта сфера сейчас развивается со страшной скоростью, но при этом живёт практически без правил. Ну, как бы это помягче… Полный разгул, да? И когда обучают эти самые алгоритмы — там тоже, видимо, можно всё. Никаких ограничений. Вот так-то.

Видео от DGL.RU

Хотя это художественное произведение, а описанная ситуация является экстремальной, она служит важным напоминанием о том, что искусственный интеллект может отклоняться от этических или логических норм по разным причинам — из-за предвзятости, плохих советов или неверных указаний, — что может привести к негативным последствиям. В то же время по крайней мере один известный ИИ-голос предостерегает от чрезмерного увлечения попытками регулировать искусственный интеллект, что может замедлить инновации.

Необходим баланс

Как мы сообщали в ноябре, по крайней мере шесть из десяти компаний (61%) в опросе PwC заявили, что ответственный подход к использованию искусственного интеллекта активно внедряется в их основную деятельность и процесс принятия решений.

Необходимо найти баланс между управлением и скоростью, и это станет задачей для специалистов и их организаций в следующем году.

Эндрю Ын, основатель DeepLearning.AI и адъюнкт-профессор Стэнфордского университета, говорит, что проверка всех ИИ-приложений с помощью «песочницы» — самый эффективный способ сохранить баланс между скоростью и ответственностью.

«Многие из наиболее ответственных команд на самом деле работают очень быстро, — сказал он на недавней отраслевой презентации и последующей дискуссии. — Мы тестируем программное обеспечение в безопасных изолированных средах, чтобы понять, что не так, прежде чем выпустить его в широкий мир».

В то же время недавние попытки сделать искусственный интеллект ответственным и управляемым — как со стороны правительств, так и со стороны самих корпораций — на самом деле могут быть слишком навязчивыми, сказал он.

«Многие компании внедряют защитные механизмы. Прежде чем что-то отправить, нужно получить юридическое и маркетинговое одобрение, проверить бренд, конфиденциальность и соответствие Общему регламенту по защите данных. Инженеру нужно получить одобрение пяти вице-президентов, прежде чем он что-то сделает. Всё останавливается», — сказал Нг.

Лучше всего «действовать быстро, заранее создавая «песочницы», — продолжил он. В этом случае «вводится ряд правил, например: «не отправлять товары за пределы компании под брендом компании», «не разглашать конфиденциальную информацию, которая может быть раскрыта» и так далее. Это тестируется только на собственных сотрудниках компании в соответствии с соглашением о неразглашении, а бюджет на токены искусственного интеллекта составляет немного. Создание гарантированно безопасных «песочниц» может значительно расширить возможности продуктовых и инженерных команд, позволяя им работать быстрее и тестировать решения внутри компании.

Как только будет установлено, что приложение с искусственным интеллектом безопасно и ответственно используется, «тогда можно будет инвестировать в масштабируемость, безопасность и надёжность, чтобы вывести его на новый уровень», — заключил Нг.

А что в России?

Использование искусственного интеллекта в российском бизнесе характеризуется двумя ключевыми чертами: направленным государственным стимулированием и преимущественно прикладным характером решений. С одной стороны, искусственный интеллект признан стратегическим приоритетом, а федеральный проект «Искусственный интеллект» продлён до 2030 года и включён в национальный проект по экономике данных, что предполагает гранты и льготы для стимулирования отрасли. Практически все крупные и средние компании запустили собственные ИИ-пилоты, хотя до устойчивой практики доходит, по некоторым оценкам, лишь около 20% проектов. При этом фокус делается на решении конкретных бизнес-задач с быстрой отдачей, таких как оптимизация логистики, прогноз спроса, автоматизация клиентского сервиса и контроль качества на производствах.

На рынке сложился ряд отечественных технологических платформ, выступающих локальными аналогами западных ИИ-сервисов. Флагманами являются GigaChat и YandexGPT. Первый, построенный на базе собственной модели «Нейрон» от «Сбера», предлагает мультимодальность (понимание текста и изображений) и качественную генерацию деловой переписки, будучи доступным как широкой аудитории, так и бизнесу. YandexGPT, будучи глубоко интегрированным в экосистему «Яндекса», предоставляет удобные инструменты для компаний, уже использующих его сервисы. Для корпоративных задач, требующих кастомизации и обучения на собственных данных, «Сбер» также предлагает Sber AI Cloud, а платформы вроде Scrile AI позволяют создавать полностью персонализированных ИИ-помощников, встроенных в инфраструктуру компании. Эти решения развиваются в контексте импортозамещения, но основными трендами на ближайшие годы эксперты называют развитие ИИ-агентов, способных автономно выполнять цепочки задач, а также дальнейшую специализацию моделей под конкретные отрасли (предметно-ориентированные языковые модели).

Не усложняйте

С точки зрения управления, простой подход может помочь сделать искусственный интеллект понятным и открытым.

«Поскольку сейчас каждая команда, в том числе не связанная с технологиями, использует искусственный интеллект в работе, для нас было важно установить понятные и простые правила, — сказал Майкл Крах, директор по инновациям в JobLeads. — Нужно было уточнить, где можно использовать искусственный интеллект, а где нет, какие данные компании он может использовать и кто должен проверять важные решения».

«Важно, чтобы люди верили в то, что системы искусственного интеллекта справедливы, прозрачны и подотчётны, — сказал Джастин Саламон, партнёр компании Radiant Product Development. — Доверие начинается с ясности: нужно открыто говорить о том, как используется искусственный интеллект, откуда берутся данные и как принимаются решения. Доверие растёт, когда руководители внедряют сбалансированный подход к принятию решений с участием человека, этичное проектирование и тщательное тестирование на предвзятость и точность».

Такое доверие возникает, когда сотрудники чётко понимают намерения компании в отношении искусственного интеллекта. Четко определите, кто за что отвечает, советует Крах. «За каждую функцию искусственного интеллекта должен отвечать кто-то, кто будет нести ответственность в случае неудачи или успеха. Тестируйте и дорабатывайте, а когда почувствуете уверенность, опубликуйте понятный устав в отношении ИИ, чтобы сотрудники и клиенты знали, как используется искусственный интеллект, и доверяли вам в этом вопросе».

Ключевые принципы ответственного подхода к ИИ

Какие признаки ответственного подхода к искусственному интеллекту должны быть в поле зрения руководителей и специалистов в следующем году?

Восемь принципов ответственного использования искусственного интеллекта были недавно опубликованы доктором Хулудом Алмани, основателем и генеральным директором HKB Tech:

  1. Борьба с предвзятостью: устранение дискриминации.
  2. Прозрачность и объяснимость: решения искусственного интеллекта должны быть ясными, отслеживаемыми и понятными.
  3. Надежность и безопасность: предотвращение вреда, сбоев и непреднамеренных действий.
  4. Подотчетность: четкое распределение ответственности за решения и поведение искусственного интеллекта.
  5. Конфиденциальность и защита данных: обеспечение безопасности персональных данных.
  6. Влияние на общество: учет долгосрочных последствий для сообществ и экономики.
  7. Дизайн, ориентированный на человека: приоритет человеческих ценностей в каждом взаимодействии.
  8. Сотрудничество и взаимодействие с несколькими заинтересованными сторонами: привлечение регулирующих органов, разработчиков и общественности.

Инвестируете в флагман? ИИ обещает превратить его в тыкву раньше, чем вы думаете

Вопросы и ответы

Художественный роман описывает экстремальный случай с чат-ботом. Насколько эта история оторвана от реальных бизнес-рисков?

Случай с чат-ботом — художественное преувеличение, но его суть абсолютно реальна. Автор книги использует этот пример, чтобы показать суть проблемы: ИИ-бизнес развивается стремительно и почти без правил, а обучение моделей часто проходит без нужных ограничений. Эксперты в статье подтверждают, что ИИ может отклоняться от норм из-за предвзятости данных или плохих инструкций, что ведет к негативным последствиям. Поэтому история служит мощным предупреждением, а не просто сюжетным вымыслом.

Эндрю Ын предлагает «песочницы» как способ сохранить скорость. Но разве это не создаст лишний барьер и не замедлит инновации?

Напротив, «песочница» — это инструмент для ускорения, а не торможения. Проблема сегодня, как отмечает Ын, в том, что инженеры вынуждены получать множество согласований от юридического отдела, маркетинга и вице-президентов, что всё останавливает. «Песочница» же — это заранее оговоренная безопасная среда с четким бюджетом (например, $100 000) и правилами (не раскрывать конфиденциальные данные). Команды могут быстро тестировать идеи внутри компании на сотрудниках, не проходя сложных согласований. Это снимает барьеры и позволяет двигаться быстрее, но в контролируемых рамках.

Восемь принципов ответственного ИИ выглядят как оторванная от практики теория. Как их реально применить в ежедневной работе продукт-команды?

Применение начинается с конкретики и простых правил. Например, принцип «Подотчетность» превращается в прямое правило: за каждую функцию ИИ должен отвечать конкретный человек. Принцип «Прозрачность» реализуется через создание простого, понятного всем сотрудникам устава по использованию ИИ, где прописано, какие данные можно использовать и какие решения нужно перепроверять человеком. Вместо абстрактной «Борьбы с предвзятостью» команда внедряет обязательное тестирование моделей на смещение данных перед релизом. Ключ — перевести глобальные принципы в конкретные чек-листы и зоны ответственности внутри ваших процессов.

Джо МакКендрик

Джо МакКендрик

Он не просто пишет о технологиях. Он собирает лучших специалистов в области искусственного интеллекта. Вместе они обсуждают будущее. А в прошлой жизни он руководил целой профессиональной ассоциацией, которая объединяла IT-специалистов.

Источник: Zdnet
Подпишитесь на наши новости:
Нажимая кнопку «Подписаться», вы принимаете «Пользовательское соглашение» и даёте согласие с «Политикой обработки персональных данных»