Искусственный интеллект стал повседневным инструментом в работе IT-команд в самых разных отраслях. Однако стратегия по отношению к ИИ остается разной. Кто-то делает его частью своего позиционирования, кто-то предпочитает не упоминать вовсе, опасаясь вопросов о качестве, стоимости или конфиденциальности продукта. CEO IT-компании Qtim Антон Фокин рассказывает, как на фоне этих крайностей формируется третий путь — прагматичный, когда ИИ используется как инструмент, но не становится отдельной темой разговора с клиентом, если на то нет прямого запроса
Прозрачность как конкурентное преимущество
Компании, которые открыто говорят о применении ИИ, демонстрируют не просто технологическую продвинутость, а способность применять технологии в задачах, где это усиливает команду: от планирования до релиза и поддержки. Это означает, что внутри команды проработаны безопасные сценарии работы с ИИ, понятны границы его возможностей и есть навык использовать нейросети так, чтобы это давало конкурентные преимущества, а не усложняло рабочие процессы.
Если такие навыки есть — логично делать их частью позиционирования. Это подтверждает, что команда умеет извлекать из ИИ практическую пользу и значит, способна быстрее, точнее и стабильнее решать задачи. Так, Google признался, что c помощью нейросетей уже создает 50% кода. В это же время отечественные игроки рынка запускают локальный ИИ-сервис Kodify Nano для генерации кода без доступа к облаку — как ответ на запрос разработчиков на безопасные и автономные инструменты. Выбор в пользу защищенного инструмента стал не просто технологическим решением, а элементом стратегии и имиджа: компания демонстрирует, что умеет внедрять искусственный интеллект осмысленно и с учетом рисков.
Но не все команды уже уверенно используют ИИ. Часто инструмент еще нуждается в тестировании, и не всегда понятно, где он действительно ускорит работу, а где, наоборот, создаст лишние сложности. Иногда нейросеть не дает нужного ответа вовсе не от «незнания», а из-за некорректной формулировки задачи. Если ИИ не экономит время, а наоборот, требует переосмысления задач и постоянной доработки результата — это точно не стоит выносить вовне. Порой проще сделать руками, а не прибегать к новым технологиям. Даже Сэм Альтман признает, что искусственный интеллект не панацея, сложные задачи он решает с помощью записей в блокноте. Поэтому многие команды пока не говорят об использовании ИИ открыто — чаще всего не от того, что не применяют его вовсе, а потому, что находятся в процессе адаптации. Когда результат нестабилен или выгоды не очевидны, говорить об этом клиенту преждевременно — особенно если не хочется создавать завышенных ожиданий. В итоге компании, с одной стороны, упускают возможность быть в числе первых, кто показывает, как эффективно использовать нейросети, но с другой — не вводят клиентов в заблуждение и не завышают ожидания от работы.
Ответственность и конфиденциальность
По мере того как ИИ внедряется в рабочие процессы, все более важными становятся вопросы этики и защиты данных. Особое внимание приходится уделять конфиденциальности — не только персональных данных, но и любой информации, которая может нанести серьезный ущерб при разглашении.
Вот примеры данных, которые ни в коем случае не должны передаваться в сторонние ИИ-инструменты:
персональные данные клиентов и сотрудников (ФИО, контакты, паспортные данные, медицинские сведения, данные о зарплате);
платежные реквизиты, банковские данные, пароли и ключи доступа;
юридические документы с коммерческими условиями;
данные по безопасности и внутреннему доступу, например конфигурации серверов, логика авторизации, структура прав доступа.
Даже если компания использует защищенные каналы передачи данных, шифрование и четкие регламенты безопасности, это не дает стопроцентной гарантии. Многие ИИ-инструменты работают как «черный ящик» — невозможно точно сказать, где и как будут храниться или обрабатываться введенные данные. Например, сотрудники Amazon использовали публичный ChatGPT для решения рабочих задач и непреднамеренно вводили в него описания внутренней логики сервисов, элементы продуктовых планов и бизнес-процессов. Через некоторое время инженеры заметили, что похожая информация начала появляться в ответах другим пользователям — например, упоминались нестандартные сценарии или формулировки, характерные для Amazon. Это вызвало обеспокоенность: компания не могла контролировать, как и где эти данные будут использоваться. В результате Amazon ввел внутренний запрет на использование открытых ИИ-моделей и перешел на закрытые решения с локальным хостингом и жесткими ограничениями.
Схожий инцидент произошел с McDonald’s: из-за уязвимости в системе, использующей ИИ-бота, исследователи получили доступ к данным 64 млн соискателей. Причиной стала критическая ошибка в настройках безопасности — доступ к чувствительной информации был защищен слабым паролем. Хотя данные оказались в руках специалистов по кибербезопасности, а не злоумышленников, инцидент наглядно показал, как даже обычная халатность может привести к серьезным последствиям.
Опасность представляет потеря не только персональных и платежных данных, но и информации, связанной с будущими планами и уникальными решениями команды. Например, внутренних стратегических документов и планов развития компании или уникальных пользовательских сценариев и технических решений. При утечке все это может быть использовано конкурентами. Однако при разумном подходе такие данные, если их проанализирует ИИ, наоборот, могут принести команде и заказчику ощутимую выгоду. Если чувствительная информация предварительно очищена, ее передача согласована и используется в корректных сценариях, ИИ помогает быстрее выявить узкие места в продукте, смоделировать разные варианты развития, предложить нетривиальные решения. Это особенно актуально при работе с большими массивами данных, где важны скорость и глубина анализа.
Ключевое условие — осознанное использование. Если процесс налажен, а риски заранее проговорены с клиентом, ИИ становится не угрозой, а инструментом для качественного ускорения работы.
Но даже если конфиденциальность декларируется поставщиком ИИ-сервиса, полная защита возможна только при контроле данных на стороне пользователя. Крупные компании все чаще выбирают on-premise-решения — локальные модели, полностью изолированные от внешнего доступа, — или заранее обученные модели, которые не сохраняют и не анализируют новые пользовательские данные. Это позволяет минимизировать риски утечки, но требует серьезных ресурсов.
Малому и среднему бизнесу такой уровень защиты чаще всего недоступен — в первую очередь из-за высокой стоимости инфраструктуры и нехватки собственных специалистов. Развертывание on-premise-моделей требует выделенных серверов, постоянной поддержки, настройки безопасности и регулярных обновлений. Кроме того, нужно понимать, как адаптировать такие модели под конкретные задачи, что требует сильной внутренней экспертизы в области ИИ и DevOps.
Для большинства команд это слишком дорого и сложно. Поэтому компании работают с публичными сервисами вроде ChatGPT, Gemini или Claude — и здесь особенно важно осознанно подходить к тому, какие данные загружаются в систему, а какие остаются внутри команды.
Ускорять, но не обесценивать
Использование искусственного интеллекта в работе IT-команд дает клиенту ощутимые преимущества: сокращение сроков, снижение количества ошибок, повышение стабильности и предсказуемости процесса. Но отношение к нейросетям все еще неоднозначное. Некоторые заказчики воспринимают их как способ «срезать углы» — и пытаются снизить стоимость проекта, считая, что автоматизация обесценивает работу специалистов. Другие, наоборот, опасаются нестабильности или «сырости» инструмента и сомневаются в его применимости. В обоих случаях проблема — не в технологии, а в восприятии.
Один из распространенных мифов — ИИ должен автоматически снижать стоимость проекта. Вроде бы нейросети сокращают объем ручной работы, а значит, стоимость должна падать. Но это упрощенный взгляд. Стоимость проекта формируется не только за счет времени, но и из-за сложности задач, масштаба, уровня экспертизы и рисков. ИИ позволяет быстрее пройти этапы, которые раньше занимали недели, — но требует настройки, адаптации под проект, а главное — надежной команды, которая умеет извлекать из него пользу. Поэтому сильные исполнители внедряют ИИ не ради удешевления, а ради качества, возможности лучше управлять процессом и результатом.
Эти тенденции отлично отражают текущие рыночные тренды. Согласно прогнозам Gartner, расходы на генеративный ИИ в 2025 году вырастут более чем на 76%, достигнув $644 млрд. Рост связан не только с расширением применения ИИ, но и с необходимостью крупных инвестиций в адаптацию технологий и интеграцию в бизнес-процессы — то есть с затратами, которые делают снижение стоимости проекта маловероятным.
Другой миф — что ИИ вытеснит специалистов. На практике, наоборот, нейросети помогают разгрузить команды, взяв на себя повторяющиеся и рутинные задачи, но не заменяют экспертизу. Какой бы инструмент ни применялся, ответственность за результат остается за разработчиком. И чем сложнее проект, тем выше требования к навыкам: человек, умеющий работать с ИИ, становится не менее, а более ценным.
Трансформация уже прошла в американской компании ServiceNow. Она внедрила ИИ-агентов в клиентскую поддержку, которые обрабатывают до 80% типовых запросов. Это позволило ускорить решение сложных кейсов на 52%, при этом ключевые задачи остались за живыми специалистами. Общий экономический эффект — $325 млн в год. ИИ не заменил команду — он усилил ее и помог сосредоточиться на действительно важных задачах.
Третье распространенное суждение — слишком сложно объяснить клиенту, как работает ИИ. Но бизнесу не нужна техническая инструкция. Важно понимать, в чем выгода: за счет чего работа идет быстрее, где снижается вероятность ошибки, как усиливается контроль за результатом. Если команда может уверенно объяснить эти моменты — доверие только растет. Заказчики ценят прозрачность, особенно если видят, что за внедрением технологии стоит реальный результат, а не просто модный термин.
ИИ не заменяет экспертизу. Он ускоряет работу, но не снимает ответственность за результат. Конечный продукт по-прежнему создает команда — искусственный интеллект лишь помогает выполнять задачи быстрее, точнее и с меньшим количеством повторений и ошибок. Благодаря этому процесс становится более прозрачным и управляемым: команда заранее понимает, какие этапы можно автоматизировать, а где потребуется участие специалиста. Такой подход снижает неопределенность, укрепляет контроль над проектом и минимизирует риски — как для заказчика, так и для исполнителя.
Мнение редакции может не совпадать с точкой зрения автора
- Главная
- →
- Выпуски
- →
- Маркетинг и реклама
- →
- Аналитика
- →
- Непростое признание
Аналитика
Группы по теме:
Популярные группы
- Рукоделие
- Мир искусства, творчества и красоты
- Учимся работать в компьютерных программах
- Учимся дома делать все сами
- Методы привлечения денег и удачи и реализации желаний
- Здоровье без врачей и лекарств
- 1000 идей со всего мира
- Полезные сервисы и программы для начинающих пользователей
- Хобби
- Подарки, сувениры, антиквариат