В Казахстане вводят наказание за неправильное использование ИИ: для кого это важно

Казахстан продолжает делать серьезные шаги в сторону регулирования ИИ. Касым-Жомарт Токаев уже подписал закон «Об искусственном интеллекте», а теперь появится и система ответственности. С 18 января 2026 года в силу вступает новая статья КоАП с ощутимыми штрафами: до 200 МРП для крупных компаний.

 17 ноября государство определило, что такое ИИ, а также правило его использования: тем, кто владеет, разрабатывает или применяет такие технологии, теперь придется брать ответственность за продукт. С 18 января 2026 года появится и наказание – статья 641-1 КоАП РК «Нарушение законодательства РК в сфере искусственного интеллекта».

Теперь штрафовать будут за:

  1. отсутствие маркировки и предупреждения о том, что результат создан ИИ – фото, видео, голос или любой контент, способный ввести пользователя в заблуждение.
  2. отсутствие управления рисками, которые могут привести к вреду:
  • воздействие на здоровье или благополучие;
  • распространение запрещенной или ложной информации;
  • дискриминацию;
  • нарушения прав человека;
  • любой другой вред.

То есть, если ИИ делает что-то опасное, а владелец ничего не предпринял – он отвечает. Например, нейросеть генерирует фейки о человеке, а разработчик не отследил это и не поставил ограничения.

Какие штрафы назначат

Для физических лиц:

  • 15 МРП (64 875 тенге в 2026 году) – первое нарушение;
  • 30 МРП (129 750 тенге) – повторное.

Для малого бизнеса и некоммерческих организаций:

  • 20 МРП (86 500 тг);
  • 50 МРП (216 250 тг) при повторе.

Для среднего бизнеса:

  • 30 МРП (129 750 тг);
  • 70 МРП (302 750 тг).

Для крупных компаний:

  • 100 МРП (432 500 тг);
  • 200 МРП (865 000 тг) – максимальный штраф.

Этот закон напрямую касается тех, кто работает с контентом и медиа. Блогеры, дизайнеры, SMM-специалисты – все, кто создает материалы с помощью ИИ, теперь обязаны следить за прозрачностью и качеством конечного продукта. Если нейросеть создает фейковое изображение политика или подделывает чей-то голос, ответственность несет тот, кто выпустил этот контент в свет. Это касается и предпринимателей, которые используют ИИ в бизнес-процессах – от клиентской поддержки до анализа данных. Даже если ИИ допустил ошибку автоматически, в глазах закона это не освобождает владельца системы от ответственности.

Все это происходит потому что современная цифровая среда требует четких правил. Технологии становятся слишком реалистичными, а риски слишком существенными. Поддельные голоса могут использоваться в мошенничестве, фейковые видео – в политическом давлении, а непрозрачные алгоритмы в дискриминации людей. Закон и последующие штрафы создают понятную инфраструктуру защиты: человек должен понимать, когда перед ним ИИ и быть уверен, что его права не нарушаются.

Подпишитесь на рассылку лучших материалов «Youth.kz»