В Казахстане вводят наказание за неправильное использование ИИ: для кого это важно
Казахстан продолжает делать серьезные шаги в сторону регулирования ИИ. Касым-Жомарт Токаев уже подписал закон «Об искусственном интеллекте», а теперь появится и система ответственности. С 18 января 2026 года в силу вступает новая статья КоАП с ощутимыми штрафами: до 200 МРП для крупных компаний.
17 ноября государство определило, что такое ИИ, а также правило его использования: тем, кто владеет, разрабатывает или применяет такие технологии, теперь придется брать ответственность за продукт. С 18 января 2026 года появится и наказание – статья 641-1 КоАП РК «Нарушение законодательства РК в сфере искусственного интеллекта».
Теперь штрафовать будут за:
- отсутствие маркировки и предупреждения о том, что результат создан ИИ – фото, видео, голос или любой контент, способный ввести пользователя в заблуждение.
- отсутствие управления рисками, которые могут привести к вреду:
- воздействие на здоровье или благополучие;
- распространение запрещенной или ложной информации;
- дискриминацию;
- нарушения прав человека;
- любой другой вред.
То есть, если ИИ делает что-то опасное, а владелец ничего не предпринял – он отвечает. Например, нейросеть генерирует фейки о человеке, а разработчик не отследил это и не поставил ограничения.
Какие штрафы назначат
Для физических лиц:
- 15 МРП (64 875 тенге в 2026 году) – первое нарушение;
- 30 МРП (129 750 тенге) – повторное.
Для малого бизнеса и некоммерческих организаций:
- 20 МРП (86 500 тг);
- 50 МРП (216 250 тг) при повторе.
Для среднего бизнеса:
- 30 МРП (129 750 тг);
- 70 МРП (302 750 тг).
Для крупных компаний:
- 100 МРП (432 500 тг);
- 200 МРП (865 000 тг) – максимальный штраф.
Этот закон напрямую касается тех, кто работает с контентом и медиа. Блогеры, дизайнеры, SMM-специалисты – все, кто создает материалы с помощью ИИ, теперь обязаны следить за прозрачностью и качеством конечного продукта. Если нейросеть создает фейковое изображение политика или подделывает чей-то голос, ответственность несет тот, кто выпустил этот контент в свет. Это касается и предпринимателей, которые используют ИИ в бизнес-процессах – от клиентской поддержки до анализа данных. Даже если ИИ допустил ошибку автоматически, в глазах закона это не освобождает владельца системы от ответственности.
Все это происходит потому что современная цифровая среда требует четких правил. Технологии становятся слишком реалистичными, а риски слишком существенными. Поддельные голоса могут использоваться в мошенничестве, фейковые видео – в политическом давлении, а непрозрачные алгоритмы в дискриминации людей. Закон и последующие штрафы создают понятную инфраструктуру защиты: человек должен понимать, когда перед ним ИИ и быть уверен, что его права не нарушаются.