ЧатGPT теперь не дает советов по здоровью: раскрыта причина
Пользователи часто обращаются к нейросетям по разным жизненным вопросам: от бытовых лайфхаков до юридической консультации. Однако ИИ не идеален. Он нередко совершает ошибки, которые могут быть опасны, когда дело касается серьезных тем. Компания OpenAI осознала это и урезала функционал ЧатGPT. Разбираемся, зачем это было сделано и насколько решение оправданно.
Разработчики обновили политику использования популярного чат-бота. Теперь он не может давать расширенные советы в юридических и медицинских вопросах. Вместо этого нейросеть отвечает обобщенно, предупреждает о рисках и сразу рекомендует обращаться к специалистам.
С точки зрения компании шаг понятный – любые ошибки чат-бота могут привести к неприятным последствиям, а ответственность в итоге все равно упадет на разработчиков. Но часть пользователей недовольна: у ЧатаGPT есть реальные успешные кейсы, когда нейросеть помогала там, где люди уже не знали, куда обращаться.
Как нейросети помогали в тяжелых ситуациях
В январе 2025 года пользователь Reddit поделился историей о том, как ЧатGPT спас ему жизнь. Житель США несколько дней чувствовал недомогание и в первую очередь обратился к нейросети. После уточняющих вопросов ИИ пришел к выводу, что у мужчины рабдомиолиз. Диагноз подтвердили врачи.
Другая история из Сети – ЧатGPT опроверг смертельный диагноз, поставленный врачом. После приема у специалиста мужчина решил описать симптомы нейросети. Пациент показал полученный ответ врачу и тот признал ошибку, а позже скорректировал план лечения.
Случаи есть и в правовой сфере. 23-летний алматинец Кенжебек Исмаилов выиграл суд с помощью ЧатаGPT. Молодому человеку назначили штраф за опасный маневр на дороге, но Исмаилов оспорил его при помощи подсказок ИИ.
Подобных примеров действительно много, но консультации с нейросетью не всегда приводят к положительному исходу.
Почему наложили ограничения
OpenAI усилила правила после нескольких инцидентов, когда пользователи неправильно применяли советы ИИ. Особенно обсуждаемым стал случай 16-летнего Адама Рейна, который, столкнувшись с психологическими проблемами, предпочел обращаться не к специалистам, а к нейросети. ЧатGPT рекомендовал ему обратиться за реальной помощью, но подросток проигнорировал это и смог обойти защитные фильтры, чтобы получить опасную информацию. История завершилась трагедией.
Ограничение возможностей ИИ – необходимая мера. Многие люди слишком сильно доверяют нейросетям, что может привести к тяжелым последствиям. История Адама Рейна – лишь самый известный случай. Нельзя предугадать, какие еще инциденты могли бы случиться в будущем.