Неожиданный совет нейросети
Мужчина, уже много лет, придерживавшийся вегетарианской диеты, решил полностью исключить соль из рациона. Для поиска альтернативы он обратился к ChatGPT, популярной нейросети, способной отвечать на широкий круг вопросов. В ответ на запрос о замене соли нейросеть предложила использовать бромид натрия — вещество, которое не имеет отношения к пищевой промышленности и является токсичным. Не проверив информацию, мужчина начал добавлять бромид натрия в пищу и продолжал это делать в течение трех месяцев.
Последствия роковой ошибки
Спустя время у мужчины начали проявляться серьезные проблемы со здоровьем. Кожа покрылась сыпью, появились симптомы паранойи и галлюцинации. В какой-то момент он был уверен, что его пытается отравить сосед, и обратился в больницу. Медицинские анализы выявили ужасающую картину: уровень бромидов в крови превышал норму в 240 раз, достигая 1700 мг/л при допустимых значениях от 0,9 до 7 мг/л. Это стало причиной тяжелого отравления, которое затронуло не только физическое, но и психическое состояние.
В процессе лечения пациент, охваченный паранойей, решил, что врачи хотят его "добить". Он сбежал из больницы, но вскоре был найден и принудительно направлен в психиатрическую клинику. Только после нескольких недель интенсивного лечения удалось стабилизировать его состояние.
Проверка рекомендаций ИИ
Медики, занимавшиеся этим случаем, решили выяснить, как нейросеть могла дать столь опасный совет. Они повторили запрос, заданный пациентом, и получили тот же ответ: ChatGPT вновь предложил бромид натрия как замену соли, хотя и с оговоркой о необходимости дополнительного контекста. Это подтвердило, что нейросеть не всегда способна учитывать медицинские риски и может выдавать ошибочные рекомендации, особенно если запрос сформулирован недостаточно четко.
Этот случай стал наглядным примером ограничений искусственного интеллекта. Несмотря на впечатляющие возможности современных нейросетей, они не обладают достаточными знаниями в области медицины и не учитывают индивидуальные особенности организма. ChatGPT, как и другие подобные системы, опирается на общие данные, которые могут быть неполными или некорректными. В вопросах, связанных с питанием, здоровьем или лечением, решающее слово должно оставаться за профильными специалистами.