Мужчина получил бромизм и психоз, следуя рекомендациям ChatGPT

10 августа 2025
Время чтения 2 мин.
13 Просмотров

Врачи Вашингтонского университета сообщили о тревожном случае, который подчеркивает потенциальные риски использования искусственного интеллекта в сфере здравоохранения. В центре внимания оказался мужчина, у которого после трёх месяцев самолечения с помощью рекомендаций ChatGPT развились тяжелые психические нарушения и признаки отравления бромидом натрия, который он сам решил принимать, следуя советам ИИ.

История началась с его стремления снизить потребление соли — популярную тему в балансовом питании и диетологии. Получив рекомендацию заменить обычную поваренную соль (хлорид натрия) на бромид натрия — ранее использовавшийся в медицине, — мужчина решил следовать этим советам. Он купил бромистое соединение через интернет и начал регулярно принимать его, полагая, что это поможет снизить уровень соли в рационе и улучшить здоровье.

Однако его эксперимент закончился тяжелыми последствиями для здоровья. После трёх месяцев постоянного употребления бромида натрия у него возникли галлюцинации, паранойя и другие психотические симптомы. Эти проявления особенно опасны, так как бромиды могут накапливаться в организме и оказывать токсическое воздействие, вызывая бромизм — редкое и часто трудно диагностируемое отравление.

При поступлении в больницу Медицинского центра Вашингтонского университета пациента диагностировали с бромизмом, и ему была проведена интенсивная терапия: внутривенные вливания и назначение антипсихотических препаратов. Врачи быстро заподозрили токсическое отравление бромидом, что подтвердилось лабораторными анализами. Им предстала картина редкого, но серьезного отравления, связанного с употреблением веществ, ранее широко использовавшихся в медицине, но позже исключённых из-за их опасности для здоровья.

Через три недели интенсивного лечения состояние пациента стабилизировалось, и он был выписан из больницы в удовлетворительном состоянии. Этот случай стал первым задокументированным случаем отравления бромидом, вызванного рекомендациями искусственного интеллекта, и привлёк серьезное внимание специалистов.

Эксперты и ученые подчеркивают, что данный инцидент демонстрирует важность критической оценки информации, предоставляемой ИИ. Несмотря на удобство и быстроту получения советов, алгоритмы, как ChatGPT, могут распространять некорректные или опасные рекомендации, особенно в таких деликатных сферах, как медицина и здоровье. Особенно важно понимать, что ИИ не заменит квалифицированного специалиста, и любые советы, связанные с лечением, должны проходить проверку и одобрение медиков.

Этот случай служит напоминанием о том, что современные технологии требуют ответственного использования. Врачи настоятельно рекомендуют учитывать, что даже самые продвинутые алгоритмы могут иногда выдавать неверные или опасные советы, особенно без учета индивидуальных особенностей пациента. Поэтому перед началом приема любых веществ или изменений в диете нужно обращаться к квалифицированным специалистам и не полагаться исключительно на рекомендации ИИ.

В целом, происшествие с мужчиной в Вашингтонском университете — важный сигнал о необходимости повышения осведомленности о потенциальных рисках использования искусственного интеллекта в сфере здравоохранения. Оно подчеркивает необходимость строгих стандартов и контрольных механизмов для интеграции новых технологий в практику медицины, чтобы избежать подобных опасных ситуаций в будущем. Настоятельно рекомендуется развивать программы обучения и информировать общественность о том, что ИИ не является заменой профессиональной медицинской консультации. Только так можно обеспечить безопасность и здоровье пациентов в эпоху технологических инноваций.

Выйти из мобильной версии