Медики из Вашингтонского университета сообщили о случае, когда у мужчины развились психоз и отравление бромидом после того, как он в течение трёх месяцев следовал совету ChatGPT.
Мужчина, стремясь уменьшить потребление обычной соли, обратился к ChatGPT, который предложил заменить её бромидом.
Это решение обернулось серьёзными последствиями: через три месяца употребления купленного в интернете бромистого натрия у пациента начались галлюцинации и паранойя.
В больнице Вашингтонского университета его лечили с помощью внутривенных вливаний и антипсихотических препаратов.
Врачи быстро заподозрили бромизм — редкое отравление, вызванное токсичностью бромида, который когда-то применялся в медицине, но был исключён из-за своей опасности.
После трёх недель лечения мужчина, поступивший с симптомами отравления и психоза, был выписан в стабильном состоянии.
Этот случай стал первым известным примером бромизма, вызванного рекомендацией искусственного интеллекта.
Исследователи подчёркивают, что ИИ, подобный ChatGPT, может предоставлять некорректные советы, особенно без учёта контекста.
Врачи подчёркивают, что настоящий специалист никогда бы не рекомендовал заменять соль бромидом.
Этот инцидент подчёркивает важность критического подхода к советам ИИ, особенно в вопросах, касающихся здоровья.