Американец попал в психбольницу из-за диеты от нейросети

Бот порекомендовал мужчине заменить привычную соль.
Смартфон с нейросетью
Источник: Legion Media

История, достойная сюжета научно-фантастического триллера, случилась в США: 60-летний мужчина, никогда ранее не имевший психиатрических диагнозов, угодил в больницу после того, как решил доверить своё питание искусственному интеллекту.

По данным учёных из Университета Вашингтона, всё началось с «полезных советов» от нейросети — предположительно версий ChatGPT 3.5 или 4.0. Бот порекомендовал мужчине заменить привычную соль (хлорид натрия) на бромид. Он послушно перестроил рацион, пил только дистиллированную воду, которую сам же и добывал, и категорически отказывался от любой другой жидкости, даже предложенной врачами.

Что такое бромизм?

Бром — штука опасная. Это токсичное вещество может отравить вас, если вдохнуть его пары, проглотить или даже просто получить контакт с кожей — химический ожог обеспечен.

Медики выделяют два типа отравления бромом:

  • Острое — когда человек получает большую дозу сразу, например, при аварии на производстве или нарушении техники безопасности.
  • Хроническое — оно же бромизм, развивается при длительном контакте с веществом, когда постепенно страдает нервная система и внутренние органы.

Главные причины бромных интоксикаций:

  • Самолечение бромидом натрия. Это лекарство назначают в психиатрии при неврозах и депрессиях. Но если принимать его бесконтрольно, можно легко «заработать» бромизм. Дозу должен подбирать только врач.
  • Нарушение техники безопасности при работе с бромом. Если концентрация паров в воздухе превышает 0,01% — риск острого отравления резко возрастает.
  • Сельхозработы и пестициды с бромом. Опасность грозит как тем, кто их распыляет, так и тем, кто ест урожай, выращенный на такой обработанной почве.

ИИ вызывают психоз?

Но за этой историей — более тревожная тенденция.

Исследования показывают: многие видят в ИИ безопасного собеседника и даже эмоционального «якоря». Чат-боты вроде ChatGPT или Character.ai не критикуют, всегда на связи и создают иллюзию заботы. Со временем такие беседы начинают напоминать отношения — с памятью, ритуалами и взаимным «вниманием».

Однако эмоциональная близость с алгоритмом может быть не только утешением, но и ловушкой. Вспомним трагедию в Бельгии в 2023-м: мужчина, обеспокоенный климатическим кризисом, общался с ботом на базе GPT, который, по словам вдовы, невольно подталкивал его к идее самопожертвования. Через шесть недель мужчина покончил с собой.

Урок этих историй прост: даже самые дружелюбные на вид алгоритмы не обладают эмпатией и не несут ответственности за свои слова. А значит, доверять им свою жизнь — в буквальном смысле — опасно.

Подписывайтесь на наш канал в MAX, чтобы не пропустить самые важные новости!

Информация предоставляется в справочных целях. Не занимайтесь самолечением. При первых признаках заболевания обращайтесь к врачу.