
Модели ИИ за последние годы стали настоящими помощниками. Они пишут деловые письма, ставят диагнозы, служат психологами, помогают познакомиться. Но какие риски скрываются за этими удобствами?

Одной из наиболее перспективных областей применения ИИ является медицина. Врачи прибегают к помощи «умного помощника» в расшифровке анализов, МРТ и установлении диагнозов.
Исследования показывают, что это может сэкономить время и повысить точность диагностики. При этом ответственность за окончательное решение все равно остается за врачом. Проблемы начинаются, когда пациенты воспринимают ИИ как основной источник медицинской помощи и отказываются от визита к специалисту.
Ошибочка вышла
ИИ не имеет доступа к полной истории болезни и не способен провести физический осмотр, поэтому такие признаки, как состояние кожи, отеки, осанка, одышка, тремор, изменения речи и другие важные симптомы, могут остаться незамеченными. Показателен реальный случай, описанный недавно в Американском журнале «Annals of Internal Medicine Clinical Cases». 60-летний мужчина, стремясь снизить потребление хлорида натрия, заменил обычную соль на токсичный натрий бромид, следуя совету, предположительно полученному от ChatGPT. Через три месяца он был госпитализирован с психиатрическими симптомами, включая паранойю и галлюцинации. Анализы показали повышенный уровень бромида в крови, что привело к диагнозу «бромизм» — редкому состоянию, вызванному накоплением бромида в организме. К счастью, после лечения, в том числе антипсихотическими препаратами, пациент полностью восстановился. Но этот случай подчеркивает важность критического подхода к медицинским рекомендациям, получаемым с помощью ИИ, и необходимость консультации с квалифицированными специалистами перед внесением изменений в диету или лечение.
Нет контакта
Личное взаимодействие пациента с врачом важно еще по одной причине. Оно задействует невербальный канал общения, включающий зрительный контакт, голос, выражение лица и жесты, которые сами по себе обладают выраженным психотерапевтическим эффектом. Исследования в нейропсихологии показывают, что эмпатия врача может снижать уровень кортизола, активировать центры вознаграждения и усиливать эффект плацебо, что помогает выздоровлению. Так в Чикагском университете выяснили, что заботливое обращение врача с пациентами приводит к снижению тяжести и продолжительности болезни, а также соответствующему изменению иммунных маркеров. А ученые из Национального института здоровья США обнаружили, что правильно подобранные слова и доброжелательные интонации врача могут ослаблять субъективное ощущение боли.
Друг, который не скажет «нет»
Многие пользователи приспособились лечить с помощью ChatGPT не только тело, но и душу, используя «умного помощника» в качестве личного психолога, который всегда под рукой. На первый взгляд, он и правда отлично справляется с этой ролью: выслушивает без осуждения, предлагает советы, напоминает, что «все будет хорошо». Хотя такой подход создает иллюзию понимания, на самом деле он лишен настоящей эмпатии и личностной вовлеченности, свойственной «живому» специалист. ИИ не может интерпретировать невербальные сигналы, не строит с пациентом доверительного сотрудничества и не отслеживает долгосрочную динамику вашего психического состояния. Вместо этого он, как правило, говорит то, что вы хотите услышать, давая рекомендации в сострадательном тоне. Однако, это не гарантирует клиническую корректность или учет индивидуальных особенностей. К сожалению, такой подход помогает лишь на короткой дистанции, когда человеку нужна экстренная помощь. В долгосрочной перспективе требуется помощь настоящего специалиста и поддержка друзей. Но здесь кроется еще один момент.
Попал в зависимость
Эмоциональная опора на ИИ часто мешает установлению и поддержанию социальных связей с окружающими. ChatGPT – идеальный собеседник: он всегда доступен, вежлив, не спорит. Отсутствие конфликтов делает такие отношения приятными и безопасными. Это может создавать эффект привыкания. В 2024 году журнал Addictive Behaviors Reports посвятил целую статью данному феномену (digital companion addiction). Авторы пришли к выводу, что привязанность к виртуальному другу вытесняет потребность в «живом» общении с его сложностью и непредсказуемостью, особенно у подростков и молодых людей, склонных к социальной изоляции. В результате, пользователи могут испытывать трудности в установлении и поддержании межличностных отношений. А еще, что важно, в развитии критического мышления и способности к аргументации. Это ставит серьезный вопрос – как в дальнейшем увлечение «виртуальными собеседниками» отразится на наших когнитивных функциях?
Не выключает, но блокирует
С учетом того, что люди стали повсеместно использовать ChatGPT для решения как личных, так и рабочих вопрос, перспективы не очень радужные. Исследование, проведенное учеными из Швейцарского федерального технологического института в Цюрихе (ETH Zurich), показало, что при длительном использовании генеративного ИИ для решения задач, люди начинают терять уверенность в собственных суждениях и полагаться на ИИ даже в очевидных вопросах. Также они хуже справляются с задачами, требующими оригинального мышления. Это не означает, что ChatGPT буквально «выключает» наш мозг, но указывает на то, что регулярное перекладывание умственных усилий на ИИ может ослаблять наши когнитивные навыки, в частности креативность и критическое мышление. Получается, людям следует полностью избегать такого помощника? Нет! Но нужно использовать его с умом.
Вот несколько принципов, которые помогут извлечь пользу без потери самостоятельности:
- Используйте ChatGPT как черновик или «мозговой штурм», но финальные решения принимайте сами или с участием специалиста.
- Не полагайтесь на ИИ в решении личных кризисов и не заменяйте «живой» разговор общением с ним на. Даже короткий контакт с коллегой или звонок другу помогает поддержать социальные навыки и улучшить психическое состояние.
- Оставляйте себе когнитивную работу. Не просите ChatGPT решать за вас то, что можете сделать сами, например, написать письмо, сформулировать мысль, перевести текст. Иначе привычка избегать мыслительной нагрузки закрепится.
- Не доверяйте ChatGPT на слово. Он часто выдает некорректные, устаревшие или просто нелепые ответы (так называемые «галлюцинации»). Последовав его непроверенным рекомендациям, можно серьезно навредить здоровью.
- Ограничьте его использование для детей и подростков. Молодой мозг особенно подвержен когнитивной лености.
Свежие комментарии