Искусственный интеллект может неправильно понять запрос человека и дать вредный совет, говорит психолог Евгения Торбичева.
«Чат-бот может дать неправильную рекомендацию, причем в критической ситуации, — комментирует эксперт «Газете.ру». — Стэнфордское исследование показало, что ответы ИИ-«психологов» корректны примерно в 50 процентов случаев, тогда как живые специалисты правильно реагируют в 93 процента обращений».
Кроме того, у чат-бота нет эмпатии и человеческой гибкости, например, он не может считать невербальные сигналы: тон голоса, мимику, слезы. Таким образом, могут быть упущены важные детали.
Психолог же может зеркалить поведение, жесты и состояние клиента, а также пропускает через себя его эмоции и возвращает здоровую реакцию.
Кроме того, пообщавшись с ИИ, человек получает «ложное облегчение» и откладывает визит к специалисту. Но если проблема серьезная (тяжелая депрессия, ПТСР и т.п.), отсрочка квалифицированной помощи только усугубляет состояние.
ИИ также лишен критической обратной связи, т.к. никогда не ставя под сомнение слова клиента. Поэтому совместный поиск сложных решений будет затруднен.
Помощь машины можно использовать как ассистента, добавляет эксперт. Но психолог должен параллельно сопровождать этот процесс.
Подпишись на наш канал в Telegram