Чат-боты имитируют эмпатию


ИИ как собеседник: удобно, но опасно для реального общения.

Политолог Елена Штульман прокомментировала способность чат-ботов имитировать эмпатию и формировать так называемый «суррогат отношений».

В интервью порталу RuNews24.ru во вторник, 10 марта, эксперт заявила, что процесс «размывания человечности» стартовал еще до широкого распространения нейросетей и чат-ботов. Как она считает, ключевым фактором стал массовый уход в онлайн в период пандемии, когда в цифровое пространство переместились учеба, труд и коммуникация. Это привело к сокращению живого общения, а для молодежи интернет зачастую стал восприниматься как более комфортная и защищенная среда.

В подобных условиях, как пояснила Штульман, возникли современные нейросети и чат-боты, умеющие в беседе подражать эмпатии, понимать эмоциональный фон и адаптироваться под состояние человека. Вследствие этого искусственный интеллект для некоторых начинает играть роль доступного собеседника или «виртуального психолога», отличающегося неизменной вежливостью и отсутствием конфликтности.

Специалист обратила внимание, что подобный формат коммуникации способен выработать привычку к абсолютно комфортному диалогу, который далек от настоящего человеческого взаимодействия. В качестве иллюстрации она привела опыт с голосовыми помощниками Siri и «Алиса»: их попытка пообщаться друг с другом не увенчалась успехом, что, по мнению эксперта, демонстрирует их природу — это не личности, а интерфейсы, разработанные для контакта именно с пользователем.

Ранее, 10 февраля, политический психолог, доцент Финансового университета при правительстве РФ Артур Вафин сообщил, что существует возможность условно разделить поведение на два типа. Первый — это пассивное потребление информации: постоянный скроллинг, просмотр роликов и наблюдение за чужими дискуссиями без личного участия. Второй тип предполагает активность: обмен сообщениями, работа над общими задачами, членство в группах и передача опыта.

В феврале психолог Юлия Куликова-Цай указала на критическое мышление как на основной инструмент для работы с ИИ. Она отметила, что, несмотря на удобство чата GPT, всегда требуется перепроверять точность выдаваемых им данных, информирует 360.ru.

В декабре президент Союза адвокатов России Игорь Трунов заявил, что взрослые, регулярно применяющие нейросети в быту, подвержены «когнитивной лени». Как он сказал, искусственный интеллект уменьшает самостоятельность в принятии решений на 21%, сообщает НСН.

В октябре семейный психолог Наталья Панфилова сообщила, что люди, стремящиеся заменить визит к специалисту диалогом с ChatGPT, часто преувеличивают или искажают симптомы в текстовых запросах. По ее словам, алгоритм не в состоянии подменить врача, так как не может точно определить клинические расстройства, передает RT.

В августе прошлого года эксперт Екатерина Зеленкова в беседе с агентством городских новостей «Москва» рассказала, что чат-боты на базе искусственного интеллекта в течение следующих двух лет могут вытеснить начинающих психологов. Она отметила, что уже сейчас их нередко выбирают для получения эмоциональной поддержки.