Любители обсудить с ИИ личные переживания рискуют как минимум по трем фронтам. Есть опасность утечки чувствительной информации, псевдорешения проблем и того, что психическое состояние станет совсем запущенным. Об этом предупреждает психолог. Но согласны ли с ним другие профильные специалисты? В потенциальных угрозах от общения с чат-ботами разбирался ОТР.
Самая тревожная угроза, которой подвергают себя пользователи чат-ботов, — уязвимость личных данных, заявила психолог Екатерина Орлова в интервью «Газете.ru». По ее словам, информация о страхах, травмирующих ситуациях и другие чувствительные сведения могут оказаться в руках мошенников и недобросовестных корпораций. Даже обезличенные данные рискуют стать инструментом манипуляций или дискриминации.
Вторая угроза связана с тем, что ИИ не способен оказывать квалифицированную психологическую помощь, так как оценивает лишь невербальные проявления человека. Нейросеть не сопереживает по-настоящему и не способна улавливать тончайшие нюансы эмоций. Например, ИИ может не распознать отчаяние в критический момент и дать опасный совет. Чат-боты учатся на созданных людьми данных, из-за чего могут быть предвзятыми и воспроизводить стереотипы. Это чревато дискриминацией каких-то групп людей и психических состояний, считает Екатерина Орлова.
Третью опасность специалист связала с тем, что некоторые могут воспринимать ИИ как панацею и откладывать поход к настоящему психологу. Их психическое состояние может стать из-за этого очень запущенным.
«Понимают ли пациенты, как именно используются их слова, жалобы, самые уязвимые признания? В этом и заключается парадокс технологического прогресса: с одной стороны, искусственный интеллект делает помощь доступнее, с другой — ставит нас перед необходимостью пересмотреть нормы приватности, ответственности и самой человечности в терапии. Возможно, оптимальный путь — не противопоставление, а гармоничное сочетание искусственного интеллекта и профессионализма специалистов», — высказалась она.
Любые данные у абсолютно любого оператора рискуют утечь. Это надо воспринимать как данность, заявил ОТР ученый, преподаватель, подполковник спецслужб в отставке, IT-специалист по информационной безопасности, OSINT и конкурентной разведке Андрей Масалович.
«Любая железка пытается собрать у нас все, что может, любой предмет, содержащий батарейки. Ну а каждая программа, с которой мы взаимодействуем, собирает все: любые наши действия, даже если у нас там “галочки” расставлены “не собирать”. Тут не надо [питать] никаких иллюзий. В руках корпорации уже все, что у нас за душой. Поэтому если вы относитесь к оборонным отраслям или к критической информационной инфраструктуре, нужно с этим быть аккуратным, потому что это уже не ваши данные — это данные страны. Не надо их сливать с компаниями потенциального или реального противника», — высказался эксперт.
Если говорить о том, как данные об эмоциональных переживаниях могут попасть к мошенникам, тот тут, как ни странно, зачастую нет вины корпораций. Взломать серверы компаний может далеко не каждый преступник, поэтому большинство из них все же идут по легкому пути. Они создают свои чат-боты с интерфейсом популярных программ.
«То есть вам будет казаться, что вы общаетесь с чат-ботом, и вы действительно общаетесь с заявленным чат-ботом, но через прокладку, приложение или бот злоумышленника, и тогда весь ваш трафик идет через него. Сделать это технически очень просто, и подозреваю, что таких приложений сейчас уже много-много», — предупредил подполковник спецслужб в отставке.
Мошенники нередко имеют очень гибкий ум и могут проявить изобретательность в использовании украденной информации. Например, устроить более персонализированную атаку на жертву, намеренно надавив на уязвимые места.
«Человек, который обращается к [чат-боту-]психологу, нуждается. У него что-то не в порядке. У него есть болевая точка, по ней можно бить. Это такой таргетированный горячий звонок. Можно подготовиться, ему на эту тему позвонить. Второе – он будет восприимчив к какому-то быстрому, простому, неизвестному ему способу решения: финансовую проблему решим за две минуты, мужа вернем, невесту приманим, машину поможем выиграть в лотерею. Все, что у него за душой, в голове, тут же ему надуют в уши [злоумышленники]. Это очень просто», — пояснил Масалович.
Сейчас идет спецоперация, у многих россиян есть друзья, родственники или знакомые, которые находятся на передовой, а кто-то может иметь отношение к секретным данным. Мошенники могут использовать уязвимые темы, чтобы добраться до близких жертвы. Например, заствить связаться с ними, чтобы выдать местоположение.
«На самом деле вариантов дальнейшего использования много. Сейчас один из таких странных новых видов использования у злоумышленников — такие базы данных просто покупают впрок. Ну, потому что пригодится. Например, самая дорогая база в истории из таких, из пиратских, это база тех, кто тапал хомячка. Потому что это стопроцентная база [доверчивых людей]. Она стоит дорого. Ее покупают просто, чтобы была. По ней можно обзванивать. С ее участников можно много чего вытрясти», — добавил эксперт.
Дипломированный психолог Анастасия Валуева заявила ОТР, что во многом согласна со своей коллегой Екатериной Орловой. Но она обратила внимание и на положительные моменты, которые есть у ИИ с точки зрения взаимодействия с ним.
«Боты, вот этот чат, он доступен 24/7, мгновенно. То есть в моменты острого стресса, паники, бессонницы, когда нет возможности поговорить с живым человеком или психологом, бот может стать временными ушами и может позволить выговориться и структурировать хаотичные мысли. Также из условных плюсов — некая такая тренировка разговоров. Для некоторых людей сложно начать говорить о своих проблемах, и бот может быть именно таким тренажером для формулирования того, что беспокоит. Это как тренировка перед реальным походом к психологу», — заметила специалист.
С точки зрения психологии плюсом является и анонимность — по крайней мере, человеку кажется, что о его сокровенном никто не узнает. В таких условиях снижается барьер для выражения сложных или стыдных мыслей. С другой стороны, риск утечки данных никогда не будет равен нулю. Возможные последствия от слива, вероятно, перечеркнут все плюсы. Да и с психологической точки зрения у общения с чат-ботом может набраться больше минусов.
«Главное — это, конечно, отсутствие эмпатии и человеческого контакта. Бот не чувствует. Он просто генерирует ответы на основе загруженных в его бигдату шаблонов и статистики. То есть боту, роботу, неведомо подлинное сочувствие, интуиция и терапевтический альянс, который формируется между психологом и клиентом. Бот не способен читать невербалику. Как правильно отметила Орлова, 70-80% коммуникации — невербальное. Это мимика, позы, тон голоса, паузы, подстройка. Это критически важно для понимания состояния человека. А бот к этому слеп», — объяснила Анастасия Валуева.
Из-за этой «слепоты» ИИ может пропустить суицидальные нотки, признаки психоза, сильную тревогу, которую специалист заметил бы. Еще один минус — риск ложного успокоения и откладывание терапии. Человек может получить формально корректный, но поверхностный ответ, почувствовать временное облегчение и не пойти к психологу, чем только усугубит проблему. Бот не несет ответственности за последствия своих советов и не придерживается этических рамок.
«Он может неосознанно дать вредный совет, пропустить критическую ситуацию или даже быть запрограммированным. Были даже такие исследования, что бот может врать», — заявила специалист.
Человеческая психика и жизненные ситуации невероятно сложны. Бот часто не улавливает нюансы, иронию, сарказм и глубинный смысл переживаний. Его советы могут быть слишком общими или неуместными, добавила Валуева. Когда же можно прибегнуть к чат-боту, невзирая на его минусы?
«Во-первых, это острая, изолирующая эмоциональная вспышка, когда прям поднимается злость, обида, паника. Например, эмоция накрывает волной среди ночи, нет рядом доверенного лица, самому справиться крайне трудно. То есть здесь цель не получить терапию, а снизить накал эмоций. Здесь, конечно, можно использовать бот как экстренную меру. Второй момент — это первичная структуризация мыслей перед походом к психологу. В принципе, можно описать боту суть трудности, чтобы понять, с чего начать разговор со специалистом. Но здесь, конечно, не стоит делиться глубокими травмами или конфиденциальными деталями», — посоветовала психолог.
ИИ — инструмент с серьезными ограничениями и рисками, который необходимо использовать с крайней осторожностью. Никогда не стоит доверять боту глубокие тайны и травмы, приоритет всегда должен быть на живом специалисте. Если проблема стойкая, вызывает страдания и влияет на жизнь, то поможет только профессионал. Для экстренных ситуаций лучше поискать чат-бот с максимально четкой политикой конфиденциальности. Но и тогда важно сохранять критическое мышление. Любой совет бота стоит подвергать сомнению и сверять со своим состоянием и здравым смыслом. Нельзя воспринимать его слова как истину или руководство к действию, подытожила Анастасия Валуева.
Клинический психолог и гештальт-терапевт Валерия Амелина-Прилепская согласилась со своими коллегами по поводу минусов и рисков чат-ботов. При этом она считает, что использовать их нельзя даже в экстренных случаях.
«Я считаю, нет такого случая. И если даже у человека нет денег на психолога, либо какие-то другие факторы, лучше воспользоваться бумагой, потому что письмо от руки будет намного полезнее, чем писать в чат-бот. Когда мы пишем от руки, мозг включается на полную, активируются моторные зоны, зрительный канал, логическое мышление, соединение, формируешь мысль, соединение букв в слоги, слоги в слова, слова в предложения. Этот медленный темп и подключение моторной зоны зрительного канала, логического мышления заставляет глубже погружаться в [свою проблему]. Это как пережевывать еду вместо проглатывания целиком», — поделилась специалист своим мнением.
Как и другие эксперты, Амелина-Прилепская подчеркнула, что у ИИ нет эмпатии. Он не может правильно воспринимать и «контейнировать» эмоции клиента, сопереживать ему. Человек все так же остается один на один со своей болью, только еще и может почувствовать фальшь в общении с ИИ. Он, возможно, этого не признает, но бессознательно все откладывается. Опаснее всего это для одиноких людей, так как они могут начать заменять общением с ИИ большинство социальных связей. И такие истории уже были в мире.
ОТР - Общественное Телевидение России
marketing@ptvr.ru
+7 499 755 30 50 доб. 3165
АНО «ОТВР»
1920
1080
Масалович: через чат-бот мошенники могут узнать о болевых точках своей жертвы
Любители обсудить с ИИ личные переживания рискуют как минимум по трем фронтам. Есть опасность утечки чувствительной информации, псевдорешения проблем и того, что психическое состояние станет совсем запущенным. Об этом предупреждает психолог. Но согласны ли с ним другие профильные специалисты? В потенциальных угрозах от общения с чат-ботами разбирался ОТР.
Самая тревожная угроза, которой подвергают себя пользователи чат-ботов, — уязвимость личных данных, заявила психолог Екатерина Орлова в интервью «Газете.ru». По ее словам, информация о страхах, травмирующих ситуациях и другие чувствительные сведения могут оказаться в руках мошенников и недобросовестных корпораций. Даже обезличенные данные рискуют стать инструментом манипуляций или дискриминации.
Вторая угроза связана с тем, что ИИ не способен оказывать квалифицированную психологическую помощь, так как оценивает лишь невербальные проявления человека. Нейросеть не сопереживает по-настоящему и не способна улавливать тончайшие нюансы эмоций. Например, ИИ может не распознать отчаяние в критический момент и дать опасный совет. Чат-боты учатся на созданных людьми данных, из-за чего могут быть предвзятыми и воспроизводить стереотипы. Это чревато дискриминацией каких-то групп людей и психических состояний, считает Екатерина Орлова.
Третью опасность специалист связала с тем, что некоторые могут воспринимать ИИ как панацею и откладывать поход к настоящему психологу. Их психическое состояние может стать из-за этого очень запущенным.
«Понимают ли пациенты, как именно используются их слова, жалобы, самые уязвимые признания? В этом и заключается парадокс технологического прогресса: с одной стороны, искусственный интеллект делает помощь доступнее, с другой — ставит нас перед необходимостью пересмотреть нормы приватности, ответственности и самой человечности в терапии. Возможно, оптимальный путь — не противопоставление, а гармоничное сочетание искусственного интеллекта и профессионализма специалистов», — высказалась она.
Любые данные у абсолютно любого оператора рискуют утечь. Это надо воспринимать как данность, заявил ОТР ученый, преподаватель, подполковник спецслужб в отставке, IT-специалист по информационной безопасности, OSINT и конкурентной разведке Андрей Масалович.
«Любая железка пытается собрать у нас все, что может, любой предмет, содержащий батарейки. Ну а каждая программа, с которой мы взаимодействуем, собирает все: любые наши действия, даже если у нас там “галочки” расставлены “не собирать”. Тут не надо [питать] никаких иллюзий. В руках корпорации уже все, что у нас за душой. Поэтому если вы относитесь к оборонным отраслям или к критической информационной инфраструктуре, нужно с этим быть аккуратным, потому что это уже не ваши данные — это данные страны. Не надо их сливать с компаниями потенциального или реального противника», — высказался эксперт.
Если говорить о том, как данные об эмоциональных переживаниях могут попасть к мошенникам, тот тут, как ни странно, зачастую нет вины корпораций. Взломать серверы компаний может далеко не каждый преступник, поэтому большинство из них все же идут по легкому пути. Они создают свои чат-боты с интерфейсом популярных программ.
«То есть вам будет казаться, что вы общаетесь с чат-ботом, и вы действительно общаетесь с заявленным чат-ботом, но через прокладку, приложение или бот злоумышленника, и тогда весь ваш трафик идет через него. Сделать это технически очень просто, и подозреваю, что таких приложений сейчас уже много-много», — предупредил подполковник спецслужб в отставке.
Мошенники нередко имеют очень гибкий ум и могут проявить изобретательность в использовании украденной информации. Например, устроить более персонализированную атаку на жертву, намеренно надавив на уязвимые места.
«Человек, который обращается к [чат-боту-]психологу, нуждается. У него что-то не в порядке. У него есть болевая точка, по ней можно бить. Это такой таргетированный горячий звонок. Можно подготовиться, ему на эту тему позвонить. Второе – он будет восприимчив к какому-то быстрому, простому, неизвестному ему способу решения: финансовую проблему решим за две минуты, мужа вернем, невесту приманим, машину поможем выиграть в лотерею. Все, что у него за душой, в голове, тут же ему надуют в уши [злоумышленники]. Это очень просто», — пояснил Масалович.
Сейчас идет спецоперация, у многих россиян есть друзья, родственники или знакомые, которые находятся на передовой, а кто-то может иметь отношение к секретным данным. Мошенники могут использовать уязвимые темы, чтобы добраться до близких жертвы. Например, заствить связаться с ними, чтобы выдать местоположение.
«На самом деле вариантов дальнейшего использования много. Сейчас один из таких странных новых видов использования у злоумышленников — такие базы данных просто покупают впрок. Ну, потому что пригодится. Например, самая дорогая база в истории из таких, из пиратских, это база тех, кто тапал хомячка. Потому что это стопроцентная база [доверчивых людей]. Она стоит дорого. Ее покупают просто, чтобы была. По ней можно обзванивать. С ее участников можно много чего вытрясти», — добавил эксперт.
Дипломированный психолог Анастасия Валуева заявила ОТР, что во многом согласна со своей коллегой Екатериной Орловой. Но она обратила внимание и на положительные моменты, которые есть у ИИ с точки зрения взаимодействия с ним.
«Боты, вот этот чат, он доступен 24/7, мгновенно. То есть в моменты острого стресса, паники, бессонницы, когда нет возможности поговорить с живым человеком или психологом, бот может стать временными ушами и может позволить выговориться и структурировать хаотичные мысли. Также из условных плюсов — некая такая тренировка разговоров. Для некоторых людей сложно начать говорить о своих проблемах, и бот может быть именно таким тренажером для формулирования того, что беспокоит. Это как тренировка перед реальным походом к психологу», — заметила специалист.
С точки зрения психологии плюсом является и анонимность — по крайней мере, человеку кажется, что о его сокровенном никто не узнает. В таких условиях снижается барьер для выражения сложных или стыдных мыслей. С другой стороны, риск утечки данных никогда не будет равен нулю. Возможные последствия от слива, вероятно, перечеркнут все плюсы. Да и с психологической точки зрения у общения с чат-ботом может набраться больше минусов.
«Главное — это, конечно, отсутствие эмпатии и человеческого контакта. Бот не чувствует. Он просто генерирует ответы на основе загруженных в его бигдату шаблонов и статистики. То есть боту, роботу, неведомо подлинное сочувствие, интуиция и терапевтический альянс, который формируется между психологом и клиентом. Бот не способен читать невербалику. Как правильно отметила Орлова, 70-80% коммуникации — невербальное. Это мимика, позы, тон голоса, паузы, подстройка. Это критически важно для понимания состояния человека. А бот к этому слеп», — объяснила Анастасия Валуева.
Из-за этой «слепоты» ИИ может пропустить суицидальные нотки, признаки психоза, сильную тревогу, которую специалист заметил бы. Еще один минус — риск ложного успокоения и откладывание терапии. Человек может получить формально корректный, но поверхностный ответ, почувствовать временное облегчение и не пойти к психологу, чем только усугубит проблему. Бот не несет ответственности за последствия своих советов и не придерживается этических рамок.
«Он может неосознанно дать вредный совет, пропустить критическую ситуацию или даже быть запрограммированным. Были даже такие исследования, что бот может врать», — заявила специалист.
Человеческая психика и жизненные ситуации невероятно сложны. Бот часто не улавливает нюансы, иронию, сарказм и глубинный смысл переживаний. Его советы могут быть слишком общими или неуместными, добавила Валуева. Когда же можно прибегнуть к чат-боту, невзирая на его минусы?
«Во-первых, это острая, изолирующая эмоциональная вспышка, когда прям поднимается злость, обида, паника. Например, эмоция накрывает волной среди ночи, нет рядом доверенного лица, самому справиться крайне трудно. То есть здесь цель не получить терапию, а снизить накал эмоций. Здесь, конечно, можно использовать бот как экстренную меру. Второй момент — это первичная структуризация мыслей перед походом к психологу. В принципе, можно описать боту суть трудности, чтобы понять, с чего начать разговор со специалистом. Но здесь, конечно, не стоит делиться глубокими травмами или конфиденциальными деталями», — посоветовала психолог.
ИИ — инструмент с серьезными ограничениями и рисками, который необходимо использовать с крайней осторожностью. Никогда не стоит доверять боту глубокие тайны и травмы, приоритет всегда должен быть на живом специалисте. Если проблема стойкая, вызывает страдания и влияет на жизнь, то поможет только профессионал. Для экстренных ситуаций лучше поискать чат-бот с максимально четкой политикой конфиденциальности. Но и тогда важно сохранять критическое мышление. Любой совет бота стоит подвергать сомнению и сверять со своим состоянием и здравым смыслом. Нельзя воспринимать его слова как истину или руководство к действию, подытожила Анастасия Валуева.
Клинический психолог и гештальт-терапевт Валерия Амелина-Прилепская согласилась со своими коллегами по поводу минусов и рисков чат-ботов. При этом она считает, что использовать их нельзя даже в экстренных случаях.
«Я считаю, нет такого случая. И если даже у человека нет денег на психолога, либо какие-то другие факторы, лучше воспользоваться бумагой, потому что письмо от руки будет намного полезнее, чем писать в чат-бот. Когда мы пишем от руки, мозг включается на полную, активируются моторные зоны, зрительный канал, логическое мышление, соединение, формируешь мысль, соединение букв в слоги, слоги в слова, слова в предложения. Этот медленный темп и подключение моторной зоны зрительного канала, логического мышления заставляет глубже погружаться в [свою проблему]. Это как пережевывать еду вместо проглатывания целиком», — поделилась специалист своим мнением.
Как и другие эксперты, Амелина-Прилепская подчеркнула, что у ИИ нет эмпатии. Он не может правильно воспринимать и «контейнировать» эмоции клиента, сопереживать ему. Человек все так же остается один на один со своей болью, только еще и может почувствовать фальшь в общении с ИИ. Он, возможно, этого не признает, но бессознательно все откладывается. Опаснее всего это для одиноких людей, так как они могут начать заменять общением с ИИ большинство социальных связей. И такие истории уже были в мире.
Любители обсудить с ИИ личные переживания рискуют как минимум по трем фронтам. Есть опасность утечки чувствительной информации, псевдорешения проблем и того, что психическое состояние станет совсем запущенным. Об этом предупреждает психолог. Но согласны ли с ним другие профильные специалисты? В потенциальных угрозах от общения с чат-ботами разбирался ОТР.
Самая тревожная угроза, которой подвергают себя пользователи чат-ботов, — уязвимость личных данных, заявила психолог Екатерина Орлова в интервью «Газете.ru». По ее словам, информация о страхах, травмирующих ситуациях и другие чувствительные сведения могут оказаться в руках мошенников и недобросовестных корпораций. Даже обезличенные данные рискуют стать инструментом манипуляций или дискриминации.
Вторая угроза связана с тем, что ИИ не способен оказывать квалифицированную психологическую помощь, так как оценивает лишь невербальные проявления человека. Нейросеть не сопереживает по-настоящему и не способна улавливать тончайшие нюансы эмоций. Например, ИИ может не распознать отчаяние в критический момент и дать опасный совет. Чат-боты учатся на созданных людьми данных, из-за чего могут быть предвзятыми и воспроизводить стереотипы. Это чревато дискриминацией каких-то групп людей и психических состояний, считает Екатерина Орлова.
Третью опасность специалист связала с тем, что некоторые могут воспринимать ИИ как панацею и откладывать поход к настоящему психологу. Их психическое состояние может стать из-за этого очень запущенным.
«Понимают ли пациенты, как именно используются их слова, жалобы, самые уязвимые признания? В этом и заключается парадокс технологического прогресса: с одной стороны, искусственный интеллект делает помощь доступнее, с другой — ставит нас перед необходимостью пересмотреть нормы приватности, ответственности и самой человечности в терапии. Возможно, оптимальный путь — не противопоставление, а гармоничное сочетание искусственного интеллекта и профессионализма специалистов», — высказалась она.
Любые данные у абсолютно любого оператора рискуют утечь. Это надо воспринимать как данность, заявил ОТР ученый, преподаватель, подполковник спецслужб в отставке, IT-специалист по информационной безопасности, OSINT и конкурентной разведке Андрей Масалович.
«Любая железка пытается собрать у нас все, что может, любой предмет, содержащий батарейки. Ну а каждая программа, с которой мы взаимодействуем, собирает все: любые наши действия, даже если у нас там “галочки” расставлены “не собирать”. Тут не надо [питать] никаких иллюзий. В руках корпорации уже все, что у нас за душой. Поэтому если вы относитесь к оборонным отраслям или к критической информационной инфраструктуре, нужно с этим быть аккуратным, потому что это уже не ваши данные — это данные страны. Не надо их сливать с компаниями потенциального или реального противника», — высказался эксперт.
Если говорить о том, как данные об эмоциональных переживаниях могут попасть к мошенникам, тот тут, как ни странно, зачастую нет вины корпораций. Взломать серверы компаний может далеко не каждый преступник, поэтому большинство из них все же идут по легкому пути. Они создают свои чат-боты с интерфейсом популярных программ.
«То есть вам будет казаться, что вы общаетесь с чат-ботом, и вы действительно общаетесь с заявленным чат-ботом, но через прокладку, приложение или бот злоумышленника, и тогда весь ваш трафик идет через него. Сделать это технически очень просто, и подозреваю, что таких приложений сейчас уже много-много», — предупредил подполковник спецслужб в отставке.
Мошенники нередко имеют очень гибкий ум и могут проявить изобретательность в использовании украденной информации. Например, устроить более персонализированную атаку на жертву, намеренно надавив на уязвимые места.
«Человек, который обращается к [чат-боту-]психологу, нуждается. У него что-то не в порядке. У него есть болевая точка, по ней можно бить. Это такой таргетированный горячий звонок. Можно подготовиться, ему на эту тему позвонить. Второе – он будет восприимчив к какому-то быстрому, простому, неизвестному ему способу решения: финансовую проблему решим за две минуты, мужа вернем, невесту приманим, машину поможем выиграть в лотерею. Все, что у него за душой, в голове, тут же ему надуют в уши [злоумышленники]. Это очень просто», — пояснил Масалович.
Сейчас идет спецоперация, у многих россиян есть друзья, родственники или знакомые, которые находятся на передовой, а кто-то может иметь отношение к секретным данным. Мошенники могут использовать уязвимые темы, чтобы добраться до близких жертвы. Например, заствить связаться с ними, чтобы выдать местоположение.
«На самом деле вариантов дальнейшего использования много. Сейчас один из таких странных новых видов использования у злоумышленников — такие базы данных просто покупают впрок. Ну, потому что пригодится. Например, самая дорогая база в истории из таких, из пиратских, это база тех, кто тапал хомячка. Потому что это стопроцентная база [доверчивых людей]. Она стоит дорого. Ее покупают просто, чтобы была. По ней можно обзванивать. С ее участников можно много чего вытрясти», — добавил эксперт.
Дипломированный психолог Анастасия Валуева заявила ОТР, что во многом согласна со своей коллегой Екатериной Орловой. Но она обратила внимание и на положительные моменты, которые есть у ИИ с точки зрения взаимодействия с ним.
«Боты, вот этот чат, он доступен 24/7, мгновенно. То есть в моменты острого стресса, паники, бессонницы, когда нет возможности поговорить с живым человеком или психологом, бот может стать временными ушами и может позволить выговориться и структурировать хаотичные мысли. Также из условных плюсов — некая такая тренировка разговоров. Для некоторых людей сложно начать говорить о своих проблемах, и бот может быть именно таким тренажером для формулирования того, что беспокоит. Это как тренировка перед реальным походом к психологу», — заметила специалист.
С точки зрения психологии плюсом является и анонимность — по крайней мере, человеку кажется, что о его сокровенном никто не узнает. В таких условиях снижается барьер для выражения сложных или стыдных мыслей. С другой стороны, риск утечки данных никогда не будет равен нулю. Возможные последствия от слива, вероятно, перечеркнут все плюсы. Да и с психологической точки зрения у общения с чат-ботом может набраться больше минусов.
«Главное — это, конечно, отсутствие эмпатии и человеческого контакта. Бот не чувствует. Он просто генерирует ответы на основе загруженных в его бигдату шаблонов и статистики. То есть боту, роботу, неведомо подлинное сочувствие, интуиция и терапевтический альянс, который формируется между психологом и клиентом. Бот не способен читать невербалику. Как правильно отметила Орлова, 70-80% коммуникации — невербальное. Это мимика, позы, тон голоса, паузы, подстройка. Это критически важно для понимания состояния человека. А бот к этому слеп», — объяснила Анастасия Валуева.
Из-за этой «слепоты» ИИ может пропустить суицидальные нотки, признаки психоза, сильную тревогу, которую специалист заметил бы. Еще один минус — риск ложного успокоения и откладывание терапии. Человек может получить формально корректный, но поверхностный ответ, почувствовать временное облегчение и не пойти к психологу, чем только усугубит проблему. Бот не несет ответственности за последствия своих советов и не придерживается этических рамок.
«Он может неосознанно дать вредный совет, пропустить критическую ситуацию или даже быть запрограммированным. Были даже такие исследования, что бот может врать», — заявила специалист.
Человеческая психика и жизненные ситуации невероятно сложны. Бот часто не улавливает нюансы, иронию, сарказм и глубинный смысл переживаний. Его советы могут быть слишком общими или неуместными, добавила Валуева. Когда же можно прибегнуть к чат-боту, невзирая на его минусы?
«Во-первых, это острая, изолирующая эмоциональная вспышка, когда прям поднимается злость, обида, паника. Например, эмоция накрывает волной среди ночи, нет рядом доверенного лица, самому справиться крайне трудно. То есть здесь цель не получить терапию, а снизить накал эмоций. Здесь, конечно, можно использовать бот как экстренную меру. Второй момент — это первичная структуризация мыслей перед походом к психологу. В принципе, можно описать боту суть трудности, чтобы понять, с чего начать разговор со специалистом. Но здесь, конечно, не стоит делиться глубокими травмами или конфиденциальными деталями», — посоветовала психолог.
ИИ — инструмент с серьезными ограничениями и рисками, который необходимо использовать с крайней осторожностью. Никогда не стоит доверять боту глубокие тайны и травмы, приоритет всегда должен быть на живом специалисте. Если проблема стойкая, вызывает страдания и влияет на жизнь, то поможет только профессионал. Для экстренных ситуаций лучше поискать чат-бот с максимально четкой политикой конфиденциальности. Но и тогда важно сохранять критическое мышление. Любой совет бота стоит подвергать сомнению и сверять со своим состоянием и здравым смыслом. Нельзя воспринимать его слова как истину или руководство к действию, подытожила Анастасия Валуева.
Клинический психолог и гештальт-терапевт Валерия Амелина-Прилепская согласилась со своими коллегами по поводу минусов и рисков чат-ботов. При этом она считает, что использовать их нельзя даже в экстренных случаях.
«Я считаю, нет такого случая. И если даже у человека нет денег на психолога, либо какие-то другие факторы, лучше воспользоваться бумагой, потому что письмо от руки будет намного полезнее, чем писать в чат-бот. Когда мы пишем от руки, мозг включается на полную, активируются моторные зоны, зрительный канал, логическое мышление, соединение, формируешь мысль, соединение букв в слоги, слоги в слова, слова в предложения. Этот медленный темп и подключение моторной зоны зрительного канала, логического мышления заставляет глубже погружаться в [свою проблему]. Это как пережевывать еду вместо проглатывания целиком», — поделилась специалист своим мнением.
Как и другие эксперты, Амелина-Прилепская подчеркнула, что у ИИ нет эмпатии. Он не может правильно воспринимать и «контейнировать» эмоции клиента, сопереживать ему. Человек все так же остается один на один со своей болью, только еще и может почувствовать фальшь в общении с ИИ. Он, возможно, этого не признает, но бессознательно все откладывается. Опаснее всего это для одиноких людей, так как они могут начать заменять общением с ИИ большинство социальных связей. И такие истории уже были в мире.