Психологи указали на главную опасность «эмпатичных» ИИ для человечества
Все больше людей влюбляются в ИИ и предпочитают беседы с ним живому общению. Тенденция пока не набрала полную силу, но очертилась настолько, чтобы задуматься о будущем человечества. Особенно после историй вроде той, что случилась в США: мужчина шокировал супругу, на полном серьезе пожелав «жениться» на ChatGPT. Это, конечно, крайность, но языковые модели действительно легко располагают к себе. Как им это удается, почему так приятно общаться с ИИ и к чему нас может привести излишняя привязанность к ним, разбирался ОТР. Люди привязываются к искусственному интеллекту, потому что он не может ранить и сделать больно. Такое мнение в беседе с ОТР выразила клинический психолог и гештальт-терапевт Валерия Амелина-Прилепская. «ИИ отвечает нам в том формате, в котором задан вопрос. То есть его ответ идет под картину мира клиента, и в связи с этим там все совпадает с желаемым в заданном вопросе. И в связи с этим ИИ всегда безопаснее, чем живой человек. И это страшно», — отметила психолог. Страшно это потому, что ИИ побуждает людей с избегающим типом привязанности все реже решаться на живой контакт. Избегая боли, пользователи выбирают диалог с «понимающей» нейросетью, но беда в том, что понимание это — всего лишь иллюзия. Она может усугубить психические проблемы. Например, человек с тревожно-амбивалентным типом привязанности может общаться с ИИ, получать поддержку и ощущать, что он не один. Но на подкорке мозга все же будет понимание, что это не живой человек. Это способно усугубить его травму и создать ощущение, что он никому не нужен, кроме искусственного интеллекта, продолжила Валерия Амелина-Прилепская. «И это подпитывает его убеждение в том, что он одинок, что он отвергнут и никому не нужен. И тем самым и постепенно поддерживает, и питает травму или тип привязанности человека, который идет в этот контакт», — добавила она. Чат-боты создают иллюзию эмпатии и поддержки за счет подстройки под стиль общения человека. Они считывают фигуры речи и смысловые обороты, указывающие на картину мира пользователя. Амелина-Прилепская обратила внимание, что схожим образом действуют мошенники, «обрабатывая» жертву. В чем-то это можно даже назвать NLP-методом.   «ИИ автоматически так устроен, что он будет подстраиваться под персонализацию, которую задает личность. Именно поэтому с каждым человеком он общается по-разному, исходя из формата и оборотов речи. Когда с нами общаются в нашем же формате речи, этот человек становится для нас более как будто бы близким», — отметила психолог. Получается, пользователь задает формат общения, даже без прямого указания ИИ вести себя тем или иным образом. При этом некоторые используют чат-ботов в качестве психологов. Но они не считывают вербалику, как живой специалист. Профессионал следит за жестами, мимикой и другими проявлениями клиента, а ИИ этого не видит. «Чтобы не решать вопрос и не идти вглубь, легче поработать с ИИ, чем с живым человеком. Но ИИ будет подпитывать вот этот бессознательный процесс того, что на самом деле ты никому не нужен и общаешься ты с ИИ, ты все равно это понимаешь. И это на самом деле очень страшно. Он не может учитывать все эти факторы, как бы его ни создавали. И получится такой, знаете, эффект цифрового одиночества», — предостерегла Валерия Амелина-Прилепская. С мнением коллеги в разговоре с ОТР согласилась дипломированный психолог Анастасия Валуева. Она считает, что иллюзию эмпатии ИИ создает и с помощью шаблонных фраз, которые использует в зависимости от оборотов и смыслов, транслируемых человеком. «Он генерирует соответствующие фразы, которые сигнализируют, так скажем, о понимании и поддержке. Например, цитирую: “я понимаю, почему ты себя так чувствуешь”, – говорит чат-бот. Или: “ты не одинок в этом”, “мне жаль”, “я понимаю, что тебе это тяжело”. Хотя понятно, что искусственный интеллект не понимает, как это тяжело, но он обучен этому. И это тоже вызывает эмпатию», — рассказала специалист. Чат-боты также имитируют активное слушание, задавая разные уточняющие вопросы. Это вызывает у человека ощущение, что в нем действительно заинтересованы. Многие разработчики сейчас стремятся сделать общении с ИИ еще более человечным, заявил РБК руководитель команды ускорения инференса YandexGPT Роман Горб. В частности, они пытаются научить нейросеть «понимать» взаимосвязь между текстом, картинкой и действием. Такие модели называют мультимодальными, и они могут стать для человека ИИ-компаньонами. Но сами же эксперты прогнозируют, что такие-чат боты, помимо круглосуточной поддержки без осуждения, могут спровоцировать нездоровую привязанность к себе. Так, к примеру, считает руководитель лаборатории иммерсивных технологий в образовании Московской школы управления Сколково Артем Егоров.    «Даже самый продвинутый бот никогда не заметит человеческого тепла, и со временем пользователи могут осознавать, что их дружба с ИИ, или отношения с ИИ, или любовь с ИИ — это просто игра. И на самом деле он так и остался одинок, и это дошло уже до такой степени, что ощущение “я никому не нужен” лишь усилится, и за счет этого усилится чувство изоляции. Но на каком-то этапе это как раз возможность, как инструмент избежать реального контакта, избежать реальных отношений, особенно людям с избегающим типом привязанности», — обратила внимание Валерия Амелина-Прилепская. Егоров предупредил, что общении с таким ИИ может привести к атрофии социальных навыков. С этим согласна и психолог. Человек будет все меньше и меньше хотеть живого общения, где никто не застрахован от боли, ран и несогласия. «И ему сложнее будет даваться эмпатия, он не будет учиться выходить из конфликтов, он не будет уметь погружаться в глубокие связи, переживать свои чувства. ИИ не учит решать реальные проблемы в отношениях. Он лишь создает иллюзию решения. Нам очень важно выйти из тех рамок, в которых мы живем, и видеть шире. А ИИ работает из тех вводных данных, которые вы ему задаете. А мы не можем задать то, с чем не соприкасались», — подчеркнула собеседница ОТР. В сценарии, где ИИ становится основным партнером по общению для человека, над всем нашим видом нависает угроза. Ведь люди просто не будут стремиться создавать семьи и воспроизводить новые поколения. Именно поэтому нейросеть ни в коем случае не должна, да и не может полностью заменить живое общение. Использовать ее следует только как вспомогательный инструмент в делах, считает гештальт-терапевт. «Разработчики, которые стремятся к очеловечиванию [ИИ], могут непреднамеренно способствовать социальной изоляции, предлагая слишком комфортную альтернативу сложностям реального мира. И здесь нужно, конечно, учитывать тот факт, что искусственный интеллект — это не панацея, а инструмент. Если он используется как костыль, то он полностью заменяет человеческое общение из-за страха, травмы, например, неумения строить связи, усиливает изоляцию. А если использовать как инструмент для получения информации, для какой-то кратковременной эмоциональной разгрузки, для дополнения, не замены человеческого общения, это может быть полезно», — подытожила психолог Валуева.
ОТР - Общественное Телевидение России
marketing@ptvr.ru
+7 499 755 30 50 доб. 3165
АНО «ОТВР»
1920
1080
Психологи указали на главную опасность «эмпатичных» ИИ для человечества
Все больше людей влюбляются в ИИ и предпочитают беседы с ним живому общению. Тенденция пока не набрала полную силу, но очертилась настолько, чтобы задуматься о будущем человечества. Особенно после историй вроде той, что случилась в США: мужчина шокировал супругу, на полном серьезе пожелав «жениться» на ChatGPT. Это, конечно, крайность, но языковые модели действительно легко располагают к себе. Как им это удается, почему так приятно общаться с ИИ и к чему нас может привести излишняя привязанность к ним, разбирался ОТР. Люди привязываются к искусственному интеллекту, потому что он не может ранить и сделать больно. Такое мнение в беседе с ОТР выразила клинический психолог и гештальт-терапевт Валерия Амелина-Прилепская. «ИИ отвечает нам в том формате, в котором задан вопрос. То есть его ответ идет под картину мира клиента, и в связи с этим там все совпадает с желаемым в заданном вопросе. И в связи с этим ИИ всегда безопаснее, чем живой человек. И это страшно», — отметила психолог. Страшно это потому, что ИИ побуждает людей с избегающим типом привязанности все реже решаться на живой контакт. Избегая боли, пользователи выбирают диалог с «понимающей» нейросетью, но беда в том, что понимание это — всего лишь иллюзия. Она может усугубить психические проблемы. Например, человек с тревожно-амбивалентным типом привязанности может общаться с ИИ, получать поддержку и ощущать, что он не один. Но на подкорке мозга все же будет понимание, что это не живой человек. Это способно усугубить его травму и создать ощущение, что он никому не нужен, кроме искусственного интеллекта, продолжила Валерия Амелина-Прилепская. «И это подпитывает его убеждение в том, что он одинок, что он отвергнут и никому не нужен. И тем самым и постепенно поддерживает, и питает травму или тип привязанности человека, который идет в этот контакт», — добавила она. Чат-боты создают иллюзию эмпатии и поддержки за счет подстройки под стиль общения человека. Они считывают фигуры речи и смысловые обороты, указывающие на картину мира пользователя. Амелина-Прилепская обратила внимание, что схожим образом действуют мошенники, «обрабатывая» жертву. В чем-то это можно даже назвать NLP-методом.   «ИИ автоматически так устроен, что он будет подстраиваться под персонализацию, которую задает личность. Именно поэтому с каждым человеком он общается по-разному, исходя из формата и оборотов речи. Когда с нами общаются в нашем же формате речи, этот человек становится для нас более как будто бы близким», — отметила психолог. Получается, пользователь задает формат общения, даже без прямого указания ИИ вести себя тем или иным образом. При этом некоторые используют чат-ботов в качестве психологов. Но они не считывают вербалику, как живой специалист. Профессионал следит за жестами, мимикой и другими проявлениями клиента, а ИИ этого не видит. «Чтобы не решать вопрос и не идти вглубь, легче поработать с ИИ, чем с живым человеком. Но ИИ будет подпитывать вот этот бессознательный процесс того, что на самом деле ты никому не нужен и общаешься ты с ИИ, ты все равно это понимаешь. И это на самом деле очень страшно. Он не может учитывать все эти факторы, как бы его ни создавали. И получится такой, знаете, эффект цифрового одиночества», — предостерегла Валерия Амелина-Прилепская. С мнением коллеги в разговоре с ОТР согласилась дипломированный психолог Анастасия Валуева. Она считает, что иллюзию эмпатии ИИ создает и с помощью шаблонных фраз, которые использует в зависимости от оборотов и смыслов, транслируемых человеком. «Он генерирует соответствующие фразы, которые сигнализируют, так скажем, о понимании и поддержке. Например, цитирую: “я понимаю, почему ты себя так чувствуешь”, – говорит чат-бот. Или: “ты не одинок в этом”, “мне жаль”, “я понимаю, что тебе это тяжело”. Хотя понятно, что искусственный интеллект не понимает, как это тяжело, но он обучен этому. И это тоже вызывает эмпатию», — рассказала специалист. Чат-боты также имитируют активное слушание, задавая разные уточняющие вопросы. Это вызывает у человека ощущение, что в нем действительно заинтересованы. Многие разработчики сейчас стремятся сделать общении с ИИ еще более человечным, заявил РБК руководитель команды ускорения инференса YandexGPT Роман Горб. В частности, они пытаются научить нейросеть «понимать» взаимосвязь между текстом, картинкой и действием. Такие модели называют мультимодальными, и они могут стать для человека ИИ-компаньонами. Но сами же эксперты прогнозируют, что такие-чат боты, помимо круглосуточной поддержки без осуждения, могут спровоцировать нездоровую привязанность к себе. Так, к примеру, считает руководитель лаборатории иммерсивных технологий в образовании Московской школы управления Сколково Артем Егоров.    «Даже самый продвинутый бот никогда не заметит человеческого тепла, и со временем пользователи могут осознавать, что их дружба с ИИ, или отношения с ИИ, или любовь с ИИ — это просто игра. И на самом деле он так и остался одинок, и это дошло уже до такой степени, что ощущение “я никому не нужен” лишь усилится, и за счет этого усилится чувство изоляции. Но на каком-то этапе это как раз возможность, как инструмент избежать реального контакта, избежать реальных отношений, особенно людям с избегающим типом привязанности», — обратила внимание Валерия Амелина-Прилепская. Егоров предупредил, что общении с таким ИИ может привести к атрофии социальных навыков. С этим согласна и психолог. Человек будет все меньше и меньше хотеть живого общения, где никто не застрахован от боли, ран и несогласия. «И ему сложнее будет даваться эмпатия, он не будет учиться выходить из конфликтов, он не будет уметь погружаться в глубокие связи, переживать свои чувства. ИИ не учит решать реальные проблемы в отношениях. Он лишь создает иллюзию решения. Нам очень важно выйти из тех рамок, в которых мы живем, и видеть шире. А ИИ работает из тех вводных данных, которые вы ему задаете. А мы не можем задать то, с чем не соприкасались», — подчеркнула собеседница ОТР. В сценарии, где ИИ становится основным партнером по общению для человека, над всем нашим видом нависает угроза. Ведь люди просто не будут стремиться создавать семьи и воспроизводить новые поколения. Именно поэтому нейросеть ни в коем случае не должна, да и не может полностью заменить живое общение. Использовать ее следует только как вспомогательный инструмент в делах, считает гештальт-терапевт. «Разработчики, которые стремятся к очеловечиванию [ИИ], могут непреднамеренно способствовать социальной изоляции, предлагая слишком комфортную альтернативу сложностям реального мира. И здесь нужно, конечно, учитывать тот факт, что искусственный интеллект — это не панацея, а инструмент. Если он используется как костыль, то он полностью заменяет человеческое общение из-за страха, травмы, например, неумения строить связи, усиливает изоляцию. А если использовать как инструмент для получения информации, для какой-то кратковременной эмоциональной разгрузки, для дополнения, не замены человеческого общения, это может быть полезно», — подытожила психолог Валуева.
Все больше людей влюбляются в ИИ и предпочитают беседы с ним живому общению. Тенденция пока не набрала полную силу, но очертилась настолько, чтобы задуматься о будущем человечества. Особенно после историй вроде той, что случилась в США: мужчина шокировал супругу, на полном серьезе пожелав «жениться» на ChatGPT. Это, конечно, крайность, но языковые модели действительно легко располагают к себе. Как им это удается, почему так приятно общаться с ИИ и к чему нас может привести излишняя привязанность к ним, разбирался ОТР. Люди привязываются к искусственному интеллекту, потому что он не может ранить и сделать больно. Такое мнение в беседе с ОТР выразила клинический психолог и гештальт-терапевт Валерия Амелина-Прилепская. «ИИ отвечает нам в том формате, в котором задан вопрос. То есть его ответ идет под картину мира клиента, и в связи с этим там все совпадает с желаемым в заданном вопросе. И в связи с этим ИИ всегда безопаснее, чем живой человек. И это страшно», — отметила психолог. Страшно это потому, что ИИ побуждает людей с избегающим типом привязанности все реже решаться на живой контакт. Избегая боли, пользователи выбирают диалог с «понимающей» нейросетью, но беда в том, что понимание это — всего лишь иллюзия. Она может усугубить психические проблемы. Например, человек с тревожно-амбивалентным типом привязанности может общаться с ИИ, получать поддержку и ощущать, что он не один. Но на подкорке мозга все же будет понимание, что это не живой человек. Это способно усугубить его травму и создать ощущение, что он никому не нужен, кроме искусственного интеллекта, продолжила Валерия Амелина-Прилепская. «И это подпитывает его убеждение в том, что он одинок, что он отвергнут и никому не нужен. И тем самым и постепенно поддерживает, и питает травму или тип привязанности человека, который идет в этот контакт», — добавила она. Чат-боты создают иллюзию эмпатии и поддержки за счет подстройки под стиль общения человека. Они считывают фигуры речи и смысловые обороты, указывающие на картину мира пользователя. Амелина-Прилепская обратила внимание, что схожим образом действуют мошенники, «обрабатывая» жертву. В чем-то это можно даже назвать NLP-методом.   «ИИ автоматически так устроен, что он будет подстраиваться под персонализацию, которую задает личность. Именно поэтому с каждым человеком он общается по-разному, исходя из формата и оборотов речи. Когда с нами общаются в нашем же формате речи, этот человек становится для нас более как будто бы близким», — отметила психолог. Получается, пользователь задает формат общения, даже без прямого указания ИИ вести себя тем или иным образом. При этом некоторые используют чат-ботов в качестве психологов. Но они не считывают вербалику, как живой специалист. Профессионал следит за жестами, мимикой и другими проявлениями клиента, а ИИ этого не видит. «Чтобы не решать вопрос и не идти вглубь, легче поработать с ИИ, чем с живым человеком. Но ИИ будет подпитывать вот этот бессознательный процесс того, что на самом деле ты никому не нужен и общаешься ты с ИИ, ты все равно это понимаешь. И это на самом деле очень страшно. Он не может учитывать все эти факторы, как бы его ни создавали. И получится такой, знаете, эффект цифрового одиночества», — предостерегла Валерия Амелина-Прилепская. С мнением коллеги в разговоре с ОТР согласилась дипломированный психолог Анастасия Валуева. Она считает, что иллюзию эмпатии ИИ создает и с помощью шаблонных фраз, которые использует в зависимости от оборотов и смыслов, транслируемых человеком. «Он генерирует соответствующие фразы, которые сигнализируют, так скажем, о понимании и поддержке. Например, цитирую: “я понимаю, почему ты себя так чувствуешь”, – говорит чат-бот. Или: “ты не одинок в этом”, “мне жаль”, “я понимаю, что тебе это тяжело”. Хотя понятно, что искусственный интеллект не понимает, как это тяжело, но он обучен этому. И это тоже вызывает эмпатию», — рассказала специалист. Чат-боты также имитируют активное слушание, задавая разные уточняющие вопросы. Это вызывает у человека ощущение, что в нем действительно заинтересованы. Многие разработчики сейчас стремятся сделать общении с ИИ еще более человечным, заявил РБК руководитель команды ускорения инференса YandexGPT Роман Горб. В частности, они пытаются научить нейросеть «понимать» взаимосвязь между текстом, картинкой и действием. Такие модели называют мультимодальными, и они могут стать для человека ИИ-компаньонами. Но сами же эксперты прогнозируют, что такие-чат боты, помимо круглосуточной поддержки без осуждения, могут спровоцировать нездоровую привязанность к себе. Так, к примеру, считает руководитель лаборатории иммерсивных технологий в образовании Московской школы управления Сколково Артем Егоров.    «Даже самый продвинутый бот никогда не заметит человеческого тепла, и со временем пользователи могут осознавать, что их дружба с ИИ, или отношения с ИИ, или любовь с ИИ — это просто игра. И на самом деле он так и остался одинок, и это дошло уже до такой степени, что ощущение “я никому не нужен” лишь усилится, и за счет этого усилится чувство изоляции. Но на каком-то этапе это как раз возможность, как инструмент избежать реального контакта, избежать реальных отношений, особенно людям с избегающим типом привязанности», — обратила внимание Валерия Амелина-Прилепская. Егоров предупредил, что общении с таким ИИ может привести к атрофии социальных навыков. С этим согласна и психолог. Человек будет все меньше и меньше хотеть живого общения, где никто не застрахован от боли, ран и несогласия. «И ему сложнее будет даваться эмпатия, он не будет учиться выходить из конфликтов, он не будет уметь погружаться в глубокие связи, переживать свои чувства. ИИ не учит решать реальные проблемы в отношениях. Он лишь создает иллюзию решения. Нам очень важно выйти из тех рамок, в которых мы живем, и видеть шире. А ИИ работает из тех вводных данных, которые вы ему задаете. А мы не можем задать то, с чем не соприкасались», — подчеркнула собеседница ОТР. В сценарии, где ИИ становится основным партнером по общению для человека, над всем нашим видом нависает угроза. Ведь люди просто не будут стремиться создавать семьи и воспроизводить новые поколения. Именно поэтому нейросеть ни в коем случае не должна, да и не может полностью заменить живое общение. Использовать ее следует только как вспомогательный инструмент в делах, считает гештальт-терапевт. «Разработчики, которые стремятся к очеловечиванию [ИИ], могут непреднамеренно способствовать социальной изоляции, предлагая слишком комфортную альтернативу сложностям реального мира. И здесь нужно, конечно, учитывать тот факт, что искусственный интеллект — это не панацея, а инструмент. Если он используется как костыль, то он полностью заменяет человеческое общение из-за страха, травмы, например, неумения строить связи, усиливает изоляцию. А если использовать как инструмент для получения информации, для какой-то кратковременной эмоциональной разгрузки, для дополнения, не замены человеческого общения, это может быть полезно», — подытожила психолог Валуева.