Павел Гусев: Здравствуйте! Я Павел Гусев. Темой для нашего разговора стало уже довольно обыденное сегодня явление – искусственный интеллект. Вот только область его применения уж больно необычная: сегодня это является и кажется фантастикой, но... Давайте начнем. СЮЖЕТ Голос за кадром: Искусственный интеллект будет править миром, и, похоже, это не шутка. В Албании уже появился первый в мире министр, созданный на основе искусственного интеллекта. Diella (именно так зовут нового члена правительства) возглавила Министерство общественных закупок. Как утверждается, ее назначение поможет снизить риски коррупции при заключении госконтрактов. Не отстают от нового тренда и в Японии: там искусственный разум официально возглавил политическую партию. Впрочем, возможности цифрового лидера пока ограничены решением чисто бытовых вопросов вроде распределения финансирования, а определять политический курс организации будут все-таки люди. И хотя такие истории пока еще скорее экзотика, возможности искусственного интеллекта действительно все чаще используются в реальной политике. В Непале нейросеть помогла выбрать нового премьер-министра страны, а в США искусственный интеллект пытаются внедрить в работу государственных учреждений. Пока, правда, не без скандалов: созданный Илоном Маском чат-бот очень быстро съехал с катушек – писал в соцсетях антисемитские лозунги и оскорблял действующих глав государств. Павел Гусев: Ну что же, искусственный интеллект идет во власть, и вот об этом необычном явлении мы поговорим с моими гостями. Сегодня в студию пришли: Герман Клименко, председатель совета Фонда развития цифровой экономики; Леонид Чуриков, эксперт по информационной безопасности, ведущий аналитик компании SearchInform; Елена Пахомова, социолог, член научного совета ВЦИОМ, кандидат экономических наук. Я очень рад вас приветствовать в нашей студии. Тема сегодня сверхнеобычная, на мой взгляд. Видите, мы не раз уже поднимали тему, что существует такое даже не явление, а это уже разработка, как искусственный интеллект, и вдруг мы с вами замечаем необычное явление: искусственный интеллект начинает забирать власть, приходить во власть, раздвигать человеческие силы в том, казалось бы, совершенно невозможном предмете, когда нужно властвовать и решать, командовать, принимать решения... И здесь появляется искусственный интеллект. Что вы скажете на эту тему? Давайте начнем. Герман Клименко: Я скажу, что, во-первых, я профдеформирован, поэтому... Я на этом рынке стою, т. е. разоблачать меня будут, видимо, коллеги... Я хочу снять с себя сразу вину и заметить, что нельзя возглавить ничего, если у вас нет паствы, т. е. тех, кто вас любит, тех, кто на вас молится. Я хочу заметить, что, например, если мы с вами сейчас зайдем... не будем говорить про образование, а вот такая старая история: может ли искусственный интеллект писать музыку? Если мы с вами зайдем сейчас на музыкальный сервис наш известный и посмотрим, что там в чартах, вдруг выяснится, что там в топ-10 находятся... Я думаю, 95% слушателей вообще не понимают, что это искусственный интеллект: ну просто юноша взял нейронную сеточку, написал музыку, взял Блока стихи (вот эта известная история: «Ночь, улица, фонарь, аптека...»). Все от этого радуются, но это искусственный интеллект, и он дальше продолжает в том же виде. Соответственно, проникновение искусственного интеллекта идет снизу, и если дошло до того, что уже по крайней мере... Понятно, что все вот эти случаи, о которых вы сейчас сказали, – это, конечно, пиар: ну где Албания, где министр, давайте будем честными. У нас такая «Албания» в каждом министерстве, ведомстве есть... Они могли бы отчитаться, просто им стыдно будет перед Максутом Шадаевым, и наша индустрия будет на это все смотреть. Но это симптом, действительно симптом, то, что искусственный интеллект приходит во власть, то, что люди начинают пользоваться – не только мы с вами, граждане, но и чиновники – начинают пользоваться при принятии решений, в выкладках. Создает ли это опасность? С моей точки зрения, еще раз, я в этой индустрии, поэтому я, естественно, могу быть и профдеформированный, и, знаете, охмуренный этой историей... То есть, представляете, когда я пишу текст и «кормлю» его искусственному интеллекту, вы знаете, что он мне отвечает? – «Прекрасно проработанная тема». Да со мной так никто никогда не разговаривал! Понятно, он подстраивается, понятно, он делает такую взятку; понятно, что психологи, социологи нас обвиняют в том, что вот люди перестают вообще с людьми общаться... Ну конечно, им приятно общаться с человеком... Представляете, мне говорят: «У тебя все прекрасно, ты молодец, у тебя прекрасное техническое задание!» Еще раз, со мной даже сотрудники так не разговаривают. Поэтому мы в целом как индустрия готовы к ответственности, потихонечку готовы (с небольшими ошибками) занимать должности министров. Главное, чтобы при министре были какие-то замы типа меня, которые бы это все контролировали. Павел Гусев: Вы готовы к тому, что... ? Пожалуйста. Леонид Чуриков: Давайте тогда оценим риски, какие убирает искусственный интеллект и какие добавляет. Есть ли жизненные ситуации сложные, в которых робот, искусственный интеллект справляется лучше человека? Есть – автопилот в самолете. Когда вы аплодируете при посадке, вы аплодируете роботу: самолет сажает робот. Может ли автопилот ошибаться? Да. Причем даже при плановом обновлении, когда Boeing обновил, значит, автопилот в самолете... (Кто не знает, в гражданском это 5 миллионов строк кода, в военном истребителе это 30 миллионов строк кода.) Значит, Boeing обновляет планово немножечко, совсем крошечную часть этого кода, и автопилот сбоит: он неправильно оценивает ситуацию и вводит в штопор сначала один самолет, просто убивает там и экипаж, и пассажиров, потом второй самолет. Экипаж ничего не может сделать: они не обучены действовать в ситуации, когда тебе робот не помогает, а, наоборот, просто убивает тебя. Теперь мы говорим: «Давайте автопилоту доверим не 200 человек в самолете, а вот 10 миллионов жителей Албании или еще кого-то?» Герман Клименко: А их не жалко... Леонид Чуриков: Может ли автопилот довести их до смерти? Если это министр обороны – легко, «министр войны», как в Штатах, – легко; министр финансов может убить их в финансовом смысле... Можно сказать: «Там проверят лучше». Лучше, чем Boeing, я вас уверяю, в Албании автопилот не проверят, потому что у них ни технических, ни кадровых возможностей нет. Почему люди готовы пойти на такой риск? Обычные люди говорят: «Да, давайте там наверху поставим вместо министра вот компьютер!» Почему? Им же говорят: «Он безжалостный, безнравственный, ему на вас наплевать». Они говорят: «Конечно. А вы думаете, министру на нас не наплевать?.. Министру кроме того, что на нас наплевать, он еще нас ненавидит и презирает, потому что мы вечно на что-то жалуемся, поэтому пусть лучше стоит компьютер. Кроме того, компьютер из сети может украсть только немножко электричества, а министр может украсть много всего, поэтому хуже не будет». Но в чем подвох, в чем риск? – в том, что за этим компьютером стоит... Вот Герман сказал, что готов встать [рядом]... Герман Клименко: Могу взять вас с собой рядом, давайте уж сразу, и вы перемещаетесь на мою сторону. Будет два зама, я не против. Леонид Чуриков: А там стоит кто-то, кто так же, как и бывший министр, которого убрали, презирает и, возможно, негативно относится к населению, но он еще и снял с себя ответственность. То есть он говорит: «За мои решения будет отвечать вот эта вот железная тумбочка, вот все претензии к ней». Это сделает его решения, возможно, гораздо более рискованными, и вот в этом риск. У нас в стране говорят на уровне самого высшего руководства: «Нет-нет, мы понимаем, что за любым искусственным интеллектом стоит человек, он никуда от ответственности не уйдет». Но давайте посмотрим на жизненную ситуацию реальными глазами: он уже сейчас принимает решения, и человек, который стоит за ним, уходит от ответственности. Бабушка приходит в банк брать кредит, и ей отказывают, говорят: «Вам не так много осталось, кредит вам не дадим». Кто ей отказал? – ей отказал искусственный интеллект. Павел Гусев: Искусственный интеллект. Леонид Чуриков: Он ей отказал, она ушла домой. С ней пообщались мошенники, забрали у нее все деньги, квартиру, говорят: «Маловато денег – давай еще возьмем на нее кредит и заберем и его?» Обращаются в тот же банк, и, удивительно, им дают этот кредит. Почему? Потому что в банке есть человек, который знаком с этим искусственным интеллектом, но не в окошечко, как бабушка обращается, а он обращается в админку и делает так, что кредит мошенникам дают. Вот вам реальная жизненная ситуация не где-то там в Албании, а у нас. Герман Клименко: Смотрите, тогда вообще надо человека не подпускать к искусственному интеллекту (к чему вы ведете) и к министру тоже не надо подпускать. Ну хорошо, мы откажемся, мы отойдем... Павел Гусев: Ваша позиция? Елена Пахомова: Я, наверное, немножечко в противовес скажу. Вот те сюжеты, которые мы только что просмотрели, я в этом усматриваю некий социальный эксперимент по внедрению (вот то, о чем Леонид Васильевич очень хорошо говорил) в политику искусственного интеллекта. Причем если мы посмотрим более детально на ситуацию в Албании, то оппозиция как раз очень сильно была настроена против такого решения и намерены были голосовать против назначения такого премьера. И практически искусственными процессуальными решениями он был назначен, причем остались без ответа вопросы, кто управляет кнопкой, какие действия будут в случае ошибочных решений... То есть как раз вот в этом и заключается проникновение такое достаточно тоталитарное, чтобы посмотреть, как, по сути дела, работают социальные механизмы взаимодействия власти и общества: общество это проглотит и можно дальше этот эксперимент продолжать в других странах, как бы с похожими экономиками и политическими ситуациями, либо все-таки будут найдены какие-то механизмы протестные у оппозиции, населения, которые могут не то чтобы противостоять, а по крайней мере регулировать вот этот процесс вот такого стремительного, на мой взгляд, и достаточно агрессивного вхождения технологии искусственного интеллекта в политику и власть. Герман Клименко: Конспирология. Вы нас разоблачили: да, мы вот так вот... Елена Пахомова: Да. Я считаю, что на самом деле политика как раз – это то уязвимое место, где вот сочетаются интересы очень различные, и на сегодняшней стадии развития технологий искусственного интеллекта они не могут найти компромиссного решения, учитывающего баланс интересов иногда конфликтующих между собой социальных групп. Павел Гусев: Вы знаете, министр Минцифры Максут Шадаев недавно так и заявил, сказал о том, что в принципе они готовы, могут и есть возможности, ну, половину чиновников в министерствах заменить на искусственный интеллект. Звучит интересно... Герман Клименко: Подтверждаю. Елена Пахомова: Ужасно! Герман Клименко: Я объясню. Павел Гусев: Смысл этого, так скажем, настораживает... Елена Пахомова: Настораживает. Павел Гусев: Хотя вот так вот народ, который сидит не в министерствах, воспринимает это достаточно положительно иногда, потому что общий такой, знаете, налет отрицательности к чиновнику у людей всегда присутствует, как бы там ни было. Елена Пахомова: Всегда, да. Павел Гусев: Хотя есть чиновники очень хорошие, помогают, их любят... Но тем не менее налет есть. Что в этой ситуации вы думаете? Если такое вдруг начнет происходить, это плюс для страны или минус для чиновников? Леонид Чуриков: Ну вот смотрите, нам обещали с вводом цифровизации ускорение процесса, во-первых, обращения к врачам, а недавно президент, помните, обсуждал увеличить срок возможного обращения к врачам, потому что с вводом этой самой цифровизации врачей стало меньше, обращаться к ним стало сложнее и записываться надо на больший срок. Когда получали загранпаспорта и говорили, что через «Госуслуги» теперь это будет все быстрее и быстрее, какое-то время было быстрее, а потом стало дольше. И людям... Герман Клименко: Нет, слушайте, давайте не будем передергивать. С загранпаспортами все просто – там чипы и еще что-то. Леонид Чуриков: Так. Герман Клименко: Все-таки не надо обвинять, я недавно получал загранпаспорт и записывался в медицину, а то мы сейчас будем спорить про технологии. Тут тоже давайте же правду скажем... Я понимаю, что вы сейчас на той стороне, там всегда негатив, там всегда полезно... Технология «цифры» расширила возможности доступа. Елена Пахомова: Соглашусь. Герман Клименко: И врачи, и чиновники сидели и курили бамбук у себя в кабинетах: то набежит 20 человек, вы их все равно не обслужите, обслужите 2-х, 18 уйдут. Обратите внимание, сходите сейчас в поликлинику – ощущение, что никого нет. Но никого нет не потому [], а получил талончик на 11:15, ты пришел... (Я просто чуть-чуть внутрь погружался.) Там, да, есть ЧП, когда вот этих 15 минут не хватит, там нужно выделить больше, начинают накапливаться очереди... Поликлиники сейчас достаточно... Я сейчас как бы хвалю, но, понимаете, мне самому неудобно это делать... Но вот пять поликлиник я знаю, просто одна из поликлиник, у нее сигнал появляется «Перегружен уролог», и из одной из поликлиник выезжает уролог и раскручивает аудиторию. Это расширение аудитории. Тут надо говорить правильно о другом. Вот вы задали очень правильный вопрос – цена вопроса. Раньше поликлиника обслуживала 1 тысячу человек, сейчас, допустим, 10 тысяч. Очевидно, что при росте обслуживания претензий будет больше, что бы мы ни делали, потому что на конце все равно люди: врачи, у них эмоции, у них еще что-то... И дальше возникает вопрос – количество жалоб, условно говоря, вырастет относительно или все-таки снизится? Всегда технологии, дающие плюс, всегда все технологии потом приносят минус. Например, автомобили (мы сейчас с вами не обсуждаем) убивают в год 15–20 тысяч человек в России. Слушайте, во-первых, пока мы никого не убили, давайте вот так вот... Вы просто так сказали, мне аж прямо стыдно стало за себя, я прямо практически пошел уже раскаялся... Но в целом идет расширение. И вот на самом деле пока не внедряются те технологии (они просто физически не могут внедриться), где ошибок становится больше, потому что вы голосуете ногами. Не мы голосуем – мы делаем, предлагаем вам; если вам это не нравится... Вот вам, [допустим,] не понравится цифровой рубль; безотносительно того, что думает на эту тему Центральный банк, кто-то еще, – если вам он не понравится, он не появится. Павел Гусев: Ну да. Герман Клименко: И точно так же касается телемедицины: вам не нравится? – не появится. Другой вопрос, врачи должны задуматься, почему люди сейчас консультируются с искусственным интеллектом с утра до вечера. Павел Гусев: По поводу своих болезней. Герман Клименко: Да, по поводу своих болезней. Более того, они получают удовольствие. Почему? Потому что вы приходите к врачу – у него нет времени с вами поговорить... Я просто знаю массу реальных кейсов, и все говорят: «Вот искусственный интеллект...» Я говорю: «Слушайте, коллеги, ни один диабетик никогда своему эндокринологу не скажет, что он накануне сожрал торт «Наполеон», ну никогда не расскажет, понимаете, а железяке – расскажет, потому что железяка к нему очень снисходительна». И получается, что у железяки компетенций больше. Или вот я сейчас рассказываю совершенно удивительный кейс, простой совершенно. Мне 58, я прихожу к психологу, говорю: у меня плохой сон, с женой проблемы, еще что-то, ну и вообще... Она на меня смотрит, психолог... Павел Гусев: Не получается, что искусственный интеллект... вот вы правильные примеры приводите... упрощает общение по тем или иным вопросам с неодушевленным предметом, можно так сказать? Потому что ты приходишь в ту же, как вы говорите, поликлинику или клинику, и врач сегодня с утра поссорился с женой, ребенок, значит, разбил что-то, получил двойку, и у него, естественно, настроение... И он в какой-то степени это выплескивает на своего пациента. Герман Клименко: Да-да-да. Павел Гусев: Или чиновник, который, так сказать, думает сегодня о том, какую новую машину он купит в следующем месяце за счет тех или иных своих возможностей. Искусственный интеллект вот этот вот... я не знаю, в коробке он, или в проводах, или в чем-то еще... Герман Клименко: В коробке. Павел Гусев: Ему как бы до ребенка и до всего остального вообще ничто, понимаете. У него только самое главное, это электричество или батарейки должны быть подключены, чтобы они не ослабли. Так что мы в этой ситуации имеем? Понимаете, мы человека, по сути дела, низводим (того же чиновника, врача или кого-то еще) до психологического состояния, а машину... Ну я не знаю... Елена Пахомова: Ставим выше. Леонид Чуриков: Можно я заступлюсь за человека? Герман Клименко: Маленький вопрос расскажу. Вообще, имеет смысл всего один критерий, который вообще понятен. Я знаю массу чиновников – нет ни одного, который бы отвечал на письмо сразу: ему если положено ответить 30 дней, он отвечает на 29-й день. Леонид Чуриков: Это правда. Герман Клименко: А что делает железяка? А бюрократия и чиновники, о которых мы говорим, – это перекладывание бумажек, которые идут. Почему идут годами бумажки? А искусственный интеллект что делает: у него есть ответ – он его дает, все. Ускорение колоссальное. Леонид Чуриков: Да, совершенно верно. Вопрос, какой ответ. Елена Пахомова: Вот согласна. Леонид Чуриков: Вот когда нам в банках вводили службу обслуживания клиентов на основе роботов, этот робот разве вдумывался в нашу проблему? Нет! Герман Клименко: Банки стали обслуживать в 10 раз больше людей. Да, на краях есть... Леонид Чуриков: У робота была своя задача, продать новый банковский продукт этому клиенту. И когда мы говорим про медицину, вы думаете, там какая-то задача прямо вникнуть в проблему пациента и т. д.? Там проблема – это выполнить вот эти нормативы по времени... Павел Гусев: Вот! Леонид Чуриков: ...выполнить нормативы по времени врача на работе и т. д. Вот я о чем говорю. Поэтому идея технологическая хорошая... Герман Клименко: Мы сделали продукт, а вы его так используете. Как его использовать, это к вам вопрос. Леонид Чуриков: Вот! Герман Клименко: Еще раз: мы продукт сделали. Павел Гусев: Очень интересная мысль, на мой взгляд. Герман Клименко: Надо их убрать. Надо оставить нас, только 11 человек, и будет хорошо. Леонид Чуриков: Да. Герман, я понимаю, что вы – изготовитель инструмента, молотка. Герман Клименко: Да. Леонид Чуриков: То, что этим молотком люди, которые в нем заинтересованы, начинают бить по голове клиентам банка, клиентам медицинских учреждений... Герман Клименко: ...это вы такие, да. Леонид Чуриков: Вот же в чем проблема, я об этом говорю. Вот этот человек, стоящий с задней двери, – вот его нужно контролировать. Герман Клименко: Сейчас модная тема самоограничения – самоограничьтесь, отойдите, и будет чистый искусственный интеллект. Леонид Чуриков: Поэтому мы все время пытаемся решить проблему и говорим: «Люди, вы стали такие наивные, глупые, вас так легко обмануть! Давайте мы будем контролировать всю вашу жизнь, тогда вас не обманут!» Давайте для начала контролировать рабочие процессы людей, которые отвечают за нашу жизнь: финансовых структур, медицинских и т. д. Рабочие процессы, не лезть в их личную жизнь... Герман Клименко: Поручите нам – мы все сделаем. Леонид Чуриков: Вот. Кто вам это поручит? Те люди, которые заинтересованы в том, чтобы стучать молотками? Герман Клименко: Есть масса продуктов, которые контролируют, как вы приходите на работу, как... Павел Гусев: Дайте слово. Елена Пахомова: Наша дискуссия очень хорошо воспроизводит вот те оценки и те ответы россиян, которые получают наши социологические центры, в частности ВЦИОМ. О чем говорят результаты опросов наших сограждан, проводимые Всероссийским центром изучения общественного мнения? Люди достаточно позитивно относятся к внедрению технологии искусственного интеллекта в различных сферах. Если это касается каких-то далеких для них сфер промышленности, науки, энергетики, транспорта, это вот абсолютная такая поддержка, и все считают, большинство людей считают, что там, безусловно, все технологии нужны, необходимы, это необходимо развивать. Как только дело касается лично меня, здоровья, образования детей, моей безопасности, здесь уже более критично, более пристально мы будем смотреть. Герман Клименко: Ну так всегда так было. Елена Пахомова: Всегда так было. Павел Гусев: И так и будет. Елена Пахомова: Я подчеркиваю: это так и будет. И конечно же, вот повышение доступности медицинских услуг следует отметить (стало проще, удобнее) и возможность получить вариативность: я либо здесь запишусь с такими же... Герман Клименко: Больше скажу: ответы получить. Не один сухой ответ «Идите отсюда», а еще... Елена Пахомова: И ответы, и сравнить эти ответы, понимаете, – ну как бы что тут говорить? Но принятие решения по диагнозу и по всем остальным параметрам медицинским, конечно же, люди не готовы доверять искусственному интеллекту, и здесь, конечно... Герман Клименко: Мы подождем. Елена Пахомова: А вот что касается государственного управления, внедрения искусственного интеллекта в госорганы, здесь опросы ВЦИОМ показывают (причем за 2 года, за 2022-й и 2024-й гг.), что люди не склонны доверять такое широкое внедрение технологии искусственного интеллекта в госуправление. Павел Гусев: Вот это интересно. Елена Пахомова: Значит, в 2024 году 53% против, 37% поддержали... Павел Гусев: О, интересно! Елена Пахомова: ...тогда как в 2022 году 49% были против внедрения. Павел Гусев: Понятно. Елена Пахомова: То, что касается инструментальных решений, получения ответа на запросы, – это пожалуйста, но ни в коем случае не принятие решений, потому что это жизненно важные сферы для каждого человека и он бы хотел индивидуального рассмотрения своего вопроса. Павел Гусев: Спасибо! К нашей беседе присоединяется Катерина Тихомирова, доктор философских наук, профессор МИФИ, специалист по смарт-культуре. Добрый день, Катерина Григорьевна. Голос за кадром: Катерина Тихомирова – доктор философских наук, профессор кафедры философии, онтологии и теории познания Национального исследовательского ядерного университета МИФИ, ведущая подкаста «Технооптимисты». Катерина Тихомирова: Здравствуйте. Павел Гусев: Мы подняли довольно необычную для наших дней тему «Искусственный интеллект идет во власть». На ваш взгляд, перспектива у этого явления есть или это лишь дань моде? Катерина Тихомирова: Мало того, что есть перспектива, – есть и ретроспектива. Мы не замечаем того, что искусственный интеллект (точнее, пратехнологии искусственного интеллекта) давно уже с нами при распоряжении нашим временем, пространством. То есть есть те технологии, которые предшествовали современному ИИ и вместе с выдачей в ленте, вместе с транспортными процессами, о чем еще в т. ч. рассказывал Герман Сергеевич уважаемый, – мы давно этим всем пользуемся. То есть если мы говорим об управлении нашей деятельностью и нашей жизнью, то ИИ давно с нами и он давно над нами властвует в том или ином виде. Это удобно, и отрицать это совершенно глупо. А когда мы говорим о государственном управлении, то есть здесь, конечно, нюансы. Если это разработанные модели специально под чиновников, и они имеют некое суверенное начало, и известно, что там под капотом у этих моделей, – в таком случае это, конечно, хорошо, потому что тоже можно сделать комфортной чиновничью жизнь и в том числе, собственно, граждан, которые к этим чиновникам будут обращаться. А если это как в Албании и вот те самые инфоповоды, которые обсуждались в самом начале, мы не знаем, что там на самом деле, кто был разработчиками этих моделей; там возможны утечки чувствительной информации, в т. ч. для государства. И вот здесь встает очень большой вопрос, а кто действительно управляет государством, т. е., может быть, это платформенная какая-то власть, а не власть национальная... Потому что есть платформы-разработчики: Anthropic, Meta (признана экстремистской организацией и запрещена на территории РФ), все вот эти вот известные, на слуху находящиеся, наши «Яндекса» разработчики... То есть кто на самом деле будет управлять? Это будет управлять команда разработки «Яндекса», которая сделает эту платформу? Потому что на самом деле не являются секретами эти все файлы, эта разметка, технические всякие особенности, т. е. кто-то всегда видит эту изнанку, то, что не должно быть для всех известно. И вот это бо́льшими рисками является на самом деле, эта скрытая платформенная власть, такая soft power, которую никто не замечает... Вот в перспективе надо думать на самом деле об этом. А так-то, да, необходимо внедрять и делать удобной жизнь людей. Павел Гусев: Если мы возьмем тот же Непал, о котором мы уже упоминали не раз, где доверили выборы искусственному интеллекту и предложение кандидатуры, да, технологично, наверное, будет избрана некая фигура во власти. Но насколько этот ИИ, искусственный интеллект, может понять чувства человека, который придет во власть? Это же должен прийти человек, у которого есть какие-то отношения, понимаете, и чувства к политике, к женщине, к детям, отношение к жизни как таковой, к каким-то национальным интересам. Здесь же все построено (и это молодое поколение, которое требует через искусственный интеллект [осуществлять все процессы]) на том, что они сами впитали в себя вот это вот, знаете... даже не знаю, как это лучше сказать... весь этот искусственно созданный интеллект в себя впитали через компьютеры, игры и пр., пр., пр., они уже только на клавиши нажимать готовы. Можем ли мы говорить о том, что в конечном счете все это выльется в глубокую ошибку и может вылиться? А ведь это для людей приходит власть. И что будет с этими людьми потом, если это ошибка? Катерина Тихомирова: Первый вопрос, может ли [ИИ] учитывать чувства, – тут тоже есть технические нюансы. Дело в том, что нужны базы данных, которые будут учитывать мировоззренческие ориентиры, будет соответствующая разметка интонаций, культуры... Это возможно сделать, потому что для обучения модели используется не только техническая разметка, но и смысловая разметка (которая, конечно, тоже техническая). Но нужно, чтобы рядом с разработчиками были эксперты, которые могут эти большие объемы специальным образом разметить. Но все равно полностью имитировать человеческое восприятие и человеческое осмысление никакая математическая модель на сегодняшний день не может. Если это будет AGI [artificial general intelligence, общий искусственный интеллект], которого все боятся, сверхискусственный интеллект [ИСИ], то, возможно, конечно, будущее человечества изменится, но в данный момент это невозможно. Павел Гусев: То есть все-таки человек должен остаться человеком, а не машиной? Катерина Тихомирова: Да, конечно. Павел Гусев: И мы все-таки должны говорить о том, что существует человечество, которое создает эти машины, приборы и т. д. и т. п., человек? Максим Горький тоже на эту тему говорил. Леонид Чуриков: Павел, соответствие человека неким машинным стандартам – это то, к чему мы пришли, к сожалению, в образовании, когда мы детей не учим каким-то знаниям и пользованию этими знаниями, а мы их готовим к ЕГЭ, т. е., по сути, к соответствию некоему машинному стандарту. Если сейчас речь о том, что давайте там поставим тоже некий стандарт, система будет его контролировать, а ты, человек, в разных жизненных ситуациях должен соответствовать этому стандарту, – понимаете, это вот превращение людей в таких [компьютерных] мышек или в какие-то периферийные устройства. Люди тем и хороши, что они разные, что они стараются что-то в этой жизни изменить. Поэтому вот этот подход следующий: «Надоело мне вами управлять – у меня есть такие интересные задачи (туда съездить, с этим побеседовать, обсудить жизнь за 300 лет или еще что-то), а вами будет вот это окошечко управлять. Вот вы туда обращайтесь, оно оценит вашу речь, смысловую [], словарный запас, интонации и т. д.; если вы соответствуете, дальше вас переключат на более старшее окошечко, а мне до вас дела нет». Вот этот подход плохой. Безопасникам когда дают системы искусственного интеллекта... Казалось бы, самый злой человек в мире – это безопасник: он должен этим искусственным интеллектом людей стегать, к ногтю все время [прижимать], увольнять... Нет, потому что организации, которые наблюдают за своими сотрудниками, контролируют рабочие процессы, – они понимают, что идеальных сотрудников нет. Можно уволить вот этих всех за нарушения... Павел Гусев: А искусственный интеллект идеальный? Леонид Чуриков: Искусственный интеллект – это просто инструмент, он не идеальный. И кстати говоря, вот этот сильный искусственный интеллект... Герман Клименко: Я чуть-чуть перебью. Мы как-то, знаете, убежали... Вот удивительно: я вас когда слушал, мне показалось, что вы говорите о поэтах, о музыкантах, о прекрасных докторах наук и кандидатах... Леонид Чуриков: Мы о низком все время. Герман Клименко: А вы говорите о людях, которые функция, исполнительная власть. У них основная задача, у любого чиновника, – это в отпущенный бюджет выполнить какую-то задачу. И если бы мы сейчас с вами говорили... Например, вот сейчас идет формирование бюджета, и там история, куда выделить деньги, на образование или на медицину. Идет бойня, которую решают люди, внутренняя история. Искусственный интеллект может там рационально что-то сделать, но мы пока об этом не говорим, потому что надо спрогнозировать: а если на медицину больше, будет рождаться больше детей... Павел Гусев: А некоторые, наверное, доверили бы искусственному интеллекту распределение денег. Герман Клименко: Да, честно говоря, я бы и сейчас доверил, но я не хочу вас пугать... Мы сейчас говорим с вами про чиновников. У чиновников, еще раз, у них нет... Вот то, о чем вы говорили, – у них этого нет. Слушайте, у него основная задача: есть бюджет 1 миллиард рублей, его надо потратить как-то максимально эффективно – все. Там никаких прекраснодушных историй... Павел Гусев: Ну да... Герман Клименко: У него 1 миллиард, вы к нему [придете], 1 рубль [попросите] – он поведет себя даже хуже, чем искусственный интеллект. Павел Гусев: Чиновник и искусственный интеллект – у них общее что-то может быть для работы с людьми? Герман Клименко: Бездушие. Катерина Тихомирова: Функции, логика, формально-логическое мышление может быть у них общее, все. То есть если необходимо выполнять какую-то последовательность действий – нужно бумажки перекладывать, формировать письма, отправлять, – такого чиновника заменить не просто можно, а его нужно заменить, потому что это будет гораздо быстрее все. Если нам нужна человечность, вот то, что сегодня, собственно говоря, ищут, то это да, здесь чиновника заменять нельзя, тут я не соглашусь с некоторыми выступающими: нужно оставить человеческое. Герман Клименко: А какие чиновники? Можно пример одушевленного чиновника? Катерина Тихомирова: Но есть еще один интересный момент. Дело в том, что у нас люди сейчас устали от информационного шума, поэтому они ищут в боте, в диалоге с этими ботами какую-то тоже человечность и того, кому можно доверять, и обсуждают там какие-то свои любовные перипетии, съеденный «Наполеон» и прочие всякие вещи. То есть самому обществу нужно вернуть человечность, чтобы с ним люди захотели разговаривать, потому что они идут к боту. Это на самом деле тоже страшная ситуация, потому что диалог с ботом превращается в эхокамеру, т. е. это такая камера-одиночка, в которой ты разговариваешь с математикой. И хорошо бы человека вернуть человеку, но для этого мы сами должны измениться. Леонид Чуриков: Павел, можно я верну? Вот Герман как раз пытался расчеловечить чиновников: он сказал, что чиновник – это такой тумблер... Герман Клименко: Покажите мне должность человеческую хоть одну. Врач – не чиновник. Леонид Чуриков: ...который просто вот заполняет табличку, – ничего подобного! Любой чиновник, даже заполняя самую скучную табличку, думает: «Нарисую нолик здесь – наорет вот этот начальник; нолик нарисую здесь – другой начальник. Что же делать? А, у меня рабочий день закончился – пойду-ка сына поругаю за то, что он домашнее задание не сделал». Герман Клименко: Так на мою же мельницу воду льете. Елена Пахомова: Да. Леонид Чуриков: Он весь в своих стремлениях, желаниях и т. д., исходя из них он принимает решения, а не исходя из того, что он случайным образом, как в «Спортлото», заполняет табличку. Герман Клименко: Можно вопрос... вы, кстати, тоже на эту тему высказались... по поводу нашего общения с государством? Опросы по внедрению искусственного интеллекта. Вот если бы вы опрашивали тех, кто посещал МФЦ, довольны ли они... Я вот посещал ЖЭКи (в силу возраста ЖЭКи посещал) и МФЦ посещаю. Я захожу в МФЦ, мне говорят: «Здравствуйте. Если мы опоздаем на 15 минут, вам дадут чашечку кофе. Вам надо в 5-й кабинет, и если вы забыли фотографию, сфотографируйтесь здесь». Вернемся в ЖЭКи... Елена Пахомова: Да. Леонид Чуриков: Вам это искусственный интеллект все говорит или человек? Это говорит человек! Герман Клименко: Оно все под контролем, то, о чем вы говорили, вашем же, вы оттуда же. Вы же из индустрии, которая ставит под контроль. Вы же поставили на это место и организовали – это цифровизация, внутри которой, кстати, море искусственного интеллекта, море. Елена Пахомова: Море. Герман Клименко: Но вы опрашиваете же не так – вы приходите и говорите: «Ваши страхи насколько велики?» – «Велики». Вы спросите, МФЦ их устраивает, – вам все скажут, все, кто там был... Естественно, молодежь, которая никогда не была в ЖЭКах... Честно говоря, тут с сыном бегал – он прямо ругался. Павел Гусев: Ну да. Герман Клименко: Я говорю: «Подожди-подожди, мы задержались на 2 минуты. Ты не понимаешь, что такое посещение ЖЭКа», я про эту часть говорю. Поэтому вы как ВЦИОМ профессионально формулируйте вопрос. Елена Пахомова: Вы про возраст – [опросы] подтверждают это. Павел Гусев: Вы слышали вот этот спор, разговор. Все-таки человечность – понимаете, человечность, к человеку отношение (взгляд, улыбка), – или все делать через кнопку? Как вы считаете? Катерина Тихомирова: Я приведу еще один пример. Мы наслышаны сейчас и так или иначе сталкивались с разнообразными мошенниками, которые звонили и говорили: «Мы представители банка», еще что-то такое и пр. И вместе с тем, как вот избежать было этого мошенничества? Нужно было вспомнить о том, что у нас в государстве все переведено на «цифру», т. е. у нас везде есть боты, которые рассылают из банков сообщения, у нас есть личные кабинеты у ресурсоснабжающих организаций, и, как правило, до человека не дозвониться, когда ты хочешь чего-то от них добиться. То есть если тебе звонит «Энергосбыт», это мошенник, это невозможно, потому что нужно было вспомнить об этом. Я все время говорю всем своим знакомым и родственникам: «Вам звонит человек вместо чиновника? Это мошенник, потому что у нас все давно цифровизовано». Это вот первое, что мы должны вспоминать. То есть, с одной стороны, тут у нас есть вот такой момент. А с другой стороны, если человеку хочется человеческого общения, а не заглядывать в личный кабинет, присылал ли тебе «Энергосбыт» что-нибудь или нет, тебе нужно пообщаться, хотелось бы разговаривать не с чат-ботом на основе скриптов или слушать оператора голос записанный, а хотелось бы дозвониться до человека и поговорить все-таки с ним, что очень сложно... То есть одного решения нет. Можно убрать целую массу функций за счет автоматизации этих процессов в ресурсоснабжающих, в транспортных, медицинских, управленческих [системах], но там, где остается окно, там должен быть человек, и он должен быть готов отвечать на звонок. Павел Гусев: Спасибо вам за участие в нашей программе, в нашей встрече! Вы очень интересные мысли сказали, и ваша позиция, я думаю, очень интересна и будет важна для всех тех, кто сегодня смотрит, слушает нашу программу. Спасибо вам большое! Катерина Тихомирова: До свидания. Павел Гусев: Ну вот. Леонид Чуриков: А я хотел Герману сказать, что я не против любимого искусственного интеллекта... Герман Клименко: Вы против. Леонид Чуриков: Нет, я не против. Я отлично понимаю, что он упрощает коммуникацию, он позволяет понять вопрос, запрос любого пользователя на любом языке и т. д., подготовить рекомендации ответа, это ускоряет ответ. Но у него никогда не будет желания решить какую-то проблему – это желание есть только у человека. Герман Клименко: Вы знаете, вы сейчас ведете себя как Герострат из индустрии. Вам простительно, Катерине простительно, вам, кстати, тоже простительно, вы творческий человек. Но вот я недавно наблюдал... Мы же говорим про человечность... Павел Гусев: Да, конечно. Герман Клименко: Мы придумали версию искусственного интеллекта, который проверяет человечность звонков в больнички, т. е. после звонка мы анализируем, как разговаривали, и добиваемся... Вы попробуйте сейчас позвонить там, где разговаривают, например, в московскую службу, там вам что-то понадобится, – от вас не отстанут. Почему? Потому что все под контролем (под вашим же, с вашей помощью, кстати; вы вот сейчас когда говорите, что не так). И они такое впечатление создают, что я всем уже говорю: «Коллеги, если у вас возникают вопросы, ну вот не знаете, где что-то найти, – вы просто наберите вот этот номер сверху, и от вас просто не отстанут, потому что звонок мы контролируем». Вам позвонили, мы приняли жалобу, мы посмотрели, в чем жалоба, мы слушаем, о чем они говорят. Когда они говорят: «Курсор опустите вниз, нажмите на кнопочку...» И пока вы не получите положительный ответ, она вас просто не отпустит, потому что мы обеспечиваем... Можно сейчас сказать, что мы немножечко жестоко [поступаем] с человеком, который стал оператором. Что значит «жестоко»? Мы заставляем его или ее, оператора, четко следовать инструкциям. Пожалуйста, вот вам человечность. Что вас не устраивает, скажите, пожалуйста? Леонид Чуриков: Меня не устраивает бесчеловечный подход. Герман Клименко: Подождите, он абсолютно человечный. Леонид Чуриков: Кстати говоря, в т. ч. и к операторам. Операторов гнобят уже давным-давно. Герман Клименко: Мы лучше, мы лучше. Леонид Чуриков: Сотрудники кол-центров – самые несчастные люди, потому что их контролируют на уровне всех слов и т. д. Герман Клименко: Почему несчастные? У них есть зарплата, нормальная в регионе зарплата. Леонид Чуриков: Так вот безопасники когда контролируют в т. ч. и сотрудников кол-центров, они понимают, что это все-таки люди, и наша цель – не сделать их роботами, которые строго выполняют инструкции, а понять, эти инструкции вообще помогают рабочему процессу, мешают, почему людям сложно выполнять эти инструкции или нет. Ну невозможно человека ругать, сказать: «Ты за минуту улыбнулся слишком мало раз – вычитаем из зарплаты», «Ты за минуту мало раз сказал клиенту «спасибо, я вас очень люблю» – мы у тебя еще вычитаем из зарплаты». Герман Клименко: Не с первого раза – со второго. Леонид Чуриков: Мы за то, чтобы на человека смотреть... Павел Гусев: ...по-человечески. Леонид Чуриков: Может быть, одному человеку это органично, все время ласкать слух клиента, а другой – он другой. Герман Клименко: Что вам мешает в ТЗ мне написать, что вы хотите? Мы это сделаем. Например, одна минута плюс-минус 20 секунд – мы будем... Елена Пахомова: Слушайте, вы расскажите, куда надо написать? Герман Клименко: Нет, слушайте, это же пишут ТЗ по заявкам. На самом деле, как и государство: все же возникают конфликты – это претензии с одной стороны и с другой стороны; если у вас есть претензия, мы услышим. Вы скажите нам, что нужно почеловечнее... Я хочу сказать: «Как почеловечнее?» Вы говорите: «Минута». Я говорю: «Давайте сделаем минуту плюс-минус 10 секунд. Улыбаться один раз или два раза? Вот если он...» Скажут: «Давайте, в течение дня как улыбаться будет». Елена Пахомова: Вы знаете, как потребителю мне даже не нужно улыбаться, когда я хочу решить свой жизненный вопрос. Герман Клименко: Конечно. Елена Пахомова: Мне нужен четкий, внятный ответ, когда исправят ошибку и кто понесет ответственность за то, что я в течение месяца... Герман Клименко: Ну начинается сразу: ответственность, ответственность... Ну что это такое? Ответственность – это... Павел Гусев: Ну подождите, мы сейчас с вами говорим о житейских вещах, но есть и более высокие политические вещи. Например, те же мессенджеры, соцсети – они формируют достаточно сильные, бывает, знаете, такие потоки антигосударственного, антисоциального. Елена Пахомова: Да. Павел Гусев: То есть во многих местах за вот этими митингами, побоищами, поджиганием машин, там громят магазины и т. д. и т. п. стоит не один человек, какой-то, так сказать, командир политического мышления – это соцсети, мессенджеры, которые каждую секунду вливают в мозги молодежи... А они другого ничего не видят, кроме вот этих своих железок. Что делать с этим? Что мы, должны в противовес говорить: «Не бейте стекла у машин, а идите и пишите заявление «Хочу жить по-другому»?» Не получится. Леонид Чуриков: Вы знаете, в китайском законодательстве написано, вот сегодня как раз заходил на их сайт Министерства безопасности, у них написано: «Граждане, напоминаем вам: не думайте, что интернет – это такое внесудебное пространство. Оно контролируется теми же законами, что и обычное, поэтому вы там отдавайте себе отчет». У них масса дел, когда с помощью искусственного интеллекта китайцы начинают генерировать новости, чтобы привлечь интерес к своей деревне, к своему блогу и т. д., и новости эти разные: «Мужчина избил стулом какого-то мальчика», – и все побежали читать. Они говорят: «Поймали, к ответственности привлекли». Автобус врезался куда-то – они говорят: «И этого нашли, к ответственности привлекли». Я к тому, что не надо смотреть на этот мир, в мессенджере ли он или где-то еще, как на какой-то, знаете, отдельный мир, который подчиняется каким-то отдельным правилам. Мы в метро не говорим человеку, который едет: «Что ты так некрасиво оделся? Тебе вот этот галстук к этому пиджаку не подходит». А в интернете это же каждое второе заявление: что-то увидел, сразу, значит, какое-то свое мнение незнакомому человеку высказал. Герман Клименко: Это новая среда, ее нельзя... Смотрите, ее надо либо запретить полностью, либо учиться в ней жить. Леонид Чуриков: Вот, учиться в ней жить. Герман Клименко: Есть плюсы и минусы. В любом издании есть, знаете, начальная, главная страничка и на обороте... Есть часть людей, которые идут [], у меня водитель смотрит сканворд, а кто-то читает спереди. Павел Гусев: Ну да. Герман Клименко: Вопрос в том, что новая среда, в которой мы сейчас с вами буквально... Как изменился искусственный интеллект за 2–3 года, о чем мы говорим, буквально кардинально отношение меняется. Елена Пахомова: Ага. Герман Клименко: А у нас ни право не готово, которое тысячелетиями строилось право, эволюция человека вообще миллионы лет, потом Средние века какие-то, потом... И мы как-то за последние несколько лет идем какими-то шагами куда-то в бесконечность. Елена Пахомова: Семимильными. Герман Клименко: Здесь даже не мы хотим – так получилось, вот инструменты такие появились. И другой вопрос, что... Вот вы правильно ставите вопрос, с одной стороны, но ведь согласитесь, что, если идут потоки, – оно так и живет, это же жизнь наша, она просто резко ускорилась: условно говоря, каждый стал журналистом, каждый стал формироваться в потоке. А вот вопрос, что-то можно запретить – и запрещают. Но вы же сами знаете, сперва один поток положительный, он в какой-то момент может стать отрицательным, общество может передумать: оно может за аборты быть, потом перейти и сказать, что оно против абортов; оно может изменить религию, постепенно двигаться... И поэтому запрещать вроде как непонятно – с этим надо уметь работать. Но мы с этим пока работать не умеем, потому что у нас до сих пор есть анонимность, нет авторизации... Вы же знаете прекрасно: как только появляется авторизация, как только деанонимизация происходит, сразу все нормализуется, то, о чем вы говорите. Леонид Чуриков: Почему мы не умеем с этим работать? Герман Клименко: Почему не умеем? О-о-о, у нас сейчас будет бесконечный... Леонид Чуриков: Потому что у нас сложился в голове принцип, что реальный мир должен соответствовать виртуальному: мы написали там правила, на модели это смоделировали, и люди должны отправиться вот направо, а в этом случае – налево. Вот ковид пришел – всем 1,5 метра друг от друга держаться... Герман Клименко: Это не искусственный интеллект сделал, кстати, хочу обратить внимание. Мы вообще еще пока ничего не сделали. Леонид Чуриков: Это подход цифровизации нашего мышления. Герман Клименко: Мы помогли контролировать. Леонид Чуриков: А потом подъезжает маршрутка, и ты стоял в 1,5 метрах, а потом все раз! – в маршрутке... Павел Гусев: ...и все. Леонид Чуриков: ...и вот обнялись друг с другом. Вот эта нестыковка и приводит к тому, что... Герман Клименко: Церкву я не жег, вы знаете... Павел Гусев: Коллеги, к нашей беседе присоединяется Владимир Касаткин, директор по развитию IT-компании «Омега. Технологии будущего». Добрый день, Владимир Александрович. Голос за кадром: Владимир Касаткин – директор по развитию направления «Бизнес-аналитика» компании «Омега. Технологии будущего», эксперт в области систем для бизнес-анализа, автор статей по развитию цифровых технологий. Владимир Касаткин: Я с огромным удовольствием слушал уважаемых коллег. Я вам попробую ответить как математик или физик (если хотите, и то и другое) с чувством юмора. Есть же такой замечательный уже мем, наверное: на вопрос «Вас пугает прогресс в области искусственного интеллекта?» ответ следует очень простой – «Нет, больше всего меня пугает регресс в области естественного интеллекта». И вот на самом деле вот между этой Сциллой и Харибдой это все и происходит. Вы знаете, как с любой, наверное, бурно развивающейся отраслью... собственно, «искусственный интеллект» говорят, давайте будем использовать «машинное обучение» и т. д., это все примерно одно и то же... – очень важно ввести, скажем так, систему координат, в рамках которой оценивать те или иные решения, те или иные внедрения. И вот мы у себя в компании как люди, занимающиеся в т. ч. предиктивной аналитикой, а не просто бизнес-аналитикой, четко совершенно понимаем, что есть два больших кластера, или две координаты, если хотите, которые можно описать так. Есть помогающий искусственный интеллект, т. е. это решения, созданные человеком, безусловно, созданные с участием экспертов, по проверенным, апробированным методикам, сертифицированным, возможно, на уровне профильных структур, либо принятые бизнесом просто потому, что они инкапсулировали накопленные знания в какой-то предметной области. И вот этот тип искусственного интеллекта, этот тип машинного обучения предназначен для выдачи рекомендаций при принятии решений человеком в медицине, в промышленности, образовании, политике – где угодно, но именно выдача рекомендаций: окончательное решение, конечно, должно оставаться за человеком. А есть замещающий искусственный интеллект, который очень красиво называется генеративным: это решения, которые действительно предназначены для замещения творческих в первую очередь функций человека. И наверное, вот здесь, особенно когда алгоритмы работы не ясны, или, скажем так, вот то, что вы говорили, Павел Николаевич, могут настраиваться в ту или иную сторону (то, что мы видим на примерах и мессенджеров, и соцсетей, это же однозначно совершенно), то вот это вот совершенно другая история. И наверное, вот этот тип интеллекта действительно представляет собой определенную опасность, как это возникает с ядерной бомбой, примерно так, и вот это должно быть, наверное, поводом очень жесткого наблюдения и в т. ч. правового регулирования. Павел Гусев: Скажите, пожалуйста, а вы лично, вот как все-таки ваше отношение – не как физика, не как ученого, а как человека – к искусственному интеллекту и к тому, что он врывается сегодня в нашу и обыденную жизнь, и во власть, и в какие-то социальные вопросы? Вы как к этому относитесь внутренне? Владимир Касаткин: Вы знаете, с точки зрения вот того, что я назвал помогающим, отношусь очень хорошо, очень хорошо отношусь. С точки зрения того, что он замещает именно творческие функции, я подчеркиваю, человека, – наверное, нет. Потому что когда я пару лет назад, по-моему, в одном из наших уважаемых интернет-изданий прочитал мнение кого-то, что теперь не обязательно учиться живописи, достаточно просто уметь отбирать нужные картинки, – ну вот это немножко страшно, я, конечно, не могу это приветствовать. Павел Гусев: Понятно... Леонид Чуриков: Можно вбросить пару копеек? Павел Гусев: Да, пожалуйста. Леонид Чуриков: Вот смотрите, у нас все время подход такой: «Я замещу чиновников нетворческих искусственным интеллектом или творческих людей замещу искусственным интеллектом». Это позиция внешнего управляющего. Где здесь человек? В первую очередь надо подумать: хорошо, у меня вот эти министры – чем будут заниматься эти люди? Я за них отвечаю. Маленькие менеджеры – чем они будут заниматься? А творческие люди? Герман Клименко: Перестанут вредить. Павел Гусев: Вы слышали вот этот посыл? Леонид Чуриков: Вот это должно стоять во главе, а дальше, значит... «А вот эти их функции я поручу искусственному интеллекту». А мы все время говорим: «Да мне плевать, чем они будут заниматься, выживут они, будет им, чем кормить...» Почему это подход безопасника? Потому что безопасник понимает, что любой конфликт чреват местью, т. е. вы его, значит, заместили, он решил вам навредить, будет саботировать какую-то деятельность, еще что-то делать... Поэтому мы об этом всегда думаем. Павел Гусев: Вот у меня к вам как раз в этой связи вопрос: как вы считаете, искусственный интеллект в какой-то момент может мстить или сделать так, чтобы человеку стало больно? Владимир Касаткин: Здесь вспоминается «Терминатор»: в какой-то момент... как там называлась сеть... подумала... Павел Гусев: Неважно, вы правильно говорите. Владимир Касаткин: ...что люди ей не нужны. Такое может быть, если передавать слишком много функций. Наверное, может. Павел Гусев: Спасибо за вашу позицию! Спасибо за участие в программе! Ну вот, «Терминатор» появился, появились еще у нас с вами ужастики. И к чему мы все-таки потихонечку идем с вами? Елена Пахомова: Мы идем к тому, что прогресс-то не остановить. Искусственный интеллект действительно входит во все сферы жизни, и россияне в принципе достаточно позитивно оценивают внедрение этих технологий, потому что это, по их мнению, упрощает решение многих задач и делает жизнь более комфортной. Вот пока это идет вот в этом русле, нас все устраивает. Да, видим риски, но видим мы их почти в 2 раза реже, чем плюсы, на самом деле надо признать. И риски – это потеря контроля, риски – это ошибки, на которые нет ответа или которые сложно потом исправить, и риски утери данных и, соответственно, мошеннических действий. Вот в этом есть эти риски. Герман Клименко: Всякое бывает. Елена Пахомова: Но пока практически... Я хочу сказать, что про технологию искусственного интеллекта (для меня это было тоже некоторой неожиданностью) 94% знают, причем 50% знают хорошо, 44% говорят, что об этом слышали, о каких-то отдельных технологиях, и это практически во всех возрастных группах. То есть понятно, молодежь лучше [осведомлена], потому что больше практикует, но и средние, и старшие возрастные группы также очень хорошо об этом осведомлены. Павел Гусев: А скажите, вот у нас есть целая категория населения, они себя называют ясновидящими, далеко видят, откуда-то смотрят... – они могут втихаря использовать искусственный интеллект? Герман Клименко: Я думаю, они уже давно используют. Павел Гусев: Да? Елена Пахомова: Это как раз основная база. Павел Гусев: То есть, по сути дела, они являются, так скажем, продолжателями... ? Елена Пахомова: Проводниками. Леонид Чуриков: Одна из базовых проблем состоит в том, что мы торопимся использовать технологию, которую сделали, а то вдруг кто-то использует до нас. Но вы вспомните, вот американцы сделали две атомные бомбы – почему они сбросили на два города? Потому что одна была на уране, вторая – на плутонии: они хотели испытать две технологии. Испытали. Нормально это по отношению к сотням тысяч людей, которые там сгорели?.. Мы, по сути, спешим с этими технологиями, [но,] я еще раз говорю, мы не думаем о людях. Павел Гусев: Вот я все время хочу, чтобы вот эта мысль прозвучала. Леонид Чуриков: Мы думаем: «Слушай, я придумал такую штуку – давай ее выбросим без клинических испытаний!» О чем переживал Илон Маск? Вот этот самый ChatGPT взяли и выбросили на рынок, он говорит: «Подождите, я-то не был готов, мы же так раньше не делали». Они сказали: «Боялись не успеть». Вот мы боимся все время не успеть, недополучить каких-то конкурентных преимуществ и не думаем о том, что: «Слушайте, подождите, давайте подумаем про людей». Или если уж запустили как-то, то давайте смотреть, как это отразилось на людях. Вот Герман, конечно, правильно сказал, что, когда ты увольняешь человека, месть – неизбежный фактор, надо делать это резко, быстро... Герман Клименко: Это ваша работа. Леонид Чуриков: Да, наша работа. Герман Клименко: Если вы не справляетесь, мы можем вас заменить. Леонид Чуриков: Но мы думаем об этом заранее и думаем: «Слушай, может быть, можно избежать этого? Может быть, можно сохранить?» Герман Клименко: Не увольнять, зачем. Леонид Чуриков: Да, вот, и стоит ли технология этого человека, ведь мы за него несем ответственность. Понимаете? Павел Гусев: Совершенно верно. Давайте мы, знаете, что сделаем сейчас с вами? Пофантазируем, мы же имеем право, если мы люди пока еще, а не искусственный интеллект, мы можем фантазировать. (Искусственный интеллект должен говорить, на мой взгляд, четко, прямо и честно.) Вот сегодняшние дети, которые родились, которые ходят в детский сад или пойдут в школу, через 20 лет как они столкнутся с искусственным интеллектом? Вот просто пофантазировать. Что они вдруг вместо нормальной человеческой жизни [увидят]? Я не знаю, мы сейчас нормально живем или нет, но вместо той нормальной человеческой жизни с чем они столкнутся, когда всем будет править искусственный интеллект? А он будет править, он никуда уже не уйдет, понимаете, он никуда не уйдет, никуда, он только будет... А что будет, не знаю. Пожалуйста. Леонид Чуриков: С чем [столкнутся]? – с тем, с чем мы должны были столкнуться, когда появились фитнес-браслеты. Он контролирует твое здоровье, твои перемещения, твою жизнь, когда ты проснулся и т. д., и говорит: «Слушай, ты таблетки-то принял?», «Ты сегодня поздно встал, мало отжиманий сделал», «У тебя встреча там-то». Это то, чем сейчас занимаются крупнейшие IT-корпорации, они говорят: спрос и вообще востребованность будет именно в этом искусственном помощнике. Будет ли он у тебя транслировать эту информацию в очки или сразу в мозг... Герман Клименко: Прямо в голову. Леонид Чуриков: Да, или прямо в голову – это другой вопрос... Павел Гусев: Подождите, подождите, подождите! А как же любовь-то? А как любовь? Ее тоже искусственный интеллект будет прогнозировать? Елена Пахомова: Она виртуальная, да. Павел Гусев: «Люби вот эту» или «Люби его»? А есть ли чувства? Куда они исчезнут, эти чувства? Или я должен с искусственным интеллектом советоваться, стоит мне с этой девушкой сегодня идти, а он будет говорить: «Нет, она двойку получила по географии»? Елена Пахомова: Они уже все в гаджетах, и его интерес уже формирует искусственный интеллект, т. е. не человек выбирает, а выбирает из того, что предложено. Он не смотрит в окружающем мире – он смотрит в сетях, кто общается вот в этом его сообществе. Герман Клименко: Подождите-подождите, коллеги, у меня один вопрос к вам. Во-первых, они будут жить до 120 лет, потому что благодаря вот этому, что вы описали, страшному и ужасному он будет есть меньше сахара... Леонид Чуриков: Увеличится [продолжительность жизни], согласен. Герман Клименко: Будет 120 лет, раз. Павел Гусев: Я с этим согласен: сейчас все говорит о том, что 120 лет. Герман Клименко: Вторая часть – Павел Николаевич, извините, к вам вопрос. Когда вы сказали про любовь, про вот этот выбор, – простите, а сколько лет вообще человечество живет с этой вот «Ромео и Джульеттой»? Оно столько же и живет, причем на тот момент, когда она появилась, «Ромео и Джульетта», это тоже было дико: как это так, по любви уйти из семьи? В принципе, до 1700–1800-х гг. 99,9% людей женились и любили того, кому сказали родители. И мы просто вернемся... Может быть, это тот выплеск, который сейчас, романтика... У меня товарищ был в военном институте, он реально стихи читал – да его выгнать надо было! Как, от офицера стихи – какие стихи? Он должен просто: кнопку нажать сказали – все. Еще раз: возможно, мы... Да, у нас будет нейрочип, он будет работать, если вы говорите, через 20 лет что будет... Во-первых, это будет все из головы, Маск уже приступил к испытаниям, т. е. мы сейчас уже диктуем... Вот я не знаю, как вы, я вот пишу статьи и уже говорю [надиктовываю], а будет еще лучше – из мозгов прямо сразу. И я буду идти, и мне прямо сразу... Он мне говорит: «Ты женат? Уйди», т. е. вот сразу: женат – фьюх! Елена Пахомова: Другой отсек! Герман Клименко: Еще будет стимулировать мозг. Потом он увидел, сказал: «Это твое. Я сходил в базу, посмотрел генетику, посмотрел ее характер, почитал ее письма...» Слушайте, ну подождите, были же, как их... Леонид Чуриков: Свахи. Герман Клименко: Свахи были всегда и работали прекрасно. Мы просто оказались брошенными и вынуждены были писать вот эти письма романтические... А тут все это появилось. Мы не знаем, с кем, а тут – бабах! Елена Пахомова: Но какое наследие осталось! Герман Клименко: Слушайте, человечество заблуждалось не один раз, простите. Павел Гусев: Если так он будет... Если девушка или парень друг о друге будут читать, они никогда не женятся и замуж не выйдут, потому что они такое друг про друга прочитают, что это ужас будет. Леонид Чуриков: Неправда. Просто, значит, вы когда выбираете машину, вы тоже пришли, и если вам попался талантливый продавец автосалона, то вы шли за одной, а он вам нашептал и вы купили другую. Вот эта штука будет очень талантливым, грубо говоря, продавцом чего угодно. Она вам насоветует и про девушку, и еще про что-то... Герман Клименко: На самом деле, я думаю, ничего не изменится. Страсть, преступления на сексуальной почве, преступления на иных историях, вот эти вот уходы из дома, подростковые кризисы – они все равно с нами останутся, никуда они не денутся. Павел Гусев: У нас программа близится к завершению, но короткий вопрос и короткие ответы. Как вы считаете, искусственный интеллект будет нами править и всем миром в будущем? Герман Клименко: Когда-нибудь в будущем – да. Леонид Чуриков: Нет. У него нет желаний, поэтому нет вообще возможности кем-то править. Чтобы править, надо хотеть чего-то, а он не может хотеть, он мертвый. Елена Пахомова: Я думаю, будет все-таки. Павел Гусев: Будет? Елена Пахомова: Да. Павел Гусев: Ну что ж, наша программа заканчивается, и в финале хочу сказать следующее. То, о чем полвека назад писали фантасты, постепенно становится нашим настоящим. Возможности машин (я имею в виду компьютеры и всякие их разновидности с приставкой «супер», «дважды супер», «трижды супер» и т. д.) становятся все разнообразнее, и эта сеть все плотнее и плотнее окутывает нас, а мы, как это ни грустно, с радостью в ней запутываемся. Вот и еще одна область человеческого социума – управление обществом – попала под влияние этого в какой-то степени чуждого нам интеллекта. Хорошо это или плохо, к чему это приведет? – этими вопросами сегодня задаются многие из нас. Ответы на них разные, но точки зрения-то, по сути, только две, за и против, и будущее людей зависит от того, чья победит. Я благодарю моих гостей за то, что они пришли сегодня в нашу студию. А я, Павел Гусев, прощаюсь с вами.