Александр Денисов: Переходим к следующей теме: «Искусственный интеллект блеснет в школе». Министерство просвещения включит в школьную программу изучение искусственного интеллекта – то есть, если верить американскому изобретателю и миллиардеру Илону Маску, внесет в стены учебных учреждений «оружие поопаснее ядерной бомбы». Ну, еще он демоном называл искусственный интеллект. Кому он уже сейчас угрожает? Кого узнают, как милого по походке и татуировкам? Обсудим вместе с вами, а также с нашим уважаемым гостем. В студии у нас – Владимир Пирожков, футуролог, промышленный дизайнер, директор инжинирингового центра «Кинетика». Анастасия Сорокина: Владимир, добрый вечер. Александр Денисов: Владимир, сенсация, я сейчас поддам газу, так сказать. Вы ведь первый у нас в студии, даже опередили Маска… Обычно мы вслед за ним, в хвосте плетемся. Вы сказали тогда, еще несколько недель назад, что это как раз опаснее ядерного оружия. У нас же в студии, на этом же месте, не сходя с этого места, вы это и заявили. Владимир Пирожков: Тепленькое еще. Александр Денисов: Да. Вы раньше были. Я прав? Владимир Пирожков: Ну смотрите. Необязательно, кто первый. Это просто происходит. Это тренд. Он очень мощный и, самое главное, очень быстрый, стремительный, я бы сказал. Вот то, о чем мы говорили – что к 2022 году все школы будут покрыты сеткой интернета для начала, все школы, которые до сих пор не были покрыты, – это обещание одной из основных компаний, которая запускает 720 спутников (из них первые 20 уже запущены в этом году), 720 спутников, которые будут покрывать полностью, скажем, по периметру всю планету и покрывать, собственно говоря, интернетом все школы вообще в мире. Анастасия Сорокина: Новость о том, что в каждой второй школе до 2024 года в России будет изучаться искусственный интеллект как отдельный предмет. С одной стороны, хочется порадоваться, что мы вроде бы идем за всем… Владимир Пирожков: А кто учитель, можно узнать? Анастасия Сорокина: А как вообще можно изучать искусственный интеллект? Что это за предмет такой будет? Владимир Пирожков: Я думаю, что это будут какие-то основы программирования или системного анализа. Потому что «искусственный интеллект» – это такая общая фраза, большое количество небольших изделий, назовем так. Так вот, например, у «Сбербанка» есть элементы искусственного интеллекта, которые определяют, дать вам кредит или нет. И если вы, например, не дай бог, разведенка с четырьмя детьми, то не факт, что вы получите кредит. Александр Денисов: Нет, получите, но с таким «красивым» процентом, что вам перехочется. Владимир Пирожков: Не получите, не получите. Поэтому это, скажем так, «Nothing personal, just business». А это значит, что роботизированные решения… Вы сейчас звоните куда-нибудь, а вам говорят: «Ваш звонок очень важный для нас», – и пошло. Роботизированная музыка какая-то и так далее. Вы можете час просидеть на телефоне, пока вам кто-нибудь ответит. Поэтому это уже роботизированные системы, которые по голосу, по интонации, по вашему лицу, еще по чему-то определяют ваше настроение, температуру и так далее. Дело в том, что сейчас так называемая Big Data (это быстрый анализ огромного количества данных) знает, в принципе, про вас уже все. Анастасия Сорокина: Совсем недавно было открытие, вот буквально на днях, что искусственный интеллект изобрел новый вид антибиотиков каких-то. В общем, процессы такие… Что ни день, то какая-то новость про искусственный интеллект. Мне попалась шутка из КВН: «Слесарь купил стиральную машину со встроенным интеллектом и через неделю попал к ней в рабство». С одной стороны, здорово, прогресс… Владимир Пирожков: Не шутите с этим! Анастасия Сорокина: Но в то же самое время все говорят про угрозу. Александр Денисов: Со стиральной машиной не будем шутить. Анастасия Сорокина: В чем главная угроза искусственного интеллекта? Почему говорят, что надо очень четко следить за его развитием? И неслучайно выходят правила, как вы нам сказали (и Пентагон сегодня опубликовал), что надо ввести какой-то кодекс использования искусственного интеллекта. Владимир Пирожков: Ну, ввести-то надо давно. Знаете, это как правила дорожного движения. Другое дело – кто будет соблюдать, а кто не будет? Поэтому все, что, скажем так, русскому хорошо, то немцу – смерть. И наоборот, да? Так получается. Поэтому давайте так. Мне кажется, что это просто правила… Анастасия Сорокина: Чего стоит опасаться? Владимир Пирожков: Да всего. Опасаться можно и кирпича, который прилетит с пятого этажа. Другое дело, что у тех людей, которые программируют эти изделия и эти программы, желательно, чтобы у них была этика элементарная, ну, хотя бы понимание «хорошо» и «плохо». Как говорится, «Что такое хорошо и что такое плохо», – по Маяковскому. А дальше есть различия очень большие, национальные различия в понимании, что такое хорошо и что такое плохо. Что в Японии, например, хорошо или, например, на каких-нибудь Алеутских островах, необязательно здесь… Александр Денисов: Владимир, чтобы быть конкретным, мы не на Алеутских островах, вот у нас здесь на земле… Вы сами прекрасный пример привели (можем, кстати, в нем покопаться) про разведенную женщину с четырьмя детьми. То есть идеальный, хороший пример. Искусственный интеллект используется уже против человека, чтобы найти в нем… Владимир Пирожков: Или «за». Александр Денисов: Ну, пока еще пример такой вы не привели. Приведете. Против человека, чтобы найти в нем уязвимости, недостатка и использовать это против него. То есть чтобы либо не дать ипотеку, чтобы человек жил не пойми где, в съемной квартире; либо дать, но с адским, большим, как говорят, злым процентом. То есть уже он изначально заточен против нас, очевидно ведь. Владимир Пирожков: Ну или за нас. Александр Денисов: Ну как за нас? Владимир Пирожков: Например, создание той же вакцины или каких-нибудь антибиотиков, таблеток и так далее. Александр Денисов: Вы знаете, вакцин пока еще нет, их разрабатывают люди. А вот уже машина анализирует нас и как раз… Владимир Пирожков: С другой стороны, например, те же автомобили сейчас ориентируются, скажем, в движении гораздо быстрее, чем человек. И та же система автопилотов или автономных такси, которая разрабатывается разными компаниями, она будет как раз за человека, чтобы сохранить нам жизнь при каких-то странных обстоятельствах. Например, та же Toyota сейчас говорит о том, что они внедряют понятие – не автомобиль как таковой, а… То есть они были автопроизводителем до недавнего времени. Сейчас они производители мобильных платформ, а это уже другое понимание мобильности. Александр Денисов: Вы знаете, Владимир, вы все-таки уходите от ответа. Первым вы привели негативный пример. Такси без водителя мы еще на улицах не видим. Я надеюсь, еще не скоро увидим. Анастасия Сорокина: На наших улицах пока не видим, но они есть. Александр Денисов: Не скоро, не скоро, надеюсь. Тем не менее почему все-таки искусственный интеллект играет именно против человека уже сейчас? Ваших машин еще нет, а вот это отрицательное воздействие уже есть. Владимир Пирожков: Вы знаете, у нас, вообще у человечества есть интересная тенденция. В свое время незабвенный Виктор Черномырдин сказал: «Хотелось как лучше, а будет как всегда». Мы изначально заточены на… Ну, скажем так, мы вообще конфликтные зверьки, очень конфликтные. Соответственно, мы начинаем сначала делать какие-то боевые изделия, а потом уже на мирные переходим. В разных странах по-разному. Например, в нашей стране ОПК – это ведущий технологический, скажем так, локомотив. А за ним уже подтягиваются самовар, валенки и все остальное для людей. Я думаю, что, в принципе, тренд: сначала нужно использовать новейшие технологии в сфере безопасности, национальной безопасности или какой-то безопасности, неважно, а потом уже начинается создание изделий, которые будут работать на человека. В принципе, например, тот же «Яндекс.Пробки» – это тоже искусственный интеллект, ну, как бы элемент. Потом из этих элементов будут склеиваться какие-то большие кластеры, какие-то системы. А сейчас подсистемы пока. Это как бы первая фаза искусственного интеллекта. А этих фазы три. Вторая фаза – мы сейчас к ней подходим. А третья фаза – это когда он сам собственные решения обрабатывает и принимает решения на своем уровне, без нас. Александр Денисов: Вот про Пентагон Настя сказала, что пять параметров, пять требований к искусственному интеллекту. Сейчас мы чуть-чуть расскажем. Анастасия Сорокина: Он должен быть ответственным, соразмерным, понятным, надежным и управляемым. Александр Денисов: Да. Они опубликовали это сейчас. А вот тренировку боя воздушного на самолетах они провели задолго до этого. И бой был как раз с применением искусственного интеллекта. То есть опять же искусственный интеллект применяется для агрессии. И только потом оказывается, что нужно сформулировать какие-то правила. Припомнили, сейчас их опубликовали. И то какие-то абстрактные, просто слова. Владимир Пирожков: Мне кажется, мы, наверное, хотим концентрироваться на негативных примерах. Я думаю, что очень много решений искусственного интеллекта есть для хорошего, для доброго. Их просто много, я думаю, начиная от троллейбусов… Вот подходите вы к остановке сейчас в Москве, например, подходите к остановке и смотрите – троллейбус придет через две минуты. И вы видите трак этого троллейбуса, как он к вам подходит. То есть это как бы элемент или подэлемент искусственного интеллекта, цифрового города будущего. И такого много вокруг нас. Например, в Норвегии (я сам недавно был свидетелем), вы прилетаете в страну, а нет таможни, нет паспортного контроля. Вы просто заходите, у вас турникет. Вы прикладываете паспорт. Если вы в базе данных, что у вас виза есть, то – пик! – вы заходите в Норвегию. А если, например, у вас визы Шенгена нет, то не «пик». Александр Денисов: Хотите тут же отрицательный момент в этом уловлю? Вот сейчас распространение коронавируса идет. Все-таки нужно, чтобы там стоял человек, кому можно вручить электронный термометр. А еще позитив? Анастасия Сорокина: Которого можно заразить, Саша. Александр Денисов: Нет, чтобы он контролировал и не пустил, потому что робот-то не определит. Хотя, может быть, и можно заложить… Владимир Пирожков: Определит. Александр Денисов: То есть можно заложить, чтобы он измерял температуру? Владимир Пирожков: Да-да. Он на расстоянии может, например, тепловизором измерять температуру. Александр Денисов: Просканировать вас. Владимир Пирожков: Военным прибором под названием «тепловизор». Александр Денисов: Собянин, кстати, сказал, что искусственный интеллект будут использовать в метро для отслеживания тех, кто, так сказать, шляется не по делу, а не сидит дома на карантине. Владимир Пирожков: Да, программа распознавания лиц. Ну, много сериалов уже на эту тему есть. Очень многие фильмы нам демонстрируют, скажем так, близкое будущее. В принципе… Анастасия Сорокина: Не пугает вас оно? Владимир Пирожков: Вы знаете как? Нам придется… Александр Денисов: Мы же понял, что не пугает. Владимир нам доказывает. Владимир Пирожков: Нам придется, все равно нам придется с этим жить, а особенно нашим детям. Поэтому, мне кажется, надо к этому относиться как к данности. Анастасия Сорокина: Изобилую сегодня цитатами. «Искусственный интеллект становится все более популярным из-за того, что отмирает естественный». Ну посмотрите – мы же действительно все доверяем технологии. Дети уже сейчас: «Зачем мне считать? У меня есть калькулятор. Зачем мне запоминать? У меня есть интернет. Зачем мне знать маршрут, если есть навигатор?» Самолетом управляют машины. Такое ощущение, что мы всю ответственность за свою жизнь, все свои усилия можем уже не прикладывать, потому что за нас все сделает искусственный интеллект. Владимир Пирожков: Ну, по-своему да. Анастасия Сорокина: Ну, достаточно мрачное будущее. Что ждет людей? Владимир Пирожков: Нет, смотрите. Мрачное – это для нашего поколения. А для их поколения это, наверное, оптимизация процессов. Зачем учить иностранный язык, если у вас есть Siri, например? И действительно, зачем тратить время на китайский, если у вас есть… Анастасия Сорокина: А как же слабоумие, деменция? Если не будешь развиваться, учиться, то… Владимир Пирожков: Люди тупеют, это переда, то есть это сейчас подтверждено. Недавно на Давосе, на форуме экономическом в Давосе был так называемый «Завтра Сбербанка», на котором Андрей Курпатов как раз делал доклад, скажем так, по работе мозга: как наш мозг реагирует на разные раздражения. Так вот, там очень четко… Кстати, вы посмотрите, очень интересно вам будет. Это пятнадцатиминутный доклад. Там описано, что современное поколение… Ну, назовите это цифровым аутизмом. То есть мы начинаем быть аутистами в цифровом мире. И зачастую простой контент, упрощение и примитивизация контента… Например, бедра Кардашьян, скажем так, гораздо привлекательнее, чем статья про графен. Вот вам статья про графен, написанная мелким почерком, очень умная. А вот вам бедра Кардашьян. Соответственно, куда вы будете смотреть в принципе. Мозгу проще смотреть… Александр Денисов: Ну, Настя вряд ли будет бедра Кардашьян смотреть. Владимир Пирожков: Будет-будет. Александр Денисов: Будет, да? Владимир Пирожков: Она не будет смотреть на сложную статью из научного журнала. Поэтому знаете как? Сейчас медиа, вы в том числе, должны пользоваться или пользуетесь уже примитивизацией контента. Соответственно, чем примитивнее контент, тем больше он читается людьми и желаем людьми. Соответственно, чем больше будет жести или, если хотите, желтизны… Александр Денисов: А бедра Кардашьян – это жесть, я согласен. Владимир Пирожков: Да-да-да, это жесть. Анастасия Сорокина: Какое отношение это имеет к искусственному интеллекту? Александр Денисов: Ты будешь смотреть или нет? Владимир Пирожков: Дело в том, что это как бы понимание, как работает мозг. Если вы знаете алгоритм работы мозга, то, в принципе, можно делать искусственный мозг, он же искусственный интеллект. И вы можете по этому же алгоритму устраивать эти системы. И потом получается что? Если, например, нашим детям сейчас давать больше цифровой гигиены, если хотите… То есть давать, например, им гаджеты, но не очень много и не очень часто, и желательно фильтровать контент, который они смотрят, заранее. Потом они разберутся, когда станут постарше. Но лучше, чтобы они вначале играли все-таки с какими-нибудь зайцами или с какими-то штуками, а не сразу шли на порносайты. Как-то так. Анастасия Сорокина: Дадим слово зрителям. Ульяновская область на связи, до нас дозвонился Евгений. Здравствуйте. Зритель: Здравствуйте. Вы, наверное, слышали (я обращаюсь к вашему гостю) понятие «естественный отбор». Мне кажется, что сейчас происходит противоестественный отбор, то есть выживает примитивнейший. Мы наблюдаем царство рептильного мозга. То есть сексуальное поведение, господство и контроль над территорией. Вот то, о чем вы говорили – оглупление. И пугает, наверное, этот псевдоискусственный интеллект тем, что он будет помогать господам контролировать этих рептилоидов, которых выращивают сейчас повсеместно, не только в нашей стране, а по всему миру. Наверное, вот это пугает. Правильно сказала ведущая: «Ну а что с естественным интеллектом?» Как искусственный интеллект отразится на будущих поколениях, которых старательно выращивают как рептилоидов? Нет места естественному интеллекту. Александр Денисов: Спасибо. Очень интересный вопрос. Спасибо. Анастасия Сорокина: Спасибо. Владимир Пирожков: Первое. Действительно, для руководства любой страны лучше иметь управляемый народ всегда. Чем вы, скажем так, интеллигентнее и, может быть, возвышеннее, тем больше у вас вопросов к тому, что происходит вокруг, в любом случае. Поэтому, скажем так, молодежь удобнее иметь под каким-то флагом, если хотите. Соответственно, об этом, может быть, не так часто говорят, но, в принципе, это так. Другой момент такой: как вы своего ребенка будете воспитывать? Потому что если вы, например, его отпускаете в царство гаджетов и того контента, который он смотрит вместе со своими сверстниками – ну хорошо. Но если ему, скажем так, давать возможность более интересного или мотивированного какого-то контента, который мотивирует его на креатив, на интерес к жизни, на мобильность, на какую-то agility, если хотите, на какую-то жидкость, чтобы он был не твердый такой квадратный кирпич, а чтобы он обтекал препятствия, например, то тогда у него есть шанс попасть как раз в элиту, в думающую элиту. И есть второй момент, который очень важный, и он будет относиться только к элитным слоям. Это когда в ближайшее время появится чип, который будет позволять подключаться к общему разуму. Ну, назовите это Интернет или какой-то Суперинтернет. Соответственно, если у вас появляется такой чип, который подключает ваш мозг напрямую к этому разуму, то вы получаете доступ к гигабайтам, к терабайтам информации вот так, с полщелчка. Это позволяет вам владеть любой информацией о любом из вас. Например, если я подключен сейчас, я знаю все про вас, потому что я подключен… Анастасия Сорокина: Ну, это как в «Пятом элементе». Владимир Пирожков: Да. Анастасия Сорокина: Героиня прочитала всю историю за десять секунд. Владимир Пирожков: Это так и есть. Поэтому сейчас ведутся работы, в том числе наш пресловутый Илон Маск работает как раз над созданием такого чипа. Кто первый такую штуку создаст – тот получает суперподключенную или продвинутую элиту, которая принимает решения в течение секунды-двух вместо месяцев обсуждений. Александр Денисов: Владимир, вы знаете, вы все прекрасно рассказываете. Я уверен, с интернетом такие же были россказни, что человек шагнул в будущее. В итоге он шагнул в суеверия, в непроверенную информацию, в бедра Кардашьян, в порно и прочее. Владимир Пирожков: Ну, это и было будущее. Александр Денисов: То есть нырнули даже ниже, чем планировали. Никакого освоения, никаких новых знаний не произошло. То есть интернет забит мусором, который нужно фильтровать, писать законы, ограничивать, давать поменьше эти смартфоны в руки детям. А вы рисуете… То есть ничем лучше. Человечество абсолютно не заинтересовано, чтобы шагать вперед с помощью этих технологий. Владимир Пирожков: Мне кажется, тут очень важна установка фильтров для малышей. В принципе, они имеют доступ ко всему сейчас. Например, китайские малыши имеют гораздо меньше доступа ко всему, чем наши, потому что там ограниченный интернет. И разговор об ограничении интернета – это, как говорится, не праздная история, а это реалии, которые, скорее всего, нужны. Другое дело, что если вы имеете безграничный доступ в интернет, то вы можете фильтровать. Выстраивается такая система фильтров, что… Я, например, не хочу смотреть про насилие, про войну, про экологию плохую или еще что-то. Вы можете выстраивать себе тот мир, в котором вы хотели бы быть. То есть вы можете конструировать те миры, если хотите… Александр Денисов: А как вы правду ото лжи будете отличать, вот мне интересно? Владимир Пирожков: Хороший вопрос. Александр Денисов: Понятно, насилия вы не хотите – вы не будете смотреть. Если ваш базис, так сказать, хилый и зыбкий, то на него такое навалится, что будь здоров! Владимир Пирожков: Да-да. Поэтому тут как раз вопрос: как обучить ребенка, чтобы он мог самостоятельно фильтровать (и извиняюсь за мой французский) базар? То есть нужно очень четко понимать, куда ты заходишь. У тебя есть две кнопки – например, «да» и «нет». И ты для себя решаешь, что ты будешь дальше поглощать, если хотите, информацию как наркотик. Мы все сталкиваемся с этим, наверное, впервые, поэтому то, что мы сейчас видим, было совершенно недоступно совсем недавно. И если вы посмотрите 15 лет назад, то даже близко этого не было. Скорость развития такова, что количество информации, выбора и потери в этой информации колоссальное! Мы теряемся мгновенно в этой информации. Поэтому чем у вас прочнее, как говорится, ментальный позвоночник, тем вы лучше пройдете через этот бой. Поэтому мне кажется, что воспитание детей сейчас должно быть не про то, какая физика. Это все вы найдете или в Википедии, или еще в каком-то ресурсе. Вам очень важно понимать фильтр, с которым вы идете в эту вселенную. Информационная вселенная сейчас важнее, чем все остальное. Александр Денисов: Ну, физику лучше все-таки по учебнику учить. Не факт, что в Википедии правильно написано. Владимир Пирожков: Или не нужно. Поймите, может быть, и не надо. Поймите такую штуку. Мы сейчас, например, создаем прибор, который будет позволять читать мысли на расстоянии. Это прибор, это алгоритм. Соответственно, я могу подумать в Китай, а мне подумают обратно. Зачем вам учить языки или историю Коммунистической партии Советского Союза? Вот у меня, например, спама в моей флешке… Назовите мою голову флешкой. У нее 100 терабайтов памяти, не больше, потому что я биологический компьютер. Соответственно, вот эта память забита спамом под названием, например, «история Коммунистической партии Советского Союза». Я знаю все пленумы ЦК КПСС. Все! Кто выступал, зачем и с фамилиями. Александр Денисов: Владимир, а что же в этом плохого? Вам чепуху тогда на уши не навешаешь. У вас свое представление. Вы выучили, сделали выводы. А сейчас… Анастасия Сорокина: Свои фильтры. Владимир Пирожков: Я бы сейчас на эту память… Александр Денисов: А сейчас вы прочитаете в Википедии. А что там написано? Вы уверены в этом? Владимир Пирожков: Не уверен. Александр Денисов: Вот! Владимир Пирожков: Но я бы эту память сейчас с моими годами использовал, например, для изучения программ того же искусственного интеллекта. Мне было бы это… Александр Денисов: А что, забита она у вас? Владимир Пирожков: Да, я не помню. У меня памяти не хватает. Правда, без шуток. Мне сейчас той флешки не хватило. Соответственно, если бы у меня, например, тогда не было вот этой ерунды всякой ненужной, то сейчас я мог бы, наверное, потратить на что-то другое эту память. Но сейчас у меня ее нет, поэтому мне приходится создавать команды из молодых людей, у которых память еще есть. И эти команды как раз суперэффективные. А меня уже не хватает. Александр Денисов: Может быть, мы уже просто стареем, и нам кажется, что нам флешки не хватает? Владимир Пирожков: Да, так и есть. Александр Денисов: Может быть, все есть, но просто… Владимир Пирожков: Ну да, так и есть. Но зато мы становимся мудрыми, я надеюсь. Александр Денисов: Да. Ну, все-таки, возвращаясь к Илону Маску, которого вы опередили… Анастасия Сорокина: Вы нас предупредили раньше. Александр Денисов: Все-таки он нас предупреждает, что это демон, что нужно контролировать компании, которые разрабатывают. Нам нужно взять под контроль «Сбербанк», который является федеральным центром по разработке искусственного интеллекта? Анастасия Сорокина: Интересно, Саша, как ты собираешься это делать. Александр Денисов: Вот мы все втроем и начнем. Владимир Пирожков: Сейчас Центробанк думает, что он возьмет его под контроль, перепродавая акции и так далее. Знаете, как я думаю? Не возьмете. И никто не возьмет. Это не про «Сбербанк» разговор. Разговор и дет про другие позиции. Это разговор про добро и зло. Зла в мире много, очень много. Но мы очень живучие, мы выживаем в очень сложных условиях всегда. Поэтому мне кажется, что алгоритмы победы над этим компьютерным кибером, если хотите… Александр Денисов: Давайте говорить прямо – демоном. Владимир Пирожков: Ну да. С другой стороны, это может быть и не совсем демон, это может быть и бог. Ситуация очень важная. Смотря кто что будет делать. Александр Денисов: Спасибо большое, Владимир. До каких интересных глубин мы добрались! Анастасия Сорокина: Спасибо. Владимир Пирожков – футуролог, промышленный дизайнер, директор инжинирингового центра «Кинетика» – был у нас в студии. Спасибо. Владимир Пирожков: Спасибо большое.