Стоит ли бояться искусственного интеллекта?

Стоит ли бояться искусственного интеллекта?
Каким должен быть современный город?
Как решить квартирный вопрос?
Гражданские долги
Зарплаты и чиновники
Борьба с эпидемиями
Прогрессивное налогообложение
Хулиганы в школах
Социальное государство. Вчера, сегодня, завтра
Долг ЖКХ красен
Национальная самоидентификация в эпоху глобализации
Гости
Андрей Жолобов
директор компании «САГА технологии»
Роман Душкин
директор по науке и технологиям Агентства искусственного интеллекта
Денис Кравченко
депутат ГД РФ, координатор проекта «Локомотивы роста»
Алексей Фролов
основатель Biometriclabsabs
Владимир Белый
глава венчурного фонда Alpha Robotics Venture
Максим Федоров
профессор, директор центра Сколтеха по научным и инженерным вычислительным технологиям для задач с большими массивами данных

«Искусственный интеллект – фундаментальная
угроза для всего человечества».

Илон Маск

Анастасия Урнова: Здравствуйте! Вы смотрите Общественное телевидение России. Это программа «ПРАВ!ДА?». Меня зовут Анастасия Урнова. И вот о чем поговорим сегодня:

Искусственный интеллект стремительно меняет нашу повседневную жизнь. Ученые называют его новым электричеством, уверяя, что скоро искусственный интеллект будет повсюду. Многие люди относятся к этой перспективе с опаской, ведь с каждым днем он становится умнее и его влияние на жизнь человека растет. Стоит ли бояться искусственного интеллекта?

Анастасия Урнова: В прошлом, когда искусственный интеллект был только в фантазиях разработчиков как перспективное направление для исследований, люди были полны оптимизма относительно того, как эта технология изменит мир. Однако время шло – и оптимизм сменился страхом.

Максим, все-таки искусственный интеллект – это такое новое электричество или это угроза человечеству, которую мы сами и создали?

Максим Федоров: Это новое электричество. Как и электричество, он так же несет и угрозы

Анастасия Урнова: Правда, говорят, что электричество не решает, в каком направлении и когда ему течь. Вот главная разница.

Максим Федоров: Ну, на самом деле это не так. Электричество течет по потенциалу, поэтому… И искусственный интеллект также может как сам оказывать влияние, так и быть подверженным влиянию. То есть на самом деле искусственным интеллектом управляет воля человека.

Анастасия Урнова: Ну, это очень оптимистично звучит.

Роман, мы очень много говорим про искусственный интеллект. И, наверное, сегодня нет человека, который это словосочетание не слышал. Давайте все-таки начнем с азов. Что это все-таки такое? Какая это комбинация технологий? Что это?

Роман Душкин: Искусственный интеллект первоначально – это междисциплинарная научная область исследований, самой главной целью которой является познание природы нашего собственного, человеческого интеллекта. Но в процессе изучения этого всего… Скажем, уже 70 лет ведутся исследования напрямую. И до этого еще несколько веков были такие опосредованные исследования.

Анастасия Урнова: Веков?

Роман Душкин: Веков, да.

Анастасия Урнова: Это очень неожиданно.

Роман Душкин: Соответственно, в процессе этих исследований было получено огромное количество технологий, прикладных технологий, при помощи которых сегодня решаются очень конкретные задачи. И под термином «искусственный интеллект» можно понимать именно набор этих технологий.

Я очень стараюсь… Я всех предупреждаю, чтобы не использовать термин «искусственный интеллект» в таком антропоморфном смысле.

Анастасия Урнова: Это все-таки не разум?

Роман Душкин: Это не существо. Это набор технологий.

Анастасия Урнова: Андрей, мы часто слышим такие фразы, как «машинное обучение», deep learning, machine learning, Big Data. Это все про искусственный интеллект? Или это отдельно существующие области?

Андрей Жолобов: Ну, они как отдельно существующие, так и являются составляющей частью искусственного интеллекта в том виде, в каком коллега сейчас озвучил. В принципе, я присоединяюсь к мнению, что это по факту технологии, а не реально мыслящее существо и так далее. Возможно, когда-то к этому и придет, но на текущий момент пока очень сложно об этом говорить.

Анастасия Урнова: То есть получается, что и бояться особо нечего.

Алексей, есть еще такие формулировки, как «сильный» и «слабый искусственный интеллект». Вот это что значит? Чем отличается?

Алексей Фролов: Нужно понимать, что искусственный интеллект может быть как антропоморфный, то есть походящий на человека. Например, роботизированные машины, которые изображают человека, которые стараются мыслить и поведенчески похожи на него, связаны с большим количеством сложных алгоритмов. Это сильный искусственный интеллект. А слабый искусственный интеллект – это набор алгоритмов, которые только имитируют когнитивную деятельность человека – например, анализ изображений или анализ акустических звуков каких-то, акустических файлов. Это слабый.

Анастасия Урнова: Владимир, я так понимаю, что вы как раз занимаетесь разработкой такого сильного искусственного интеллекта – настоящими человекоподобными роботами. Вы можете рассказать, вообще как сейчас используется искусственный интеллект. Мы же, по сути, им окружены. Что конкретно?

Владимир Белый: Во-первых, хочу сказать, что искусственного интеллекта как такового не существует. То есть это опять же набор определенных технологий, скажем, и анализ тех данных, которые уже собраны человеком.

Во-вторых, мы занимаемся тем, что мы в прикладном назначении пытаемся сделать так, чтобы все наши роботы могли действовать так, как человек, но при этом не являясь такими и не осознавая себя. Соответственно, мы очень много разрабатывали различных элементов для таких человекоподобных роботов. Например, нейросеть для распознавания образов, синтез речи, распознавание речи, система динамического равновесия, когда робот может ходить и не падать при этом. И много из того, что необходимо для того, чтобы робот мог передвигаться и использовать предметы, очень много необходимо скриптов и различных алгоритмов, которые создает человек.

Если мы создаем и мы хотим, чтобы цель была такая у программы, как у нас поставлена задача, то, соответственно, мы получим результат, который необходим. Если это будет делать злоумышленник, который захочет, чтобы искусственный интеллект, например, или элементы искусственного интеллекта в будущем взламывали, например, сервера или людей и делали что-то зловредное, то, соответственно, это будет уже зависеть от человека. Поэтому нужно бояться людей, которые его создают, во-первых.

Во-вторых, я не считаю, что набор алгоритмов может повредить или сделать добро опять же без участия человека. То есть это как инструмент. Вот есть молоток: мы можем им забить гвоздь, а можем ударить человека. То есть мы можем сделать добро…

Анастасия Урнова: По сути, как с атомной бомбой.

Владимир Белый: Ну, примерно то же самое. Только там намного, скажем так, по-другому, вообще в целом принцип, повреждения человеку. Потому что мирный атом тоже может повредить. То есть все знают Чернобыль и Фукусиму. Но при этом все знают, насколько это дает потенциал для человечества, чтобы получить энергию из таких источников. И есть атомная бомба, которая специально создана для того, чтобы уничтожать большое количество людей.

Вот искусственный интеллект – это, на мой взгляд, сейчас как раз и есть то самое некое оружие, но при этом тот же самый мощный инструмент.

Анастасия Урнова: И главное – следить, в чьи руки попадет.

Владимир Белый: Конечно. Ну, даже просто элемент – Facebook, Google, другие поисковые системы, которые обладают практически всеми знаниями о нас, могут эти знания использовать против нас.

Анастасия Урнова: И это, кстати, очень активно обсуждается.

Владимир Белый: Конечно.

Анастасия Урнова: Денис, ну давайте на совсем реальном примере. Например, одна из технологий искусственного интеллекта – это распознавание лиц. Оно сегодня, в том числе в России, уже довольно активно применяется. Но мы понимаем, что нет какой-то специфической законодательной базы, которая бы регулировала, как это работает: можно распознавать лицо любого человека или нельзя. Какие здесь есть риски?

Денис Кравченко: Анастасия, это интересная тема. Мы сейчас конкретно ее очень внимательно изучаем в Государственной Думе, поскольку, с одной стороны, она несет очевидную пользу, то есть это безопасность, безопасный город, цифровизация. Большое количество камер в Москве – они уже сегодня дают большой результат, с точки зрения раскрываемости. И существенно, просто на порядки уменьшились квартирные кражи, например, после того как практически все подъезды в городе Москве оснастили камерами. Это с одной стороны.

С другой стороны, очевидно, это вмешательство в личную жизнь, и не всех это устраивает. С одной стороны, мы понимаем, что борьба с преступностью. С другой стороны, в общем, это наблюдение не только за преступниками, но и, как говорится, мирными гражданами. Поэтому мы сейчас очень внимательно смотрим. И серьезно стоит вопрос по поводу, что ли, этических основ использования как искусственного интеллекта, так и тех инновационных технологий, о которых сегодня говорили.

Анастасия Урнова: Андрей, так или иначе я захожу в метро – и мое лицо уже распознается. Пока еще ведутся дискуссии, эта технология работает. Есть ли какое-то понимание, как защищаются мои персональные данные?

Андрей Жолобов: Скажем так, мы сейчас говорим о том, а надо ли смотреть камеры и так далее, и так далее. Хорошо, давайте так. Правила дорожного движения ограничивают меня очень сильно, но они же для чего-то предусмотрены.

Анастасия Урнова: Но они полностью регламентированы.

Андрей Жолобов: Да. Для того, чтобы, наверное, аварий не было. Тема с распознаванием лиц возникла ну не так давно – не так, как правила дорожного движения, несколько меньший срок прошел. В любом случае эта тема будет развиваться. Она реально полезна каждому конкретному гражданину, несмотря на то, что частично ограничивает его права. Вот именно регламент того, как сохраняются персональные данные, как они хранятся, как они обрабатываются, для чего они могут использоваться – я думаю, это дело наших законодателей. Тут как бы…

Анастасия Урнова: Разумеется. Но у меня все равно возникает вопрос. Дело наших законодателей, но процесс идет уже сейчас. Если вдруг мои биометрические данные и еще какая-то информация, собранная уже сейчас, станет достоянием общественности, она будет, что называется, «слита», то кому мне предъявлять претензии? Есть ли у кого-то это понимание?

Андрей Жолобов: На текущий момент пока некому.

Алексей Фролов: Роскомнадзору.

Анастасия Урнова: Роскомнадзору? То есть я им пишу жалобу. А они что делают?

Алексей Фролов: Роскомнадзор является органом, который надзирает за сохранностью ваших персональных данных. Если какая-то компания нарушает ваши права и незаконно обрабатывает ваши персональные данные, в том числе биометрические, вы имеете право обратиться с жалобой в Роскомнадзор, и он проверит эту организацию.

Анастасия Урнова: То есть, например, какой-то департамент Москвы, например?

Алексей Фролов: Например.

Андрей Жолобов: А мне как это компенсируют? Разглашение моих персональных данных нанесло мне, допустим, финансовый вред.

Анастасия Урнова: Роскомнадзор говорит: «Город Москва неправ».

Андрей Жолобов: Они сказали: «Да, нанес». Ну…

Алексей Фролов: Вот здесь компания может получить штраф в рамках Кодекса об административных правонарушениях. Вы здесь, к сожалению, сможете только в судебном порядке взыскать убытки. Но поскольку слишком мало судебной практики, вряд ли можно…

Андрей Жолобов: И законодательство еще в стадии разработки, как я понимаю.

Анастасия Урнова: Роман, вот еще фундаментальный вопрос. А почему меня это вообще должно волновать? Ну, утекут фотографии моего лица со всеми необходимыми точками

Алексей Фролов: Они и так везде есть, ваши фотографии.

Анастасия Урнова: Они и так везде есть. Почему я должна по этому поводу волноваться?

Роман Душкин: Ну давайте начнем с того, что они не утекут в таком виде, о котором вы говорите, потому что… Вот поставили систему распознавания лиц на станциях Московского метрополитена. Я тоже каждый день мимо них прохожу, и меня фотографируют. Но если посчитать количество петабайт, которые необходимо для хранения всего этого массива информации, то это получится космическая сумма. И никаких объемов хранилищ данных не хватит для того, чтобы хранить это постоянно и всегда. Обычно при проектировании систем безопасности, которые основаны на каких-то биометрических моделях, распознавании образов и так далее, хранятся (и то хранятся какое-то огромное время) только инциденты, которые распознаются при помощи этих систем искусственного интеллекта. То есть мы распознаем инцидент – что-то произошло.

Анастасия Урнова: А что это значит?

Роман Душкин: Ну, драка, например, драка в метро. Видеокамера, которая наблюдает за обстановкой в метро, видит сцену. На сцене происходит драка. Соответственно, у нее есть видеопоток. Она отсекает определенное количество времени до начала драки (это настройками регулируется) и после окончания того, что она фиксирует, и вот этот кусок видео сохраняется. Остальное сохраняется во временный буфер, который по регламенту через семь дней затирается. Ну нет столько хранилищ, чтобы ранить все про всех.

Анастасия Урнова: А это человек определяет, что это драка или какой-то еще важный инцидент? Или это сам инструмент?

Роман Душкин: Нет, это сама система определяет, потому что ни одного человека не хватит на то, чтобы… Например, в Москве 150 тысяч камер наблюдают за дорожной обстановкой. Если посмотреть, как работает человек при видеонаблюдении, то у него 16 камер на экране. Это максимум, что он может охватить своим человеческим зрением. Через два часа у него рассеивается внимание. Через четыре часа ему надо уже на покой, потому что он не увидит даже того, что происходит у него перед глазами.

Анастасия Урнова: Чего, очевидно, не нужно машине.

Роман Душкин: Да.

Анастасия Урнова: Хорошо. Максим, тогда вопрос. А каким образом, если система так работает, мы можем использовать ее, например, для поиска преступников? Я думала, что теперь уже есть возможность загрузить фотографию преступника и сказать: «Мы его ищем». И вот все камеры начинают работать и вычислять, где же он находится.

Максим Федоров: Ровно так и происходит.

Анастасия Урнова: Ну, тогда получается, что все-таки очень много данных постоянно хранится.

Максим Федоров: На самом деле немножко сложнее это устроено. Опять же зависит от архитектуры системы. Во-первых, если вы ставите задачу «найти сейчас преступника», то, собственно говоря, в том буфере данных, который есть (как минимум неделя), там и будут его искать.

Анастасия Урнова: Этого достаточно.

Максим Федоров: Иногда этого достаточно. Плюс, если мы ведем какое-то прицельное исследование по какому-то конкретному лицу, то там можно сделать так, что данные по этому конкретному лицу будут храниться дольше. Опять-таки система определяет подозреваемого и дальше продолжает за ним следить уже, скажем так, с большим чаянием.

Анастасия Урнова: Владимир, у меня, наверное, тогда к вам практический личный вопрос. Не опасаетесь ли вы, что какой-нибудь коррумпированный чиновник или еще какой-нибудь злонамеренный гражданин получит доступ к этой базе и решит найти конкретно вас с какой-то целью, которая никак не связана с охраной и правопорядком, например?

Владимир Белый: Ну, здесь я что могу сказать? Во-первых, нужно соблюдать цифровую гигиену. Это раз.

Анастасия Урнова: Ходить в маске?

Владимир Белый: Нет, «цифровая гигиена» – это такое недавнее понятие, термин, который появился из-за того, что очень много людей безбашенно размещают о себе всю информацию. Соответственно, все эти системы или элементы искусственного интеллекта анализирую (все, что с вами связано), и сводят в какие-то объективные профайлы. Где-то это есть, где-то это более слабо выражено.

И в целом… Например, я понимаю, что у меня цифровой след настолько четкий, явный. И я сделаю так, чтобы даже этот коррумпированный чиновник, не знаю, коммерсант или еще кто-то, кто захотел бы мои данные использовать, он получил бы ровно столько, сколько я бы им хотел дать.

Анастасия Урнова: Но меня пугают камеры распознавания лиц. Вы же идете, и вы идете не в маске. Вот кто-то решает: «Мы хотим вас найти и ограбить, убить, – не дай бог, – или совершить еще какое-то преступление». В принципе, взяточничество в России довольно распространено, у нас есть серьезная проблема с коррупцией. Что меня защищает от того, что кто-то заплатит человеку, у которого есть доступ к этим всем камерам, и будет известно злоумышленнику в каждый момент времени, где вы находитесь, где вы живете, когда и что вы делаете? Страшно вам?

Владимир Белый: Это тоже хороший вопрос. Нет, мне не страшно, потому что я стараюсь делать то, за что мне не было бы стыдно, во-первых. Это раз. Во-вторых, то, за что точно меня нельзя было бы убить, например, или ограбить. Просто я всем все показываю и рассказываю, как это обычно происходит. Это во-вторых.

А то, что хранится в цифровом виде, оно отличается от того, что происходит у меня во внешней жизни. Я путешествую совсем по-другому, одеваясь по-другому, достаточно просто, без всяких костюмов.

Анастасия Урнова: То есть камера вас уже не распознает?

Владимир Белый: Ну, камера, может быть, и распознает…

Анастасия Урнова: Вы, простите, очень настойчивы в этих вопросах.

Владимир Белый: Камера, может быть, и распознает, но не вся. Для того чтобы было точно распознавание, необходимо очень много телеметрии и систем распознавания: различные тепловизоры, инфракрасное зрение, ночная подсветка, как раз к инфракрасному зрению приближенная. И это должны быть очень мощные и умные системы с хорошей оптикой, которые могут понять, я это или не я, например, или это просто похожий на меня человек.

И, зная об этом, я понимаю, что для того, чтобы меня реально найти, скажем так, вне границы этих камер, а там, где находятся, например, просто дорожные камеры, нужно очень большое соответствие. Да, можно найти мой автомобиль. Да, можно найти подъезд, где, например, я часто попадаю. Например, на моем доме нет этой камеры, там другие камеры стоят, они локализованы.

Я рекомендую всегда, чтобы не было страха такого, во-первых, не делать то, за что было бы сто процентов стыдно.

Анастасия Урнова: Может быть, сейчас какой-нибудь фрик на меня смотрит и хочет меня найти. Мне не стыдно, но… Черти побери!

Владимир Белый: Я с удовольствием с фриком встречусь, если необходимо, чтобы он вам не сделал ничего плохого.

Анастасия Урнова: Слушайте, я вас запомнила. Если что, вы будете теперь человеком, которому я звоню.

Так или иначе, Денис, вообще сейчас во всем мире идет довольно широкая дискуссия: не стоит ли ввести мораторий на использование именно этих технологий распознавания лиц? В Калифорнии его уже ввели. Европа по этому поводу ведет активные дискуссии. В России мы не думаем об этом?

Денис Кравченко: Анастасия, у нас тоже дискуссия эта происходит. Мы, с одной стороны, анализируем мировой опыт, а с другой стороны, смотрим как бы на наши цифры и показатели. Я с предыдущим выступающим соглашусь, сегодня на самом деле опасения сильно преувеличены. Больше того, я с вашего позволения приведу пример. Вы как с активной гражданской позицией девушка, совершенно очевидно, имеете социальные сети, да?

Анастасия Урнова: К своему стыду. Так страшно подумать, что творится.

Денис Кравченко: На самом деле я бы обратил взгляд телезрителей в себя. Ведь у большинства молодых людей сегодня есть социальные сети (и даже у не очень молодых). И действительно – то, о чем говорит как раз Владимир – нужно очень внимательно следить, что ты делаешь. Потому что у нас же знаете как? Если не регламентировано, то там вывешивают все что угодно. Вот он выпил, вот он спрыгнул, вот он кого-то ударил, вот он что-нибудь бросил, вот он здесь что-то украл.

Анастасия Урнова: Это может принести больше вреда?

Денис Кравченко: Это может гораздо больше вреда принести, во-первых.

Во-вторых, еще очень интересный аспект: уже (не могу сказать – сколько) три, четыре, пять лет крупные ведущие компании, государственные и частные, анализируют социальные сети, предполагая себя работодателем по отношению к вам. Смотрят твои социальные сети. Смотрит твою позицию. Смотрят, что ты делаешь, чем ты занимаешься, чем ты увлекаешься, какие у тебя связи горизонтальные, насколько они устойчивые и прочее-прочее. И все это обязательно берется во внимание.

Анастасия Урнова: Алексей, меня здесь, наверное, немножко другой вопрос волнует. Я понимаю, что мы оставляем очень серьезный цифровой след. Но я читала исследования, которые говорят: «Слушайте, если вы поставили порядка 30 лайков кому-то, сделали 30 постов, то, в принципе, уже можно очень четко смоделировать то, какая вы личность, за кого вы пойдете голосовать, что вы предпочитаете и что вам лучше всего продавать». Это значит, что если я даже сейчас решу резко прекратить свою активность в социальных сетях, то уже все.

Алексей Фролов: Я боюсь, что «уже все» было еще раньше. Возвращаюсь к предыдущей дискуссии. Обнаружить человека можно даже по его сотовому телефону, имея доступ к данным базовых станций, через которые соединяется телефонный аппарат.

Если говорить про составление портрета человека через его поведение в соцсетях, то сейчас, конечно, эта бихевиористика сильно развивается. И если обратить внимание на те медиа, которые писали про использование этих технологий в выборах и в политических гонках… Понятное дело, что они используются достаточно широко. Также широко они используются для анализа психотипа людей и, как Денис заметил, при приеме на работу.

Поэтому, да, скорее всего, не только по вашим активностям в соцсетях. Была физиогномика, которая могла по лицу определить характер человека. А сейчас все больше данных, доступных для машинного обучения: это голос, это поведение, это походка и другие биометрические данные.

Анастасия Урнова: Но стоит ли этого опасаться? Стоит как-то менять стратегию своего поведения?

Алексей Фролов: Россия – одна из самых лидирующих стран по количеству предотвращенных террористических актов в мире. Поэтому, наверное, необходимо соблюдать баланс между безопасностью и свободами. Действительно, как говорили предыдущие ораторы, необходимо не совершать тех действий, которые могут заставить вас испытывать экзистенциальные страхи по поводу новых технологий. Этого не избежать. Лучше поскорее найти способ с ними подружиться.

Анастасия Урнова: Мы уже поговорили о большом разнообразии различных технологий, которые подразумевают под собой искусственный интеллект. Давайте посмотрим небольшой сюжет и узнаем, что еще мы встречаем вокруг себя.

СЮЖЕТ

Анастасия Урнова: Мне кажется, довольно интересная штука: несмотря на то, что, казалось бы, есть такие серьезные опасности и оборотная сторона у технологий искусственного интеллекта, по последним опросам ВЦИОМ, люди в первую очередь готовы использовать технологии искусственного интеллекта в таких сферах, как получение государственных услуг, медицинская помощь, диагностика, образование, профориентация.

Мне хочется вас спросить: не расходится ли здесь реальность с представлениями людей? Мы говорим про государственные услуги. С другой стороны, мы активно ругаемся на камеры. Те же камеры, которые присылают нам штрафы, они регулярно совершают какие-то ошибки. Одна и та же камера может вам по ошибке выслать пять штрафов. Единственная ваша возможность каким-то образом от этого штрафа отказаться – идти в суд, судиться по пяти разным делам и так далее.

В общем, насколько здесь наши представления о прекрасном будущем и суровом настоящем сопоставимы между собой?

Денис Кравченко: Ну смотрите. На самом деле, Анастасия, вы говорите, что все-таки в первую очередь предпочтения…Это добропорядочные граждане. Надо исходить из этого. Но, безусловно, есть определенный процент злоумышленников. И это вечная борьба взломщиков и систем защиты – замков, условно говоря. Это вечная борьба ракет и противоракетной обороны: кто лучше, кто кого опередит и прочее. Здесь точно так же – очень сложно. Точно так же выстраивается защита. Здесь ребята более технически развиты, чем я, в этой области, можно с ними об этом говорить.

Но, безусловно, государство старается заботиться о тебе как о гражданине, чтобы тебе не навредила та система, которую оно внедряет. Понятно, что ничего в мире совершенного нет, но наши специалисты в области IT являются одними из ведущих в мире. Мы в этом убеждены. А государство, на мой личный взгляд, не предполагает такого злоупотребления, которое было приведено в пример.

Анастасия Урнова: Очень на это надеемся.

Андрей, я читала споры разных людей о том, стоит ли бояться искусственного интеллекта или нет. И у меня создалось ощущение, что, в принципе, эксперты согласны в том, что в ближайшие 5, 10, 15 лет бояться нечего. А вот что дальше будет, куда потом шагнуть технологии – там есть предметы для опасений.

Андрей Жолобов: Если мы рассматриваем искусственный интеллект в том виде, в каком он есть сейчас (еще раз повторюсь – как набор технологий), то по факту это инструментарий, как уже было сказано, ничем не отличающийся от молотка.

Анастасия Урнова: А через 5, 10, 15 лет?

Андрей Жолобов: А вот когда искусственный интеллект достигнет самосознания, если это произойдет, вот тогда уже об этом стоит разговаривать. На текущий момент нас окружает искусственный интеллект везде. Вы заходите в приложение банка – вы получаете общение с искусственным интеллектом. Вы включаете навигатор – вы получаете общение с искусственным интеллектом, который прогнозирует пробки и ваш маршрут.

Анастасия Урнова: И пока не страшно.

Андрей Жолобов: Ну, увы и ах, это все равно придет. Это удобно. Это удобно – как с точки зрения потребителя, так и с точки зрения того, кто предоставляет эту услугу.

Анастасия Урнова: Давайте тогда поговорим еще, у нас на связи со студией по телефону сейчас профессор кибернетики Луисвильского университета Роман Ямпольский. Роман, здравствуйте. Вы нас слышите?

Роман Ямпольский: Здравствуйте. Слышу.

Анастасия Урнова: Роман, я знаю, что у вас есть идея о том, что вообще развитие искусственного интеллекта может со временем изменить социальную структуру нашего общества – и в итоге все будет организовано так, что по факту мы, люди, будем работать на искусственный интеллект. Можете подробнее об этом рассказать?

Роман Ямпольский: Не знаю насчет того, будем ли мы работать на него. Но кто будет главным – это может измениться, если эти системы станут умнее нас, более способными. Тогда непонятно вообще, зачем мы им нужны.

Анастасия Урнова: Вы как раз говорили о том, что уже сегодня искусственный интеллект может возглавить корпорацию, начать работать, соответственно, нанимать сотрудников и, возможно, благодаря своим качественным алгоритмам выстраивать наиболее стабильный и прибыльный бизнес, по сравнению с теми же людьми.

Роман Ямпольский: Ну, это про легальные методы. Просто ответственность будет лежать не на человеке, а на каких-то алгоритмах. На сегодняшний день, конечно, они не умнее людей, это понятно.

Анастасия Урнова: Но есть ли вероятность того, что через 20 лет они станут умнее людей?

Роман Ямпольский: Это почти гарантированно, но сроки не понятны. Некоторые специалисты говорят, что осталось лет пять-семь. Некоторые считают, что и 100 лет не хватит. Но проблемы останутся те же. И надо думать, как их решать, сегодня.

Анастасия Урнова: Ну, если они сегодня не стоят, возможно, появятся только через 100 лет, получается, что это чистый футуризм – то, о чем мы с вами говорим. Может быть, прав фильм про Терминатора. А может быть, какой-то совершенно другой тот же искусственный интеллект.

Роман Ямпольский: Те глобальные проблемы, которые сегодня стоят… Например, глобальное потепление. Если бы люди 100 лет назад подумали об этом и использовали электрические автомобили, как и было изначально, а не основанные на нефтепродуктах, то проблем было бы меньше сегодня. Надо думать заранее.

Анастасия Урнова: Ну хорошо. Тогда, может быть, как по-вашему, о чем нам стоит думать в первую очередь? О том, что искусственный интеллект представляет какую-то военную угрозу? Или о том, что он постепенно просто окажется умнее человека и станет во главе нашей социальной иерархии?

Роман Ямпольский: Ну, все эти проблемы важны. Конечно, военные вкладывают огромные деньги в развитие именно оружия на основе этих систем. И об этом надо волноваться. В то же время постепенно меняется вся основа нашего общения: как люди получают информацию, как эти алгоритмы решают, что мы читаем, что мы видим, с кем мы знакомимся. То есть постепенно это влияет на все основные, какие-то основополагающие основы нашего общества.

Политика не исключение. Мы видим этого все больше. Например, предвыборная кампания в Америке. Алгоритмы, конечно, значительно влияют на то, кто в новостях, о ком люди. Произойдет это, когда действительно они станут умнее нас. И тогда уже вообще непонятно, как с этим бороться. И можно ли с этим бороться? Но на сегодняшний день надо думать о проблемах, которые мы видим.

Анастасия Урнова: Хорошо. Пожалуйста, Роман, у вас вопрос есть

Роман Душкин: У меня не вопрос, а я хотел бы добавить.

Анастасия Урнова: Пожалуйста.

Роман Душкин: Если мы закончили с тезкой из США.

Анастасия Урнова: Ну, практически. Он нас все еще слышит.

Роман Душкин: Я бы хотел немножко поддать жару. Вот Андрей сказал, что искусственный интеллект – это инструментарий все-таки. Но есть фундаментальные отличия именно этого инструментария от любого другого, который мы имели до сих пор (мы как человечество). Мы сейчас все предыдущее время очень оптимистично рассматривали все это, но на самом деле есть именно это фундаментальное отличие. Никакой молоток не может переделать сам себя. Вот в этом проблема.

Дело в том, что системы искусственного интеллекта не программируются людьми. Вот сегодня мы уже вышли на тот уровень, когда системы искусственного интеллекта создаются… То есть алгоритмы лежат в их основе, несомненно. Ну, алгоритмы лежат и в нашей основе, так или иначе. То есть у нас там тоже алгоритмы на каком-то самом базовом и фундаментальном уровне. Так же и у систем искусственного интеллекта. А потом в них начинают загружать данные, и они начинают на этих данных обучаться. Как они обучаются? Какие скрытые закономерности они найдут в этих данных? Никто не понимает.

И это самая большая проблема, которая уже получается у нас сегодня, появляется, потому что системы подобного уровня уже есть, они уже работают. Это запуск искусственной эволюции, когда мы создаем искусственных когнитивных агентов, которые обучаются на данных. Да, мы их создали, запрограммировали. Они начали обучаться на данных. Они как бы «пожирают» данные – и тем самым растут, получают новые знания. А потом эти когнитивные агенты начинают как бы размножаться, порождая новых. И через миллионы этапов этой эволюции появляются когнитивные агенты, к которым мы в принципе отношения не имеем.

Анастасия Урнова: При этом миллионы этапов эволюции явно проходят быстро.

Роман Душкин: Проходят за несколько дней в нашем времени, да. И вот то, что там уже появилось – это уже совсем не то, что…

Анастасия Урнова: Алексей, у вас есть ответы на эти очень страшные вопросы?

Алексей Фролов: Я хотел бы достать огнетушитель на подданный Романом жар. Мы как Ассоциация лабораторий по развитию искусственного интеллекта уже подготовили для Правительства Российской Федерации проект Этической хартии искусственного интеллекта, которая будет регламентировать этические нормы как написания алгоритмов, так и работы с ними, так и применения искусственного интеллекта.

Сегодня во всем мире принято 84 документа, которые так или иначе регламентируют этические принципы и нормы поведения в этой области. В США, например, их принято двадцать, в Великобритании – шесть. У нас готовится к принятию первая хартия. Соответственно, хартию подпишут компании, которые являются разработчиками в сфере искусственного интеллекта. И они таким образом продемонстрируют приверженность принципам, что они не будут создавать дипфейки, не будут нарушать права и свободы…

Анастасия Урнова: Надо, думаю, пояснить, что такое дипфейки.

Алексей Фролов: Дипфейки – это когда с помощью искусственного интеллекта можно подменить видео, изображение (например, лицо или голос человека) и использовать это в качестве компрометирующих основ или как-то незаконным образом. Таким образом, мы сможем предотвратить наступление роботов-терминаторов и Скайнет, заложив уже этику в этой области. И если это будет искусственный интеллект в медицине, то специалист должен будет обладать определенными компетенциями, для того чтобы при написании алгоритма ни в коем случае не ошибиться, потому что это может принести вред уже здоровью человека. То же самое при разработке беспилотных автомобилей и так далее.

Анастасия Урнова: С другой стороны, Максим… Замечательно, если будет такая хартия. Но я знаю, что, по крайней мере пока, многие дискуссии велись вокруг известных правил робототехники Айзека Азимова. И то мы понимаем, что интеллект может найти какие-то лазейки и обойти существующие правила. И они все равно нас не защищают от нежелательных последствий. Или все-таки защищают?

Максим Федоров: Ну, на самом деле, во-первых, большинство этих технологий так и будут оставаться технологиями двойного назначения. Потому что если даже мы запретим дипфейки, то кто нам запретит, например, делать анимацию? И сейчас это уже делается с помощью искусственного интеллекта. А технология та же самая. Поэтому в каких руках она окажется…

Анастасия Урнова: Видимо, фундаментальный вопрос этой дискуссии.

Максим Федоров: Фундаментальный вопрос. Что мы как люди, как мы себя видим? Зачем мы сами себе? Зачем мы планете? Зачем делать ту или иную технологию? Поэтому сейчас искусственный интеллект – это как зеркало, в которое мы все смотрим, все человечество смотрит, и задаем эти вечные вопросы. Но теперь эти вечные вопросы каждому задаются. Если раньше можно было уйти и сказать, что это все – дело религии или философов, то теперь каждый человек, в принципе, смотрит в это зеркало и задает сам себе эти вечные вопросы. Что мы? Для чего мы? Что такое душа? Что такое сознание? Что такое интеллект?

Анастасия Урнова: Чем мы отличаемся от роботов?

Максим Федоров: Сейчас стало понятно, что, например, сознание и интеллект – это разные вещи. Поэтому, действительно, интеллектуальность… Если говорить о каких-то особенно выделенных способностях (игра в шахматы или игра в го), то машины сейчас, конечно, более мощные стали.

Анастасия Урнова: Андрей, с другой стороны, хочется вернуться к страшилкам. И я вспоминаю кейс, когда два чат-бота Facebook начали разговаривать между собой. Потом, по некоторым сведениям, заметив, что за ними наблюдают, изобрели свой собственный язык и продолжили общение на своем языке. И программистам пришлось натурально вытаскивать их из розетки. Мы понимаем, что это еще только зачаток технологий. Что же будет чуть позже.

Андрей Жолобов: Ну, если пофантазировать, то дофантазировать можно и до Скайнета.

Анастасия Урнова: Ну, вообще начало как раз. Вот, пожалуйста. Эта штука эволюционирует – и будет нам Скайнет.

Андрей Жолобов: Помимо того, что планируется принять хартию, скажем так, по правилам разработки искусственного интеллекта, наверное, еще стоит обдумать и вопрос, где он применим, а где нет. Потому что если мы искусственному интеллекту даем возможность управлять (ну, я утрирую) баллистическими ракетами, то что там и как будет в рамках обучения?

Анастасия Урнова: Велика вероятность, что тогда искусственный интеллект эмоционально не нажмет кнопку.

Андрей Жолобов: Опять же эмоции и искусственный интеллект, на мой взгляд, на текущем этапе несовместимы.

Анастасия Урнова: Я обращаю внимание: искусственный интеллект не разозлится. Он понимает, что если он нажмет на ядерный чемоданчик, то все закончится. Он не нажмет.

Андрей Жолобов: Логика может быть разная. И предпосылки могут быть разными.

Алексей Фролов: Скорее нажмет, чем не нажмет, мне кажется.

Роман Душкин: Смотря кто его обучит и как.

Максим Федоров: Коллеги, я немножко хотел бы уточнить. Мы сейчас говорим в основном в рамках искусственного интеллекта, построенного на данных. То есть это на самом деле одна из технологий искусственного интеллекта, просто сейчас она приобрела некую популярность в силу нескольких громких успехов, связанных с распознаванием лиц и так далее. На самом деле только эта ветвь технологий отличается вот теми проблемами, о которых говорил коллега. Не совсем понятно, насколько прозрачно работают алгоритмы. Есть уже такой технический термин «прозрачность работы алгоритмов».

А есть другие методы, которые сейчас немножко в тени, но я думаю, что они приобретут популярность скоро. Это и символьный искусственный интеллект. Это искусственный интеллект, который построен на каких-то правилах. Собственно, эта война школ шла со времен зарождения искусственного интеллекта. То есть либо эмпирика голая: «Вот у нас есть данные, что-то получили, получили какие-то правила. О, работает! Хорошо». Но вопрос в том, будет ли оно работать на тысяче первом случае ? Обучали на тысячи случаев, а вот тысяча первый – черный лебедь. Известная проблема черного лебедя. То есть были лебеди белые, обучились на белых лебедях, а потом выяснилось, что в Австралии живут черные лебеди. И что с ними делать?

Основная масса проблем, которые мы обсуждаем сегодня, как раз относится к искусственному интеллекту, основанному на данных. Мы очень много этими техническими проблемами занимаемся. И там, да, действительно есть предел применимости. То есть проблема с аэрокосмической техникой, которая у всех на слуху (Airbus и Boeing особенно), связана с тем, что там слишком много этого искусственного интеллекта, основанного на данных. И не совсем понятно, как эти сложные системы работают.

Возможно, инженерам имеет смысл откатиться немножко назад и навести больше прозрачности – то есть, соответственно, вернуться к системам, которые основаны на дереве решений или на каких-то правилах. И тогда будет все понятно. Тогда, кстати говоря, и будет понятно, почему он нажмет или не нажмет на кнопку. Потому что сейчас, да, в зависимости от того, какие генералы научат алгоритмам…

Анастасия Урнова: Все и решается.

Максим Федоров: Да, да, да.

Анастасия Урнова: Владимир, мне кажется, что мы еще сейчас осветили такую проблему: а кто несет ответственность за то, что делает искусственный интеллект? Мы знаем, что уже до 80% участников дорожного движения будут роботами. Мы понимаем, что они активно принимают решения на анализе рисков, где огромное количество вещей. А кто отвечает-то? Вот ошибка, например.

Владимир Белый: Вообще в целом сейчас тоже разрабатываются подобные, скажем так, регламенты, кто и как должен отвечать. Даже Mercedes предложил свою версию, кто будет отвечать, например, за сбитого пешехода. Кого он должен спасти – пассажира своего, например, владельца этого Mercedes или пешехода?

Они пришли к тому, что они должны спасти своего пассажира, при этом пешехода, который в неположенном месте, например, переходит, соответственно, он сбивает. Я имею в виду, что он – этот автомобиль. Отвечает за это, естественно, владелец автомобиля. То есть будет рассматриваться так: раз он владел этой техникой и техника, соответственно, находится на его балансе. И разработчик, который это все внедрил. То есть уже будет так, как в обычном случае, например, с самолетами. Когда самолет падает, там всех по цепочке начинают выдергивать и делать очень серьезное расследование и следствие.

Что касается нас, например. У нас тоже был случай достаточно интересный. Все знают робота Федора. Это робот, который был разработан одной из наших компаний, это «Андроидная техника». Был запуск в космос на МКС. В итоге он не долетел до МКС, потому что на МКС отсутствовала работоспособная система «Курс», которая стоит непосредственно на самой этой станции. И пока ее не починили, соответственно, в автоматическом режиме корабль ожидал всех команд, которые должны были поступить с Земли

Анастасия Урнова: Получается, что, по сути, он бессмысленно там был?

Владимир Белый: Я просто к чему? Нет, не бессмысленно. У него было очень много задач, которые он должен был выполнить непосредственно на самой МКС. Он же все-таки туда долетел. И там, соответственно, его приняли.

Анастасия Урнова: А какие?

Денис Кравченко: Ну, как ассистент, как помощник.

Владимир Белый: Он там должен был проводить, во-первых, ряд задач, которые связаны с помощью космонавтам. Это первое. То есть личный состав, командир…

Анастасия Урнова: То есть он что-то подает, он что-то подкручивает?

Владимир Белый: Конечно.

Анастасия Урнова: Хочется конкретики.

Владимир Белый: Он должен был определять различные, скажем так, факторы на самом корабле. То есть это анализ телеметрии. Соответственно, работать с инструментарием, с которым работают все космонавты. Понимать языки и коммуницировать с экипажем.

Анастасия Урнова: Хорошо.

Владимир Белый: И их очень много на самом деле, этих регламентов. И все эти регламенты были перевыполнены.

Анастасия Урнова: То есть успех?

Владимир Белый: Конечно, успех. Но я хочу сказать следующее. Несмотря на то, что во время полета этот так называемый искусственный интеллект был отключен, это было сделано для того, чтобы было безопасно, чтобы вдруг что-то системе не привиделось, например, и она не начала вдруг что-то делать экстраординарное. Мы же робота этого еще не запускали в космос, и мы не знали, как он отреагирует. Действительно, то, что мы разрабатывали для Земли, отличалось от того, что было на МКС.

Анастасия Урнова: В общем, технология хорошая, но нужно быть осторожными.

Владимир Белый: Технология эта даже не хорошая, а она суперхорошая.

Анастасия Урнова: Многообещающая.

Владимир Белый: Конечно.

Анастасия Урнова: Хорошо, поняли. Извините, у нас просто уже не так много времени.

Денис, мне хочется больше о хорошем поговорить. В мире искусственный интеллект действительно используется очень по-разному. Например, в США он проверяет водопроводные трубы и экономит порядка 400 миллиардов долларов в год. То есть это огромный вброс в систему ЖКХ. Разрабатывается система, которая прогнозирует потенциальные задержки и изменение рейсов. Это тоже экономит порядка 25 миллиардов долларов в год. Цифры колоссальные и выглядят очень эффективно и привлекательно.

В России как с этим? Какие у нас перспективы развития и внедрения искусственного интеллекта?

Денис Кравченко: Первое. У нас прошлой осенью, в прошлом году была определена и подписана президентом Стратегия развития искусственного интеллекта. И часть коллег принимала участие в подготовке этой стратегии, потому что экспертное сообщество достаточно активно в это включилось. И это важно. Раз.

Во-вторых, не так давно Герман Греф, который очень активно этой темой занимается, выступил с инициативой совместно с мэром Москвы о том, чтобы сделать Москву на пять лет экспериментальной зоной для внедрения технологий, связанных с искусственным интеллектом. В первую очередь, конечно, это связано с умным городом, повышением комфорта граждан и так далее. Это вторая часть.

И третье, что на самом деле очень важно осознавать. Мы с вами перед эфиром обсуждали, куда тратятся деньги, что они нам несут и так далее. Несколько цифр. Например, Китай (это по открытым данным, которые я посмотрел перед передачей) за прошлый год потратил, вложил в систему искусственного интеллекта более 170 миллиардов долларов США. Американцы вложили 28 миллиардов.

Анастасия Урнова: А у нас до 2024 года – 125 миллиардов рублей.

Денис Кравченко: Рублей.

Анастасия Урнова: Рублей.

Денис Кравченко: Да. Ну, вроде бы ожидается, что будет еще добавлено 300. Итого, получится, я посчитал, чуть меньше 4–5 миллиардов долларов на большой промежуток. А на самом деле тема искусственного интеллекта стратегически важна. И недаром вы приводили высказывание достаточно известных ученых и продвинутых наших партнеров из-за рубежа. Но и президент наш говорит: «Кто освоит это направление первым, тот и получит превосходство».

Анастасия Урнова: Какие все-таки ваши оценки? Мы будем здесь первыми или хотя бы в числе первых?

Денис Кравченко: Ну, нам нужно быть в числе первых. Оценки такие. И мы создаем для этого условия.

Анастасия Урнова: Роман, будем мы первыми или стараемся? 125 миллиардов – много или мало? Они пойдут на дело или где-то «осядут»?

Роман Душкин: Я хотел бы быть оптимистом в этом вопросе. И даже более того – есть предпосылки для этого, потому что в России есть несколько глубоких фундаментальных школ искусственного интеллекта. Не все знания растрачены. И современные ученые и инженеры в этой области прекрасно трудятся над этой темой. Но когда мне задают этот вопрос, я всегда отвечаю: а нужно ли нам становиться лидерами в той гонке, где бегут не туда?

Анастасия Урнова: Вы считаете, что не туда?

Роман Душкин: Весь мир бежит не туда в области искусственного интеллекта.

Анастасия Урнова: Объясните, пожалуйста.

Роман Душкин: Вот это то, что говорил Максим. Это одно из направлений искусственного интеллекта, основанное на данных. И оно как раз обладает этим серьезным недостатком, который не позволяет объяснять принятые решения искусственными когнитивными агентами.

Давайте вспомним, с чего я начал передачу. Ведь для чего было придумано это направление научное – искусственный интеллект? Для того, чтобы понять, что у нас здесь. У нас здесь черный ящик, потому что мы можем друг с другом коммуницировать, исключительно задавая друг другу какие-то вопросы и получая ответы. То есть даем вход – получаем выход. И на основе этого анализируют то, что там. И захотелось получить некую модель того, что там, для того чтобы понимать, как мы сами устроены.

В итоге мы получили нейронные сети глубокого обучения, которые являются таким же черным ящиком. Мы даем им что-то на вход – у них что-то на выходе. А что там у них внутри? Как настроили эти скрытые закономерности? Никому не известно. И интерпретировать это очень затруднительно. Это возможно, но это крайне затруднительно.

Анастасия Урнова: То есть надо все-таки как-то по-другому развивать?

Роман Душкин: В итоге мы получили модель черного ящика в виде черного ящика. Это совсем не то, что нам нужно, нам как человечеству. То есть мир бежит совсем не туда.

Анастасия Урнова: Коллеги, а вы все согласны?

Андрей Жолобов: Ну, если весь мир туда бежит…

Максим Федоров: Надо естественный интеллект развивать.

Анастасия Урнова: В смысле? Вы имеете в виду – свой?

Максим Федоров: Да, человеческий. Надо человеческие способности развивать.

Анастасия Урнова: Но мы все равно никогда не сможем проводить миллионы операций в минуту в своей голове.

Денис Кравченко: Кто это сказал?

Максим Федоров: Кто это сказал? До сих пор мы гораздо мощнее во многих…

Анастасия Урнова: Хорошо. Ну, мы говорим, например, про анализ рисков. Мы понимаем, что сейчас, когда работает брокер, он не может учесть все, а искусственный интеллект может учесть гораздо больше. Когда мы говорим про камеры, то искусственный интеллект может посмотреть одновременно гораздо больше картинок. Ну, мы же все понимаем, что наша с вами голова имеет определенные ограничения.

Максим Федоров: Вопрос в том, что если мы создадим совершеннейший алгоритм брокера, то рынок исчезнет. Ну понятно, да?

Анастасия Урнова: Что-нибудь другое появится.

Максим Федоров: Вот! То есть мы опять приходим к этим вопросам экзистенциальным.

Анастасия Урнова: Ну, вопрос был такой: вы согласны с Романом, что мир идет не туда?

Владимир Белый: Я не согласен.

Анастасия Урнова: Все-таки туда?

Владимир Белый: Ну, это в любом случае путь, куда мы пришли. Мы же сами строители своего будущего. Вот мы его таким создали.

Анастасия Урнова: Ну, так шли, а теперь можем повернуть.

Андрей Жолобов: Некоторое время назад кибернетика была объявлена лженаукой – и сильно отстали. Как бы сейчас так же не получилось, если будем считать, что не туда бежим. Может, бежать и туда, и туда надо?

Анастасия Урнова: Хорошо. Если вы считаете, что мы бежим туда, то какие у России перспективы? Мы тут обсуждаем и финансы, которые на это есть.

Андрей Жолобов: На текущий момент, на мой взгляд, в России очень хорошая математическая школа. Исключительно в плане работы, я с этим сталкиваюсь регулярно. А по факту математическая школа – это как раз и есть тот самый базис, на котором основываются разработки.

Анастасия Урнова: А желание специалистов здесь работать есть?

Андрей Жолобов: Чем дальше, тем больше.

Алексей Фролов: Я могу сказать, что сегодня на рынке труда профессия Data Science достаточно востребована. Если открыть агрегаторы вакансий, то специалисты по Data Science (а это именно те, которые занимаются алгоритмами машинного обучения), этих открытых вакансий больше всего. И они набирают популярность, начинают догонять другие…

Андрей Жолобов: При этом доходная часть для таких специальностей, именно финансовая составляющая, не сильно отличается от того, что есть вне России.

Денис Кравченко: Но это как раз задача к нам как к государству – создать эти условия. И у нас сегодня есть ряд пилотных проектов и на Дальнем Востоке. В Дальневосточном федеральном университете мы рассматриваем возможность создания долины соответствующей. И здесь, в МГУ.

Анастасия Урнова: Еще Сколково у нас есть.

Денис Кравченко: Например, с Физтехом в Долгопрудном также мы смотрим, как нам удерживать выпускников, которые просто нарасхват. Страшная статистика на сегодняшний день. Я не хочу выглядеть пессимистом. Здесь больше оптимистов, чем я. Но статистика такова, что, например, 53% выпускников Физтеха уезжают за рубеж сразу по выпуску. То есть их «хантят» и моментально забирают. Мы сегодня смотрим, как нам создать условия для того, чтобы они совмещали процесс обучения, занятие бизнесом, тут же возможность исследований и так далее.

Анастасия Урнова: Какие идеи? Как? Что можно делать?

Денис Кравченко: Идеи? Создать реальные условия для самореализации, с одной стороны. С другой стороны…

Анастасия Урнова: А кто им будет платить? Ведь вопрос же, наверное, в первую очередь в деньгах.

Денис Кравченко: Да они сами заработают свои деньги.

Анастасия Урнова: Так за границей…

Денис Кравченко: Посмотрите на них, на этих успешных молодых людей. Все в порядке.

Максим Федоров: Денег достаточно. Тут вопрос, я бы сказал…

Анастасия Урнова: Я просто пытаюсь понять. Вы знаете, я очень люблю конкретику. Вы говорите: «Создать условия». Я говорю: «Какие?»

Денис Кравченко: Вопрос быта, инфраструктуры, качества жизни, безопасности и всего остального. Это все входит в это. И, конечно, заработная плата и перспективы роста.

Анастасия Урнова: Пожалуйста.

Максим Федоров: Я бы добавил еще, что должна быть некая идеологическая компонента, потому что… Ну, я работаю непосредственно с этими ребятами, я их сам готовлю, лучших датасаентистов в стране. И я вижу, что экономики уезжать вообще не нужно. Москва сейчас предоставляет больше возможностей, чем Сан-Франциско, например. И это все признают, в том числе люди, которые съездили в Силиконовую долину. Но есть какие-то…

Анастасия Урнова: А почему тогда половина уезжает?

Максим Федоров: А вот есть какие-то такие, я бы сказал, неэкономические мотивы. И это проблема. Молодежь сейчас в поисках смыслов, да, уезжает далеко – в прямом и в переносном смысле слова.

Алексей Фролов: 6 миллиардов…

Денис Кравченко: А сколько вернулось?

Анастасия Урнова: Алексей, про 6 миллиардов вы начали говорить.

Алексей Фролов: 6 миллиардов государством выделено на образовательный фонд, который будет заниматься новыми технологиями в образовании, в том числе эти образовательные технологии будут использоваться для обучения программистов и специалистов в области искусственного интеллекта. Это государственный фонд, который будет раздавать эти деньги.

Владимир Белый: Знаете, сейчас хочу рассказать пример такой. Вот именно такая проблема встала…

Анастасия Урнова: Буквально коротко, у нас полминуты с вами.

Владимир Белый: Очень много специалистов, особенно технарей, инженеров, уезжает из Магнитогорска, с Урала – ну, куда угодно, даже не за границу, а просто в Москву, Екатеринбург, Питер. Соответственно, для того чтобы хоть как-то там оставлять таких специалистов после получения образования в этом городе, мы сейчас строим проект такой, участвуем в создании город «Притяжение».

Анастасия Урнова: Где?

Владимир Белый: Магнитогорск. Называется пока, пилотная версия – парк «Притяжение». То есть это город с инфраструктурой, с недвижимостью, с очень крутыми объектами и Центром космической робототехники, который мы сейчас как раз полностью курируем. Соответственно, там будут такие возможности, которые позволят просто всем людям – и студентам, и просто вообще желающим – приезжать туда и обучаться.

Анастасия Урнова: Фантастика!

Ну, на этой оптимистической ноте мы закончим разговор о перспективах искусственного интеллекта. По всей видимости, пока что его бояться точно не надо. А вот учиться использовать и разбираться, что это такое, нужно обязательно.

Правду вместе с вами искала Анастасия Урнова. Оставайтесь на Общественном телевидении России.

Авторизуйтесь, чтобы быстро и удобно комментировать
Авторизуйтесь, чтобы быстро и удобно комментировать
Комментарии (0)

Выпуски программы

  • Все видео
  • Полные выпуски