Ольга Арсланова: Это программа «ОТРажение», и мы продолжаем. Четыре всадника апокалипсиса: в ООН назвали главные угрозы всему человечеству. Генсек организации предупредил, что в мире назрели серьезные проблемы, и, если их не решать, итог будет страшным, почти как в Библии. Петр Кузнецов: Четыре всадника апокалипсиса, напомним, это персонажи, которые несут катастрофы и катаклизмы, а затем людей ждет Второе пришествие и Страшный суд, а приход каждого всадника принесет зло и неимоверные страдания для человечества, которое утонуло в грехах. Первый всадник – чума, далее идут война, голод и смерть. Ольга Арсланова: Вот с этими угрозами ни много ни мало сравнил Антониу Гутерриш то, что волнует мир сегодня. Во-первых, это геостратегическая напряженность, которая может привести к серьезным военным конфликтам и даже ядерной угрозе. Вторая угроза – это климатические изменения, потому что меняется климат, миллионы видов растений и животных под угрозой исчезновения, наша планета в огне, причем в прямом смысле, подчеркнул генсек ООН. Ну и далее третий всадник – это рост недоверия к правительству, по всему миру растет уровень неравенства в доходах, отсюда и недоверие. И, наконец, современные цифровые технологии, которые, по мнению генсекретаря, стали четвертым всадником. Предлагаем на протяжении всей этой недели... Петр Кузнецов: С конца начать, как раз с четвертого. Ольга Арсланова: ...поговорить об этих проблемах, и начнем как раз, да, с технического прогресса, поговорим о том, насколько он может действительно навредить человечеству, может быть опасен для нас всех. Петр Кузнецов: Представляем экспертов в студии. Это Александр Кононов, член Ассоциации футурологов, член Российского философского общества... Ольга Арсланова: Здравствуйте. Александр Кононов: Добрый день. Петр Кузнецов: ...и Роман Душкин, директор по науке и технологиям «Агентства искусственного интеллекта». Добрый вечер, уважаемые эксперты. Ольга Арсланова: Здравствуйте. Роман Душкин: Здравствуйте. Ольга Арсланова: Кстати говоря, опасность опасностью, но в нашей стране взят же курс на цифровизацию, лично президент говорит о том, что как раз от технического прогресса зависит положение в мире той или иной страны. Если Россия хочет быть все более влиятельной, нужно развивать технический прогресс. Кому верить, как вам кажется? Больше опасностей или больше плюсов у технического прогресса для отдельно взятой страны, например? Роман Душкин: Ну, я думаю, что тренд во всем мире взят именно на научно-технический прогресс, и я не побоюсь этого слова сказать, что именно научно-технический прогресс обеспечивает все более и более повышающийся уровень жизни во всем мире. Давайте вспомним, еще 150 лет назад как жили наши предки, в каких условиях, сколько лет они жили, и как у нас сегодня это все происходит. Естественно, научно-технический прогресс – это та парадигма, на мой взгляд единственная, которая может вывести земную цивилизацию на новые уровни развития. Поэтому в этом нет ничего страшного, критичного, плохого тем более. Петр Кузнецов: Что такое злоупотребление техническим процессом и прогрессом? Как это понимать? Роман Душкин: Злоупотреблять можно чем угодно. Петр Кузнецов: Где это проявляется? Роман Душкин: Вот есть атомные технологии, да? При помощи атомных технологий можно построить атомную электростанцию, при помощи которой обеспечить всех электроэнергией, а можно сделать ядерную бомбу и угрожать ею всему миру. Ольга Арсланова: Ага. Роман Душкин: Так же и тут: цифровые технологии в какие руки попадут, так и будут использоваться. Поэтому сегодня, конечно, создаются уже рабочие группы, комитеты по этическому применению цифровых технологий, поскольку их развитие уже дошло до того уровня, когда они воздействуют на все общество. Естественно, надо применять какие-то шаги, какие-то меры, когда не то что мы ограничиваем, но мы ограничиваем именно такое злокачественное применение этих технологий во вред обществу, в пользу, возможно, отделяйте категориям лиц, которые их применяют. Петр Кузнецов: Ага. Ольга Арсланова: Александр Анатольевич, вот мы когда читаем заявления генсека ООН, речь идет о всадниках апокалипсиса, то есть о чем-то очень страшном, фатальном и вот практически стоящем на нашем пороге. Можно серьезно вообще к таким заявлениям относиться, с вашей точки зрения? Насколько технический прогресс можно сравнить со всадником апокалипсиса? Александр Кононов: На самом деле это давно назрело, давно назрело построение модели угроз, что вот мы безопасны... Я просто всю жизнь занимаюсь проблемами цивилизационной безопасности, фундаментальной безопасности и информационной безопасности, кибербезопасности, в целом этим комплексом. И у нас есть такое понятие, как модель угроз, и вот это основа безопасности в любой системе. Для цивилизации она отсутствует у нас. У нас модель угроз для цивилизации поддерживает кинематограф, голливудский прежде всего, вот они выстраивают, да. Они выстраивают модель угроз, они картируют риски, составляют практически карту рисков, чем, вообще говоря, должны заниматься ученые. Но есть у нас Римский клуб, который там часть угроз рассматривает, чисто экономически прежде всего, а вот комплексно модель угроз не выстраивал никогда и никто. И наконец... Правда, предыдущий генсек ООН тоже ставил пять стратегических задач, фактически формулировал пять сверхзадач для цивилизации, которые практически закрывали основные, значит, угрозы, по его мнению. Петр Кузнецов: Всадников четыре, а задач пять, обратите внимание, побеждают… Александр Кононов: Да. Ольга Арсланова: Всадники ярче, так что тут будет лучше работать. Александр Кононов: Да. На самом деле это все, значит, первые шаги только в этом направлении. Цивилизации нужны научные исследования в этом направлении, построение модели угроз полной по возможности, то есть списка всего угроз, картирование рисков, то есть составление карт рисков, которые связаны с этими угрозами, как они реализуются и во что это выльется, вот эти риски. И, значит, построение мер защиты с учетом сценариев развития. Когда мы картируем риски, мы выстраиваем и сценарии развития. И вот здесь мы должны разработать систему мер, которая будет их предотвращать, предотвращать реализацию рисков. Вот если первый шаг сделан, хорошо, по крайней мере вот эти четыре угрозы он как бы назвал, это уже какая-то модель угроз, по крайней мере какие-то основания. Теперь надо делать следующие шаги – нужно нормальное провести, значит, исследование... И главное – изменить образовательную систему цивилизации. Она нуждается чрезвычайно так же, как... У нас есть предметы математика, физика, биология, химия – вот столь же необходим, жизненно необходим для цивилизации предмет цивилизационной безопасности, чтобы каждый понимал, как цивилизация воздействует на него... Сейчас это не доводится до, вообще говоря, населения Земли, до каждого человека. Он должен понимать, как он зависит от цивилизации и в то же время насколько цивилизация зависит от него. Вот когда мы говорим, когда Гутерриш говорит про злоупотребление технологиями, это что значит? Это значит, что есть масса людей, которые в собственных интересах или вообще неизвестно зачем занимаются хакерством, крэкерством, взламывают системы, нарушают их безопасность, даже критических систем, и они порой не ведают, что творят, потому что не было в образовательных курсах вот этого пояснения, что каждым своим действием вы либо повышаете нашу способность цивилизации быть в безопасности, не стать жертвой этих бесчисленных угроз, либо вы их подрываете. И вот они подрывают и не ведают, что творят, потому что система образования этого не разъясняет, и вот это важнейший, значит, предмет, который должен быть введен у нас так же, на таком же уровне, как математика, физика и так далее. Ольга Арсланова: Ага. Петр Кузнецов: Вот наши... Сейчас прежде, чем мы дальше пойдем, несколько уже всадников рисуют наши телезрители, здесь уже, внутри. Вот, пожалуйста, Саратовская область, одно за другим сообщения просто: «Сейчас злоупотребляют стройками». Иркутская область: «Где российский смартфон?» И Краснодарский пишет: «Опасность несет не прогресс, а отсталость, и это относится к любой сфере». Ольга Арсланова: Сейчас часто вспоминают законы робототехники в научной фантастике Айзека Азимова о том, что робот не можно навредить человеку, первый закон, он же основной. А почему, собственно, робот не может навредить человеку? Что сейчас от этого предохраняет? Как это может робота остановить? Вот есть уже случаи с автопилотом в автомобиле, который убил пешехода, потому что, если верить расследованию, в программном обеспечении не было заложено вообще понимания того, что переход может где угодно перебегать дорогу, вот он такой, он хаотичный. Петр Кузнецов: Да, кодекс этики для роботов уже сложнее будет написать. Роман Душкин: Ну смотрите, Айзек Азимов когда писал свои книги и формулировал в них вот эти самые законы робототехники, во-первых, это было очень много лет назад, во-вторых, он формулировал их для роботов, которые в сегодняшней терминологии представляют собой artificial general intelligence, то есть искусственный интеллект общего уровня. То есть это такое же разумное существо, абсолютно четко понимающее все то же самое, что и человек, даже, возможно, больше, не обладающее такой, скажем, зауженностью решения задач, это просто общий интеллект, другая разумная раса... Ольга Арсланова: ...которая не существует. Роман Душкин: ...которая была создана. Сегодня их, естественно, нет. И законы робототехники применимы будут тогда, и, если мы вдруг когда-нибудь это создадим, разумное существо искусственной природы, вот тогда можно будет говорить о наших попытках внедрить в их разум вот эти самые законы робототехники. Но я боюсь, что это не получится, потому что если мы создадим разумное существо со свободой воли, то оно само себе этические законы придумает в конечном итоге. Но это пока еще научная фантастика, до этого... Я не знаю, скажу, далеко или не далеко, я не берусь прогнозировать на будущее, но сегодня такого нет. То, что вы говорите, автопилот сбил человека... Автопилот – это узкая система искусственного интеллекта. «Узкая» что значит? Это значит, что она решает вполне конкретную задачу. Естественно, никаких этических норм там не заложено, туда их некуда закладывать. Ольга Арсланова: Но она просто несовершенна технически. Роман Душкин: Да, абсолютно, то есть... Ольга Арсланова: Значит опасна. Роман Душкин: Системы компьютерного зрения, которые распознали движущегося человека там, где он не должен был двигаться, не вовремя или как-то не туда подали сигнал о том, что там человек. И «мозги» этого автопилота не должным образом приняли решение, что делать, потому что в процессе обучения этого пилота, автопилота, или в процессе формирования для него базы знаний, или в процессе формирования для него базы знаний, или в процессе в принципе формирования его как некоего искусственного интеллектуального агента не было предусмотрено этой ситуации, ну не было, поэтому он не знал, как реагировать, ну вот отреагировал как получилось. Такое бывает. Ольга Арсланова: Как футуролог что вы можете сказать о сроках возникновения вот такого робота, который будет себя осознавать и конкурировать по интеллекту с человеком, который может быть потенциально опасен как носитель сознания? Это вообще возможно? Петр Кузнецов: Да. Какую вы как футуролог картину рисуете? Что вам, например, угрожает, как вы считаете? Что несет опасность ближайшую? Конкретное что-то такое? Александр Кононов: Ну, я думаю, что благодаря кинематографу эта тема довольно хорошо проработана... Ольга Арсланова: Мы себе их представляем, да. Александр Кононов: Эти сценарии по опасностям, связанным с искусственным интеллектом. И вот я поддерживаю ту точку зрения, что здесь нам нужна некоторая синхронизация, синхронизация в том плане, что должны быть разработаны интерфейсы взаимодействия человеческого мозга с компьютерами, и, вообще говоря, мы не должны выпускать искусственный интеллект, когда он станет настолько мощный, что превзойдет нас в интеллектуальных способностях, выпускать его из-под контроля, а это возможно только при интеграции. То есть должны быть люди, которые осознают свою функцию как авангард цивилизации и которые будут оснащены вот этими возможностями. Возможно, постепенно все могут взаимодействовать с искусственным интеллектом как со своей частью, как с частью своего мозга. Но на первом этапе это должны быть те, кто будут осознавать свою высокую цивилизационную роль и свою значимость по контролю над безопасностью искусственного интеллекта. То есть вот, на мой взгляд, чрезвычайно важна вот эта синхронизация, развитие того, что сегодня мы видим в проектах того же Илона Маска, он работает над этими приборами, интерфейсом мозга и компьютера, значит, в IBM большие в этом направлении разработки ведутся, вот они чрезвычайно важны. Мы не должны выпустить искусственный интеллект из-под нашего контроля, мы должны его полностью контролировать. Петр Кузнецов: Александр Анатольевич, ну вы так по большей части, все-таки мы про человечество, фильмы вы имеете в виду их, голливудские, и Илона Маска вы сейчас упоминали... Ольга Арсланова: Тоже не земляк, скажем прямо. Петр Кузнецов: Да. Для нас именно, для России технологический процесс – это угроза вот сейчас? Александр Кононов: Ну что касается нашей страны... Петр Кузнецов: Беспилотники у нас пока не ездят. Александр Кононов: ...то, бесспорно, это одно из важнейших направлений. Ну и, вообще говоря, мы должны вот как русская, российская цивилизация понимать свои цивилизационные роли. Мы выполняем важнейшие цивилизационные роли в этом мире, мы обеспечиваем освоение огромной территории, ее богатств, снабжение цивилизации ресурсами важнейшими для ее развития, это важнейшая роль. Естественно, поскольку мы богаты ресурсами, для нас стоит всегда проблема безопасности. Кто богатый, он знает, что надо защищать, и поэтому развитие вооружений, систем вооружений – это важнейшая задача, здесь мы не можем отставать. И поскольку они начинают зависеть во многом от искусственного интеллекта, да, конечно, здесь тоже должны прилагаться большие усилия. То есть есть сферы, в которых нам не нужно особенно страдать из-за того, что мы там не первые, мы не можем охватить все, тем более что у нас населения не так много. Это в Китае население в десять раз больше, они могут решать в десять раз больше задач, всем подряд заниматься и везде как бы... А вот у нас не хватит сил на все, мы должны выделить наши главные направления, которые обеспечивают нашу роль в цивилизации и безопасность нашей цивилизации, вот эти направления закрывать. И, конечно, искусственный интеллект – это одно из тех направлений, на котором должны быть сконцентрированы усилия, для того чтобы обеспечить нашу безопасность в дальнейшем развитии. Петр Кузнецов: Мне кажется, Роман, сейчас, вот если говорить про здесь и сейчас для среднестатистического россиянина, угроза... Ольга Арсланова: У которого... Петр Кузнецов: ...мне кажется, это кибермошенничество, вот первое, что приходит и единственное на ум. Ольга Арсланова: Максимум. Петр Кузнецов: Вот прямо здесь и сейчас. Ольга Арсланова: …пенсия, карточки. Петр Кузнецов: Каждый день с этим сталкиваются и пенсионеры, и студенты, и... Роман Душкин: Ну так-то да, так-то да, конечно. Здесь, конечно, каждому стоит пожелать углублять свое понимание того, что такое цифровые технологии, что такое информационно-коммуникационные технологии, чтобы не стать жертвами мошенничества. Мы когда выходим на улицу... Петр Кузнецов: Причем сделать так, чтобы не отказаться от них, потому что это просто невозможно. Роман Душкин: Да, естественно. Нет, смотрите, это же органичная часть нашей жизни, ИКТ уже гармонично влились в нас, все, мы без них не можем. Естественно, этим будут пользоваться нечистые на руку мошенники, которые захотят у людей, которые не до конца понимают, с чем они столкнулись, выманивать средства. Естественно, каждый должен себя защищать. Да, государство, общество тоже должны в этом помогать, но, когда мы идем по улице, от карманников мы тоже сами защищаемся как-то. Если это произойдет, мы идем в полицию, да, но базовые принципы защиты мы должны сами применять. Петр Кузнецов: Ага. Роман Душкин: Поэтому и здесь каждый должен учиться, мое такое глубокое понимание и пожелание. Петр Кузнецов: Да, вот еще как раз об угрозах. Давайте вспомним катастрофу... Ольга Арсланова: Я все про автопилоты, ну потому что это реально работает. Петр Кузнецов: Один из наших эфиров, да. Ольга Арсланова: В мае прошлого года при посадке в «Шереметьеве» загорелся «Sukhoi Superjet», погибли более 40 человек. По одной из версий, причина трагедии – ошибка экипажа. И вот тогда как раз активно обсуждалось, может ли помочь автопилот, который вроде как реже должен ошибаться. И мнения экспертов разделились, давайте послушаем. Магомед Толбоев: Когда... началась война между конструкторами, летчики-испытатели, мы наотрез встали против конструкторов генеральных, Лозинского и других. Мы сказали: «Введите контур ручного управления (КРУ), без него мы не полетим в космос». Что такое контур ручного управления? Это прямое вмешательство в самолет, то есть обводное через, минуя компьютер, я могу с кораблем разговаривать один руками, мышечной памятью и головой. Вот это они сделали несмотря ни на что, сделали, и вот так же можно и здесь, на самолете. Александр Денисов: Вопрос: может быть, не стоит так на компьютеры-то полагаться, так уж идти вперед с этой техникой? Давайте поменьше электроники будем туда совать. Антон Корень: К сожалению, научно-технический прогресс не остановить, но я предлагаю задуматься еще над одной темой. Весь мир сейчас производит испытания беспилотных авиационных систем, которые предполагают полное отсутствие пилотов. Александр Денисов: Ну да, эти машины беспилотные, которые людей давят на улицах, прекрасные системы. Антон Корень: Да, причем беспилотных авиационных систем, беспилотных самолетов, и весь мир работает над этим. Мы знаем, что над Дубаем летает, месяц назад в Вене испытывали, в Сингапуре будет в конце этого года летать над городом беспилотный вертолет, а также еще в Токио на Олимпиаде, то есть на самом деле уже десятки испытаний. Это наше будущее? Александр Денисов: Вы серьезно нам предлагаете на таких самолетах летать? Антон Корень: Я не предлагаю, я говорю, куда движется научно-технический прогресс. Ольга Арсланова: А вот нам, кстати, в эфир, когда мы неоднократно обсуждали вот эти новые технологии в самолетах, звонили пилоты и говорили, что джойстик, который стоит сейчас на новых самолетах, очень неудобный, но прогресс не остановить, вот их ставили и будут ставить, и человек должен приспосабливаться. А как же безопасность? Роман Душкин: Я не могу сказать за самолеты, потому что я не участвую в разработке, это очень тонкая материя. Ольга Арсланова: Но должны же спрашивать тех, кто летает, нет, «аналоговых людей». Роман Душкин: Давайте за автопилоты на машинах поговорим, например. Вот вы говорите, что давят людей, вот сейчас было в эфире. Ольга Арсланова: Да, наш коллега, да. Роман Душкин: Давит людей. Кто давит людей? Живые водители на машинах давят людей, вот они давят 30 тысяч человек в год в России. Вы меня извините, роботы задавили одного в США за все это время. Ольга Арсланова: А ездит их сколько? А ездит их два. Роман Душкин: Вот смотрите, представим себе гипотетическую ситуацию, когда мы заменили всех водителей на автопилота и машины ездят сами по себе. Они ездят с небольшой скоростью, они не нарушают правила, они не нарушают скоростной режим, они не выезжают на красный свет, они не перестраиваются, в «шашечки» на дороге не играют, друг друга не подрезают. Они друг друга не «лечат», они просто спокойно едут, движение абсолютно спокойное. Они общаются друг с другом во время езды, кто куда повернет, кто как едет, кто куда, как притормозит. Ольга Арсланова: Там эмоции отсутствуют напрочь, что важно для движения. Роман Душкин: Абсолютно. И движение, в общем-то, будет безостановочно, человек сел и из точки А в точку Б проехал, не останавливаясь в принципе, возможно, даже с постоянной скоростью. Вот он будет ехать 40 километров в час безопасно, комфортно, заниматься своими делами, он просто использует машину. Да, возникает... В этом режиме дорожное движение будет абсолютно безопасно, никто не будет страдать. Пострадают только водители, которых не станет на дорогах, это единственная проблема, социальная проблема, которую придется решить как-то. Но до этого, вот этой идеальной ситуации, которую я описал, нам еще предстоит пережить переходный период, когда на дорогах общего пользования будут и автопилоты, и водители. Вот сегодня уже замечают, что водители, когда видят машину, маркированную автопилотом, они начинают ее «тестировать». Ну зачем это делать? Там едет робот. Ольга Арсланова: Они боятся, что заменят все-таки рано или поздно. Роман Душкин: Возможно. Но вот я сам ездил недавно по дороге, ехала машина «Яндекса» с автопилотом – нормально едет, никому не мешает, но сидит там водитель, он не... Петр Кузнецов: А как же отсутствие нестандартного решения, которое, как говорят, например, если в аварийной ситуации как раз в пользу человека, который находится за рулем, потому что он не по схеме какой-то определенной? Знаете вот этот известный случай, что толпа людей или женщина с коляской. Роман Душкин: Ну это машина морального выбора, проблема вагонетки и так далее. Петр Кузнецов: Да, совершенно верно. Роман Душкин: Не будет этого на дорогах. Ольга Арсланова: Если там будут одни автопилоты. Роман Душкин: Да. Петр Кузнецов: Это если они полностью, все участники движения будут такими. Ольга Арсланова: Александр Анатольевич, а это вообще реалистичный сценарий, автопилоты в большом количестве на дорогах? Или этого просто не допустят живые водители, не знаю, правительства, которые побоятся социальной напряженности? Александр Кононов: Ну, вы знаете, сейчас к Илону Маску, кстати, обратились законодатели Соединенных Штатов и сказали: вот вы используете термин «автопилот», он вводит в заблуждение. То, что он сейчас поставляет в своей Tesla, он действительно позволяет вести автоматически, но он не освобождает водителя от ответственности и от возможности вмешаться ручного. То есть это автопилот, по крайней мере пока, то, что сейчас имеется в Tesla, он не абсолютный, то есть он предполагает, что водитель по-прежнему контролирует, все контролирует, что происходит на дороге, в любой момент может вмешаться. Что касается, вообще говоря, развития любых технологий, любые технологии несут новые риски, новые риски и новые угрозы, это всегда было и всегда будет. Не будет технологий, которые будут идеальны, с которыми ничего не может случиться. И поэтому всегда нужно предусматривать сразу комплекс мер. Вот, допустим, то, что мы имеем с искусственным интеллектом, о чем мы начали с вами, вообще с кибертехнологиями, с информационными технологиями, ведь целая индустрия появилась кибербезопасности, огромнейшая, с триллионными оборотами индустрия, которая обеспечивает решение проблем безопасности в этой области. Точно так же во всех других областях будут появляться специальные области, которые будут заниматься проблемами безопасности, и проблемы безопасности будут всегда нарастать по мере появления новых технологий. Это нужно понимать и быть готовыми финансировать вот эти отрасли. Петр Кузнецов: Объясните, пожалуйста, вот опять про Маска. Помните, Маск кабриолет запустил в космос, был у него какой-то там эксперимент... Александр Кононов: Да-да-да. Ольга Арсланова: Ну красиво. Петр Кузнецов: И тогда писали, это к вопросу о таких стандартных шутках, что вот Маск запускает кабриолет в космос, а мы по-прежнему в тазиках моемся. Вот каким образом технологический прогресс проходит как-то параллельно, не касаясь самое главное на самом деле, низов? То есть там где-то все совершенствуется, причем в буквальном смысле над человечеством, а вот бедные люди как сидели с сараями, с туалетами на улицах, так и... Ольга Арсланова: А это вот, кстати, да, реальная схема киберпанка, когда где-то уже XXII век, а где-то XIX, причем они параллельно существуют. Петр Кузнецов: То есть получается, что прогресс есть где-то, а где-то... Да. Александр Кононов: Да нет, это и в Америке то же самое. Вы посмотрите американскую глубинку... Петр Кузнецов: Ну это вообще для человечества, не только для нас. Александр Кононов: Это свойственно для цивилизации, к сожалению, и она, к сожалению, не развивается так, чтобы всех сразу поднять. Да, мы все приближаемся, стремимся приблизиться к этому идеальному обществу, картинку которого, вообще говоря, мы уже имеем, мы даже имеем несколько образцов, за рубежом это называется welfare state, у нас это переводится как государство всеобщего благоденствия, и уже есть примеры, в которых сочетается все лучшее от коммунизма, социализма и капитализма. Коммунизм для социально слабых слоев населения, которые нуждаются в поддержке, и мы видим пример, допустим, Джоан Роулинг, она на этом уровне была, на коммунистическом, когда она жила на соцпособие, она одна с ребенком... Петр Кузнецов: Автор «Гарри Поттера». Александр Кононов: А потом она написала роман и стала самой богатой в мире писательницей, понимаете? Но она жила на коммунистическом уровне, там коммунистический принцип практически работает. Другое дело, когда мы говорим о коммунизме традиционном, мы говорили о том, что там от каждого по способностям и каждому по потребностям, но не говорилось, какие потребности, потребности могут быть безграничны, а здесь просто говорится про потребности, которые общество может себе позволить удовлетворять, как правило, это привычные важные базовые потребности. И, как правило, вот сейчас общество стремится к тому, чтобы каждый член общества был ими обеспечен, вот этот коммунистический принцип обязательно выполнялся в идеальных обществах. А потом социалистические – это основные государственные программы, и капиталистические – это максимальная меритократия, здесь уже насколько ты проявил свой интеллект, настолько ты и продвинулся. И поэтому люди, естественно, по-разному складываются обстоятельства, как у той же Джоан Роулинг, она попала в тяжелые обстоятельства, но смогла подняться. Кому-то не так повезло, но тем не менее люди живут, они живут своей обычной жизнью. И вот чрезвычайно важно вообще, о чем сейчас стоит говорить, – это сохранение цивилизационного единства, когда, на каком бы уровне, в частности, вот в этой проблеме... Вообще проблема цивилизационного единства – это большая проблема, но вот когда мы говорим о расслоении социальном, то все равно каждый должен понимать на своем месте, что он частичка цивилизации, и гордиться тем, что она достигла, и пусть он даже не пользуется всеми этими, пусть он живет, поддерживая самый традиционный уровень какой-то, который был в Средние века, это очень важно тоже поддерживать, традиционные ремесла, традиционный образ жизни, они выполняют важнейшие функции, они поддерживают наши корни, этих людей тоже надо ценить, их надо поддерживать и так далее. И то, что у них там нет какой-то особой цивилизации, но зато они поддерживают наши основы, то, из чего мы выросли, мы можем на них посмотреть и это увидеть, понимаете? Вот это чрезвычайно важно. Петр Кузнецов: Роман, очень коротко: может быть, просто технологический прогресс и процесс – это не для бедных, вот и все, поэтому всегда будут еще долгое время много стран в Африке, где вообще даже не знают, что такое сотовый телефон? Роман Душкин: Я думаю, в странах Африки как раз прекрасно знают, что такое сотовый телефон. Петр Кузнецов: Я условно просто говорю. Ольга Арсланова: Там, кстати, стационарных не было, там сразу появились мобильные. Роман Душкин: Да-да-да. Петр Кузнецов: Всегда будут те, кто запускают кабриолет в космос, и всегда, к сожалению, будут те, кто моются в тазиках. Роман Душкин: Кстати, знаете, зачем он запустил кабриолет в космос? Петр Кузнецов: Ну... Роман Душкин: Там вся библиотека Земли расположена внутри него, он сохранил знания цивилизации на всякий случай. Петр Кузнецов: Когда-нибудь ее найдут, да? Ольга Арсланова: А цифровые технологии расслоение увеличивают, или это вообще... ? Роман Душкин: Знаете, это как... Такую аналогию можно провести: если взять два шарика тяжелых и соединить их лентой, которая растягивается, пружиной, и вот верхний шарик поднимать, и пружина будет растягиваться, но она все равно будет тащить нижний шарик. И вот чем выше мы поднимаем верхний шарик, тем больше растягивается пружина, но нижний шарик все равно тащится вверх. Петр Кузнецов: Ага. Роман Душкин: И получается, что научно-технический прогресс тянет всю цивилизацию вверх, но не так равномерно, как хотелось бы, возможно. Петр Кузнецов: Но тянет. Роман Душкин: Конечно, тянет. Ну е-мое, даже в Африке уровень жизни поднимается. Ольга Арсланова: Давайте послушаем... Петр Кузнецов: ...телезрителей. Ольга Арсланова: ...которые живут в России. Петр Кузнецов: Во-первых, спасибо, что дождались. Давайте начнем с Нижегородской области. Ольга Арсланова: Ирина, здравствуйте. Петр Кузнецов: Ирина, здравствуйте. Зритель: Здравствуйте. Я хотела бы тоже высказать свое мнение по поводу технического прогресса. Мы живем в маленьком городке в Нижегородской области. У нас частные домовладения и приусадебные хозяйства. Целевое назначение земли или ИЖС, индивидуальное жилищное строительство, или ЛПХ, личные подсобные хозяйства, то есть предназначено только для земледелия, садоводства, для скотоводства. А вот оператор МТС установил у нас вышку прямо около домов прямо посреди грядок, сдал в аренду один из владельцев. Мы боремся уже около 2 лет. Районный суд прошли, прошли апелляционный суд, вот теперь подали кассацию. И вот при том, что точно, что земельное законодательство нарушено, целевое назначение земли не позволяет ставить такие объекты связи на ЛПХ, именно на ЛПХ поставлены, а суд решает не в нашу пользу. И вот возникает вопрос. У нас пропадает всякое доверие к правосудию. И потом мы не против технического прогресса, мы пользуемся телефонами, различными приборами, но это же не должно происходить за счет здоровья людей, в особенности за счет здоровья детей. Вот сейчас у нас рождаемость очень низкая, а ведь детей-то травим постоянно, везде, вот. Ольга Арсланова: Спасибо. Петр Кузнецов: Суд, судя по всему, тоже за технологический прорыв. Зритель: Мы не можем никак добиться правды. Ольга Арсланова: Смотрите, вот это частный случай, но тем не менее таких историй, наверное, будет все больше и больше становиться. Заводы строили, первая волна индустриализации, многие тоже были недовольны, не понимали, как с этим существовать, вредно это, не вредно и так далее. И чем больше будет прогресс, тем больше будет недовольных. Роман Душкин: Да нет, не так, немножко в другой плоскости. Этот звонок опять... Конечно, женщина позвонила... Ольга Арсланова: Но люди боятся, может быть, это не вредно, но... Роман Душкин: ...о каких-то своих проблемах... Петр Кузнецов: Это вот как раз нижний шарик... Роман Душкин: Нет-нет, тут вообще другой аспект, на мой взгляд. Петр Кузнецов: ...не принимает это до последнего? Роман Душкин: Возможно, да. Но вот звонок сейчас выявил такой интересный аспект. Есть всегда противодействие личным интересам и общественным интересам, и как, в каком государстве баланс между личным и общественным выстроится, как правовая основа жизни в этом государстве будет устроена, так все члены общества и должны принять. В данном конкретном случае я ничего посоветовать не могу, возможно, там кусок, квадратный метр, на котором стоит эта вышка, был переоформлен в свое время, и суд ничего уже сделать не может. Ну... Здоровья и сил жителям, для того чтобы побороть это. Петр Кузнецов: Связь хорошая... Ольга Арсланова: Зато. Роман Душкин: Зато связь хорошая. Ольга Арсланова: Послушаем Александра из Санкт-Петербурга. Здравствуйте. Петр Кузнецов: Александр, добрый день. Ольга Арсланова: Говорите, пожалуйста. Зритель: Добрый день, добрый день. Спасибо за тему. Петр Кузнецов: Спасибо вам. Зритель: Я думаю, что мы делаем большую ошибку, рассматривая человека как существо социальное. Первично человек есть существо физиологическое. И если все, о чем вы говорите, будет направлено на развитие здоровья, воспитания, культуры, то есть чисто человеческих качеств, от этого будет польза. Мы, к сожалению, все достижения технического прогресса и все, что вы говорите, направляем на систему уничтожения человека как физиологического существа. Ольга Арсланова: Например? Зритель: Об этом надо думать. И всадники апокалипсиса, которые он выдвинул, они специфичны, но необходимы, потому что человечество должно повернуться к тому, о чем я говорю. Петр Кузнецов: Александр, а можно пример от вас? Ольга Арсланова: Александр, а вот чем технологии вас как человека ущемляют или способствуют вашему какому-то... ? Петр Кузнецов: Да, на примере, пожалуйста. Ирина про вышку рассказала. Ольга Арсланова: Ну тут понятно, сотовая связь. Зритель: На примере пожалуйста. Я 25 лет был одним из руководителей космодрома «Байконур». Ольга Арсланова: Опа. Зритель: И все элементы, технологии, которые используют в космосе, мы частично использовали в так называемом народном хозяйстве, в медицине. И то, что вы сейчас йогурт кушаете, это наш космонавт Поляков с учеными разработали закваску, и все виды кисломолочных после этого в начале 1980-х гг. изделий, то, что миллионы и миллиарды людей кушают на планете, это достижение космических технологий... Ольга Арсланова: Видите, как хорошо. Зритель: ...в том числе космической медицины, а не товарищ Душкин, который придумывает нам какую-то там уже во второй передаче непонятную систему. Ольга Арсланова: Видите, как следят за этим. Роман Душкин: А он в прошлый раз звонил, мне кажется. Ольга Арсланова: А-а-а... Зритель: Я поэтому и говорю, что нужно достижения перекладывать на человека, а не на машину. Ольга Арсланова: Спасибо большое. Зритель: А мы достижения перекладываем на вторую ступень ракеты, условно говоря. Ольга Арсланова: Но, условно говоря, все, что придумывается сейчас, для человека. Зеленая генерация – для того, чтобы человек на этой планете подольше пожил; я не знаю, тяжелый физический труд, можно заменить человека роботом, человек будет больше отдыхать или делать что-то красивое, полезное, высококвалифицированное. Петр Кузнецов: Йогурты, например. Ольга Арсланова: Казалось бы, все делается для того, чтобы человеку стало лучше. Но мы понимаем, что, вероятно, есть какие-то издержки, как в любом процессе, и это нормально. Александр Кононов: Абсолютно правильно. То есть человек, конечно, должен быть в центре, любую технологию мы должны оценивать по воздействию на наш вид и на каждого конкретного индивида, насколько повышается жизнеспособность, жизнестойкость каждого человека... Петр Кузнецов: Должен быть, а на самом деле? Александр Кононов: Ну, на самом деле требуется внедрение критериальных основ, в которых это будет просто явно прописано, то есть явно прописывать критериальные основы – это очень важно. И вот, в частности, если бы такой школьный курс был, как цивилизационная безопасность, то там это был бы один из важнейших разделов. Честно скажу, мы в Институте системного анализа, в котором я почти 30 лет проработал, этой проблемой глубоко занимались, просто прорабатывали, наша лаборатория занималась этой проблематикой всей того, что необходимо доводить критериальные основы в каждой системе. И вот критериальные основы в человеческих системах, бесспорно, человек на первом месте, его способность не стать жертвой. Множество угроз существует для человека на самом деле. По теории катастрофических нестабильных сред 7 уровней катастрофических нестабильных сред существует для каждого человека, начиная с проблем со здоровьем и кончая социальной проблемой, природными катаклизмами и так далее, 7 уровней. И как обеспечить безопасность, повысить жизнеспособность, жизнестойкость человека в условиях вот этих 7 уровней катастрофических нестабильных сред? Конечно, только ускоренное технологическое развитие может решать эти проблемы, в том числе развитие искусственного интеллекта, которое позволит решать, справляться с этим огромным, бесконечным множеством угроз. Ольга Арсланова: Вот, давайте о людях. Петр Кузнецов: Да, о самом главном. Ольга Арсланова: Спросили просто корреспонденты наших жителей разных городов, как высокие технологии изменили их жизнь. Петр Кузнецов: Конкретно, да. Ольга Арсланова: Кстати, наверное, не так просто сразу собраться и ответить, все это настолько привычно уже... Петр Кузнецов: Но у нас получилось на 2 минуты. Ольга Арсланова: Давайте посмотрим. ОПРОС Ольга Арсланова: Вот, слушайте, можно больше сидеть дома, меньше двигаться, не общаться, вообще исключить некомфортные все факторы из своей жизни. А это к деградации не приведет человека? Насколько наше сознание вообще способно это все выдержать и остаться нормальным? Роман Душкин: Есть разные теории на эту тему. Я думаю, зависит от индивидуальных способностей и особенностей человека. Кому-то все блага дашь, а он превратится в такое животноподобное существо, а кто-то в то же самое превратится, когда в лесу будет жить, через год приедешь, а он как зверь живет. Тут по-разному бывает, то есть нельзя сказать, что среда и какие-то технологии людей превращают во что-то такое. Да, на самом деле одна тенденция, когда мы занимаемся так называемой аугментацией человека, то есть дополнением его различными технологическими фишками. Это тоже одна из частей научно-технического прогресса. Никто уже не считает в уме сложные примеры, у всех есть калькуляторы, это один из примеров аугментации. Просто другое дело, что мы скоро будем себе встраивать в организм вот эти все штуки биологические, биокибернетические, но я тоже не вижу в этом ничего плохого. Ну хорошие люди будут развиваться, а нехорошие... Да и пусть. Петр Кузнецов: Александр Анатольевич, не успеваем с вашим комментарием. Я зачитаю лишь, если позволите, Рязанская область, все-таки боится наш человек пока дальше двигаться: «Не надо менять лопату на экскаватор, себе дороже». То есть боится, что новые технологии – это новые деньги... Ольга Арсланова: Так что пока что рано думать об этом всаднике апокалипсиса. Петр Кузнецов: ...платить конечному потребителю придется. Спасибо. Александр Кононов: А вы посмотрите, как в Китае, за 2 недели строят поликлинику, как там экскаваторы, вот эту сейчас показывают площадку строительную, это невероятно – вот они, высокие технологии, за 2 недели больница. Петр Кузнецов: Упустим тот момент, что это временное все-таки, это больше такой шахтер, что это не настоящее как бы здание... Александр Кононов: Ну мы посмотрим, какой шатер будет. Петр Кузнецов: Спасибо вам огромное, что пришли. Ольга Арсланова: Спасибо. Роман Душкин: Спасибо. Александр Кононов: Спасибо.