Константин Чуриков: Две новости сейчас будем обсуждать. Во-первых, сегодня российские компании подписали Хартию безопасности детей в интернете (о детях чуть позже). А буквально несколько дней назад нам удалось обнаружить контуры уже давно, несколько недель назад подписанного документа, который называется Кодекс этики искусственного интеллекта. Вот, что любопытно, вот эти вот общие принципы, вы видите, они вряд ли кому-то о чем-то скажут, потому что здесь, на мой взгляд, просто общие какие-то слова. У нас в студии Андрей Масалович, президент Консорциума «Инфорус», специалист по кибербезопасности. Андрей Игоревич, здравствуйте. Андрей Масалович: Здравствуйте. Константин Чуриков: У нас в стране проводятся крупные IT-конференции, как вот та, в которой недавно принимал участие Герман Греф и президент нашей страны. Президент, значит, говорит, что задача государства – защищать цифровые аватары россиян, вот этих наших двойников, которые появятся... Тамара Шорникова: ...в метавселенных. Константин Чуриков: Да, в метавселенных, совершенно верно, вот. И тут, значит, я понимаю, что есть такой вот Кодекс этики искусственного интеллекта, наверное, очень важный документ, он вообще будет касаться просто всех и нашей, можно сказать, дальнейшей жизни. Но мы нигде не можем найти этот документ. Почему? Андрей Масалович: Ну, это действительно странно. Ну, я нашел, но просто мне по работе надо искать в интернете. Но вы правы, он почему-то не выложен. Тут несколько есть нюансов. Во-первых, это кодекс скорее для разработчиков искусственного интеллекта, а не для самого интеллекта. То есть это кодекс, который должны держать в голове те, кто его разрабатывают, а не что он там потом будет делать или не делать. Значит, там 33 положения, 12 страниц, я там нашел для себя 8 мыслей, я пытался... Ну потому что, когда его обнародовали... Это было, кстати, давно уже, 26 октября был это самое совещание, на котором его подписывали. Когда его обнародовали, то я пытался понять, а что конкретно делать, потому что, надо сказать, этот документ не первый, первым, кто заговорил про этику искусственного интеллекта, ну после, конечно, Айзека Азимова, был Папа Римский, было это 2 года назад. Он взял своего зама, у них есть там департамент, по-моему, этики новых технологий и чего-то, и попросил, и тот встретился с руководством Microsoft, с руководством Google, те ему мамой поклялись, что они будут развивать искусственный интеллект только для благих целей. И появился документ, который назывался, в общем, не принципы, а как это, предложения для сообщества по этическому развитию интеллекта. И вот наши решили на это предложение откликнуться спустя 2 года. Значит, что там действительно важного, если откинуть все, что там пишут, общие слова действительно? Если откинуть общие слова, первое: виноват всегда человек, ну то есть отвечать будет человек за действия этого искусственного интеллекта, вот это вот один из таких серьезных принципов. Второе – это выше конкуренции, то есть уровень технологий такой, что конкуренцией надо пренебречь. Ну то есть если в интересах конкуренции какие-то технологии надо зажимать, их не надо зажимать, их надо развивать. Дальше: это выше границ... Константин Чуриков: То есть искусственный интеллект все расставит по полкам? Как раньше рынок, теперь искусственный интеллект? Андрей Масалович: Да-да, точнее те, кто его правильно разработают. Дальше: он выше границ. Дальше… Самое главное, с моей точки зрения, из-за чего весь сыр-бор сейчас происходит, – это мы боимся всего, чего не понимаем, а искусственный интеллект относится к числу таких позиций, которую быстро не объяснишь. Константин Чуриков: Хорошо, давайте мы сейчас о том, чего мы не понимаем, зрители тоже (вы, пожалуйста, подключайтесь, телефон на экране внизу написан, пожалуйста). Значит, я вот читаю. Первый принцип этого кодекса «закрепляет защиту интересов и прав людей, отдельного человека в качестве приоритета; компании должны придерживаться человеко-ориентированного и гуманистического подхода». Далее: «Бизнес должен учитывать ключевые ценности, такие как (внимание) сохранение и развитие когнитивных способностей человека, уважать автономию и свободу воли человека». Вот когда я услышал, что задача сохранить когнитивные способности человека, мне стало немножко страшно. То есть мы что, совсем как бы одуреем, отупеем окончательно? Андрей Масалович: Ну, давайте только для слушателей слово «когнитивный» заменим на слово «творческий», чтобы народ уже не испугался, что он уже не в теме. Константин Чуриков: Ага. Андрей Масалович: Нет, действительно, если сейчас процесс будет идти с той скоростью, как уже идет, и одна за другой профессии будут отходить нашим помощникам, то довольно скоро человечеству останется заниматься творчеством, то есть он должен будет сидеть и себя занимать, саморазвиваться. Соответственно, мы должны каким-то образом делать для этого... Тамара Шорникова: Мне кажется, это очень оптимистичный сценарий, честно говоря. Андрей Масалович: Ха-ха. Ну, при наличии TikTok да. Тамара Шорникова: Человек созидающий в будущем. Андрей Масалович: Да. Тем не менее хорошо, что об этом задумались, потому что действительно то, что сейчас происходит с платформами, ну социальными сетями и платформами, к этому не ведет, там скорее такое туповатое потребление. Константин Чуриков: Я просто подумал, что это что-то, что они будут делать что-то, что не должно нас, так сказать, как сказать, лишить мозга, понимаете. Андрей Масалович: Обижать? Константин Чуриков: Типа TikTok больше не будет изобретений. Тамара Шорникова: Ха-ха. Андрей Масалович: Ха-ха-ха! Константин Чуриков: Я об этом подумал. Нет? Андрей Масалович: Нет. На самом деле когда-то, в 1950-е гг., когда вводили определение искусственного интеллекта, его вводили как способность делать, выполнять творческие функции, свойственные человеку, то есть он должен нас подменять в задачах, которые требуют творчества, ну где нет прямого, простого, лобового алгоритма решения. То, что сейчас заговорили о том, чтобы человек не остался на обочине, может быть, рановато, но, наверное, правильно. Тамара Шорникова: Я вот хочу зацепиться все-таки за эту фразу. Бесконечно обсуждается, что роботы, искусственный интеллект, автоматизированные производства – это безусловное благо, это позволит нас освободить от рутинного труда и как раз освободить время для творчества, для созидания, мол, мы будем заниматься более умными и приятными вещами в итоге. Но мы уверены, что человек не закончится, если он перестанет заниматься вот таким обычным трудом в обычном понимании, будет как-то вот все сидеть, размышлять? Может быть, нам нужен тот самый труд? Константин Чуриков: Или, может быть, мы сначала скажем, чем конкретно будет заниматься человек, а потом будем его освобождать от какой-то другой... ? Андрей Масалович: Ну, за нас уже сказали. Вот смотрите, долгое время, ну капитализм на замкнутом рынке достаточно непригляден, там жесткая конкуренция, низкая маржа и, в общем, нечеловеческая эксплуатация, ему все время нужны растущие рынки. И казалось, что мы на этот рынок набрели, интернет, он развивался вот так вот и становился все больше, порождал новые рынки. И вдруг буквально пару лет назад обнаружили, что он уже дорос до 60% охвата населения, а теоретический предел 80%, ну потому что младенцы, старики, любители кнопочных телефонов, в общем, ха-ха, секты нелюбителей новых технологий примерно 20% займут. То есть довольно быстро рынок количественно заполнится. Но в этом рынке есть другой аспект очень для нас неприятный: можно побороться за охват по времени. Сейчас средний человек, ну если пустыни, села и города сложить, получится 1,5 часа в день на человека интернета, ну в городах сильно больше, в селах сильно меньше, но 1,5 часа, а их всего 24. Поэтому чем нам заняться – не волнуйтесь, всякие Facebook будут стараться, чтобы мы 24 часа сидели. Вот зачем придумали метавселенную... Константин Чуриков: Заметьте, в Facebook, отсутствие границ, вы сказали, в Facebook, ну условно говоря. Андрей Масалович: Ну да, да, в условном Facebook, то есть некие глобальные платформы... Константин Чуриков: То есть нами будут управлять некие соцсети, метавселенные, созданные там. Андрей Масалович: Ну, не то что управлять, а заполнять наш досуг. Поэтому на этот счет можете не беспокоиться, они постараются, конкуренция будет именно за время. Тамара Шорникова: Но если нашим временем будут распоряжаться в Facebook, то там нужно будет спасать когнитивные способности человека, мне кажется. Андрей Масалович: Ну да. Можно поспорить, от кого больше, от TikTok, от Facebook или от «Одноклассников», но, в общем, один фиг, вот. Нет, вот касательно этого документа, там есть несколько аспектов таких более сегодняшних, более практических, потому что философские задачи решать никогда не получалось. В начале прошлого века физик Борн сказал, что современная наука разрушает современную этику, ну то есть человек придумывает такие ужасы, что с этической точки зрения их не объяснишь. Еще до этого был такой Альфред Нобель, который вот Нобелевскую премию придумал. Он изобрел динамит, деньги на Нобелевскую премию идут с динамитных заводов. Почему он его изобрел? – он искренне до конца жизни объяснял, что он придумал оружие такой силы, что люди должны ужаснуться и больше не воевать, ха-ха, вот. Константин Чуриков: Как жестоко он ошибался, да. Андрей Масалович: Вот, поэтому то, что сейчас происходит, первым делом будут стараться всякие военные и разные силы прикрутить во вред, вот это вот страшнее, чем наша этика... Константин Чуриков: Я просто пройдусь по кодексу. Второй принцип «требует сознавать ответственность при создании и использовании искусственного интеллекта, придерживаться риск-ориентированного подхода, то есть соотнесения жесткости регулирования с потенциальным влиянием системы; принцип также предусматривает идентификацию искусственного интеллекта при общении с человеком». Вот это важно, я когда с банком общаюсь теперь, я не понимаю, это бот, это сотрудник, вообще кто это. Андрей Масалович: В принципе примерно 10 лет назад появилась концепция семантического вэба, что семантический вэб, то есть некая общая среда, будет наполнена объектами, которые при встрече будут представляться, «Я Вася, я робот», «А я Маша, я вообще база данных», «А я Петя, я человек», и предъявлять некий паспорт, ID этого самого объекта, и это правильно. Там, кстати, во втором пункте еще было понятие про масштабность, что те, кто серьезнее напридумывают, серьезнее и должны отвечать, ну у кого больше технологии. Константин Чуриков: Так, еще вот третий принцип «фиксирует распределение ответственности, она всегда должна оставаться за человеком». Андрей Масалович: Она всегда за человеком, да. Константин Чуриков: «Не должны перекладываться полномочия ответственного нравственного выбора», – вот как-то тоже не по себе становится. Что это такое? Андрей Масалович: В кого стрелять, действительно решение принимает человек, либо, если он выпустил алгоритм, то он отвечает за того, лежит ли это человек с винтовкой или отдыхает крестьянин с граблями. Тамара Шорникова: А вот все-таки это важно, мне кажется, потому что понятно, что искусственный интеллект будет брать на себя все больше функций и уже не просто там каких-то действительно рутинных, а функций, которые потребуют в определенный момент нравственного выбора или хотя бы какой-то критической оценки на конкретную ситуацию. У нас уже искусственный интеллект будет проверять на коррупцию определенные документы, вылавливать какой-то умысел злой, подозревать в чем-то человека. Те же беспилотные автомобили, тестирование которых начинается... Да, человек пропишет алгоритм, но жизнь многогранна, ситуации могут возникать разные, и выбор, который примет согласно алгоритму автомобиль, посадят в итоге человека, разработчика? Андрей Масалович: Кого конкретно привлечь к ответственности, там выберут, разработчика или оператора, скорее оператора, который настраивал, но отвечать обязательно должен человек. Хотя могу чуть-чуть успокоить: испытания беспилотных автомобилей идут уже больше 3 лет, ДТП с их участием уже, по-моему, подходят к сотне, ну по крайней мере исчисляются десятками, и в каждом ДТП, их очень детально, буквально один случай был, когда действительно погиб человек и именно из-за ошибки машины, там проезжал поперек здоровый грузовик с высоко поднятым голубым кузовом, и ей показалось, что это растяжка на небе, что под ней можно проехать. Константин Чуриков: Ну, его спишем, жертва науки, да? Андрей Масалович: Да. Вот во всех остальных случаях, проводили исследование, человек бы не вырулил. Константин Чуриков: Тогда сейчас Сергея из Тулы послушаем, уже давно на линии. Сергей, здравствуйте. Какой у вас вопрос? Зритель: Здравствуйте. Я хотел... У меня не вопрос, у меня просто небольшая поправочка. Константин Чуриков: Да, пожалуйста. Зритель: Здесь у вас написана заставка «искусственный интеллект». Интеллект не может быть искусственным, так как он создан нашим Создателем для нас. Мы не можем создать искусственный интеллект, это не будет интеллектом, это будет просто программа. Константин Чуриков: Сергей, спасибо. Я целиком на вашей стороне. Вот послушаем, что скажет Андрей Игоревич. Андрей Масалович: Это вопрос определения. Определение не может быть некорректным, определение может быть общепринятым не общепринятым, внутренне противоречивым или нет. Мы привыкли называть... Точно так же, как мы используем слова «нейронные сети», считая, что они похожи на нейроны мозга, а они там, извините, рядом не лежали, ха-ха. Это просто не более чем определение, для удобства. Константин Чуриков: Про нравственный выбор. Вот Тома приводила примеры, вы приводили примеры, стрелять не стрелять, вы говорите, многое будет завязано на вот этих военных, каких-то оборонительных технологиях. Но я подумал, вот нравственный выбор, хорошо, в интернете кто? – прежде всего наши дети. Вот этот искусственный интеллект, он будет им, он может им подсовывать какую-то не ту информацию. Андрей Масалович: Он уже подсовывает им не ту информацию. Уже причем... Константин Чуриков: Так зачем он нам тогда нужен такой? Андрей Масалович: Ну вот для этого и нужен кодекс этики, чтобы сделать его хорошим. Я, кстати, сейчас серьезную вещь скажу. Один знакомый психолог провел эксперимент, он начал в TikTok искать заведомо пограничный контент, такой депрессняк на грани суицидности, и сначала дней пять его пытались вразумить, то есть ему подсовывали программы, которые, значит, переводят на позитив. Потом его стали пристраивать к группам, которые этим интересуются. Где-то на 7-й или 8-й день его списали и ему начали подсовывать тех, кто «в этой жизни этот квест я уже проиграл, только в одиночку страшно, кто со мной?». То есть искусственный интеллект принял решение, что вот этого мы уже спишем, то есть с ним... Константин Чуриков: Ничего себе. Андрей Масалович: Поэтому сейчас действительно... Константин Чуриков: И что, и как тут кодекс поможет? Ну хорошо, кодекс подписали люди, а мы исходим из того, что есть искусственный интеллект. Андрей Масалович: Ну, кодекс для разработчиков. То есть надо найти тех, кто вот, показать им эти алгоритмы, выпороть и сказать: «Вот это место переделайте». Тамара Шорникова: Андрей Игоревич, а как вам кажется, кто в принципе должен такой кодекс разрабатывать? Крупные ли компании? Мы уверены, что они без выгоды для себя этот кодекс разрабатывают? Мы уверены, что все его будут придерживаться? Он, в общем-то, добровольный... Андрей Масалович: Ну, в «Коммерсанте» написано, 500 экспертов, 100 подписантов, то есть 100 крупных компаний выбрали 500 экспертов, которые внесли 333, по-моему, замечания. Тамара Шорникова: Объясню, вот приведу такой пример. Недавно была такая новость, что Instagram введет ограничения по просмотру видео для пользователей, то есть опять-таки добровольное ограничение, скорее напоминание, не ограничение. То есть вот человек сидит за смартфоном или за ноутбуком определенное количество часов, минут, ему программа будет говорить: «Знаете, кажется, вы многовато сидите в нашей соцсети...» Константин Чуриков: «Дружок, ты еще не опух?» Андрей Масалович: Ха-ха. Тамара Шорникова: Да, «вам бы лучше прекратить заниматься вот этим, пролистыванием соцсетей, займитесь чем-то полезным...» Константин Чуриков: «Вынеси мусор». Андрей Масалович: Ха-ха. Тамара Шорникова: Да, «чем-то полезным займитесь», но это такая рекомендация. При этом мы понимаем, что об этой ответственности якобы за пользователя говорит компания, у которой ее алгоритмы настроены так, чтобы ты просто, как сейчас говорят, не отлипал от экрана. Ну как бы то есть она реально делает одно, продвигает свои продукты, заставляет нас все больше времени проводить в компании своей программы, и при этом, чтобы быть классными, такими очень нравственными, заявляет о том, что, в общем, при этом они будут напоминать, что так вот вести себя не стоит. Так все-таки те компании, которые сейчас, пусть их пятьсот, тысяча, подписали все это, мы уверены, что они, в общем-то, не играют за себя и за казино? Константин Чуриков: Мы так верим в большую нравственность этих людей, да? Андрей Масалович: Нет, погодите, сами производители сигарет на них пишут, что сигареты вредны, тем не менее продолжают их продавать. Константин Чуриков: Их заставили написать это, да. Андрей Масалович: Я подозреваю, что здесь либо какая-то самоцензура, либо какая-то уже, может быть, такая опережающая самоцензура, то есть они опасаются, что сейчас до человечества дойдет, что это последний рубеж... Извините, плач Ярославны, когда начались эти задвиги ЛГБТ, и я тогда решил, что, наверное, это последний рынок, просто распродали все туфли на высоком каблуке, а вот 42–43-й размеры остались и надо, значит, теперь расширить, ха-ха... Константин Чуриков: Как в «Джентльменах удачи», да? Андрей Масалович: Расширить, да, кормовую базу и, значит... Я думал, что это последняя такая дурь, ну что еще придумать? Константин Чуриков: «Нам туфли: 45, 46», да? Андрей Масалович: Да, вот. Теперь придумали, что остался последний наш резерв – это наше свободное время, которое надо заполнять метавселенными. Соответственно, сейчас самое время поговорить о кодексе этики. Константин Чуриков: А то, что... Да-да-да, время, к сожалению, время выходит. То, что будет с нашими мозгами... Андрей Игоревич, и в этот раз мы не договорили, значит, придется в следующий. Спасибо. Андрей Масалович, президент Консорциума «Инфорус», специалист по кибербезопасности. SMS такие. Ставрополье: «Послушали и поняли: человеку кирдык». Значит: «ИИ лишен юмора и сочувствия, а потому тупой и нудный», «Ненавижу темы с цифровыми технологиями, у меня начинается депрессия». Тамара Шорникова: Костя, тебе простой совет, Москва: «Чтобы понять, с живой девушкой говоришь или с голосовым помощником, нужно спросить, что вы делаете сегодня вечером». Константин Чуриков: Хороший совет. Спасибо.