Анастасия Сорокина: «По приговору искусственного интеллекта»: в Нью-Йорке проводят эксперимент, написали программу-помощника для судьи, она способна подсказывать, какое решение принять. Пока ее используют на стадии избрания меры пресечения, до окончательного вердикта искусственный интеллект еще не допущен. Александр Денисов: Программу написали, проанализировав 1,5 миллиона уголовных дел, так сказать, научили искусственный разум справедливости на конкретных примерах, чтобы у него были готовые алгоритмы, которые можно и приложить к новым делам. Анастасия Сорокина: Сторонники такого цифрового правосудия выдвигают следующие аргументы: мол, судьи загружены, не всегда вникают в обстоятельства, а компьютер вникнет; а потом они субъективны, компьютер в этом смысле более беспристрастен. Александр Денисов: А вот так ли компьютер уж безупречен? Может быть, и человеческий фактор важнее в правосудии? И стоит ли нам брать подход на вооружение? Обо всем этом и поговорим. На связи у нас два эксперта, два собеседника. Это Владимир Пирожков, футуролог, директор инжинирингового центра «Кинетика», – Владимир, добрый вечер. Анастасия Сорокина: Здравствуйте. Александр Денисов: А также Максим Плетнев, партнер юридической фирмы «СМБ Консалт», – Максим, добрый вечер. Анастасия Сорокина: Добрый вечер. Максим Плетнев: Добрый вечер. Владимир Пирожков: Здравствуйте. Александр Денисов: Добрый вечер, здравствуйте. Интересный такой эксперимент. Вот смотрите, решили приложить к искусственному интеллекту, так скажем, человеческие душевные качества, чувства справедливости, то есть ждут от него справедливости, беспристрастности. Как вы считаете, настал ли тот момент, когда мы можем такие высокие стандарты предъявлять, грубо говоря, компьютеру? Владимир, давайте с вас начнем. Владимир Пирожков: Ну, начните с меня как с романтика, скажем так. Первое: я считаю, что искусственный интеллект прежде всего будет, скорее всего, оптимизатором, то есть он будет оптимизировать процессы, и это точно не о человеческих чувствах. Поэтому, на мой взгляд, это робот, и робот оптимизационный. Поэтому если, например, спросить такую организацию, как Сбербанк, которая искусственным интеллектом уже выдает кредиты, с помощью искусственного интеллекта, как он поступит, если обратится за кредитом мать-одиночка, разведенка, с четырьмя детьми, думаю, что шансов у нее получить кредит будет немного. Александр Денисов: Ну почему, если она много зарабатывает, Владимир, вполне себе у нее шансы резко и повысятся. Владимир Пирожков: Да, наверное, с четырьмя детьми, наверное, да, такие есть, я думаю, я уверен. Поэтому мне кажется, что тут важно понять, что как бы справедливость, наверное, будет, но очень-очень жесткая, из серии «nothing personal, just business». Поэтому это циничные машины достаточно; если включить туда какие-то элементы добра, запрограммировать на элементы добра или на элементы какой-то, я не знаю, человечности, это тоже, наверное, возможно. И есть очень важный момент, что такое хорошо и что такое плохо, в разных странах и в разных культурах это по-разному. Соответственно, если мы будем пользоваться, как мы обычно делаем, американскими компьютерами или, например, японскими компьютерами с их программным обеспечением, то, скорее всего, мы получим американское правосудие или японское. Я как бы такой немножко романтик в этом отношении и не верю в то, что компьютеры несут много добра. Они оптимизаторы, они будут делать все проще, дешевле, эффективнее и nothing personal, как американцы сказали. Анастасия Сорокина: Максим, а вы как считаете, все-таки искусственный интеллект будет самым справедливым судьей в будущем, или без человека принимать такие решения все-таки пока не стоит? Максим Плетнев: Ну, я думаю, что нам как раз вот такого оптимизатора в области права и не хватает, в том числе в судебной системе, у нас достаточно есть чего оптимизировать. Ну и вообще, в целом хочу сказать, что развитие искусственного интеллекта в нашей области, в области права, конечно, включает, безусловно, судебную систему, эта история крайне интересная и перспективная для нас в том числе с точки зрения оптимизации. Но если мы будем говорить о внедрении искусственного интеллекта в российской судебной системе, то я боюсь, что это еще очень длинная дорога и мы находимся только в ее самом начале. Поэтому внедрять искусственный интеллект в нашей отечественной судебной системе не то что рано, но еще даже говорить об этом не стоит, я думаю. Анастасия Сорокина: Мы говорим в теории, как это может быть. Максим Плетнев: В такие технологии вкладывают очень большие деньги и привлекают хороших специалистов... Александр Денисов: Максим, а можно я с вами поспорю? Вы говорите, что нам далеко до этого, а я считаю, что мы как раз вплотную к этому подошли. Кризис судебной системы налицо, не все доверяют суду, ты не уверен, особенно по гражданским делам. Наверняка вот каждый из нас сталкивался, когда нужно идти в суд, и что ты первое слышишь, когда приходишь к адвокату? Он тебе говорит, очень хороший совет дает: «Вы договоритесь с вашей стороной, с вашим ответчиком, и решите, потому что в суде абсолютно непредсказуемая ситуация, вот как угодно». И уже сейчас, вот я тоже общался с судьями, пытался понять исход одного дела, судья говорит: «Скорее всего, вот так и так, но мне нужно заглянуть в одну программу». Заглядывает, примерно то же самое, искала она алгоритм, вот как в Нью-Йорке, как решаются такие дела. Перезванивает спустя день, ровно противоположное, и она говорит: «Вообще единого варианта нет». То есть непредсказуемость – это первая претензия (по гражданским мы говорим, по уголовным другое дело). И второй момент. Вот смотрите, была бы такая программа, меня как истца это очень заинтересовало. Я бы забил свои исходные данные в эту программу, допустим она есть, и я бы понял, что мне светит, какие алгоритмы, идти мне в суд или нет. И вот тогда доверие к суду было бы невероятно великое, я бы понимал, с чем конкретно имею дело. Как считаете? Давайте Максим, потом Владимир на этот вопрос. Максим Плетнев: Да. Если мы будем с вами говорить о самой простой категории гражданских дел, то, наверное, да, это могло бы работать. Но если мы говорим о более сложных экономических спорах, то я думаю, что здесь недостаточно будет такого алгоритма на сегодняшний день, потому что вот та программа, в которую заглядывала судья, с которой или с которым вы общались, я думаю, что это просто справочная правовая система, в которой судья искал судебную практику по этой категории дел. Александр Денисов: Конечно-конечно, да-да-да. Владимир, как вы считаете, пора уже, пора? Владимир Пирожков: Мне кажется, было бы интересно, если бы такой искусственный интеллект был и его мнение можно было бы послушать. Но я считаю, что человеческие дела должен разбирать человек. Я верю все-таки немножко в человечность, хотя я крайне циничен и занимаюсь как раз созданием удивительных роботов. Но я знаете, почему улыбался? Я просто подумал, что наши основные институты все выпускают юристов и экономистов, это главная наша сила в России. Соответственно, экономика у нас достаточно «хорошая», и юриспруденция тоже достаточно «хорошая». Сейчас если добавить к этому еще искусственный интеллект, а Россия все очень быстро схватывает и быстро очень внедряет, особенно когда речь идет о партнерах и говорится, например, «А на Западе есть вот такая практика, например оплата парковок в Париже вот такая, поэтому вам, москвичи, на-те». То есть вот такую штуку очень быстро вводят, они крайне эффективны, эти парковки, и так же с роботами – их введут мгновенно, если это будет нужно тем, кто, скажем так, в капитанской рубке. Я думаю, что если капитану дать еще и боцмана хорошего... Вот боцман – это искусственный интеллект, а капитан все-таки должен быть человек, я думаю. Анастасия Сорокина: Но все равно эти программы – это же создание, скажем, технологий, то есть получается, что уже не юристы и не экономисты у нас будут, а те же самые хакеры будут вообще людьми №1, которые там что-нибудь внедрились, какую-нибудь свою программку подписали, скорее, судебное решение вынесено в пользу того-то и того-то. Здесь же все равно есть лазейки. Владимир Пирожков: Можно, да? Александр Денисов: Да. Владимир Пирожков: Я просто... Мы с вами уже разговаривали на предмет того, что будущий основной язык, который нужно учить молодому поколению, – это киберязык, это не китайский, не французский и не английский, но киберязык. Соответственно, хакеры, да, хакеры – это наше все. Соответственно, дальше следующий уровень образования и подготовки молодых ребят будет в основном цифровой. Соответственно, я думаю, что от этого не избавиться, скорее всего, этот искусственный интеллект, если он где-то появился в юриспруденции, он будет развиваться так или иначе, и в какой-то момент мы его, конечно, примем. Но я все-таки за человеческие решения. Особенно, знаете, хорошо об этом говорить, когда ты сидишь в теплой комнате в хорошем городе и если тебе не светит срок. Поэтому я думаю, что те люди, которые под следствием, для них очень важно, как принимаются решения, и, если это будет машина, даже самая справедливая, мне кажется, это будет очень непросто. Александр Денисов: Максим, а к вам вопрос и пообщаемся со зрителем. А может ли в принципе компьютер взвесить все «за» и «против», ну вообще все? Может быть, человеческий фактор ну какой-то, знаете... Ну вот настроение судьи, ну она общается с истцом, с ответчиком, ну хорошо, кто-то за уголовное дело на скамье. Может быть, вот этот человеческий фактор и оказывается решающим в правосудии все-таки, а не вот такая беспристрастность? И вообще возможна ли она, как думаете? Максим Плетнев: Ну, человеческий фактор в современном правосудии имеет достаточно большое значение, безусловно, потому что судьи такие же люди, как мы с вами, и они при принятии решений руководствуются такой же самой или аналогичной логикой, как и мы с вами, но только через призму того своего опыта, знаний в юриспруденции и прочее. Александр Денисов: То есть эмоциональное восприятие происходящего для судьи важно, важно? Максим Плетнев: Безусловно. Анастасия Сорокина: А если оценивать будет искусственный интеллект... У нас же сейчас можно оспорить решение суда, пойти дальше. Вот искусственный интеллект вынес вердикт, его-то уже кто будет оспаривать тогда? Максим Плетнев: Ну, я думаю, что будут созданы специальные инстанции, в которых можно будет оспорить решение, которое будет принято таким искусственным интеллектом. Но опять же пока нам здесь в российской судебной системе, мне кажется, об этом говорить рано. Хотя у нас и среди судей-людей беспристрастности тоже не хватает, поэтому здесь что к компьютеру будет масса вопросов, что и к людям сейчас масса вопросов у нас, поэтому... Александр Денисов: То есть те же роботы, только не программы загружаются, а купюры, знаете, как в терминал, и готово, да? Мы поняли, Максим. У нас на связи Валентина из Курска, поговорим с ней. Валентина, добрый вечер. Анастасия Сорокина: Здравствуйте. Зритель: Здравствуйте, алло? Анастасия Сорокина: Валентина, да, говорите, пожалуйста. Зритель: Я столкнулась с нашим правосудием так называемым напрямую. Я лично судилась с..., которые обманули людей с квартирами, понимаете? Никто из ребят по всей стране процесс не выиграл, я не знаю, я вот в данный момент за искусственный интеллект, мне кажется, вот этот бы рассудил по справедливости. Потому что в исковом заявлении пишешь одно, мы подавали за срок, вместо положенных 3 месяцев 3,5 года рассматривали все документы, которые порастеряли, перевернули на то, что неправильно собран пакет документов, и все, «отказать» несмотря на то, что у людей больше 20 лет выслуги, представляете? И люди остались ни с чем, ушли на пенсию, их превратили в нелюдей. Вот я с 24-го числа была в Замоскворецком суде... Александр Денисов: Валентина, а у вас представитель на процессе был или нет? Зритель: Представитель? Адвокат вы имеете в виду? Александр Денисов: Адвокат, да. Зритель: Я была сама. Первый раз мы судились, мы судимся с 2017 года, понимаете, с 2017 года, уже 2020-й. Я подала второй раз на пересуд, и мне вынесли 24-го числа определение, которое я в частном порядке могу только лишь обжаловать в течение 15 дней, а решения не дали, сказали: «Вы об одном и том же судитесь». В первый раз в 2017 году 31 октября было вынесено несправедливое решение, разве это суд? Я теперь вообще не верю правосудию нашему, не верю российскому правосудию, понимаете? Александр Денисов: Спасибо, Валентина, спасибо. Вот видите, я о чем и говорил, ключевая проблема, недоверие к системе правосудия как раз такие идеи и порождает, давайте искусственный интеллект. Владимир, звонок слышали, да? Владимир Пирожков: Это мне, да? Александр Денисов: Да, конечно-конечно. Владимир Пирожков: Да. Ну смотрите, неверие будет все равно, потому что люди считают себя правыми, для этого судья и есть. Но есть еще и суд присяжных, это абсолютно человеческая история, и есть еще адвокаты, которые умеют убедить прокурора, которые умеют убедить, искусство этих людей как раз и заключается в том, чтобы спасти человека, который, может быть, незаконно, скажем так, привлечен. Я даже не знаю этой терминологии, пытаюсь найти ее в голове где-то, но вот слава богу, что не знаю. Я всегда думаю, что если не дай бог я окажусь в такой ситуации, как бы я хотел видеть, чтобы кто меня судил? Мне кажется, если это будет робот, для меня будет это достаточно странное состояние, особенно если будет какой-то приговор. Соответственно, я не знаю, это, наверное, будут такие кибертюрьмы, что ли, люди по киберделам... Не хотелось бы, конечно. Я не знаю, все равно «цифра» победит. И еще очень важный момент, который просто я сам видел, когда был в налоговой здесь на районе: у них очень много бумаги, очень много бумаги. Соответственно, если перевести и оцифровать эту бумагу в какие-то файлы, которые могли бы быть, скажем так, обдуманы и как-то приведены в порядок, то, скорее всего, во-первых, все было бы быстрее, я думаю, наверное, справедливее. Александр Денисов: Да. Анастасия Сорокина: Еще один звонок, Лариса, Саратовская область. Лариса, здравствуйте. Александр Денисов: Лариса, здравствуйте. Зритель: Да, добрый вечер. Вот хотела бы высказать свое мнение по вопросу обсуждаемому. И значит, ну, к сожалению, пришлось в течение 20 последних лет иметь дело с судами нашей Саратовской области. И значит, что у нас происходит в судах? Попасть на грамотного, высокопрофессионального, знающего законы Российской Федерации судью – это большая удача. Плюс еще фактор, ну не знаю, звонки не звонки, но во всяком случае... Вот у меня было 5 дел однотипных, по 4 делам признали действия ПАО «Саратовэнерго» за незаконное отключение незаконными их действия, а пятое решение судья выносит и признает в такой же ситуации действий по отключению электроэнергии законным. И очень часто справедливость, закон – это не про наше правосудие, поэтому я считаю, что... Александр Денисов: Лариса, а вы адвокат? Я просто что-то упустил. Зритель: Нет, я не адвокат. Александр Денисов: Вы не адвокат. Зритель: Я просто довольно успешно представляю интересы свои и интересы своих близких, родственников и знакомых... Александр Денисов: В общем, народный юрист. Зритель: Ну... Можно и так сказать. Александр Денисов: Лариса, как считаете, искусственный интеллект пора ли вводить в судебную... ? Зритель: Да, и вот я считаю, что, учитывая то, что сейчас творится, даже вот эти кассационные суды общей юрисдикции ввели, на них была большая надежда, но, собственно говоря, повторение такое же случается, к несчастью. Значит, я считаю, что вот если бы был искусственный интеллект, это во всяком случае исключило бы вот этот самый пресловутый человеческий фактор. Возможно, действовали бы законы, работали бы тогда. А уж если, допустим, обжаловать, следующие инстанции, ну можно, может быть, да, уже тогда и человеческий фактор подключать сюда. Но уровень судейского корпуса, к сожалению, оставляет желать лучшего, хотя есть и высокопрофессиональные судьи, высокопорядочные, нравственные люди, которые несмотря ни на что выносят справедливые, законные решения, им низкий поклон. Александр Денисов: Спасибо, Лариса, спасибо. Анастасия Сорокина: Спасибо за звонок. Александр Денисов: У нас есть опрос на эту тему как раз в нескольких городах России, спрашивали корреспонденты наши, что бы вы не доверили искусственному интеллекту и при каких условиях. Посмотрим и вернемся к обсуждению. ОПРОС Александр Денисов: Да. Ну вот можно ли доверить правосудие искусственному интеллекту, продолжим эту тему обсуждать. У нас еще один собеседник подключился к разговору, это Сергей Марков, специалист по машинному обучению, как раз искусственному интеллекту. Сергей, добрый вечер. Сергей, Владимир, к вам обоим вопрос. Вот интересная история буквально вот произошла на днях, для Гардиан написал заметку, как раз искусственный интеллект. Зовут этого, как назвать, робота GPT-3. Что он про себя сочинил? – «Я не человек, я робот, мыслящий робот». Вот, правда, мы говорили, что судейство должно быть таким эмоциональным, и это важно для судьи, а он про себя говорит: «Я знаю, что мой мозг не является чувствующим», – то есть уже как бы первое препятствие у нас. И второе: как оценивают этого робота GPT программисты? Говорят, что он просто мастер состыковывать слова, грубо говоря болтун, он понимает логику, но не анализирует, что ему говорят. То есть таким уж серьезным интеллектом, позволяющим анализировать беседу с человеком, на это он не способен. Дошли ли мы в развитии искусственного интеллекта до того момента, чтобы доверить ему судьбу человека, в данном случае в суде, если даже возникают сомнения в роботе, что он может поддерживать, понимая, о чем с ним говорит человек, а тут суд и вердикт? Давайте с вас начнем, Сергей, так сказать, на новенького. Сергей Марков: Добрый вечер, друзья. Ну, на самом деле здесь есть много вопросов, скажем так, и, на мой взгляд, не стоит их мешать вместе. Во-первых, если мы говорим о такой модели, как GPT-3 от OpenAI, то что нужно хорошо понимать? Разумеется, эта модель не обладает никаким самосознанием, никаким там пониманием в человеческом смысле этого слова, но тем не менее эта модель способна, скажем так, на многое, то есть она способна написать осмысленный текст, она способна решать множество задач по обработке естественного языка. И в этом смысле, скажем так, те модели искусственного интеллекта, которые мы создаем на сегодняшний день, – это, конечно же, не прямой аналог человеческого интеллекта, но я бы так сказал, что можно сказать, что мы научились создавать системы, основные на таких сложных реплексах, которые при этом способны достаточно сложные данные обрабатывать. Но насчет того, доверять или не доверять определенные задачи такого рода системам, здесь у специалистов подход достаточно прагматичный. Скажем, вот мы задаем себе вопрос, можем ли мы доверять управление автомобилем системе искусственного интеллекта. Ну вот у нас есть статистика: если автомобилем управляет человек, то аварийность вот такая-то получается; у нас есть статистика по системе искусственного интеллекта, которая управляет таким же автомобилем. На чем основывается наше решение, применять такую систему или нет? – собственно, на сравнении этой аварийности. Многие решения сейчас в рамках правовой системы на самом деле применяются, скажем так, принимаются на основании достаточно четких алгоритмов и правил, которые просто нужно взять и применить к существующей информации... Александр Денисов: Ну здесь понятно, авария есть или аварии нет. А в судебной системе как там? Ну вот он осудил человека, а может, его и вправду надо осудить, так же тут и не поймешь. Сергей Марков: Вот смотрите, сейчас опять же тот эксперимент, который идет в Нью-Йорке, не предполагает передачу до последнего метра принятия решений системе, все равно последнее слово остается за человеком, то есть это экспериментальная история. И здесь в этом смысле речь идет, разумеется, о каких-то наиболее простых кейсах, где люди-юристы, которые работают в таких процессах, сами уже, скажем так, низведены до уровня роботов, то есть они автоматически применяют определенные нормы, закрепленные в законе. А закон в этом смысле – это ведь как раз стремление людей создать такую систему правил, которая будет максимально объективной, не будет зависеть от, значит, каких-то субъективных факторов. И здесь почему бы не ввести в дело такого помощника человека, который, в отличие от человека, возможно, будет более беспристрастным, он будет просто исполнять те алгоритмы, которые заложены в законе, и тем самым как раз избавит нас, например, от такой проблемы, как коррупция, давление на судей и так далее, и так далее. Александр Денисов: Да, вот видите, до чего мы договорились, что искусственный интеллект – это хорошо, но обязательно рядом должен быть честный человек, Владимир? Владимир Пирожков: Ну, я знаю, что, скорее всего, победит «цифра», если только мы не отключим вовремя электричество. Поэтому какое-то время мы можем об этом подискутировать, скорее всего, все равно многие дела, особенно маленькие дела, например ДТП какие-то небольшие или превышение скорости... Я был на парочке таких дел: приходишь, там человек абсолютно беспристрастным машиноголосом объявляет... Александр Денисов: …«Владимир, вы виновны»? Владимир Пирожков: …4 тысячи рублей. Согласен, я уплачу, лишь бы туда не ходить. Но вот, я думаю, какие-то элементарные дела, вот как коллега сказал, то есть я думаю, что как раз элементарные дела могут быть и роботизированы. А еще лучше, чтобы это было автоматически, сразу на месте, поэтому... Но сложные истории, когда есть целые переплетения человеческих судеб, есть дела с недвижимостью, дела, я не знаю, с теми же убийствами или еще чем-то таким непростым, тут, конечно, нужны человеческие качества и честные люди. Всегда проблема в честных людях на самом-то деле. Александр Денисов: Вот мы дожили, нечестно жили, вот и роботы теперь за нас-то и возьмутся. Одно нас, правда, смущает с Настей, мы говорили, как робота переспоришь? Если уж он решил, то решил, все, привет. Владимир Пирожков: Ну да, это nothing personal, это опять же, знаете, как говорится, роботы, нет у них сердца. Поэтому опять же «Ваш звонок очень важен для нас», правильно? Александр Денисов: Спасибо вам большое, спасибо. Анастасия Сорокина: Спасибо, спасибо. Это был Владимир Пирожков, футуролог, директор инжинирингового центра «Кинетика», и Сергей Марков, специалист по машинному обучению и искусственному интеллекту. Александр Денисов: Впереди у нас новости.