Тамара Шорникова: Роскомнадзор протестирует систему Expert для проверки видео на ложь и дипфейки. Так называют видеоролики, в которых одно лицо подменяется другим так, что не отличишь. И в итоге известные актеры, к примеру, призывают к участию в липовых конкурсах. Вот с этим в том числе должна покончить новая разработка. Прототип прошел тестирование в преддверии выборов в Сенат США. Специалисты проанализировали опубликованные на YouTube интервью шести кандидатов на предмет противоречивости, агрессии, уверенности в себе. В итоге в половине видеороликов выявили скрытую агрессию, а одного из кандидатов поймали на вранье. Как это работает? И неужели все врут так много, что без такого умного детектора лжи уже не обойтись? Будем рассуждать вместе с вами и с экспертами. Дмитрий Винник, профессор Департамента гуманитарных наук Финансового университета при Правительстве России, аналитик Института исследований Интернета. Здравствуйте, Дмитрий Владимирович. Дмитрий Винник: Здравствуйте. Ну, маленькая поправка: я уже не аналитик Института исследований интернета, а я состою в Совете по методологии искусственного интеллекта при Президиуме Российской академии наук. Тамара Шорникова: Отлично! Дмитрий Винник: В этом смысле я компетентен рассуждать на эту тематику. Тамара Шорникова: Да, значит, про искусственный интеллект знаете все и нам сейчас, понятно, расскажете. Была как раз информация, когда устанавливали, в том числе в столице, умные камеры, говорили о том, что с их помощью будут выявлять террористов, умный интеллект сможет считывать эмоции тех или иных людей, как раз выявлять скрытую агрессию и выявлять какие-то очаги возможной потенциальной угрозы, передавать это на пульт в соответствующие органы. Вот здесь идут дальше, как кажется из того, что я прочитала, и прямо скажут, врет человек или нет. Как это работает? Сегодня искусственный интеллект уже может это распознавать? Дмитрий Винник: Да, конечно же, может. То есть как это работает? В данном случае, конечно же, речь идет о нейросетевой технологии машинного обучения, то есть не о привычных нам компьютерах, которые стоят у нас на столах, а именно о нейросетях, которые самообучаются, потому что они имеют обратную связь с внешней средой, то есть их можно научить. Но если, допустим, речь идет о лжи, то перед подобным нейрокомпьютером садят человека, он что-то говорит, и компьютер выдает результат – лжет этот человек или нет. Так вот, обучить эту систему давать правильные результаты, то есть детектировать ложь, можно, но только если мы, конечно же, в конце концов, скажем ей после каждого сеанса, верный ли вывод сделала система или ошиблась. Тамара Шорникова: Условно: «Ты угадал» или «Угадала». Не знаю, как отнестись к системе. Дмитрий Винник: Ну да, угадал или не угадал, совершенно верно. Тамара Шорникова: То есть изначально мы загружаем в эту систему, условно, какие-нибудь учебники по физиогномике, ну например, в качестве одного из инструментов? Дмитрий Винник: Вы знаете, по-разному, по-разному. Есть так называемая система самообучения с учителем – это когда мы загружаем туда данные по физиогномике. Есть системы без учителя, когда она сама с нуля тренируется. И в некоторых случаях даже это работает гораздо более эффективно. Вот это действительно так. Но не только физиогномика. Вот как работает обычная детекция лжи? Это же детектируются различного рода физиологические параметры: понимаете, там и электропроводимость кожи, и то, как реагируют ваши мышцы. Ну извините за подробность, но на серьезных детекторах лжи люди садятся на металлическую пластину, потому что, когда у него дыхание сбивается или внутри у него какие-то мышцы реагируют, то он на этой пластине сидит, и пластина это детектирует. Тамара Шорникова: Я знаю, я проходила как раз в качестве эксперимента журналистского, да. Там все подсоединяется. В общем, вроде и соврать-то нечего, а все равно начинаешь потеть немножко, волнуешься. Дмитрий Винник: Да. Ну, там много параметров. То есть эта пластина глотание на самом деле детектирует. Там и дыхание, и тому подобные вещи. А если речь идет об удаленных детекторах лжи… Тамара Шорникова: Это понятно. Но здесь же видео, здесь нельзя пощупать человека. Дмитрий Винник: Конечно. В данном случае, как вы правильно сказали, кроме физиогномики, у нас ничего не остается. То есть только то, что видно на камере. Но есть еще такой способ детекции, когда люди набирают какой-то текст на клавиатуре… Ну, допустим, его просят пройти анкету. И вот по характеру набора текста – это тоже дополнительный фактор, который можно оценивать, лжет человек или нет. И компьютер, нейросеть тоже может, так сказать, самообучаться на этой информации, конечно же. Тамара Шорникова: Вы важную такую пометку сделали, что каждый раз, когда система обучается, человек должен говорить – система угадала в данном случае или нет. То есть человек изначально должен принимать решение, врет ли его коллега по роду человеческому или нет. Дмитрий Винник: Понимаете, это может быть субъективная внешняя связь. Понимаете, систему можно будет настроить так, что она будет иметь доступ, я не знаю, к базе данных, где написано – правда или ложь. Она сама обращается. Ну, тоже в конечном счете человек. Человек же создает базу данных. Вот в этой новости, которую мы обсуждаем, ну, в некоторых информационных агентствах, там смешаны две вещи. То есть я об этой технологии, которую будет тестировать Роскомнадзор. Хотя я не думаю, честно говоря, что Роскомнадзор обладает какими-то особыми компетенциями по тестированию. Я думаю, что если создатели уверены, что она работает, то она работает. (Простите, ко мне гости пожаловали в виде кошки.) С одной стороны, вы понимаете, они собираются тестировать речи политиков на основании каких-то действий, но в данном случае мы не можем сказать, лжет он или нет, достоверно, если мы не обладаем доступом к тем фактам, о которых говорит политик. Тамара Шорникова: Вот! Дмитрий Винник: То есть физиогномика и так далее – человек скорее лжет, чем не лжет. Тамара Шорникова: То есть там уголок глаза, уголок рта приподнялся, бровь приопустилась – вот это все, да? Дмитрий Винник: Да, да, да. Тем более, на самом деле, понимаете, мы же не задаем вопросы. То есть в обычном сеансе детекции лжи человек находится в особых условиях. Это очень важно на самом деле. Он запуган. Ему задают вопросы. А здесь просто какая-то речь. Ну, есть люди, которые могут сказать: «Я этому человеку не доверяю». И опытные люди порой не ошибаются. Вот здесь примерно так же. Мы обучаем компьютер, чтобы он сказал: «Ну, наверное, этим можно доверять, а этим нельзя доверять». Ну а скрытая агрессия, вы понимаете, – это, по-моему, не столь существенно. В конце концов, политика – это вообще агрессивное занятие. Пусть будет и скрытая агрессия. А относительно технологии различать дипфейки – речь здесь идет, конечно же, об изображениях, которые созданы на компьютере, нарисованы. И я уверен, что здесь, конечно же, хорошо обученная нейросеть с крайне большой точностью способна выявлять подобного рода вещи, потому что есть там технические нюансы, которые могут либо очень натренированные специалисты увидеть, либо очень натренированный компьютер. Ну, в любом случае увидят. Тамара Шорникова: Просто вы здесь как специалист видите больше перспектив где? Действительно сейчас какая-то такая финальная история с ложью вокруг, что без таких детекторов лжи общество современное не может обойтись, нужно всех проверять? Либо действительно здесь будет какой-то прикладный результат в качестве нахождения отличий между ложным и настоящим видео, между фейками и правдивой информацией? Потому что сейчас эти критерии жутко размыты. Дмитрий Винник: Скорее второе. Ну, вы понимаете, дело в том, что если подходить формально, то можно запутаться. А человек, который много сидит в Интернете, обычно безошибочно говорит на первый взгляд, какое видео есть фейк, а какое – не фейк. Причем даже часто видео может быть сделанным идеально… Ну, я с таким сталкивался. Ты смотришь – видео сделано идеально, претензий никаких к качеству нет. Но ты понимаешь, что это фейк, по содержанию самого видео. Ну, ты понимаешь, что так быть не может, это какое-то совершенно фантасмагорическое, сумасбродное событие и так далее. Также на самом деле и мой компьютер тоже таким образом может самообучиться. Так что практический смысл в этих разработках есть и, разумеется, в выявлении подобного рода контента. Ну а то, что там тестируют выступления президента США на выявление каких-то подобного рода вещей – по-моему, это не то, ради чего эта система создавалась. Может быть, я ошибаюсь, но, насколько я владею темой, у меня такой вывод. Тамара Шорникова: Хорошо. Пока у нас нет возможности тоже протестировать эту систему, понять, насколько она результативна, как специалист можете поделиться своими способами, как отличить фейковое видео от настоящего, как понять, что здесь, скорее всего, какой-то смонтированный ролик? Потому что действительно огромное количество сейчас контента и видеороликов сыплется в разных Telegram-каналах, в различных соцсетях, они обновляются. И кажется, что вот очевидец снял и так далее. Как отличить? Дмитрий Винник: Вы понимаете, я могу сейчас назвать различного рода формальные критерии (да, их тоже можно где-то прочитать), но они не всегда работают. С чего я хочу начать? Если вы много этого смотрите, то вы в конечном счете научитесь отличать. Но для этого нужно проверять – фейк это или не фейк. Это самое важное. То есть посмотрели какой-то ролик, он вам показался шокирующим, странным, забавным, короче, очень сильно привлек ваше внимание, и вам хочется поделиться им с большим количеством людей. Постарайтесь просто проверить, найти первоисточник. В конце концов, просто-напросто поискать в Интернете название этого контента и написать: «Фейк это или не фейк?» – вопрос задать. Это самый простой способ для того, чтобы натренировать себя по выявлению фейков. А вот четкий список критериев… Написано: «ШОК! СЕНСАЦИЯ!» Ну да, это уже как бы сомнительно. Ну, это, так сказать, более сложный и более формальный путь. Поэтому просто проверяйте. Интернет вам в помощь, сейчас это легко сделать. Тамара Шорникова: Коротко еще, возвращаясь к тому, с чего начали: система, которая поможет изобличать ложь на видео. Насколько авторитетным будет такое мнение? То есть кто ему будет доверять? Вряд ли, наверное, это станет каким-то важным аргументом в том же суде, например, или при каких-то важных политических скандалах. Дмитрий Винник: Да, вы хороший вопрос задали. Вы понимаете, если допустить, что эта технология будет крайне успешной, допустим… В чем я, конечно, сомневаюсь. Ну, просто система смотрит видеоизображение людей, которых она не знает, и делает вывод: доверять этому человеку или не доверять. Ну, наверное, работу такой системы следует ограничить в публичном пространстве, иначе у нас, я не знаю, вымрет вся политика, вымрет журналистика, огромное количество родов публичной деятельности. В общем, да, это один из путей к цифровому тоталитаризму, к цифровому фашизму и подобным вещам. То есть для специальных целей – я не знаю, для оценки кадрового потенциала специальных служб, где люди согласны, что они будут под микроскопом, и будут под микроскопом всю жизнь, – наверное, это годится. А для того, чтобы… Ну, я не знаю, для отбора политиков? Политик, вы знаете, все-таки отражает интересы некоторой группы общества. И поэтому насколько при этом он внутренне человек искренний – это дело вторичное. Важно, что за ним люди идут, они ему доверяют, и он выражает их интересы. Это их личные отношения – политика и тех людей, интересы которых он выражает. Вот пусть они друг с другом и разбираются, а не система будет посредником, решать за них и навязывать какую-то точку зрения. Тамара Шорникова: И коротко. Насколько это дорогая система для ввода в массовое обращение? Ну, условно, появятся такие приложения в популярных магазинах, чтобы, например, жена, видя видеозвонок мужа из командировки, могла понять – он все-таки на симпозиуме задержался или, скорее всего, нет. Дмитрий Винник: Ну, я не думаю, что она, конечно, дешевая – просто потому, что она должна анализировать видеоизображения, потоковое видео. Но это не какие-то запредельные суммы. То есть после того, как уже однажды это было сделано, даже на большой выборке она была обучена, в результате мы имеем некую так называемую синоптическую матрицу. Это не алгоритм, а это такая таблица на самом деле. И эту таблицу можно скопировать и на другие системы посадить. Это основная капитализация. Поэтому, да, вы правы на самом деле, если к этому отнестись так социально безответственно, то мы легко можем получить рост подобного рода сервисов. Я бы не хотел жить в таком мире, честно говоря. Тамара Шорникова: Вы часто обманываете кого-то? Дмитрий Винник: Нет, я вообще никого не обманываю. Как? Я же профессор. Я должен нести только истину. Тамара Шорникова: Хорошо. Спасибо. Дмитрий Винник, профессор Департамента гуманитарных наук Финансового университета при Правительстве России. Подключаем к разговору еще одного эксперта – Игорь Николайчук, эксперт в области международной безопасности Центра специальных медиаметрических исследований. Здравствуйте, Игорь Александрович. Игорь Александрович, слышите нас? Не слышим вас пока. Видео есть, звука нет. Попробуем сейчас с помощью наших специалистов настроить так, чтобы все было в комплексе. Пока – SMS. То, что вы нам пишете. Здорово, что откликнулись на эту тему и высказываете свое мнение. Итак: «Политика без вранья просто вымрет, действительно», – поддерживает такое мнение телезритель из Воронежской области. «Хотелось бы такое приложение себе на телефон, но страшно – наверное, друзей поубавится», – пессимистичный взгляд на жизнь. Что вы думаете? Как вам кажется, нужен ли детектор лжи, чтобы понимать, врут или нет политики, артисты и так далее? Где такую систему нужно было бы применять? И нужно ли это делать? Пробуем еще раз, проверяем связь с экспертом. Итак, Игорь Александрович, слышите нас? Игорь Николайчук: Да-да-да. Алло. Вы меня слышите? Тамара Шорникова: Да, отлично слышим вам. Игорь Николайчук: Отлично? Господи, слава богу! Тамара Шорникова: Да, слышим и видим. Игорь Николайчук: Вы знаете, скажу я это, в общем, достаточно однозначно: никому такие системы не нужны. Более того, это некая такая рефлексия, скажем, политиков на то, что их могут представить в каком-то таком нехорошем виде. Началось все это во время предвыборной кампании Трампа и Байдена, недавней, когда госпожу Пелоси, небезызвестную вам, в общем-то, представили с помощью дипфейка, очень несложно растянув ее, так скажем, чуть-чуть, по секундочкам во времени, пьяной. Понимаете, пьяная. Пелоси выступает пьяная. А она была глава антитрампистского, в общем-то, направления в Конгрессе. Вот тут они и возбухли, как говорят у нас в Одессе. В общем-то, стали говорить, что пора ввести какие-то страшные наказания за это дело. А тут еще сделали просто дипфейк совершенно искусственный с Обамой, который сказал какую-то речь, которая, так скажем, вообще шла в разрез со всеми его жизненными и политическими установками. Вот и началась борьба за то, что за это дело надо наказывать и так далее. Так вот, дорогие товарищи, однозначно сказали юристы и прочие, что невозможно от этого дела избавиться. Кстати, YouTube или, по-моему, Facebook, не помню уже точно, отказался удалять, отказался удалять… Тамара Шорникова: От «этого» – от какого? От вранья или от проверок? Игорь Николайчук: …сказав, что это нарушение демократии. Вот и все. Значит, на сегодняшний день создание дипфейков, где в качестве фигур, совершенно не участвующих в реальных событиях, которые там показываются, деятели шоу-бизнеса, на втором месте модельный бизнес. В общем-то, где-то третье – спортсмены. И политики где-то в самом-самом конце. Поэтому, откровенно говоря, вот этих «цифровых баронов», которые сейчас являются самыми богатыми людьми мира, мы как бы с вами видим, что они всегда будут против того, чтобы были какие-то действия против таких нарушений морали. Тамара Шорникова: Игорь Александрович, но сейчас, как мне кажется, есть большая потребность в такой системе, потому что действительно огромное количество ложных видео, сфальсифицированных, подстроенных, подмонтированных появляется. И действительно трудно разобрать не специалисту, где здесь правда, где специально сконструированная реальность. Возможно, такая система помогла бы? Игорь Николайчук: Ну как вы себе это представляете реально? Это все-таки, еще раз говорю, гигантский бизнес, который давно уже оружейный и нефтяной переплюнул, вот это изготовление дипфейков и вообще контента такого нереального. Ну что? Вот был специальный мониторинг на Западе: в июле 2020 года 50 тысяч дипфейков, которые можно было бы, так скажем, выставить в суд. Никто там, естественно, этим делом не занимается. Роскомнадзор наш сообщил, по-моему, где-то в марте этого года, что обращения граждан по нарушению их прав по части достоверности информации – 140 или 150 даже, две тысячи в месяц. Из них это, конечно, искажение деятельности российских войск во время проведения специальной военной операции, но гораздо больше – это нарушение прав конфиденциальности со стороны IT-технологов, вот это все. Так сказать, их данные «сливают» и прочее. И что, вы будете по каждому этому эпизоду гонять ролики и рассматривать, вовремя ли улыбнулся тот или иной фигурант дела или нет? Тамара Шорникова: Игорь Александрович… Игорь Николайчук: Более того, давайте уже говорить откровенно, никого эти фейки, по большому счету, кроме пропагандистов и тех, кто ведет информационную войну, не волнуют, потому что даже если вы создадите какой-то жуткий фейк на уровне Бучи (но Буча – это была дезинформационная и психологическая, информационно-психологическая операция, направленная как раз на дискредитацию России), то будет страшно обидно понимать, что в нашем обществе, как у нас уже устроено, никто не хочет бороться с фейками, очень маленький процент. Было специальное, в общем-то, исследование Института психологии Академии наук Российской Федерации, где было показано, что те, кто хочет тратить время, средства и еще какие-то другие свои ресурсы личные на борьбу с этими фейками, даже в самых благих целях, гораздо меньше, чем тех, кого это, грубо говоря, не колышет. Вот кого колышет, те хотят избавиться от фейков, рекламы и прочего, которые мешают им жить в какой-то своей экосистеме личной. Вот это да. И последнее. А вы задумывались? Могучая передача (я не иронизирую) «ОТРажение», она реально формирует общественное мнение, она реально сдвигает куда-то ключевые свои, ядерные аудитории под то или другое положение, восприятие действительности, дает какие-то свои оценки, она пользуется совершенно большим авторитетом. Ну а кто, извините меня, читает эти фейки? Я уж не говорю о дипфейках, которые (давайте уж скажу это страшное слово) на 90% – это порнография, которая хорошо продается по цифровым экосистемам. Ну, про наши я не знаю, не смотрел, но на Западе это просто процветающий бизнес. Тамара Шорникова: Игорь Александрович, да, там популярна такая технология. Игорь Александрович, простите, перебью… Игорь Николайчук: Это читают только те, кто хочет это читать. Вот про то, какие мы плохие на Украине, читают те, кто так считал еще до того, как увидел какой-нибудь фейк. Это называется «эффект эхо-камеры». Обслуживают, в общем-то, только свою аудиторию, которую ничем уже не сдвинешь ни в ту, ни в другую сторону. Поэтому, мягко говоря, надо отдавать себе отчет, что вот эти ритуальные пляски (по-другому я их не назову) вокруг этого гигантского потока фейков, дезинформации, информационно-психологической операции, направленной на разложение, на дезинтеграцию нашего общества. Это совсем другое. А этот контент особого значения, понимаете, для общественной жизни нашей не имеет. Тамара Шорникова: Спасибо, Игорь Александрович, спасибо. Игорь Александрович Николайчук, эксперт в области международной безопасности Центра специальных медиаметрических исследований. Подключим к разговору еще одного эксперта – Игорь Романов, кандидат психологических наук, директор по коммуникациям РГСУ. Здравствуйте. Игорь Романов: Здравствуйте. Тамара Шорникова: Игорь Владимирович, ваше мнение? Есть популярный сериал, там врач-скептик, который утверждает в каждой практически: «Все врут». Вы согласны? Это в природе вещей, в природе человеческой – врать? Или сейчас ситуация достигла таких невиданных масштабов, что озаботились созданием специальных систем, нужно проверять, чтобы хоть ненамного меньше этой лжи стало? Как вам кажется? Игорь Романов: Ну, во-первых, это все зависит от точки зрения. Конечно, что бы мы ни говорили, всегда у нас есть некая субъективная оценка происходящего. И эта субъективная оценка кем-то может быть названа ложью, а кто-то говорит, что это просто его точка зрения. То есть если мы говорим про вранье как про сознательное действие, когда я считаю, что на самом деле А, но всем говорю, что Б, то это бывает, в общем, достаточно редко. А когда я не уверен, но, например, уверенно говорю, то это бывает часто. Когда я уверен, что нужно доказать что-то правильное и для этого немножко покривить душой – это бывает еще чаще, и не только в политической пропаганде, но и в обычной жизни. Поэтому на самом деле, когда говорят, что все врут, то это правда. Но когда говорят о том, что врут далеко не все – это тоже правда. Это просто альтернативная точка зрения на одно и то же. Тамара Шорникова: У нас разделились мнения телезрителей на SMS-портале. Кто-то считает, что обязательно нужно внедрять такие системы и нужно в принципе контролировать общество, чтобы его не занесло. Соответственно, если есть возможности цифровые, выявлять тех же террористов или понимать, что этот политик заврался, нужно их использовать. Есть, соответственно, другая, полярная точка зрения – что это тотальный контроль, и тогда в принципе невозможно создание таких институтов, как даже определенная власть и так далее, поскольку люди безо лжи не проберутся на этот политический олимп. Как вам кажется? Вы на какой стороне? Игорь Романов: Обсуждать, надо или не надо создавать такие системы, можно после того, как будет понятно, что эта система работает. Вот как профессионал я могу сказать, что работающая система, которая удаленно, по видеозаписи будет определять, врешь ты или нет, на сегодняшнем уровне развития систем невозможна, причем невозможна с абсолютной достоверностью. Потому что мы прекрасно понимаем, что когда даже человек проходит полиграф, если он сидит обмотанный проводами, с него считывают миллион разных показателей, тем не менее люди обходят полиграф, с одной стороны, а с другой стороны, полиграф иногда приписывает ложь там, где на самом деле человек говорит правду. И это при том, что у нас есть огромное количество объективной информации. А система, которая пытается по видеозаписи определить, врешь ты или не врешь, у нее очень скудный набор информации: изменение тембра голоса, изменение громкости, изменение мимических каких-то параметров, которые… Причем система не знает, насколько они для тебя вообще привычные или непривычные. То есть на самом деле страшно не тогда, когда мы просто сомневаемся, врешь ты или не врешь, а страшно, когда политики, неважно, ученые будут выступать, а система скажет: «Он врет». Причем у нас же две проблемы. Мы, во-первых, доверяем экспертам, потому что сами не понимаем, как это работает. Мы ни про что не понимаем, как это работает. Мы не знаем, как работает мобильный телефон, например. Может, там маленькие гномики переносят. Никто из нас в большинстве своем не заглядывал туда. Мы просто доверяем экспертам. Эксперты говорят: «Это достоверная система». А что значит «достоверная»? Ну, например, они могут считать, что достоверная, потому что 90% совпадений. А остальные 10% совпадений? Из двух ошибок, то есть ошибочного положительного результата и ошибочного отрицательного, ошибочный положительный гораздо страшнее, потому что про тебя сказали, что ты врешь, причем врешь в эфире. И никто разбираться не будет, на тебя повесили клеймо. А ты попадаешь в те самые 10% или в те самые 5%, или в тот самый 1%. И мы же очень давно обсуждаем вопрос: что делать, когда ты живешь в вероятностном мире? «Вот с максимальной вероятностью, наверное, может быть, он врет», – это все, что сейчас может сказать эта система. Но разве нам достаточно такого диагноза для того, чтобы повесить на человека ярлык? А вот потом уже, после того как у нас появятся системы (если они вдруг появятся, в чем я абсолютно сомневаюсь), которые будут со стопроцентной вероятностью определять, врет он или не врет в эфире, например, или на видеозаписи, – вот тогда возникнет вопрос: нужно или не нужно такие системы использовать, с точки зрения свободы личности, с точки зрения прав человека, с точки зрения того, нужно ли таким образом отлавливать, например, террористов или обманывающих свой народ депутатов? Ну, если, например, в отношении к выборным органам использовать такую систему при стопроцентной вероятности попадания, то это же такая государственная опасность. Тамара Шорникова: Спасибо, да, спасибо. Игорь Романов, кандидат психологических наук, директор по коммуникациям РГСУ. Обсуждали природу лжи и человеческие попытки докопаться до истины разными, в том числе технологичными, способами.