Искусственный интеллект, кто ты?
https://otr-online.ru/programmy/klub-glavnyh-redaktorov/iskusstvennyy-intellekt-kto-ty-69733.html
Павел Гусев: Здравствуйте. Я Павел Гусев, и это «Клуб главных редакторов».
Пришло время и нам в этой студии всерьез поговорить про искусственный интеллект, а то, не ровен час, он сам за нас решит, о чем нам разговаривать. Каждый 5-й россиянин уверен, что в будущем его профессию заменит искусственный интеллект. Илон Маск назвал его главной угрозой человечеству. Бьют тревогу всемирные организации, такие как ВОЗ и ООН. А в известном научном журнале не так давно вышла статья с описанием перспективы использования искусственного интеллекта для чтения мыслей. Давайте поговорим про фантастику и реальность.
У меня сегодня в студии, в гостях Максим Абаев, заместитель главного редактора журнала «Наука и жизнь»; Роман Душкин, генеральный директор компании-разработчика искусственного интеллекта; и Герман Клименко, председатель совета Фонда развития цифровой экономики. И чуть позже к нам присоединится выдающийся ученый в области психолингвистики и нейронауки Татьяна Черниговская.
Давайте начнем с простого вопроса: правильно ли вообще все понимают значение словосочетания «искусственный интеллект»? Что и кого мы подразумеваем под этим? Пожалуйста.
Роман Душкин: Давайте я начну.
Я обычно отвечаю на этот вопрос достаточно просто. Несмотря на то что уже 70 лет или даже больше ведутся споры о том, что это такое, термин определить, в общем-то, просто – это междисциплинарное научное направление. Вот если говорить очень простыми словами, то искусственный интеллект – это все-таки научное направление, которое направлено на изучение нашего собственного разума, нашего собственного интеллекта и того, как мы осуществляем познание.
И в процессе этого исследования, в процессе вот этих вот междисциплинарных изысканий ученые, инженеры нашли большое количество моделей, которые потом начали употребляться, использоваться на практике, для того чтобы решать когнитивные задачи.
Павел Гусев: Ну например, какая практика?
Роман Душкин: Искусственные нейросети, это системы поддержки принятия решений, это эволюционные алгоритмы, это многоагентные системы, которые инспирированы, например, муравьиными кучами. То есть вот муравьи, каждый из которых такая маленькая биологическая машинка кибернетическая, но вместе они создают то, что называется в науке роевой интеллект. И вот эти вот все наблюдения за тем, что дала нам природа, дают ученым, инженерам возможность воспроизводить и улучшать, усиливать то, что это...
Павел Гусев: Ну хорошо – а для чего? Что, человеческого разума мало? Если мы сами создаем вот этот интеллект искусственный, неужели мы сами говорим: «Ребята, мы стали дураками, мы создаем что-то искусственное»? Для чего это делать-то?
Роман Душкин: Ну, тут примерно такой же вопрос, для чего нам трактор, если у нас есть мускульная сила.
Павел Гусев: Да.
Роман Душкин: Для чего нам трактор? Для повышения эффективности ручного труда.
Павел Гусев: То есть вы хотите сказать, что искусственный интеллект все-таки заменит человеческое «я»?
Роман Душкин: Не заменит – он усилит нас, так же как усилил трактор.
Павел Гусев: Ну подождите, вот сегодня, например, тот же, это знаковая фигура сегодня, такой человек, как Илон Маск, и он говорит и говорил постоянно на этих днях, неделях, месяцах о том, что надо прекратить исследовать эту область, что это очень опасно, нужно заморозить все это. Разве это не так?
Роман Душкин: И буквально через 2 недели открывает компанию по разработке систем искусственного интеллекта и начинает вбухивать в нее огромные миллиарды денег, для того чтобы исследовать эту тему.
Павел Гусев: Значит, конкурентов устранял? Что вы думаете?
Герман Клименко: Ну, у меня версия несколько другая, я попроще попытаюсь объяснить.
Искусственный интеллект – это когда программист решает вашу задачу, любую вашу задачу, и вы его спрашиваете: «А как ты получил результат?», он говорит: «Честно, не очень знаю». Я поставил задачу перед нейронной сеточкой, она что-то на выходе дала, мы в нее аккумулировали весь опыт ваш, мой, Романа, всех-всех-всех, вот она на выходе дала результат. Если не нравится, поменяйте...
То есть в какой-то момент происходит... собственно говоря, возможно, из-за этого у нас нервная система, потому что в обычном режиме, алгоритмизация классическая, там же классика жанра, «если... то», если А, то Б. Тут немножечко разорвали, вот это вот «если... то», вот это «то» куда-то ушло. Мы взяли термины от нейролингвистов, нейронные сети, слова же узнаваемые, какие-то нейрончики, и все объясняем этими терминами. А на практике произошло разделение труда: одни программисты, вот типа Романа, делают нейронные сети, да, а другие на их основе получают какой-то результат.
И получается немножко как по Райкину, т. е. кто шил костюм? Нейронная сеть хорошая? – хорошая. К ней сверху приложеньице неплохое? – в целом неплохое, там для психиатрии. А почему результат такой получился? – а кто его знает? Вот примерно мы находимся сейчас где-то в этой части.
Ничего страшного, с одной стороны, я здесь не вижу, потому что что есть то есть. А последствие этого всего – это как раз то, что мы с вами здесь разговариваем, потому что люди не любят неизвестность, т. е. люди очень любят прогнозируемые истории. Если автомобиль, то с поставленным ограничителем 200 километров в час; если счеты заменяем на компьютер, вот есть компьютер, можно заменить десять бухгалтеров, все. А продукт, который неизвестно что делает, о нем все говорят, он производит у всех очень странное впечатление.
А самое страшное впечатление это производит, когда сами же мы говорим: «Да мы вообще не понимаем, что происходит». Вот это пугает людей, потому что мы внедряем это быстрее, чем даже сами в этом разбираемся.
Павел Гусев: Ну да... А вот как журналист журналиста я хочу вам задать вопрос и спросить. Сейчас уже почти внедрено и есть, это уже в практике, я сам это смотрел, у меня в редакции что-то это есть, о том, что искусственный интеллект начнет писать статьи, сообщения, значит, информационные новости и мы, журналисты, окажемся вот так среди читающей и наблюдающей публики, а уже не работающими в том или ином издании. Вас это не страшит, не пугает? Или вы считаете, что это вполне возможно?
Максим Абаев: Ну, на эту ситуацию можно посмотреть, наверное, с двух сторон. С одной стороны, это да, если машина заменит человека, который печатает какую-то новость, о чем-то говорит, конечно, это в перспективе может лишить его какой-то работы, по крайней мере той работы, к которой он привык: к написанию статей, взятию интервью, подготовке каких-то обзоров и т. д.
С другой стороны, можно посмотреть на это как на некоторую возможность переосмыслить, а насколько вообще, скажем так, ценен наш труд и тем ли мы занимаемся. То есть, например, очень много работы сейчас, она достаточно, скажем так, шаблонизирована...
Павел Гусев: То есть вы имеете в виду прежде всего такой скоротечный новостной контент, так я понимаю? Заметки, материалы?
Максим Абаев: Ну да. И в первую очередь, наверное, какие-то системы искусственного интеллекта, которые смогут заменить журналистов, они будут использоваться там, где это проще всего и где это, скажем так, выгоднее всего. То есть если можно заменить десять человек на одну машину, наверное, это сделают чисто из экономических соображений.
Вопрос, что останется людям и смогут ли они, скажем так, предоставить читателям, аудитории что-то, что будет для них ценно. Например, если машины будут писать заметки со скоростью, не знаю, миллион знаков в секунду, это может просто обесценить вот эту всю информацию. Ну да, у тебя будет огромный поток вот этих новостей, но человек уже просто не сможет его вообще воспринимать, и, во-вторых, ему может это быть не интересно, у него может быть потеря доверия вообще к этому. Ну то есть это написала машина, а кто знает, что она написала...
Павел Гусев: Ну понятно.
Максим Абаев: «Лучше я послушаю живого человека».
Павел Гусев: Скажите, вот сейчас людей очень волнует, очень волнует и интересует, не окажутся ли они вообще за бортом жизненной своей профессии, своей истории семьи, когда окажутся на улице, потому что им скажут: «Вы знаете, вашу работу будет теперь делать искусственный интеллект». Вот сейчас, на этой неделе активно об этом говорили, по трассе М11 уже...
Роман Душкин: Прямо вот на этой неделе.
Герман Клименко: Поехали, да.
Павел Гусев: Да, поехали машины без водителей. Прощай, водитель, вперед, огромные транспортные грузовики? Не знаю...
Роман Душкин: Ну, не «прощай, водитель» все-таки.
Павел Гусев: Не прощай? И что в этих ситуациях делать? Какие профессии сегодня окажутся за бортом?
Роман Душкин: Вы знаете, мне очень понравилась аллюзия, даже не аллюзия, сравнение, то, как вот поехали беспилотные грузовики по трассе М11 из Питера в Москву, и они проехали, это очень круто, сравнили с полетом в космос первого космонавта. И вот на новостных каналах был коллаж, фото Гагарина с фразой «Поехали!» и фото грузовиков с фразой «Поехали!». Но вообще, мы в России это сделали первыми, и, в общем-то, это повод для гордости.
А если возвращаться к тому, что вы сказали, да, опасения есть, и я могу привести очень конкретный, даже устрашающий пример. Я знаю компанию, компания-разработчик программного обеспечения. И вот буквально несколько недель назад, прямо вот на моих глазах, мне показывали, как это делается, они провели небольшую научно-исследовательскую, опытно-конструкторскую работу, разработали программное обеспечение небольшое. К нему надо написать техническую документацию, эксплуатационную документацию в количестве до десяти документов.
Что было сделано? Исходный код этой программы был загружен в модель GPT (ChatGPT это был, GPT 4 или какая-то GPT-подобная модель, совершенно не важно), а потом было сказано: «Сгенерируй такие-то документы: общее описание программы, описание функциональных характеристик, руководство системного программиста, руководство пользователя...» – и еще десяток документов. И все это было сделано в течение часа. И потом до конца рабочего дня сидел один человек и этот текст переоформил в тот формат, который уже можно распечатать, поставить печать, подпись...
Павел Гусев: Понятно. Вы что-то хотели добавить?
Герман Клименко: Я к журналистам вернусь. Вы должны знать это лучше всех, что журналисты времен 1980–1990-х гг. – это были зубры: умели писать, совершенство русского языка, диалоги... С появлением интернета «журналист» стал очень размытое понятие. Новости, под «Яндекс Новости» вы приходите устраиваться в любое СМИ, там вам везде говорят: вам нужно выдавать 70 новостей в день, т. н. рерайтинг. Вот то, что сейчас пришло, ничего страшного не произошло, на мой взгляд. Да, огромный пласт людей, которые считали себя журналистами, я не знаю, как их назвать, – да, они потеряют работу. Точно так же, как потеряли работу бильдредакторы, это, знаете, те, кто подбирал картинки... Но если мы их начинаем ценить...
Давайте вот так скажем. Я в свое время проходил прямо переход, замену бухгалтеров, которые на счетах считали, и были времена в 1987–1988-х гг., когда лучший бухгалтер умел лучше всех считать на счетах, это компетенция...
Павел Гусев: Я помню это время.
Герман Клименко: Да. А сейчас же лучший бухгалтер, который понимает, как разносить по счетам, да, а вот тогда это были счеты в чистом виде. Но самое интересное, что после замены счет на компьютер бухгалтеров стало больше.
Павел Гусев: Сначала были машинки еще вот такие счетные.
Герман Клименко: Да, но название осталось тем же самым. И вот то, что говорит Роман, конечно, с программированием очень много интересного, но давай честно скажем: у нас такой дефицит кадров, что ничего страшного вообще не происходит. Более того, мы с тобой знаем, что для того, чтобы довести... Ты, конечно, рассказал все действительно красиво...
Роман Душкин: ...и страшновато.
Герман Клименко: Я сам захожу удивленный, я иногда что-то пишу, но попросил, мне действительно выдали код... Еще раз, это библиотеки. То есть вообще мое описание происходящих событий, вот то, с чем мы столкнулись давно, библиотеки, т. е. мы программисты, вот Роман что-то написал, я воспользовался его библиотекой, я написал, он воспользовался моей библиотекой, сейчас это стало доступно журналистам, вам всем, всем, кто работает. У нас ничего не произошло, кроме дефицита кадров, фантастического дефицита кадров. Я уверен, то же самое произойдет с остальными работами. Да, отсекутся «паразиты», простите, давайте назовем вещи своими именами. Я имею в виду рерайтеров, которые, как это сказать-то...
Роман Душкин: ...переформулируют выражения...
Герман Клименко: ...которые заваливают «Яндекс Новости» одними и теми же новостями, и, когда мы с вами их читаем, пришлось придумать специальный термин «фейк»...
Павел Гусев: Да.
Герман Клименко: ...потому что ряд итераций приводит к совершенно «чудесным» историям.
Павел Гусев: Совершенно верно.
Герман Клименко: Но мы же с вами понимаем, что никто не выезжал на место, никакого новости здесь нет. Да, они уйдут в прошлое; да, будет писать ChatGPT. Я еду на конференцию, мне нужно выступить перед студентами университета, поздравить их с началом, у них открыли кафедру цифровую. Я прошу: «Накидай мне десять тезисов в саркастическом стиле». То есть взял десять тезисов, пошел выступать. Использовал я искусственный интеллект? Я сказал: «Хорошо, мне нравится». Как в программировании: взял библиотеку, выбрал из того, что есть, и начал рассказывать.
То есть я, честно, мы с Романом до эфира немножечко говорили, слово есть такое хорошее, «технооптимист». Я понимаю людей, которые попадут, действительно потеряют работу, это правда. Еще раз, очень важно: на одного журналиста приходится десять, назовем это, рерайтеров или каких-то копирайтеров, любые термины себе примените... Там же эти биржи, которые копирайтингом занимаются, у них чуть ли не миллиардные капитализации, потому что у всех есть запрос, каждому нужно на свои триста тысяч товаров сделать описания... Там же огромный пласт работы. Да, они останутся без работы. Честно говоря, это не так плохо – надо заниматься эффективным трудом.
Павел Гусев: Вы знаете, в последнее время очень много говорят, и это интересно тоже, мы об этом обязательно поговорим, что вот искусственный интеллект приходит к Вооруженные силы, т. е. ряд, так скажем, технических новинок, который появился в армии, уже действует без прямого участия человека, а искусственный интеллект осуществляет стрельбы, запуски и т. д. и т. п. Давайте мы об этом поговорим.
Но было бы странно и неправильно, если бы я не пригласил к разговору для обсуждения этой темы такого выдающегося ученого, специалиста в области психолингвистики и нейронауки, как профессор, доктор наук Татьяна Черниговская. По видеосвязи из Петербурга Татьяна Владимировна присоединяется к нам. Здравствуйте, Татьяна Владимировна, здравствуйте!
Татьяна Черниговская: Добрый день, добрый день.
Павел Гусев: Как вы считаете, искусственный интеллект, вот мы сейчас об этом уже начинали говорить, страшен нам, опасен он для сохранения рабочего места, для того, чтобы дети, внуки в будущем могли найти работу, а им скажут: «Извините, у нас искусственный интеллект, людей не принимаем»? Такое может быть?
Татьяна Черниговская: Такое, разумеется, может быть. Но я думаю, что опасность не в этом. Опасность заключается в том, что это смена цивилизации. И конечно, можно было бы сказать, что были луддиты, которые против станков, и как-то с этим справились; очень не нравилось, когда книгопечатание началось, тоже было ясно, что все переменится... Но то, что происходит сейчас, гораздо более серьезная вещь, потому что это слом вообще всего, всех правил, которые на Земле приняты тысячелетиями. Но для того, чтобы долго про это не говорить, я, собственно...
Я думала об этом и, более того, говорила с некоторыми из разработчиков вот этих нейросетей, которые сейчас такой ажиотаж в обществе вызвали, во всем мире. И вижу я, что главная опасность заключается в том, что эта ситуация может выйти из-под контроля – вот главная опасность, а не та, что без работы останется какое-то количество людей. Потому что ну хорошо, цивилизации меняются, ну вот кучера теперь нет, к примеру, прачки отсутствуют – мало ли, кто отсутствует... Дело не в этом, с этим как раз можно справиться, потому что эти люди, в конце концов, должны переучиться и найти себе другую работу, так что опасность не в этом.
А опасность в том, что вы вот сейчас и начали говорить насчет военных действий и т. д. Но это-то вообще предельно опасная вещь, та, о которой вы начали. Вы же понимаете, мы не можем терять контроль над системами, с которыми нам уже сейчас трудно конкурировать, потому что у них огромные мощности, они работают круглые сутки, им не надо отдыхать, у них не бывает нервных срывов, они не влюбляются, у них не болит голова, у них бесконечная память...
Павел Гусев: Ну да. Татьяна Владимировна, вот один из разработчиков говорит, что тем не менее это все не опасно, что это все решаемо, что человеческие эмоции, наверное, можно ведь тоже включить в искусственный интеллект...
Татьяна Черниговская: Так это все включено уже. Подождите, вот я не слышала, поскольку меня подключили позже, того, что говорит один из разработчиков. Но я с разными разработчиками разговаривала и много читала про это из того, что в мире сейчас происходит. Во-первых, ваш разработчик либо лукавит, либо не знает, и я сомневаюсь в том, что он не знает, значит, скорее он лукавит.
Потому что если бы вы сказали, что мы потерять контроль не можем, скажем, 2 года назад или даже год тому назад, это было бы правдой. Но это уже неправда сейчас. Эти ситуации... Во-первых, никто не сказал, что искусственный интеллект в его сильной форме, которого пока что нет, как мы знаем, но тем не менее он будет, никто не сказал, что он будет догонять человека. Он может пойти вообще по другому пути, использовать другие типы мышления, о которых мы ничего не знаем. И тогда мы перестанем понимать то, что происходит. Это реальная перспектива.
Павел Гусев: Вот давайте мы сейчас как раз обратимся. Роман, ну как?
Роман Душкин: Да. Татьяна Владимировна, не очень понятно, что значит «потеря контроля», но я могу сказать по крайней мере за нашу страну, за наше российское государство, что у нас работает технический комитет 164, который так и называется «Искусственный интеллект». Это технический комитет в рамках деятельности Росстандарта. И деятельность технического комитета 164 как раз направлена на обеспечение доверия к системам искусственного интеллекта, которые эксплуатируются в доверительных областях, которые связаны либо с жизнью и здоровьем людей, либо с серьезными рисками для инфраструктуры, экономики и т. д. То есть государство как регулятор таких важных отношений общественных не допустит выхода в эксплуатацию систем, которые не...
Татьяна Черниговская: Вы не понимаете, о чем мы говорим.
Роман Душкин: Можно я договорю, Татьяна Владимировна? Подождите.
Татьяна Черниговская: Да, можно.
Роман Душкин: Вот вы говорите, что потеря контроля какого-то, – этот термин не очень определен. Вот что значит «потеря контроля»? Я вам контртезис говорю: вот государство нацелено, прямо очень конкретно нацелено на то, чтобы обеспечивать доверие к системам искусственного интеллекта, которые используются в областях, где требуется доверие к результатам, жизнь и здоровье людей, т. е. здравоохранение, образование, беспилотный транспорт и т. д.
Вот беспилотный транспорт: на прошедшей неделе поехала группа грузовиков по трассе М11, беспилотников – они просто так не могли выехать, у них очень серьезные ограничения именно в области того, чтобы определить, каким образом они принимают решения, когда осуществляют свою беспилотную деятельность, функционирование. То есть там не все так просто, нельзя вот взять, систему искусственного интеллекта, «мозги» загрузить и он так...
Павел Гусев: Да-да.
Татьяна Черниговская: Можно я все-таки... ?
Павел Гусев: Мне кажется, что Татьяна Владимировна несколько другое имела в виду, когда говорила...
Татьяна Черниговская: Я, разумеется, имела в виду другое. Но я отвечу и на то, что было сказано сейчас. Вы, я думаю, догадываетесь, что я в курсе дел, иначе бы я не согласилась участвовать в таком разговоре. Я вхожу в бюро Совета по методологии и философии искусственного интеллекта и когнитивных наук при президиуме Академии наук. Это я говорю не к тому, чтобы показать, какая я крутая, а к тому, чтобы показать, что я в курсе дел. Более того, конференция, которая не так давно была, о доверии искусственному интеллекту, она так и называлась, я в ней просто участие принимала. Это я рассказываю вам к тому, чтобы вы не сомневались в том, что я знаю, как обстоят дела.
Разумеется, государство и всякие комитеты делают все что могут. Но мы говорим про другое. Мы говорим про то, что эта система ни в нашей стране, ни в Зимбабве, ни в Никарагуа и ни в Соединенных Штатах, а вообще на планете начала выходить на уровни, когда мы теряем контроль над тем, что происходит. Мы не очень понимаем, как она учится...
Павел Гусев: Вот это самое главное и страшное, то, что вы сейчас нам сказали.
Татьяна Черниговская: Так я именно к этому и клоню.
Роман Душкин: Какая система, система какая? Какая система?
Герман Клименко: Можно я разрулю?
Павел Гусев: Да-да, пожалуйста.
Герман Клименко: Я понимаю, о чем говорит Татьяна Владимировна, я понимаю, о чем говорит Роман. Они говорят о разных вещах, простите.
Татьяна Черниговская: Мы о разных вещах говорим, да.
Герман Клименко: Самое важное, что до искусственного интеллекта есть программист. В каждом коде есть ошибки, не существует безошибочных кодов. Любая система характеризуется не ошибками, ошибки есть вообще всегда, – она характеризуется временем на исправление ошибки. Так как мы сейчас действительно... я все-таки технооптимист, но тем не менее... передаем все больше и больше программированию, все программам, мы должны понимать, что стоимость ошибки на-рас-та-ет. О чем говорит Татьяна Владимировна? – что эта ошибка может быть критична.
Татьяна Черниговская: Да, именно, слово в слово.
Герман Клименко: Согласен. Если мы отдадим красную кнопку искусственному интеллекту, я сам, честно говоря, удивлюсь, я скажу: слушайте, я очень люблю себя, очень люблю своих программистов, но давайте разберемся... Причем с этой кнопкой что сложно? Она одна.
Вот чем хороши миллионы автомобилей? Там есть компьютер, можно же привести пример, там же тоже, кстати, искусственный интеллект работает, АБС, мы полностью доверяем компьютерам в автомобилях, без них уже даже не ездим. Но это прошло колоссальную апробацию, и мы понимаем стоимость ошибки. Ну извините, цинично: из миллиона автомобилей один разобьется – эта цена для человечества достаточная. Но мы внезапно пришли в историю, где ошибки точно будут, мы не знаем какие.
Но другой вопрос, что я хотел бы сказать, что вряд ли пока кто-то всерьез обсуждает, всерьез обсуждает передачу красной кнопки, давайте о ней говорить конкретно, не о чем-то лишнем, в руки искусственного интеллекта.
Татьяна Черниговская: Конечно.
Павел Гусев: Татьяна Владимировна, скажите, пожалуйста, а в какие области, вот как вы считаете, куда нельзя допускать искусственный интеллект? В какие, так скажем, сектора или в какую область человеческой жизни, знаний, науки, техники, здоровья, куда нельзя допускать его, это опасно?
Татьяна Черниговская: Вы знаете, я бы сказала вот как. Дело не в областях, а дело в степени проникновения этого искусственного интеллекта в эту область. Потому что, скажем, работа с большими данными, например в медицине, очень полезная вещь, потому что нет врача и никогда не будет врача, который может просмотреть миллион снимков, сделать вывод еще при этом, т. е. это невозможная вещь, и такого рода областей полно. Поэтому эту работу пусть, на здоровье эти программы и делают.
Но не их собачье дело принимать решения. Вот дальше должен выйти врач, или дальше должен выйти педагог...
Павел Гусев: То есть человек, должен быть человеческий разум?
Татьяна Черниговская: Человек, да, человеческий разум.
Есть еще одна опасность, о которой я хочу предупредить, а именно, поскольку эти системы становятся все более и более изощренными, действительно они очень хороши, то научились работать и с эмоциями. Поэтому в недалеком будущем... это уже и сейчас есть, но в качестве опытных потуг таких, так сказать... «компьютеры», это я условно говорю, скажем, антропоидные, антропоподобные роботы будут так себя вести, что просто они вот ночи не спят, волнуются о вашем состоянии, о том, хорошо ли вам живется, больно ли вам, страдаете ли вы. Это все прекрасно можно сделать, это вопрос просто технического умения, и в эту сторону науки, разные науки успешно идут.
Павел Гусев: Понятно.
Татьяна Черниговская: И распознавать эмоции он будет, понимаете? У нас создастся впечатление, что мы на самом деле имеем дело с контрагентом, который понимает, что происходит. А вот слово «понимает» самое опасное здесь.
Павел Гусев: Максим, вот скажи, наше журналистское, ну и писателей, осмысление происходящих процессов именно с позиции человеческой безопасности, то, что делают журналисты, делая материалы, раскрывая те или иные проблемы, которые существуют, – как нам в этой ситуации, сможем мы справиться с искусственным интеллектом? Или мы будем теперь смотреть издали, что будет происходить, так скажем, в статьях, после которых возбуждаются уголовные дела и т. д. и т. п.?
Максим Абаев: Мне кажется, тут можно посмотреть на это с некоторой такой эволюционной точки зрения, скажем так. Вот человек сформировался уже много десятков тысяч лет назад, скажем так, как мы себя сейчас представляем, видим, знаем. И наша способность вообще интеллекта, мозга, человечества, людей – это адаптироваться быстро к каким-то изменяющимся ситуациям. Сменился климат, прибежали саблезубые тигры, убежали тигры, голод наступил, засуха, еще что-нибудь – мы ко всему к этому привыкаем, находим какие-то инструменты, как с этим бороться, как это использовать, как с этим выживать.
И с искусственным интеллектом, скажем так, когда эти системы будут какие-то уже намного более интеллектуальные, чем они есть сейчас, мы, скорее всего, тоже будем как-то искать какие-то подходы, что с ними будем делать, как с ними общаться, ограничивать их, не ограничивать, может быть, их...
Павел Гусев: Татьяна Владимировна, а вот как ваша позиция, нужно ли специальное законодательство, нужно ли специальные принимать решения депутатам Государственной Думы, сенаторам, президенту по поводу искусственного интеллекта? Или пока это все в стадии разработки, буду рекламировать и говорить о невероятных способностях искусственного интеллекта? А как быть с законом, вмешательством в личную жизнь человека?
Татьяна Черниговская: Во-первых, я согласна с тем, что сейчас было сказано коллегой-журналистом. Действительно, вот что человеческий мозг умеет делать, собственно говоря, он для этого и создан, создан Создателем, извините за языковую игру, – это адаптироваться. Он все время учится, и он адаптируется к миру. Так что вы абсолютно правы, адаптироваться мы будем. Но он не может работать с такими скоростями, которые сейчас пошли. Изменения происходят с такой скоростью, что никакая физиологическая система не способна к такого рода быстрой адаптации.
Павел Гусев: То есть человек не способен будет?
Татьяна Черниговская: Вот посмотрим, что будет дальше. Давайте я отвечу постепенно, вот я прореагировала на это, теперь я отвечаю на ваш вопрос. Притом, что я считаю, что ситуация опасная и угрожающая, я тем не менее не думаю, что это уже время, для того чтобы законодатели включились. Потому что законодатели включаются тогда, когда им дают информацию, а информацию им большую дать мы сейчас не можем. Это не та стадия, когда уже можно им выложить это все, понимаете? Поэтому мы...
Я бы сказала так: это время для нас насторожиться, это время для нас задуматься о том, что на нас большая ответственность. Если мы пропустим этот момент, а вот специалисты по искусственному интеллекту многочисленные ведь говорят, они даже употребляют слово «сингулярность»... Они говорят, что если вот сильный искусственный интеллект обретет что-то вроде сознания, то хода назад не будет.
Роман Душкин: …
Татьяна Черниговская: Это говорят серьезные люди, я не понимаю, почему вы так веселитесь и смеетесь, вы, наверное, не в курсе дел просто, в отличие от меня. Я отвечаю за то, что я говорю.
Павел Гусев: Нет, мы знаем, Татьяна Владимировна, мы знаем, что вы крупнейший специалист...
Татьяна Черниговская: Нет, не в искусственном интеллекте.
Павел Гусев: Но вы говорите так, что человеческий мозг для вас уже не стал той тайной, которой для нас является. Что мы можем добавить? Пожалуйста.
Роман Душкин: Я бы отметил, что законодатели уже давно работают с новыми высокими технологиями, в т. ч. искусственным интеллектом, и количество как нормативно-правовых, так и нормативно-технических актов в нашей стране как минимум достаточно высокое, в т. ч. как для регулирования применения технологий, как я сказал уже, так и организации экспериментальных правовых режимов. Вот опять напомню про беспилотники на трассе М11 – они же проехали в рамках именно ЭПР, экспериментального правового режима. То есть законодатели работают.
Вопрос опять же не в том... Постоянно идет какое-то нагнетание, «какие-то системы искусственного интеллекта выйдут из-под контроля». У меня опять возникает вопрос – какие системы, какие? Вот Татьяна Владимировна сказала, Герман Сергеевич сказал...
Павел Гусев: Я могу сказать какие.
Роман Душкин: Какие?
Павел Гусев: Вот недавно было сообщение, что разработка американского коптера, или как там, летающей этой штучки...
Роман Душкин: Отличный пример.
Павел Гусев: Вот эта летающая штучка, когда ее запустили, что она первым делом сделала? – стала искать разработчика и стала целиться, пытаясь уничтожить его.
Татьяна Черниговская: Правильно, молодец.
Роман Душкин: Давайте я вот на вот этих пальцах объясню, почему для экспертов в области искусственного интеллекта эта новость была настолько смешна, что... Конечно, комментировали мы все... Для обывателя это страшно, для эксперта это смешно по той простой причине, что, во-первых, новость, которую озвучивает полковник Пентагона на весь мир, – это не тот уровень, чтобы говорить какую-то ерунду в эфир. То есть нужно в первую очередь задуматься: а зачем он это сказал? Чтобы весь мир начало «колбасить», прошу прощения, в конвульсиях? Журналисты забегали, вот эту новость туда-сюда начали носить. Никто как-то не задает вопрос – зачем он сказал, высокопоставленный чиновник Пентагона.
Татьяна Черниговская: Этот вопрос все задают.
Роман Душкин: Задают, Татьяна Владимировна, задают.
Татьяна Черниговская: Если бы, конечно задают.
Роман Душкин: А второе: обучение с подкреплением, которое было использовано в том боте, – это отдельный метод машинного обучения, который основан опять же на вот этой вот, то, что мы подсматриваем у природы. Когда дрессировщик в цирке лошадку гоняет по арене, она выполняет какие-то хорошие номера, он ей дает сахарок, подкрепляет ее положительно; если что-то она артачится, он ее кнутом там...
Татьяна Черниговская: Вы отстали на сто лет.
Роман Душкин: Можно... Конечно отстал! Я вот этими вот руками десятки систем искусственного интеллекта внедрил в промышленную эксплуатацию, «отстал на сто лет».
Татьяна Черниговская: Молодец!
Роман Душкин: Так вот, это отрицательное подкрепление. То же самое в системах машинного обучения с подкреплением. Вот этот бот, который взлетел, в виртуальном пространстве летал, выполнял методом проб и ошибок – я заостряю внимание на этом: методом проб и ошибок – различные действия, а среда его так или иначе поощряла или наказывала.
Павел Гусев: Ну понятно.
Роман Душкин: Соответственно, в какой-то момент времени он случайным образом выпустил ракету в штабную машину, что было не запрещено программой, все действия были регламентированы, это важный аспект.
Павел Гусев: Ну что же, тогда надо арестовывать разработчика программы, который делает программу, чтобы она в него же и стреляла?
Роман Душкин: А вот это нужно как раз узнать, что они там делали, это была ошибка или нарочно. Но действие было регламентировано.
Павел Гусев: Что-то хотели сказать? Да, пожалуйста.
Герман Клименко: Я бы разрешил спор крайне простой. Мы говорим либо об опасности искусственного интеллекта для человека, либо для человечества, и вот по этой грани проходит вся дискуссия.
Татьяна Черниговская: Да, это правда.
Герман Клименко: Человек сам по себе очень снисходителен. 20 тысяч человек в год погибает под колесами автомобилей – никто не требует, никто не выходит на улицы требовать закрыть все автозаводы, потому что мы смирились с этой ценой вопроса. Но когда мы путаем... Вот сейчас, допустим, идет СВО, там мы видим, как... там много цифр по этому поводу есть... это управление прямо с поля боя. Мы понимаем, что в какой-то момент времени может произойти действительно ошибка, которая скажется вообще на всем ведении театра [военных действий], неизвестно, что произойдет. И да, это обеспокоенность, которую демонстрирует Татьяна Владимировна.
Роман, какие бы ни были у него внедрения потрясающие (не обижайся, пожалуйста), – это все локальные истории, которые касаются ограниченного круга ущерба, который может принести искусственный интеллект. И поэтому когда мы в приличной аудитории рассматриваем... Это примерно как... Меня тут спрашивают, в Дрездене прочел ChatGPT проповедь, я говорю: технически в чем проблема? Он даже прочтет лучше, чем любой священник. «Но это же ужасно!» Я говорю: это не я, это религиозная история.
У нас с вами есть две «религии»: искусственный интеллект для человека... Медицина, я готов тут биться и утверждать, что прямо надо немедленно внедрять, даже вот не спорить. А все, что касается человечества, то, о чем говорит Татьяна Владимировна, – это внедрение на уровне управления, где риски для самого человечества. Да, наверное, в этом есть история, но тогда нужно либо изменить формат, либо не спорить, потому что не услышат друг друга люди. Вот я про это хотел сказать.
Павел Гусев: Татьяна Владимировна, скажите...
Татьяна Черниговская: Да, я согласна.
Павел Гусев: Согласны, да?
Татьяна Черниговская: Я согласна. Я просто хочу сказать, когда я со свойственной мне большой скоростью разговора сказала, что вы отстали на сто лет, я не имела в виду вашу специальность. Я имела в виду, что то, что вы рассказываете про дрессировку системы по принципу Ивана Петровича Павлова, вот с тех пор мы про мозг знаем столько всего, что мы знаем, что так это не бывает. Это бывает только в очень простых ситуациях. А реально речь идет о гигантских сетях сетей, сетях сетей, сетях сетей сетей. Это гиперсети – какие «сахарок лошадке»? Этого нет ничего, по-другому это происходит.
Роман Душкин: Давайте я уточню: я говорил не про то, как человеческий мозг работает. Человеческий мозг...
Татьяна Черниговская: Ну вы же умничаете, что биология, вы сказали...
Роман Душкин: Можно я договорю? Татьяна Владимировна, при всем уважении к вам, пожалуйста, не перебивайте.
Татьяна Черниговская: Хорошо.
Роман Душкин: Полуторакилограммовый кусок жира, прошу прощения за физиологическую подробность, который находится у нас в черепной коробке, – это величайшая загадка и самый сложный объект из известных нам во Вселенной. Естественно, он работает не так, и мы как инженеры, ученые, работающие в области искусственного интеллекта, берем отдельные крупицы того, что мы познаем в области когнитивных наук, и переносим это на системы искусственного интеллекта. Вся сеть компьютеров Земли, будучи объединены вместе, не составляют той сложности, которую составляет один человеческий мозг, потребляющий 20 ватт энергии.
Герман Клименко: Я бы, кстати, добавил, что то, что дает нам Татьяна Владимировна, то мы и используем. Но результаты, которые получаются, естественно, не нравятся, это так бывает, ну что здесь...
Павел Гусев: У нас остались считанные буквально секунды, даже не минуты. Перед тем как завершить нашу программу, я все-таки, Татьяна Владимировна, хочу, чтобы вы сделали некое заключение, что нас ожидает.
Татьяна Черниговская: Я думаю вот что. Это неизбежность, мы не сможем эту ситуацию остановить, мы ее даже не сможем замедлить по многим причинам. Но поскольку это касается... Это экзистенциальный вопрос, это касается жизни нас как людей, вот высшего пока что вида на планете. И поэтому мы должны задуматься, вести себя ответственно и сделать все, что мы можем, чтобы не нарваться на неисправляемые ошибки.
Павел Гусев: Спасибо!
Нам уже пора прощаться, к сожалению. Благодарю всех моих собеседников! Тема неисчерпаемая, и, я уверен, в скором будущем мы к ней вернемся, новости заставят.
С вами был я, Павел Гусев, главный редактор «МК». Увидимся через неделю.