Могут ли андроиды устроить бунт?
Специальный проект с интернет-газетой «Бумага»

Может ли искусственный интеллект стать неуправляемым, как понять, есть ли у роботов сознание, и почему голосовые помощники по-прежнему плохо копируют человеческое поведение?

Участник Science Slam в Петербурге, эксперт Центра цифровых инноваций «Газпром нефти» Дмитрий Шварц рассказывает о том, могут ли появиться в реальности технологии из фантастических фильмов и сериалов: цифровые копии разума, как в фильме «Превосходство», испытывающие эмоции роботы из «Мира Дикого Запада» и система, распознающая потенциальных преступников, как в сериале «В поле зрения».

«Мстители: Эра Альтрона»
Искусственный интеллект создают, чтобы защищать Землю, но он обучается и приходит к выводу, что спасти Землю можно, лишь истребив человечество.



Искусственный интеллект развивается в том пространстве вариантов, которое ему задают программисты. Всегда нужны новые данные извне, чтобы искусственный интеллект мог посмотреть на мир так, как мы хотим. Если в него заложили возможность нарушать первое правило робототехники Айзека Азимова (по нему робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред — прим. «Бумаги»), тогда искусственный интеллект сможет это сделать.

Сейчас машинное обучение достаточно узкоспециализированное. В ИИ можно закинуть рассказы, книги, басни Крылова, можно «скормить» ему фотографии из интернета. И если потом спросить его о смысле жизни, то в ответ он перемешает басни Крылова и фотографии из интернета. В итоге это может выглядеть даже вполне осознанно. Но ИИ не делает вывод. Ему тщательно подбирают обучающую выборку.

Разработчики формируют машинное обучение. Алгоритмы можно разбить на два типа. Первый — supervised learning (обучение с учителем), когда мы «показываем» нейросети образец, а дальше она начинает сопоставлять с ним другие данные и сигнализировать об отклонениях от шаблона. Так ИИ контролирует технологические процессы на наших нефтеперерабатывающих заводах. Это позволяет добиться управления событиями и потенциальными инцидентами до их наступления — за счет использования большого объема данных, их анализа и сопоставления.

Второй тип называется unsupervised learning, когда мы создаем из имеющихся данных цифровое месторождение, а команду ИИ формируем так: «У нас есть такие-то данные и столько-то неизвестных. Найди оптимальное решение: как выполнить бурение максимально эффективно». Этот подход сложнее, но мы видим будущее именно за этим и развиваем такие технологии.

Как с любой другой технологией, [вероятность того, что искусственный интеллект станет неуправляемым, возникнет], если появятся программисты, которые будут сознательно создавать такие технологии. Разработает кто-нибудь «умные» ботинки, а кто-нибудь их взломает и сделает неуправляемыми. ИИ — это те же самые устройства, просто со своими особенностями. Они не обладают сознанием — и тут сугубо технологический, а не философский вопрос.

На примере «Газпром нефти» могу сказать, что у нас кибербезопасность рассматривается очень широко. Это безопасность не только данных, но и всех разрабатываемых решений. Сейчас компания трансформируется из потребителя технологий в их создателя. Собственные защищенные разработки уже применяются как в геологоразведке и добыче углеводородов, так и в переработке, логистике; они есть и на привычных всем АЗС.

«В поле зрения»
Ученый по заказу Министерства обороны США создает искусственный интеллект, способный в реальном времени искать среди граждан потенциальных участников терактов и других преступлений.



На YouTube есть запись конференции с участием Германа Грефа, где спикеры обсуждают, что в будущем появятся цифровые суды, а по поведению в интернете можно будет составить портрет личности. Один американец там сказал, что они уже работают над системой, которая может по вашим «кликам» построить человеческий портрет. Ну а когда портрет готов, вы, по всей видимости, попадаете в класс либо «опасных», либо «неопасных».

Если предоставить искусственному интеллекту интернет, он будет пользоваться всеми его возможностями. Но может ли он догадаться, например, позвонить вам от лица вашего друга? Вряд ли. Если только ему не запрограммируют такую функцию. А если законодательно будет сказано, что, например, дома вас никто не должен трогать, это будет служить ограничением.

Думаю, это (поиск потенциальных преступников с помощью ИИ — прим. «Бумаги») скоро произойдет. Но человечество это переживет как временное явление и, мне кажется, лет через 100–200 минует пик цифровизации. Сейчас людям интересны технологии, но в какой-то момент, думаю, им захочется просто уйти в лес. Многие уже сейчас видят губительность цифровизации всего и вся. Но от этого не отказаться, это естественная часть нашего развития. Главное, в процессе не разрушить себя.

«Превосходство»
Ученый после смерти оставляет цифровую копию своего разума, которая продолжает развитие.



Если мы научимся записывать личность и воспоминания человека, то разом ответим на ряд фундаментальных вопросов: что такое жизнь и сознание. Сознание находится в мозге — или же работает на мозг? Если мы считываем работу мозга — мы считываем и работу сознания?

Думаю, в перспективе какой-то отпечаток можно будет сохранять. Может, даже как-то считывать мысли. Но будет ли это душой или сознанием — огромный вопрос, который пока не решен даже на концептуальном уровне. Если его решить — это будет шаг вперед в понимании души человека.

Насколько мне известно, есть [разработки на основе искусственного интеллекта, связанные с работой мозга]. В этом случае мы говорим о бионической обратной связи (например, бионические протезы — прим. «Бумаги»). Предположим, считывается активность мозга, как на МРТ. Потом активность на полученной картинке ставится в соответствие с определенными действиями. После этого происходит адаптация работы мозга к технической системе.

Но по большей части здесь применяется работа человеческого мозга, а не ИИ. Искусственный интеллект в этой ситуации просто систематизирует некоторые паттерны. Мы снова приходим к тому, что решение не за ИИ.

«Мир Дикого Запада»
Люди создают парк развлечений, где андроидов можно убивать и издеваться над ними. Но из-за сбоя у машин появляются воспоминания и самосознание — и они устраивают бунт.



Нечто одушевленное в искусственный интеллект вкладывает сам человек. Помню, мне как-то показали игрушку, с которой можно общаться. Она иногда отвечала, иногда молчала, иногда хихикала: у нее было рандомное поведение. И на очередной мой вопрос она надолго замолчала, а потом засмеялась. Я подумал, что она так надо мной подшутила.

Если вы себе представите плюшевого мишутку, его можно внешне наделить эмоцией. Сделать грустные глазки — и вот он грустный. Сымитировать можно. Но вы не можете заставить машину испытывать эмоции.

Определить, есть ли у системы сознание, не такая простая вещь. Это не просто тест Тьюринга, потому что он скорее про проверку того, является ли интеллект искусственным.

Думаю, ИИ в итоге будет гораздо круче человеческого. Может, будет уступать только в интуиции, творчестве. А также в умении выбирать: искусственный интеллект может попасть в ситуации, где два варианта окажутся математически равноценны, и повести себя не совсем адекватно. Программисты это в итоге исправят.

Помните, в фильме «Терминатор» Сара Коннор говорит ученым: это вы всё виноваты, погубили планету своим любопытством. Думаю, в этом и заключается основной этический вопрос. Мы уводим человека от естества, данного природой, в техносферу. Любопытство любопытством, а зачем это и куда мы идем, вопрос.

Если вы сможете формализовать этику, то вам поставят памятник. В остальном у разработчиков полная свобода. В целом для искусственного интеллекта не существует морали.

«Она»
Главный герой заводит голосовую помощницу, и они влюбляются друг в друга. Но технология производит апгрейд, начинает так же общается с тысячами других людей одновременно, а потом покидает их всех.



Современные голосовые помощники не понимают интонации, нюансы речи, не могут дополнять пропущенные слова, тяжело работают с контекстом. Я как-то поставил голосового бота, который отвечал на входящие звонки в роли моей помощницы. Он распознавал речь, но на фразы, которые не были забиты в словаре, отвечал: извините, я не понимаю, что вы говорите, повторите еще раз.

А мои друзья и знакомые постоянно требовали от этого бота чего-то сверхъестественного. Спрашивали, как дела, звонили с серьезными вопросами, троллили. Они искали в ней человека, хотели узнать, какая она за этим голосом. Конечно, она не справлялась с этим.

Куча нерешенных задач [мешает создать голосового помощника, который будет полноценно копировать человека]. Распознавание речи, семантика, грамматика. Пока что я не видел нормального бота, с которым можно пошутить, поговорить на отвлеченную тему и вернуться к началу разговора, спросить: а о чем мы говорили? Юмор — это признак ума. Если вы хотите проверить, бот перед вами или нет, пошутите — и всё сразу станет ясно.

Текст: Владислав Чирин

Назад к списку
Предыдущая новость Следующая новость