«От искусственного интеллекта к искусственному сознанию»: часть 2


«От искусственного интеллекта к искусственному сознанию»: часть 2 13 октября на фестивале науки NAUKA 0+ прошла панельная дискуссия “Смогут ли андроиды грезить об электрических овцах? От искусственного интеллекта к искусственному сознанию”. Член- корреспондент РАН, доктор Медицинских наук Константин Анохин, доктор биологических наук, профессор СПбГУ Татьяна Черниговская и кандидат физико-математических наук Сергей Шумский обсудили, что такое интеллект, разум и сознание? Что нужно, чтобы у машин появилось сознание? Действительно ли мы хотим этого? “Лаборатория” подготовила конспект беседы.

Константин Анохин: Ко мне на следующе неделе приедут коллеги из Нижнего-Новгорода, с которыми мы будем обсуждать проект по имплантации чипов памяти в мозг. То есть, это уже реальность.
Предлагаю перейти к совместной беседе. Мне бы хотелось поговорить конструктивно. Конечно, перед нами стоит большая опасность. Есть целые институты, которые занимаются прогнозированием в области искусственного интеллекта. Они получают большие гранты на исследования в области возможных рисков. Вместе с тем, человечество всегда жило в страхе перед огромным неизвестными миром и его опасностями. В прошлом люди боялись жестоких богов и сил природы, которые они не могли объяснить. Сегодня они страдают от своих собственных действий. Однако жить в постоянной тревоге и размышлять об опасностях будущего не конструктивно. Мы уже очертили круг опасностей. Давайте подумаем, что нам теперь делать. Мы знаем нейрофизиологию некоторых процессов в мозге? Куда нам теперь двигать? Мне бы очень хотелось, чтобы в конце этой дискуссии, у нас сложилось определенное мнение о проблеме и представление о том, в каком направлении должна двигаться наука в области искусственного интеллекта.

Сергей Шумский: Всегда страшно, когда происходит что-то новое. Всегда был соблазн отгородиться и все бросить, потому что новые технологии несут опасность. Однако они дают новую силу (в политическом смысле). Если одни страны будут вводить ограничения на исследования, то у других, где этих ограничений нет, — появится конкурентное преимущество. Например, раньше был страх перед ядерной энергией. Нам нужно как-то выходить из этой ситуации. Иного выхода, кроме как вперед, у нас нет. Если что-то неизвестно, это нужно выяснить. Наука устроена так, что она занимается только самыми «жгучими» вопросами, ответы на которые нужны здесь и сейчас. Сегодня мы пришли к точке, когда от науки требуют ответы, на вопросы, до которых раньше руки не доходили. Раньше разумом занималась философия и двигалась при этом крохотными шажками, потому что в быту эти знания были не нужны. Теперь они нужны. Помните Чернобыльскую катастрофу? Она дала толчок развитию встроенной безопасности. То есть, не люди управляют процессом, который может выйти из-под контроля, а контроль заложен в самом процессе. Если бы такая система была до аварии, много жизней можно было бы спасти.
В отношении искусственного интеллекта ученые говорят, что это опасность страшнее ядерной энергии, поскольку второго шанса может и не быть, если этот разум вырвется из-под контроля. Поэтому нужно строить теорию разума с внутренним контролем. Будет ли это разум без сознания? Не думаю. Однако человек сам по себе непредсказуем и может нести опасность для других людей. При это человечество единственный вид (кроме некоторых видов насекомых), у которого есть сверхбольшие сообщества. У нас есть важные инстинкты, нам нужно нравиться друг- другу, мы зависим друг от друга, то есть, у нас есть взаимное рейтингование, мы все живем в поле взаимных оценок. Если мы будем создавать искусственный разум, то необходимо создавать его с аналогичными инстинктами, чтобы он мог сам себя контролировать. Искусственный разум будет распределен. Вряд ли это будет единый центр, который будет все контролировать. Скорее всего это будет сеть маленьких и больших разумов, связанных между собой. Нужно, чтобы эти разумы друг друга рейтинговали и чтобы у них была этика. Эта этика должна быть приближена к человеческой, чтобы было возможно взаимное сосуществование.

Татьяна Черниговская: Почему вы доверяете искусственному интеллекту, который мощнее, чем мы? Пока я вас слушала, я мысленно поставила себя на его место. Допустим, я интеллектуальная мясорубка. Мне осточертело рубить мясо, которое в меня подкладывает хозяйка, и я думаю: «Сейчас я запущу процесс обратно, лезвия вылетят и уложат ее». Почему мы должны доверять искусственному интеллекту? Если он такая «мощная зверюга», как вы говорите, то он нас переиграет. И еще вопрос, а чего мы хотим? То, что мы не можем остановиться, потому что мы та страна (или цивилизация), которой нужно конкурентное преимущество, я поняла, это не обсуждается. Но в итоге мы чего добиваемся? Мы хотим Марс заселить и там без воздуха обходиться?

Константин Анохин: Встречный вопрос: то, что мы не можем остановиться, не девальвирует ли вопрос о том, чего мы хотим? Или последнее можно четко сформулировать? В свете того, что наука прогрессирует, и это невозможно остановить, вопрос «Чего мы хотим?» означает «Куда мы движемся, раз уже движемся?».

Татьяна Черниговская: Я не предлагаю этот вопрос в ООН обсуждать. Но от того, как мы сами себе на него ответим, зависит то, какие этические нормы закладывать в искусственный интеллект. Люди для себя разработали такую этику, которая запрещает им, например, есть младенцев по средам, убивать старушек. А как это будет выглядеть у роботов? Не нажимать на кнопку №8? Я говорила с юристами на эту тему, и они не знают, что делать. Они понимают, что это грядет, но разводят руками. Все знают эти кошмарные психологические тесты, когда человеку предлагают ситуацию вроде «Вы едете в вагоне, происходит авария, и вы можете повернуть на право и убить одного человека или налево и убить пятерых». Дальше начинаются кросс-культурные фокусы. У человека спрашивают: «А если, один человек ваш ребенок?». Но эти вопросы регулирует практическая этика. Машина-беспилотник тоже должна знать, как ей вести себя в подобной ситуации. И если аварийные ситуации будут происходить, кто будет за них отвечать. Разработчик программы, владелец машины? Я думаю, должны очень сильно «напрячься» философы. Должен быть гениальный философ на все времена, который поймет, что нам делать в этой абсолютно новой для нас ситуации. Эта научная революция изменит вообще все. Я имею ввиду не только силиконовые вещи, но и работу с геномом и пр. Мы не можем закрыть на это глаза.

Константин Анохин: Вопрос об этике. Мы говорим о том, что машины должны знать. А они способны знать? С этого вопроса мы начали наше обсуждение. Это у человека есть знание, которые он закладывает в механическое устройство. Сама машина ничего не знает. Но когда появляется знание? Что является условием для его возникновения? Для появления знания необходимы личностные качества, мотивация, эмоции и пр. Иначе машина не выйдет за рамки заданного алгоритма и вещей, предусмотренных в рамках машинного обучения. Она не захочет убить хозяйку, потому что не способна знать и хотеть.

Татьяна Черниговская: Я хочу сказать, что есть разница между понимать и распознавать. Человек с «незамутненным сознанием» придёт в Эрмитаж и скажет, к примеру: «Мой внучок четырех лет получше рисует, чем ваш Матисс». Он просто не в курсе дела. Хотя глаза у него на месте, то есть физически с ним все в порядке. Как решить эту проблему? Ведь сегодня машины могут распознавать речь и лица. Но из этого не следует, что они понимают речь.

Константин Анохин: Все эти вопросы возвращают нас к тому, что необходимо разобраться в том, каковы принципиальные основы и фундаментальные свойства личности, разума, сознания у биологических систем. Не нужно играть словами. Мы любим «ярлыки», так как они помогают нам осознать предметы и явления, но они могут и мешать. Мы используем термины «нейронные сети», «машинное обучение», «базовые знания», «понимание речи». Но нейронные сети не похожи на мозг, машинное обучение не похоже на обучение человека и так далее. Я против использования всех этих терминов в отношении устройств, которые существуют сегодня, и не только я. Современные системы искусственного интеллекта не способны ни знать, ни понимать. Они могут предсказывать, распознавать речь и лица. Но это совсем другое! Если вы наденете маску на железного робота, и она будет вам улыбаться, то вы сразу перенесете на нее все свои врожденные представления о социальной коммуникации и станете улыбаться в ответ и т.д. Но под маской будет находится система, совершенно отличная от нас.

Татьяна Черниговская: Иными словами, мы сами себя загнали в ряд ловушек, из которых не можем выбраться. У нас есть человеческий язык, с помощью которого можно произвести категоризацию (это не единственный инструмент, но все же). Например, есть множество видов стаканов, но все они стаканы. Категории – это такие «коробочки», в которые мы все складываем. Но для того, о чем мы говорим сегодня, нет нужных «коробочек». Как с этим быть? Помнишь [обращается к К. Анохину, - прим. ред.], как мы были в гостях у Жанны Ильиничны Резниковой, которая занимается интеллектом муравьев. Она нам показывала своих подопытных со словами «Особенно у нас умный одиннадцатый!». Я его никогда не забуду! Но есть ли интеллект у муравья? Вроде, да. Тогда разговор с его святейшеством Далай-ламой, который нечета нам по образованию, выглядит иначе. Ведь буддисты утверждают, что сознание разлито во Вселенной, было всегда и не является продуктом мозга. Нужно ли дальше продолжать? Это совсем другие взгляды, согласно которым ответ на вопрос «Есть ли сознание у муравья?» будет «Конечно, да!».

Константин Анохин: Ответ будет «Конечно, да!», но нужно учитывать разницу между западной культурой и восточной. Ведь в буддизме нет разделения на живое и неживое, но есть разделение на разумное и неразумное. Говоря о том, что сознание размазано по Вселенной, как джем по бутерброду, нужно помнить, что не все живые существа у буддистов разумны. Растения они считают неразумными. То есть они проводят другую границу в эволюции жизни. Все что ниже этой границы – не так важно (растения можно есть) …

Татьяна Черниговская: А Юрий Иосифович Александров мне на днях по телефону сказал, что жуть все это жутью и у растений может быть выявлен интеллект. Вот, теперь уже и яблоко не съешь!

Константин Анохин: Нужно быстро идти к буддистам, которые говорят, что яблок разума нет. Все это забавно. Недавно вышла книга с лекциями Эрвина Шредингера «Что такое жизнь?». Споры по поводу ответа на этот вопрос продолжаются. Однако были выявлены некоторые фундаментальные свойства живых организмов: была найдена ДНК и пр. Теперь стоит вопрос – а кто такие мы? Ясно, что когда-то в эволюции произошел очень крупный переход, который привел к появлению разума. Что стало причиной этого перехода? Это необходимо выяснить для создания искусственного интеллекта. Это невозможно узнать по симуляциям поведения, по тесту Тьюринга и т.п. Мы должны заглянуть под черепную коробку. Если мы правы, то во всех известных нам случаях у разума и сознания есть некоторые внутренние свойства, которые будут такими же и у инопланетянина, и у искусственного интеллекта. По внешнему поведению, эти признаки выявить невозможно. Значит, нам нужна теория, которая позволит нам изучать нас самих себя с совершенно новой точки зрения. Этот шаг очень ответственный. Раньше это был вопрос самопознания, а теперь это вопрос будущего всего человечества.

Сергей Шумский: Я согласен с тезисом о том, что нам обязательно нужно понять и смоделировать работу мозга. Причем из совершенно практических соображений. Но я думаю, что нам не удастся остановиться на этом. Чтобы понять поведение человека, необходимо выявить его устремления и ценности. Здесь лежит каузальная связь. Но есть вопрос общественных ценностей. Ценности не появляются у человека сами по себе – они есть в обществе. Поэтому нам нужна не только теория индивидуального мозга, но и общественного сознания. Потому что с появлением искусственного интеллекта многие профессии начнут исчезать одна за другой. Возникает вопрос, что делать с этими людьми. Искусственный интеллект станет новой производительной силой, который, как мечтал Маркс, освободит от частичного труда большую массу людей. Эти люди, между тем, довольны своим положением, работая охранником или вахтером. Судьбу этих людей будет решать социум. Этот социум в разных странах завит от культуры и степени экономического развития. Нам нужно уже сейчас искать ответы на вопросы подобного рода, потому что это определит развитие искусственного интеллекта. Почему? Потому что мы живем в одной системе. Во всем мире принятие экономических решений человеко-машинное. Сейчас, в основном, человеческое, но процент будет смещать в сторону машин в разных областях. Нам нужно уже сегодня понимать, что в какой-то момент машин в чем-то будут умнее человека, а, может, и во многом. Поэтому сразу надо понять, какие цели и ценности будут у искусственного интеллекта. Откуда они у него возьмутся. Только из общения с нами. Откуда у людей берутся цели и ценности. Только из общения, воспитания. В этом смысле, мы будем играть роль бога. Чтобы искусственный интеллект обошелся с нами этично, нам нужно этично обойтись с людьми, которых он вытеснит. Нужно разработать этику, которая будет работать в мире людей и машин.

Татьяна Черниговская: Но, чтобы стать этичнее не изучаем уголовный кодекс, а читаем книги, ходим музеи и смотрим серьезные фильмы. Этим монстрам Франкенштейна мы должны «скармливать» человеческую культуру, а не списки правил. Они должны читать Шекспира и Достоевского, не для того, чтобы отвечать на идиотские вопросы, а для того, чтобы «напитаться» этим богатством. Худшее, что может произойти с человечеством – это исчезновение музеев, архивов и пр. Вот это кошмар! Все остальное – пустяки. А это обрушит всю цивилизацию. Чтобы эти монстры нас не покорили – они тоже должны это «съесть».

Константин Анохин: Я бы не давать этим «монстрам» читать “Преступление и наказание”. Я бы постарался сделать (в целях нашей безопасности) интеллект не более развитым, чем у домашних животных. А там посмотрим!

Фото: Игорь Анисимов
Читать часть 1