Константин Анохин: Вопрос об этике. Мы говорим о том, что машины должны знать. А они способны знать? С этого вопроса мы начали наше обсуждение. Это у человека есть знание, которые он закладывает в механическое устройство. Сама машина ничего не знает. Но когда появляется знание? Что является условием для его возникновения? Для появления знания необходимы личностные качества, мотивация, эмоции и пр. Иначе машина не выйдет за рамки заданного алгоритма и вещей, предусмотренных в рамках машинного обучения. Она не захочет убить хозяйку, потому что не способна знать и хотеть. Татьяна Черниговская: Я хочу сказать, что есть разница между понимать и распознавать. Человек с «незамутненным сознанием» придёт в Эрмитаж и скажет, к примеру: «Мой внучок четырех лет получше рисует, чем ваш Матисс». Он просто не в курсе дела. Хотя глаза у него на месте, то есть физически с ним все в порядке. Как решить эту проблему? Ведь сегодня машины могут распознавать речь и лица. Но из этого не следует, что они понимают речь. Константин Анохин: Все эти вопросы возвращают нас к тому, что необходимо разобраться в том, каковы принципиальные основы и фундаментальные свойства личности, разума, сознания у биологических систем. Не нужно играть словами. Мы любим «ярлыки», так как они помогают нам осознать предметы и явления, но они могут и мешать. Мы используем термины «нейронные сети», «машинное обучение», «базовые знания», «понимание речи». Но нейронные сети не похожи на мозг, машинное обучение не похоже на обучение человека и так далее. Я против использования всех этих терминов в отношении устройств, которые существуют сегодня, и не только я. Современные системы искусственного интеллекта не способны ни знать, ни понимать. Они могут предсказывать, распознавать речь и лица. Но это совсем другое! Если вы наденете маску на железного робота, и она будет вам улыбаться, то вы сразу перенесете на нее все свои врожденные представления о социальной коммуникации и станете улыбаться в ответ и т.д. Но под маской будет находится система, совершенно отличная от нас. Сергей Шумский: Всегда страшно, когда происходит что-то новое. Всегда был соблазн отгородиться и все бросить, потому что новые технологии несут опасность. Однако они дают новую силу (в политическом смысле). Если одни страны будут вводить ограничения на исследования, то у других, где этих ограничений нет, — появится конкурентное преимущество. Например, раньше был страх перед ядерной энергией. Нам нужно как-то выходить из этой ситуации. Иного выхода, кроме как вперед, у нас нет. Если что-то неизвестно, это нужно выяснить. Наука устроена так, что она занимается только самыми «жгучими» вопросами, ответы на которые нужны здесь и сейчас. Участники дискуссии: К.В. Анохин (Лаборатория нейробиологии, НИЦ «Курчатовский институт»; Центр нейронаук и когнитивных наук МГУ имени М.В. Ломоносова) Т.В. Черниговская (Кафедра проблем конвергенции естественных и гуманитарных наук СПбГУ, Лаборатория когнитивных исследований СПбГУ) С.А. Шумский (Центр науки и технологий искусственного интеллекта МФТИ, Российская ассоциация нейроинформатики). Фрагмент дискуссия «Cмогут ли андроиды грезить об электрических овцах? От искусственного интеллекта к искусственному сознанию». Ответы на вопросы - К.В. Анохин, Т.В. Черниговская и С.А. Шумский
Hide player controls
Hide resume playing