Этичный и объяснимый ИИ — это пустая болтовня или реальная проблема современной разработки ИИ? Сергей Карелов, Константин Воронцов и Игорь Пивоваров Семинар русскоязычного сообщества AGI 11 августа 2022 Похоже, что этика может стать самым ключевым вопросом ИИ ближайшего будущего. В первую очередь потому, что между двумя глобальными странами-лидерами разработки ИИ — США и Китаем -имеются огромные противоречия, обусловленные в первую очередь разными системами ценностей: • Для США – это индивидуальная протестантская трудовая этика, делающая акцент на ответственности и правах личности и потому всячески противящаяся любым использованиям ИИ, грозящих нарушением прав человека и размыванию границ его ответственности. • А для Китая – это лежащая в основе стратегии развития Китая конфуцианская этика, делающая акцент не на личности, а на обществе, и в результате этого готовая смирится с нарушением прав отдельных людей, осуществляемых на пользу обществу. Столь разные этические системы США и Китая ведут к во многом противоположным видениям “Good AI Society”: • Китайское видение – это гармонизация прорывных последствий развития ИИ в целях сохранения социальной стабильности и поддержки авторитарного руководства страны. • Видение же США делает неприемлемым для общества развитие ИИ-технологий поддержки авторитарного режима, даже если это способствует сохранению социальной стабильности (напр. технологии социальных рейтингов). Будет ли AGI наследовать этику его создателей? Какая это будет этика? Насколько вообще реалистично, что этика разработчика определит этику ИИ? Можно ли заложить этические ценности и нормы в модель ИИ? А можно ли еще и гарантировать, что он их будет выполнять? Или как с человеком — можно только научить а потом надеяться?))) Поговорим об этом: - с Сергеем Кареловым, известнейшим независимым IT-экспертом, автором известного блога “Малоизвестное интересное”, который недавно высветил эту проблему: - с Константином Воронцовым, одним из ведущих ученых в области NLP в России Мы ведем группы и организуем семинары русскоязычного сообщества разработчиков систем AGI (Artificial General Intelligence или Общий Искусственный Интеллект) или Strong AI (Сильный Искусственный Интеллект), а также - являющийся их частным случаем HLAI (Human-Level Artificial Intelligence или Искусственный Интеллект Человеческого Уровня). Группы: (новостной канал) (основная) (вопросы терминологии) (разговорный интеллект) (финансовые технологии) (коллективный интеллект) (основная) (коллективный интеллект) Онлайн-семинары идут по четвергам, в 18:00 по Московскому времени. Продолжительность два часа, обычно это либо доклад на один-полтора часа и последующее обсуждение на полчаса-час либо круглый стол с регламентом на усмотрение модератора дискуссии. Технические средства проведения, регламент и модерацию обычно обеспечивает инициатор конкретного семинара либо спикер и его коллеги. Регистрация на семинары (внизу страницы): Программа следующих семинаров:
Hide player controls
Hide resume playing