Обсуждение статьи “Понимание ситуации” Леопольда Ашенбреннера (ex Open AI) о наступлении AGI через 3 года - Игорь Пивоваров Семинар русскоязычного сообщества AGI 18 июля 2024, 18:00 (время московское) На встрече предлагается обсуждение статьи “Понимание ситуации” Леопольда Ашенбреннера, ушедшего из Open AI, в которой делается уверенный прогноз о наступлении AGI до 2027 года (с фактами и цифрами) и высказывается позиция, что AGI настолько сильно повлияет на безопасность всего мира, что он может и должен стать государственным проектом. Основные тезисы статьи: 1. В мире есть лишь несколько сотен людей, которым известна “реальная ситуация” с ИИ и Леопольду посчастливилось оказаться в их числе. 2. Факты и цифры говорят, что AGI будет создан в течение 3 лет к 2027 году 3. Делается подробный разбор уровней AGI и утверждение, что в течение 1 года после AGI будет создан SuperHuman Intelligence. После этого наступает плохо контролируемая человеком эра суперинтеллекта. 4. Делается подробный разбор рисков создания AGI и чем это грозит. 5. Создание AGI возможно лишь в масштабах национального государственного проекта, потому что там не только программирование, там новый уровень энергетики, микроэлектроники, а также организации всей научно-исследовательской работы. Но это должно быть сделано, так как: 6. AGI должен быть создан именно в США, только Штаты могут стать “гарантом” мирного и безопасного суперИИ. Главный риск — попадание AGI не в те “страны”. 7. Все лаборатории по ИИ должны быть засекречены и все сконцентрировано под государственным контролем. 8. И да, существует проблема того, что человечество может не удержать AGI под контролем, но она “как нибудь должна решиться”. В целом статья очень сильно и разумно написана, но можно не согласен почти со всеми главными выводами автора. Но это стоит того, чтобы это обсудить. Формат обсуждения типа Journal Club: 1. Краткий тезисный обзор статьи 2. Потом мы обсуждаем статью с теми, кто ее читал 3. Потом принимаются вопросы и высказывания от тех, кто не читал. Мы ведем группы и организуем семинары русскоязычного сообщества разработчиков систем AGI (Artificial General Intelligence или Общий Искусственный Интеллект) или Strong AI (Сильный Искусственный Интеллект), а также - являющийся их частным случаем HLAI (Human-Level Artificial Intelligence или Искусственный Интеллект Человеческого Уровня). Группы: (новостной канал) (основная) (различные темы по группам) (разговорный интеллект) (финансовые технологии) (коллективный интеллект) (основная) (основная) (коллективный интеллект) (рассылка) Онлайн-семинары идут по четвергам, в 17:00 или 18:00 по Московскому времени. Продолжительность два часа, обычно это либо доклад на один-полтора часа и последующее обсуждение на полчаса-час либо круглый стол с регламентом на усмотрение модератора дискуссии. Технические средства проведения, регламент и модерацию обычно обеспечивает инициатор конкретного семинара либо спикер и его коллеги. Регистрация на семинары (внизу страницы): Программа следующих семинаров:
Hide player controls
Hide resume playing