Myvideo

Guest

Login

Чем опасен ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ Риски и текущие решения || Игорь Котенков, Кали Новская

Uploaded By: Myvideo
1 view
0
0 votes
0

Сегодня вместе со специалистом по машинному обучению Игорем Котенковым разберемся, какие реальные опасности несёт искусственный интеллект, какие ценности закладывают ему крупнейшие компании и государства и какие решения проблем ИИ находят. Ведущая — Кали Новская ✅Тг-канал Кали Новской: ✅Тг-канал Игоря Котенкова: ___________________________________________ ✅Задать вопрос с донатом: ✅Отправить пожертвование на освещение дела Кагарлицкого и работу канала, сайта и соцсетей «Рабкор»: 2200 7004 3856 6977 (Тинькофф) ✅Карта для международных переводов: 4165 9816 0119 6631 ✅Поддержка на постоянной основе на Бусти: ✅Криптокошелёк: ______________________ ✅Открытое письмо за освобождение Бориса Кагарлицкого: ✅Письмо в СИЗО Борису Кагарлицкому: Новая книга Б.Ю. Кагарлицкого «Долгое отступление»: Ресурсы Рабкора: Сайт: Тг-канал: 00:00 Начало 0:02:47 Риски, ценности в современном ИИ 0:06:45 Подходы к регулированию и обучению ИИ 0:16:12 Противоречия при использовании ИИ 0:23:43 Пример недобросовестного использования ИИ 0:26:38 Методы внедрения ценностей в ИИ 0:38:05 Как составляют инструкции по этике ИИ 0:43:11 Особенности регулирования ИИ в Китае 0:47:08 Проблема дисбаланса в alignment ИИ 0:50:28 ВОПРОСЫ. Как скоро ИИ сможет заменить труд простых рабочих? 0:53:39 Есть ли смысл учить иностранные языки, если скоро ИИ сможет делать это лучше? 0:54:57 Есть ли у программистов запрещённые вещи, которые нужны, чтобы ИИ научился их различать? 0:55:57 Чем alignment отличается от fine tuning? 0:57:25 Может ли AGI грубо нарушать фундаментальные принципы этики? 0:59:39 Что пугает сотрудников OpenAI, написавших письмо об опасностях ИИ? 1:01:35 Может ли ИИ постигать явления природы, а не только текст? 1:04:09 Каковы могут быть последствия увеличения количества рекламных ботов в ТГ, использующих LLM? 1:07:30 Сколько примеров нужно для обучения модели новой теме? 1:08:57 Какие моральные ценности должны быть у автопилотов? Кто будет нести ответственность? 1:11:56 Как проверять наличие закладок (“водяных знаков“) от компании-создателя, гарантирующих специфические ответы, игнорирующие правила? 1:14:57 Есть ли сейчас темы в NLP, которые можно исследовать с малыми вычислительными мощностями? 1:15:45 Что лучше: AGI со свободной волей или AGI в руках диктаторов? 1:18:53 Нужны ли этические ограничения ИИ? Есть ли примеры свободных ИИ? 1:22:45 Когда закончится “лето“ ИИ, и начнётся “зима“? Есть ли сейчас “пузырь“? 1:26:17 Почему ещё не вышел новый том Капитала, написанный нейросетью? 1:27:15 Может ли ИИ выкупить таксопарк и уволить водителей, как в Cyberpunk 2077? 1:28:05 Есть ли успешный опыт alignment мультимодальной LLM? ПРОБЛЕМЫ СО ЗВУКОМ 1:32:34 Продолжение. Способы обхода фильтров мультимодальных моделей 1:34:32 Есть ли возможность спонтанного зарождения самосознания ИИ? 1:37:33 Если нейросети будут верифицироваться нейросетями, не будет ли такой же проблемы, как с искусственной реворд-моделью в RLHF, когда получается неожиданный результат? 1:40:53 Может ли ИИ улучшать сам себя? 1:43:12 Есть ли примеры успешного использования ИИ для управленческих решений? 1:45:41 Если не все будут честно отвечать на вопросы при обучении нейросети, как это отразится на ней? 1:46:52 Будет ли выпуск про цифровое бессмертие и перенос сознания в новое тело? Возможно ли оно? 1:47:42 Какие новости от OpenAI? 1:48:49 Вопрос про длинные зависимости в LLM 1:52:33 Как контролировать мультиагентные системы? 1:59:00 Может ли ИИ незаметно для учёных стать сверх-ИИ и притворяться “тупым“? 2:00:10 Как делать научные открытия, используя LLM? 2:07:24 Может ли ИИ проанализировать всю информацию по химоружию и создать новое? 2:09:41 Завершение #ии #ai #нейросети #openai #chatgpt #этика #капитализм #искусственныйинтеллект #айти #программирование #политика #китай #сша #россия #лондон #цифры #кодирование #технологии #наука #техника

Share with your friends

Link:

Embed:

Video Size:

Custom size:

x

Add to Playlist:

Favorites
My Playlist
Watch Later