Myvideo

Guest

Login

Как нейросети и большие языковые модели меняют ландшафт кибербезопасности.

Uploaded By: Myvideo
4 views
0
0 votes
0

Спикер: Александр Чибисов Все ссылки в описании урока 👇 ———————————————— 🔑 Курс “Анонимность и безопасность 2.0 “ 🔗 ———————————————— Наш Телеграм-канал 🔗 Чат по нейронкам 🔗 ———————————————— В выступлении обсуждаются несколько ключевых моментов, касающихся нейросетей и кибербезопасности: 1. Нейросети применялись и для атак, и для защиты задолго до нынешнего хайпа вокруг больших языковых моделей вроде ChatGPT. Однако этот хайп привлек значительное внимание и инвестиции к теме ИИ. 2. Внедрение нейросетей изменит ландшафт кибербезопасности. Это уже частично происходит, но основные изменения еще впереди. 3. Появятся новые виды кибератак и утечек данных, связанные с использованием нейросетей. Например, взлом и кража данных для обучения chatbot-ов компаний. 4. Мошенники получат более мощные инструменты для атак, включая глубокие фейки. А новые “умные“ устройства могут открыть дополнительные векторы атак. 5. Анонимность уходит в прошлое, поскольку для обучения нейросетей требуется все больше персональных данных. Но пока еще есть время усилить свою цифровую безопасность и конфиденциальность. Таким образом, нейросети несут с собой как новые киберугрозы, так и возможности для киберзащиты. Главное - не игнорировать эти технологии, а активно изучать, чтобы иметь преимущество перед злоумышленниками. ———————————————— Таймкоды: 00:50 - Тема выступления - как хайп вокруг больших языковых моделей изменит ландшафт кибербезопасности. 01:27 - Нейросети использовались и раньше, но хайп вокруг ChatGPT привлек огромные инвестиции в эту сферу. 02:11 - Ключевые события 2023 года, связанные с ИИ и кибербезопасностью. 04:18 - Крупные технологические компании начинают ограничивать доступ сотрудников к ChatGPT. 05:39 - Утечка модели Lama, предназначавшейся только для исследований. 06:20 - Попытки Илона Маска приостановить разработки ИИ. 09:42 - Массовые взломы и утечки данных из сервиса LinkedIn. 11:46 - Принятие законов, регулирующих использование больших языковых моделей. 13:02 - Запуск Илоном Маском модели GPT «Grok». 15:03 - Компания OpenAI запускает конструктор чат-ботов без необходимости кодирования. 17:47 - Те, кто выступает за ограничение ИИ, сами активно его развивают и внедряют. 23:11 - Появление новых инструментов для социальной инженерии и мошенничества. 25:12 - Сбор больших данных для обучения нейросетей ведет к снижению анонимности. 27:57 - Главная угроза искусственного интеллекта - использование технологий во вред людям. 29:56 - Есть временное “окно возможностей“ усилить свою цифровую безопасность. 32:51 - Выводы и рекомендации по использованию возможностей нейросетей. ———————————————— Дисклеймер! Данное видео имеет исключительно образовательный характер. Мы не пропагандируем незаконные действия и не несем ответственности за их использование. Вся информация, предоставленная в наших видео, должна использоваться только в целях самообразования и повышения квалификации. Мы настоятельно рекомендуем соблюдать законы и уважать права других людей. С уважением, Команда Магия Нейросетей Мы за свободный интернет, но будем очень благодарны, если при распространении этого ролика вы добавите на нас ссылку. Спасибо! Теги: #AI #Нейросети #кибербезопасность

Share with your friends

Link:

Embed:

Video Size:

Custom size:

x

Add to Playlist:

Favorites
My Playlist
Watch Later