Myvideo

Guest

Login

Запуск Llama 405b на своем сервере. vLLM, docker.

Uploaded By: Myvideo
1 view
0
0 votes
0

Детально показываю, как запустить самую мощную открытую нейросеть Llama 405b на своем сервере. Описание модели Llama 405b на сайте Meta* Сервер покупал тут: Прикладная конференция по Data Science AI conf 2024: Описание модели Llama 3.5 405b instruct AWQ на huggingface: Доступ ко всем сайтам получаю тут: vllm - проект по инференсу нейросетей: Рейтинг нейросетей: Мой телеграм канал: В rutube дублирую видео. Подписывайтесь на случай замедления ютуба: Команда для запуска vLLM в докере: sudo docker run --ipc=host --log-opt max-size=10m --log-opt max-file=1 --rm -it --gpus '“device=0,1,2,3“' -p 8000:8000 --mount type=bind,source=/home/ubuntu/.cache,target=/root/.cache vllm/vllm-openai: --model hugging-quants/ --tensor-parallel-size 4 --gpu-memory-utilization --dtype half -q awq --disable-log-requests Таймкоды: 0:00 Llama 405b 0:55 Файлы нейросети 1:40 Покупка сервера с 4 gpu A100 4:12 Установка docker 5:18 Запуск сервера vllm 7:15 Первые ответы 9:20 бенчмарк- тест скорости сервера 11:15 стоимость запуска 12:50 еще один тест 15:30 выводы * Признана экстремистской организацией в РФ. Реклама. ООО «ДТЛ». ИНН 9717073792. erid: LjN8K1LTF

Share with your friends

Link:

Embed:

Video Size:

Custom size:

x

Add to Playlist:

Favorites
My Playlist
Watch Later