repo2vec: простая библиотека, позволяющая общаться с публичным или частным репозиторием. Иногда просто нужно узнать, как работает код и как его интегрировать, не тратя часы на изучение самого кода. Repo2vec - это как GitHub Copilot, но с самой актуальной информацией о целевом репозитории. Возможности: Простая настройка: запустите пару скриптов и у вас будет функциональный интерфейс чата для вашего кода; Документированные ответы: каждый ответ показывает, откуда в коде был извлечен контекст для ответа; Работает локально или в облаке: вы можете использовать Marqo для эмбеддинга векторного хранилища и Ollama для чата с LLM или настроить эмбеддинги OpenAI Pinecone для векторного хранилища OpenAI или Anthropic для чата LLM; Plug-and-play: каждый компонент конвейера легко заменяем. Инженерные стандарты уровня Google позволяют вам настраивать все по своему усмотрению; Индексация Issues (опционально): вы можете дополнительно индексировать issues, установив ключ —index-issues. И наоборот, вы можете отключить индексирование кода (и индексировать только issues), ключом —no-index-repo. Помимо self-hosted варианта для приватных репозиториев, repo2vec существует в виде бесплатного онлайн-сервиса индексации публичных репозиториев Github - Code Sage . Установка на примере Marqo , Ollama и чатом в GradioUI: pip install repo2vec docker rm -f marqo docker pull marqoai/marqo:latest docker run —name marqo -it -p 8882:8882 marqoai/marqo:latest index github-repo-name —embedder-type=marqo —vector-store-type=marqo —index-name=your-index-name chat github-repo-name —llm-provider=ollama —llm-model=llama3.1 —vector-store-type=marqo —index-name=your-index-name Лицензирование : Apache 2.0 License. Github
Hide player controls
Hide resume playing