Open Source Video2Video - работает локально. Это удивительно, конечно, наблюдать, как с опозданием в 2-3 месяца фишки, которые мы наблюдали, роняя челюсти, в Runway или Kling начинают появляться в опенсорсных сборках. Да, они сходу работают кривовато, качество треш по большей части, но оно РАБОТАЕТ. Ну то есть замысел и алгоритмы заводятся на кургузых опенсорсных чекпойнтах и главное отличие в том, что у энтузиастов не было денег, возможностей и компьюта, собрать конские датасеты, перемолоть их в тренировке и задрать качество. Но дайте время. И когда я вижу, что появляются image2video, video2video, маски для видео, глубина ( MoGe ) на гитхабе, я стараюсь все попробовать, чтобы убедиться, что это не фейк. И это не фейк, это работает локально. И когда Барак Обама улыбается и кивает тебе на видео в нужном ракурсе, хотя у тебя было только видео девушки и текст “Барак Обама улыбается“, то ты понимаешь, video2video работает. Тут ирония в том, что не было ни одной картинки на входе. Девушка - это text2video в Pyramida Flow. Остальное - это video2video в MochiEdit - этакий контролНет для видеогенерации. Его можно завести в Комфи вот отсюда: или отсюда: Обещают поддержку CogVideo и других.
Hide player controls
Hide resume playing