Создаем генеративные 3Д-миры. А теперь смотрите, какой неожиданный выход можно сделать из этих новых 20-секундных video2video on Runway. Помните я тут писал, что теперь можно каждому дать свой метаверсик, просто пропустив все, что он видит в умных очках через нейрорендер типа vieo2video. Так вот, можно этот метаверсик еще и восстановить в 3Д. Что здесь происходит? Берется болванка головы в Блендоре и делается облет камерой на 20 секунд. Этот черновой рендер-облет кормится в video2video от Runway Получается Девушка на стиле. Дальше 20 сек растягиваются на 40 сек (в данном случает с помощью RunwayML's super slow-motion interpolation) И это просто идёт на вход в Polycam to generate the 3D model. Нейрофотограмметрия, кусающая свой хвост. Надо сказать, что изначально LumaLabs занималась примерно тем же, перед тем как заскочить в поезд видеогенераторов. Ну и я когда смотрю на все эти видеогенерации, то постоянно думаю, как как оттуда достать все эти их неявные трехмерные представления? А вот так примерно...
Hide player controls
Hide resume playing