Результат работы нейросети DAIN, которая создаёт из набора кадров плавные анимации, синтезируя промежуточные потоки.
Синтезировать жизнь когда будут учить?
Сначала распечатанный бутерброд (массово) и клонированные органы.
Потом кошка-жена на любой вкус.
Потом кошка-жена на любой вкус.
можно в обратном порядке?
Много кошка-жена - нечго кормить, кошка-жена умирать, китайская гражданин умирать - плохо. Великий стержень огорчён
Увы, инвестиционный рынок так не работает.
Сначала технологии нужно обкатать. Обкатанное -- отбить в максимально краткое время.
Эксперименты с биохимией проще всего отбить через массовое питание и медицину. Там денег прорва. Еще всякие омолаживающие крема-помады для жопы, но там основные финансы крутятся в рекламе, а не в разработке продукта.
На всем этом можно заработать достаточно денег для создания андроидов.
Еще примерно столько же денег, подозреваю, что бы решить чисто юридические проблемы (это как сейчас с клонированием человека).
Сначала технологии нужно обкатать. Обкатанное -- отбить в максимально краткое время.
Эксперименты с биохимией проще всего отбить через массовое питание и медицину. Там денег прорва. Еще всякие омолаживающие крема-помады для жопы, но там основные финансы крутятся в рекламе, а не в разработке продукта.
На всем этом можно заработать достаточно денег для создания андроидов.
Еще примерно столько же денег, подозреваю, что бы решить чисто юридические проблемы (это как сейчас с клонированием человека).
>>но там основные финансы крутятся в рекламе, а не в разработке продукта.
Рекламная индустрия давно уже начала напоминать раковые метастазы.
Рекламная индустрия давно уже начала напоминать раковые метастазы.
Ну бля, ты же сам видишь как те же соцсети мутируют в рекламные площадки, с накрутками лайков и просмотров.
Из-за несовершенства процесса, будет кошка-жена из распечатанных бутербродов похожих на клонированные органы.
Зато будешь внукам своим рассказывать, что вот в наше время было ого-го что было, а вы щенки избалованные.
Можно, делай.
А кота-мужа можно?
Можно, делай
Большинство примеров с последовательными движениями объекта вдоль кадра, такое и обычный смарт-телевизор неплохо сглаживает. Сложнее выходит со сценами, где, скажем, человек поворачивается, или приближается к камере, и так далее. Сам немного пользовался этой штукой для сглаживания гифок, штука хорошая, но область применения пока сильно ограничена.
Технологиям таких интерполяций уже лет 20. Теми же Твикстерами для аниму-клипов с конца 00-х все кто не попадя балуются, а в Adobe AE уж лет как 5 назад встроенный есть. Сейчас интерполяция разной степени паршивости уж чуть не в каждом втором аниму-кубе присутствует
Еще немного, и всяческие блокбастеры с сериалами будут клепать на коленке все подряд, кому не лень. Примерно как сейчас картинки в фотожопе и 3D референсы.
Небось десяток фанатских стартреков и пяток "Светлячков" как пить дать появятся. И не только в порноверсии.
Небось десяток фанатских стартреков и пяток "Светлячков" как пить дать появятся. И не только в порноверсии.
... И будут не хуже, а то и лучше "официальных". В том числе и порнушные.
Так подобная технология достроения кадров уже давно в телеках используется. Из-за нее получается "эффект мыльной оперы". Я до того, как нашел, где это в настройках выключить, чуть новый телек не продал, настолько мудово на нем фильмы было смотреть. Властелин колец любимый с этой чудо-технллогией выглядел как толпа ролевиков на выезде.
Так вот как эта хуйня называется, спасибо!
На LG такая штука была, TrueMoution вроде называлась. Хорошо смотрелось это только в аниме и мультфильмах. В кино картинка портилась сильно, особенно в динамичных сценах
А мне наоборот, так больше нравиться(воспринимаеться реалестичнее). Сам юзаю SVP на компе(подгоняет кадры фильма под частоту монитора). Хотя последнее время больше онлайн сомтрю на скорости х2-х3(VSC для хрома).
Согласен про "эффект мыльной оперы" , становится просто отвратительно, НО: лучше не совсем отключать эти настройки,а шаманить, что на тв Самсунге что на Сони удаётся подобрать такое сочетание, когда и эффекта этого зловещего не создаётся, и в то же время чуть по чётче становится в сценах с движением. Обычно там чтонибудь типа параметров "Сглаживание " и "Чёткость" , и вот сглаживание на минимум, а Чёткость, по-пацански, на побольше, и тогда здорово выходит
Слава роботам! Плавно анимировать всех человеков!
Где это может применяться? Я без сарказма сейчас, потому что не верю что такая работа была проведена "Во славу Сатаны"
Например, я проверял прогу Flowframes, норм работает, можно юзать для экономии времени рендера анимации. Анимация должна быть такая, чтобы инормации о движении было достаточно, чтобы ИИ смогла понять, куда че движется, иначе могут быть артефакты.
В видеомейкинге, рекламе
Смотри, моя Сонька а7iii снимает 4к видео в 30 фпс. Если снимать ту же предметку покадрово, я могу сделать дохулиард кадров в секунду размером 6000х4000 пикселей. Реально крутая вещь
Смотри, моя Сонька а7iii снимает 4к видео в 30 фпс. Если снимать ту же предметку покадрово, я могу сделать дохулиард кадров в секунду размером 6000х4000 пикселей. Реально крутая вещь
Основная проблема всякой анимы это как раз дохулиард промежуточных кадров между ключевыми позами, которые надо рисовать вручную, точно так же редактирование фильмов работает покадрово.
Мест где его можно применять дофига, другое дело, что дальше гифок для сбора классов оно так и не перешло в разряд коммерческого продукта.
Мест где его можно применять дофига, другое дело, что дальше гифок для сбора классов оно так и не перешло в разряд коммерческого продукта.
Ну да, мультипликация подходит. Но в примерах обычное видео. И вообще, умеет она работать с нарисованными изображениями?
Мультипликация не подходит, промежуточные кадры создаются по другому принципу. Вообще интерполяция это больше повыебываться и лоху 60 кадров продать, чистый маркетинг.
А я бы глянул классику, пропущенную через эту сеть.
Делать кукольные мультики быстрее если оно рендерит дешевле чем руками анимировать.
Любители интерполяции кадров в анимации:
ну чувствую многое аниме неплохо бы приобрело в качестве от данного эффекта
Уже много раз обсуждалось, что аниматоры задумывают каждое движение именно с той частотой кадров, с которой они делают. Они подгоняют изображения во фреймах именно под 24 или 12 (или кто сколько юзает). Это их задумка и так и должно быть. Интерполяция нарушает все эти задумки и делает масло масляное с артефактами.
Да, аниматоры могли бы делать все в 48, но тогда это занимало бы в два раза больше времени.
Да, аниматоры могли бы делать все в 48, но тогда это занимало бы в два раза больше времени.
теперь драки в аниме будут вообще топчик
https://sites.google.com/view/wenbobao/dain здесь и видео есть
Упрощение анимации стоп-моушн. А насколько быстро оно рендерит?
Чтобы написать коммент, необходимо залогиниться