Хорошо они input lag показали
Она никак не может помочь, если у тебя генерация кадров включена. Потому что, чтобы нарисовать эти выдуманные фреймы, нейронке нужен следующий кадр. Она между двумя кадрами интерполирует. Значит всегда добавляется дополнительная задержка 1/fps. Текущий кард рисуется на экране, только после того, как следующий был игрой отрисован. Включать эти фейковые кадры, чтобы разогнать со 100 фпс до 400? Нафиг надо. А если ты с 20 до 80 поднимаешь, то у тебя как минимум 50мс лага добавляется и ничего с ним не сделать. Но на практике там все гораздо хуже чем эти 50 мс.
то есть впариватели видимокарт в очередной раз придумали поебню, которая приносит только неудобства?
А еще маркетинг! 5070 с производителностью 4090! Покупай! Чем больше ты покупаешь - тем больше ты экономишь! В 4 раза больше кадров по цене одного!
То есть, надо знать когда и что включать, если у тебя тв 144 герца и игра выдаёт без генератора 50-60 кадров, то для диванного гейминга с гейпадом вполне можно и подрубить генерацию.
Другое дело, что ни кто толком это объяснить простому обывателю не может, вводя его в заблуждение.
Другое дело, что ни кто толком это объяснить простому обывателю не может, вводя его в заблуждение.
Разница между 60 и 144 кадрами в играх офигенно ощутимая на глаз.
не знаю насчёт 144+, но от 60 до 144 разница всё такие есть, может я правда попадают в небольшой процент её замечающих
Хуйню сказал. Между 60 и 144 фепесами охуеть как разница. Картинка в разы более плавная и приятная.
Я в сталкер 2 наиграл более ста часов с включенной генерацией кадров и с ДЛСС на качество, и импут лага не чувствовал. Спокойно хедшоты болванчикам раздавал, и в целом комфортно было играть. Хотя, возможно это из-за того, что у меня и без генерации ФПС нормальный.
Чем больше кадров изначально тем лучше, как напасли выше задержка идет минимум в 1фпс, что бы взять с него информацию. Соответственно при 30фпс это 33мс, а при 60фпс уже 16.6мс. Чем больше фпс до генерации, тем меньше влияние задержки. Ну а серьезные проблемы начинаются когда хочешь из 16 фпс (лучи ультра и тд случаи, как на презентациях нвидии) получить 60фпс, сам понимаешь какая там задержка появляется.
Сталкер 2 на 4080 едва проходим (либо мало фпс, либо инпутлаг), хз как вы этого не ощущаете. Видимо, тут реально как с 60 и 144 фпс, не каждый видит разницу. Я вижу, увы. Лучше бы не видел.
Чего? У меня 4070 super, играю на максимальных, в quad hd, ФПС 120+, ровный фреймтайм. Да, на релизе была жесть, особенно в поселениях, но после нескольких патчей всё стало отлично, конкретно у меня.
И разницу между 60 и 144 ФПС очень сильно ощущаю, собственно, поэтому я и играю с генерацией кадров.
И разницу между 60 и 144 ФПС очень сильно ощущаю, собственно, поэтому я и играю с генерацией кадров.
Хм, я как раз на релизе и играл (правда, уже были моды, убирающие плавающую мышь, например). Если стало лучше, то может быть и попробую ещё раз (если на торрентах актуальная версия будет). Просто смотрел недавно сравнения, и там разницы было 0 целых хрен десятых по фпс.
Штанга должна быть надувная.
Добрый человек. Под весом пыхтишь: "Сам! Сам!" А он: "Я почти не помогал, только траекторию подправил".
А потом этот чибзик приходит в зал без помощника, и на следующий день уже танцует в деревянном бушлате с шестью неграми.
интересный у тебя зал

К сожалению это новая реальность
Ни видеокарт
А зачем тебе видеокарты?
Квартиру обогревать.
Будем кидать ветка огонь и смотреть цветная стена в пещера
Скорее вырастет поколение, которое будет воспринимать это как должное и им будет заебись. А нас ты уже не заманишь фейковыми кадрами
норм заминусили потому что я не засрал длсс хотя и не защищал. Просто написал что это технология и ей есть место. Типичные риззз геймеры меча и магии на протяжении четверть века
С gtx950
Ну может просто ты немножко глупость сказал? Каким образом можно убрать "вязкость" управления в "ненастоящих" кадрах? Из того что я пока пробовал - при низких РЕАЛЬНЫХ фпс инпут лаг просто катастрофа.
не реально читают жопой. ЧЕРЕЗ НЕСКОЛЬКО ПОКОЛЕНИЙ я написал как бы. Я не написал что вот прям сейчас с 10 фпс сделать 999 и бует кайф. Я как бы написал что ДА БЛЯТЬ, сейчас мы терпим не лучшие времена. Пиздец сами придумали себе чет что я вообще не имел ввиду
Я написал к сожалению потому что эти времена могут затянутся это раз. И два есть ощущение что чем сильнее будет развиваться dlss тем сильнее будут класть болт на оптимизацию. Это уже сейчас прослеживается. Вот и получается борьба впринцыпе крутых технологий с желанием сэкономить время и главное бабло. Так сказать кто кого.
какую оптимизацию буквально вина того ,что все игры еле пашут на топовых видеокартах это говно движок анриал енжин версии 5 на которые все подсели
Вы как бы все забыли наверное что техпроцесс почти достих совершенства. Все что остается это добавить памяти и разогнать частоты, ну тогда ваш радиатор будет размером с еще один пк и потребление в киловат одной видеокартой
Может проблема в том что ты думаешь жопой? Сам ниже пишешь что уперлись в тех процесс, а значит с поколениями будет расти только мощность. Но как это избавит от импутлага? Если будет условный стандарт в 120 кадров из которых реальных только 30
Я уже лет 10 не могу назвать себя геймером, сейчас поигрываю разве что в гачи. Недавно решил поиграть в паука и врубал все эти приблуды. И не могу понять, почему такой хейт в их сторону? Вроде фпс стабильный, картинка норм. Вроде говорят что мылит, но я если честно не замечал. Мне бы это все в мои 15, когда я обливион играл с 15 фпс с расширением в hd(не фулл, а просто hd)
Сама технология вроде классная, а в то же время и нет. Если комп слабый то рисование доп кадров и сглаживание с нихуя не работает, отсюда и хейт, если нормальный но особой разницы 60 или 240 чесно говоря и нет особо.
Far Cry проходил на встройке от Intel Atom на 10.1" нетбуке с разрешением HD, все игры для меня делились на "она запустилось", "оно не запустилось". Сейчас на 3090 дойобы если какой-то с крутеляторов громко шумит, раньше мог играть на пылесосе и было пофиг.
>сейчас поигрываю разве что в гачи
Кстати, эта гифка случайно не из начала новых гачимучи?
Кстати, эта гифка случайно не из начала новых гачимучи?
Я думаю все от монитора зависит. Я с ноута играю и подключал на него разные мониторы. В 2к и 27 дюймов все ок а вот в 2к и 32 дюйма уже видны косяки. А на родном 16 дюймов вообще все огонь. Это я на примере cyberpunk говорю.
Я играю на среднебюджетном телеке lg с 4к. Сижу конечно на расстоянии. Да и может я просто реально не так часто играю в ааа игры, чтоб заметить и видеть прогресс в картинки. Так сказать нормис .
Я сейчас хочу перейти с ноута на 4060 на ноут 5070ti тупо потому что вижу что не хватает видеопамяти. Прям вижу как во многих играх в 2к все упирается в видеопамять а видяха недогружена.
Получишь прирост равный нихуя.
Тоже думал перейти с ноута с 3070ti на 5070ti.
Посмотрел на цены на эти ноуты, собрал десктоп и взял стимдек и пива на оставшееся.
Посмотрел на цены на эти ноуты, собрал десктоп и взял стимдек и пива на оставшееся.
Если есть возможность собрать комп, то это круто. Я вечно в разъездах и только поэтому покупаю ноут а не комп. Меня при покупке нынешнего ноута жаба задушила докинуть и взять что-то на 4080 и в итоге был выбор между 4060 или докинуть столько же и взять что-то на 4080. А насчет цен, буду брать китаца. Есть еще и возможность взять китайца именно с китая а там все не так плохо выходит. r9-9955hx-5070ti за 110к можно взять. Сейчас цены устаканятся выбор появится и можно будет выбирать.
щас бы пытаться почувствовать инпут лаг в типичном соснольном порте, где и стрельбы никакой нет, и камерой не дёргаешь резко по каждым углам
инпут лаг важен в соревновательных играх, в том же теккене это прям лютая попоболь, но ты ничего не можешь с этим сделать, так как там надо четкие 60 фпс, иначе игра автоматически графику превращает в мазню на 30% прорисовки.
Ты бы сначала пощупал эту новую реальность, а потом в сожаления пускался

Юбисофт добавляют пхайсикз для красивой анимации рассыпания глинянного голема, игра начинает работать в 3-7 фпс.

RTX 50 without DLSS
Все-таки возьму 3060 12 Гб без этого дерьма
тогда уже 3060 ti, там хоть и 8 гб но производительность выше на 20-30%, по цене они одинаковые
зато на 12гб можно больше нейронок запускать локально
Ну тут палка о двух концах. Или наверное даже о трех. С одной стороны есть куртка которая зажала память. Но в остальном неплохие видяхи, есть красные которые вроде и памяти дают и мощности ок. Но толи с оптимизацией что-то не так толи еще с чем-то. Не теснят глобально зеленых. Ну и синие которые только сейчас решили начать что-то делать. Ну и dlss тоже дает о себе знать. Технология призвана чтобы помочь тем кто сидит на среднем железе а игроделы по ощущением ей свою криворукость затыкают и лень.
Ведь тест нейронок это 1 в 1 игровой тест)
Так надо было сравнивать на модельках которые в 8 гб не влезают.
есть нейронки которые в 8гб попросту не влезут
то есть, на 3060 они будут работать нормально, а на 3060ти либо не запустятся, либо будут работать на около-никакой скорости поскольку будет задействована оперативка вместо видеопамяти
то есть, на 3060 они будут работать нормально, а на 3060ти либо не запустятся, либо будут работать на около-никакой скорости поскольку будет задействована оперативка вместо видеопамяти
Погоди, они реально выпустили ti версию с меньшим объёмом чем не-ti версия????
Да
А я, пожалуй, двинусь дальше вглубь веков и возьму 2070 Super
1080ti на 12гб вполне норм.
у 1080ti - 11ГБ. Все чаще и чаще новые игори будут посылать её нахуй из-за отсутствия RT.
Ну послали и послали - пройду на ютьюбе, лол…
Vega64 Pro c 16 Gb и линух с софтверной эмуляцией RT лучей на красных карточках.
Вот Индиана на 8 гиговой версии к примеру:
Купил 4060 даже rtx не включал ни разу. Не вижу смысла, графика лучше на 10 процентов, нагрузка выше на все 50, ну и нахуй это мне надо, чтобы пк шумел как самолёт?
Но лучи это куда ни шло, хотит подрочить на свет, да удачи. Я не понимаю вот этой хуйни: во всех(или почти всех) играх на пресете ультра всегда включены реально мусорные технологии. Такие как размытие в движении, глубина резкости, зернистость, ну обьясните мне тупому нахуйя мне или кому либо ещё это говно? Чисто засрать картинку мылом без всяких нейронок?
Мне нравится наличие хроматической аберрации. То, что считается дефектом линзы, выставляется как фича..
Чтобы написать коммент, необходимо залогиниться
Отличный комментарий!