Ты че, двойку от тройки отличить не можешь?!
Без тестов все их рассказы про производительность - всего лишь пиар и реклама.
Ты че, двойку от тройки отличить не можешь?!
Это все равно что отличить пятерку от семерки
Никогда такого не было и вот опять!
что самое забавное, даже если и не врут, это есть нормальный рост производительности при смене поколений.
Правда маркетолухи слегка передернули понятия, и теперь каждому дятлу очевидно, что сравнивать надо не топ с топом, а очень даже топ с мидом. И еще неделю-две-три подобных высеров на главной будет полно.
Правда маркетолухи слегка передернули понятия, и теперь каждому дятлу очевидно, что сравнивать надо не топ с топом, а очень даже топ с мидом. И еще неделю-две-три подобных высеров на главной будет полно.
Вообще вещь ценой в 500 баксов нужно сравнивать с другой вещью ценой в 500 баксов. А уже как оно называется и является ли топом, предтопом, мидлом... ваще похуй, мне важен конечный результат на мониторе и по барабану как будет называться вундервафля в в системнике и сколько туда маркетолухи добавят приставок "супер-пупер про тиай".
сюрприз - вещь за 500 баксов это 2070. Которую в момент выхода называли оверпрайснутым говном, а теперь уже все попривыкли и даже рады ценику в пол-тыщи за среднюю в поколении карту.
Я покупал БУ 1080 ти за 450 баксов с рук (пломбы вроде на месте, даже бумажка-гарантия стременного интрент магазина была в коробке). И что теперь?
а я брал на халяву целый комп. Что, отныне системники бесплатны?
Суть в том, что на момент выхода официальный прайс(ну, нвидеевский) за 1080ti - 700 баксов. для некоторого контекста, 1070 - 380.
Потом вышла двадцатая серия, ее расценки на момент выхода - 2080ti - 1000 баксов, 2070 - 500.
Кэп намекает, что сравнивать надо 2070 и 3070, но поскольку rtx в 2070 сосал просто ураганно, то строить график с приростом в стопицот раз как-то палевно. Ну и сравнили с 2080ti. Грац, чо. Могли б и с титаном сравнить, результат был бы схожим.
Потом вышла двадцатая серия, ее расценки на момент выхода - 2080ti - 1000 баксов, 2070 - 500.
Кэп намекает, что сравнивать надо 2070 и 3070, но поскольку rtx в 2070 сосал просто ураганно, то строить график с приростом в стопицот раз как-то палевно. Ну и сравнили с 2080ti. Грац, чо. Могли б и с титаном сравнить, результат был бы схожим.
Напиши мне в личку, где брать на халяву компы
Рост есть это факт, осталось понять цифры этого роста. Понятное дело что 8нм тех процесс снизил энергопортребление, больше куда ядер увеличило производительность до 30 тфлопс, и все вот это вот.
Но если прирост 3080 в обычной игре без RTX и DLSS по сравнению с 1080 TI не больтше 40% я пожалуй подожду.
3090 это вообще не понятно нахуя и зачем большей части геймеров т.к. разница 6 тфлопс с 2080 а цена в 1.7. И почему не показана она в сравнительных графиках. Памяти и 3080 хватит для игр.
Но те кто купили недавно 2080TI за 1000-1200 явно в депресняке.
Но если прирост 3080 в обычной игре без RTX и DLSS по сравнению с 1080 TI не больтше 40% я пожалуй подожду.
3090 это вообще не понятно нахуя и зачем большей части геймеров т.к. разница 6 тфлопс с 2080 а цена в 1.7. И почему не показана она в сравнительных графиках. Памяти и 3080 хватит для игр.
Но те кто купили недавно 2080TI за 1000-1200 явно в депресняке.
3090 возможно для программ, работы и бизнеса. Там было в демо что рендерниг на ней значительно быстрей с рейтрейсингом.
3090 - это некий симбиоз рабочеигрового решения, оно и под 8к гейминг и под рабочие станции вычислений и рендеринг и т.д. и т.п. Аля ТИТАН но и не серверный.
Кстати интересно почитать условия использования в ДЦ, в СНГ да и ряде стран Европы клали на лиц.соглашения, да и уровень Дата Центра в Tier без сертификации писали, но титаны можно было в коммерческом использование использовать, 2080 ti и меньше нельзя.
Кстати интересно почитать условия использования в ДЦ, в СНГ да и ряде стран Европы клали на лиц.соглашения, да и уровень Дата Центра в Tier без сертификации писали, но титаны можно было в коммерческом использование использовать, 2080 ti и меньше нельзя.
8 к гейминг? Ебать ты лицо открыл, смотри что бы хотя бы 4к поборол.
Честно? 1080ти с головой для 4к гейминга хватает прямо сейчас. Менять на 2080ти было нерационально дорого, а 3080 как раз идеально вписывается если прирост окажется правдивым. Естественно RDR2 и индусы смогут SLI 3090 сасай сделать, но это исключения.
да, я по этому и написал "зачем большей части геймеров". Понятное дела что будет спрос раз ее маркетологи включили в эту линейку и у бизнесса-работы и у геймеров. Она мощнее, но для большей части геймеров по соотношению доллар-производительность вряд ли будет сильно интересна.
она занимает нишу топовой карты, а чтобы у хомячков шаблон не порвался от ценника в полтора раза от предыдущего и в два от десятого поколений, ее перенумеровали. Вот и все. Потом, естественно, выйдет и TITAN, и какой-нибудь 3090ti super. Где-нибудь через годик.
зря минусят - графики на презентации 3й серии в основном DLSS + RTX в сравнении c 2080 RTX. Интресны тесты игр которые не поддерживают DLSS и без RTX и даже в сравнении с 1080 TI.
Охуеть, они тестировали 3-тью серию в основном c DLSS + RTX в сравнение с 2-ой где НЕОЖИДАННО тест на DLSS + RTX! Как они могли? xD
Да потому что не все игры поддерживают RTX, основной прирост как раз там. Так вот если ты не играешь в игры с RTX для тебя это прирост или нет? Пусть покажут прирост без RTX.
DLSS вообще веселая тема которую опять же поддерживают не все игры. Апскейл за счет АИ это замечтельно, но модель для этого АИ должна поставляться в драйверах и апдейтиться. И тут возможно или будет потеря производительности на играх без DLSS или кривая картинка.
Короче пусть возьмут и покажут реальны прирост растеризации и прочего без DLSS и без RTX
DLSS вообще веселая тема которую опять же поддерживают не все игры. Апскейл за счет АИ это замечтельно, но модель для этого АИ должна поставляться в драйверах и апдейтиться. И тут возможно или будет потеря производительности на играх без DLSS или кривая картинка.
Короче пусть возьмут и покажут реальны прирост растеризации и прочего без DLSS и без RTX
Ну я думаю, с какими комбинациями технологий был наибольший прирост - тот они и презентовали)
Давай будем откровенны, rtx у 20 поколения сосет, а больше этой линейки похвастаться нечем(кроме обычного прироста в около 20-30%, да ценника раза в полтора). И если они наконец-то довели rtx до ума, то это просто подарок для красивых графиков.
Я хз, много ли в каких играх есть RTX и включают ли его вообще. Отжирает ФПС он знатно, а с топовой видяхой хочется либо 144-240 ФПС, либо 4К текстурки, а не "ну если пригледеться вот в этой сцене с вот этого угла, то свет и тени выглядят чуть лучше".
Вот DLSS выглядит интересно, правда опять же, в каких играх оно будет и кто будет его юзать - другой вопрос.
Вот DLSS выглядит интересно, правда опять же, в каких играх оно будет и кто будет его юзать - другой вопрос.
144-240 fps конечно классно, но я на 1080ti с заводским разгоном в среднем вижу 40-55 fps, если заменить мать, оперативку и проц то может около 60 и было бы, но сомневаюсь, так что тоже с нетерпением жду реальных тестов хотя бы от ряда обзорщиков которые пилят не только заказные видео. Если будет 60-75 стабильных FPS без всяких улутшалок то подожду месяцок-другой и на НГ может быть куплю.
Та же хрень, тоже хочется уже поменять, но если там 30-40% прирост то как то и жаба давит)
DLSS только родился и стандартом начнёт становиться года через 2 только (вряд ли раньше), а до тех пор людей будет интересовать чистая производительность в играх без поддержки DLSS
Ну они зачем-то прям сильно йобнули, перешли с 16 (типа 12, но 16 от тсмц), убежали к самсунгу на 10+ (8 типа) и просто удвоили плотность чипов.
Скачок будет, но не понятно, как они дальше будут пилить что-то еще мощнее.
Скачок будет, но не понятно, как они дальше будут пилить что-то еще мощнее.
В любом случае все это вилы по воде, пока не получим:
а) Производительность в играх
б) цену на рынке.
а) Производительность в играх
б) цену на рынке.
Нихуя это не вилы по воде, там тупо в 2 раза больше транзисторов.
Прирост конечно не совсем линейный, но прям взрывной.
А вот че делать на следующие поколения-хз, слишком сильно ебнули.
Прирост конечно не совсем линейный, но прям взрывной.
А вот че делать на следующие поколения-хз, слишком сильно ебнули.
Для этого пока клиент доится 10 лет по сути одними и те ми же чипами, разрабатывается новый чип, на этой архитектуре, еще года 2-4 протянут, может быть даже 6-7, и по сути вот тебе и условные 10-15 лет на придумать что то новое, более эффективное. Раньше это работало. И сейчас сработает.
Вот собственно чистый прирост в шейдерах, в думе ни ртх, ни длсс, причем он мощно оптимизирован. Причем с некоторой долей вероятности это не все 30 (а у обычной 2080 10) тфлопс, либо из-за процессора, либо из-за видеопамяти. (ну или чисто, опять же, не совсем линейный рост.
Ого, но если и правда, то срочно посыпаю голову пеплом от своей 2080. С другой стороны она мне по дешевке досталась от таджика, который её со склада спиздил.
Ненужный таджик в нужном месте может изменить мир
Из видео DF ясно, что 3080 примерно на 35-45% быстрее 2080Ti в рендеринге геометрии (без DLSS/RTX). По крайней мере из тех тестов, что были показаны.
И эта инфа отлично стакается со всеми предыдущими сливами (где была цифра в ~40%).
И эта инфа отлично стакается со всеми предыдущими сливами (где была цифра в ~40%).
Это же ебануться какой рост. Смотрел конфу с отвалом челюсти. Я конечно всякого ожидал, но куртка знатно удивил.
Понятное дело, что надо дождаться независимых тестов, но хочется верить уже сейчас.
Понятное дело, что надо дождаться независимых тестов, но хочется верить уже сейчас.
Воть инфа https://3dnews.ru/1019650/amp
Так были уже тесты от диджитал фаундри.
Клоуны которые покупают новые видюхи за оведохуя сразу после выхода имеют на это деньги и теперь либо сбарыжат свои видяхи на вторяк за пол-цены либо вобще выкинут в мусорку и возьмут себе новую видюху.
Это как с айфонами у яблойдов.
Это как с айфонами у яблойдов.
"Это как с айфонами у яблойдов"
Схватить у оператора в кредит за двойной оверпрайс и тариф в нагрузку новенький айфон, через неделю расколоть экран и через год брать в кредит такой же айфон, только с другой ыиферкой в названии? Серьезно? С видюхами так же?
Схватить у оператора в кредит за двойной оверпрайс и тариф в нагрузку новенький айфон, через неделю расколоть экран и через год брать в кредит такой же айфон, только с другой ыиферкой в названии? Серьезно? С видюхами так же?
как с айфонами? значит и кредиты точно так же берут?
Я написал клоуны, а не люди которые могут позволить себе ежегодную покупку дорогой электроники и не только. Лично у меня по крайней мере есть такой знакомый, который хвастался покупкой 2080ти, которую он купил продав за пол цены свою 1080ти и докинув свои отпускные и отпускные жены.
Итого, плохие те, кто покупает дорогую вещь, которую, по хорошему, не может себе позволить. При чём тут конкретно видяхи? С выходом следующего поколения цена тоже будет меньше за большую производительность, когда было по другому?
Не "плохие", а недостаточно смышлёные. И по поводу когда было по другому - вы забыли 2018 год, анонс и выход rtx 20 серии когда все получили прирост в 20% в лучшем случае а увеличение цены на 50% на некоторые карточки (собсно именно на них и был прирост в 20%?
не-не-не, ты говорил про клоунов, без условностей что входит в это понятие и судя по тону - клоуны это все .кто может купить топовую железку на старте продаж, а не кто в кредит + свои почки за нее отдают.
Ты мне будешь сейчас рассказывать что я имел ввиду а что нет? Забавно.
Ну если ты не умеешь с первого раза донести мысль, а плаваешь в стилистике "вы не так поняли, мы другое имели ввиду" - буду.
Что-то анекдот про клоунов вспомнился: ебёт как-то один клоун другого и тот которого ебут, говорит:
-Так не смешно же
-Так не смешно же
Нахуя с зарплатой в 25к брать 2080ti?
Он очень хотел посмотреть лично на лучи в 3 или сколько их там недоиграх, получивших поддержку rtx в 2018-2019 году. Ну шо я могу сказать - посмотрел.
Ну главное, что он счатлив, а мнение знакомых, которые потратили бы эти деньги лучше, сам понимаешь. Вещь, которой можно пренебречь.
Нахуя с зарплатой в 25к вообще жить?
нахуя с зарплатой в 30 брать крузак в кредит и при этом жить в бабушкиной однушке с женой и 2 детьми как это делает мой знакомый? Потому что люди идиоты
Кто тебе кредит-то на крузак даст с зп 30к?
И что? Те, кто на старте купил 20 серию, точно так же сейчас может купить и 30ю. Да, потратил деньги, и что? Кого это больше задевает, тех кто тратит, или тех, кто смеется над ними.
Тех кто хочет, но не может быть на их месте. Такие всегда наиболее громко обвиняют окружающих в чем бы то ни было.
Читай выше, не буду повторять одно и то же по 30 раз.
Смирись. Если ты купил что-то дороже, чем конкретный комментатор, то ты лох и переплатил. Итого, если хочешь быть на коне - используй видеокарту семилетней давности, которая "всё ещё тащит на средних новые игры, отвечаю"
Посмотри на клоунов с 20-й серией и на меня. Снова на клоунов и на меня. Да, я на коне.
У меня есть этот пони, его нужно было похоронить вдень релиза.
Угу, учитывая бум шахтерства - это нередко лучшее, что мог себе позволить средний гамер, с гиперпнем.
Человеческий глаз больше 25 не видит. Зачем тебе больше, ты что муха?
А сколько видит кукурузный глаз?
1. Ну все люди тратят деньги на всякие вещи для развлечения, ну кроме людей у которых даже на еду не хватает.
2. Многие зарабатывают более 1000$ в месяц. Нужно ж деньги тратить. Почему бы и нет.
2. Многие зарабатывают более 1000$ в месяц. Нужно ж деньги тратить. Почему бы и нет.
Это сравнение габаритов видеокарт?
А играть мы будем все равно в инди.
В героев лучше
Кому в игры играть, а кому fps'ы считать в 8k.
Ловлю!
*лолю
Подскажите, если у меня на материнке pci 3.0 (ASUS PRIME X470-PRO), а видюха имеет версию pci 4.0, то материнку нужно менять?
Нет.
У них новая технология, позволяющая прямо с SSD подгружать данные, но в полной мере это раскроется лишь на pcie 4.0. В остальном все будет работать и на pcie 3.0
У них новая технология, позволяющая прямо с SSD подгружать данные, но в полной мере это раскроется лишь на pcie 4.0. В остальном все будет работать и на pcie 3.0
Ты забыл добавить что SSD в обязательном порядке должен быть М2 с PCI-e контроллером, а всякие sata даже через М2 идет лесом.
Ага. Сейчас жалею, что взял NVMe SSD на 500Гб, а не на 1Тб. Чую, игры сожрут его весь. Кто ж знал, что сама видеокарта раскроет весь потенциал накопителя.
пф, когда тезнология заработает, ты его сменишь на 2тб.
Из видео DF ясно, что 3080 примерно на 35-45% быстрее 2080Ti в рендеринге геометрии (без DLSS/RTX). По крайней мере из тех тестов, что были показаны.
И эта инфа отлично стакается со всеми предыдущими сливами (где была цифра в ~40%).
И я вполне допускаю очень тесную борьбу 3080 и топ Navi 2x от красных, опять таки по инсайдам эта карта будет в диапазоне 140-150% от 2080Ti.
Тёмной лошадкой пока что остаётся 3090 (единственно, в чём тут можно быть уверенным уже сейчас, это конский, космический ценник).
И эта инфа отлично стакается со всеми предыдущими сливами (где была цифра в ~40%).
И я вполне допускаю очень тесную борьбу 3080 и топ Navi 2x от красных, опять таки по инсайдам эта карта будет в диапазоне 140-150% от 2080Ti.
Тёмной лошадкой пока что остаётся 3090 (единственно, в чём тут можно быть уверенным уже сейчас, это конский, космический ценник).
Не плакай... К соседнему посту только что сделал...
разрабы и вовсе забьют на оптимизацию. мож купить 1080ти попозже - лучи мне в хуй не упёрлись
Буквально недавно купил 2080Ti
И вот тебе вот это вот
И вот тебе вот это вот
Это сравнение энергопотребления?
Чтобы написать коммент, необходимо залогиниться
Отличный комментарий!