Еще месяц и можно править мем на 5060 и другую сумму.
четверку на пятерку заменить и ноль дорисовать, делов-то
Так какое мнение экспертов по картам интела? Аналог китайфона какого то или новый серьезный конкурент на рынке карт?
Сами карты неплохие, именно с технической и концептуальной стороны, но всё разбивается о говённые драйвера.
В случае с B580 не разбивается, в самом худшем случае - на уровне 4060.
Так что, она прям крутая и дешевле?
Нет такая же но да дешевле
В новых играх и не считая задач не связанных с ними вроде графики в фото-видео редакторов - да
Да, она крутая и дешевле.
Во многих тайтлах она даже близка к 4060Ti.
Во многих тайтлах она даже близка к 4060Ti.
Но если хочется любую невронку локально погонять (а я как минимум для speech2text сейчас их использую только так, сайты все хуево работают и еще денех просят), то без куды остается только плакать.
Я надеюсь Интел с амд до ноутов дойдут. Такой рынок просто в монополии у зеленых.
Угу и при этом второе место по популярности видеокарт в стим это 4060 мобильная.
Они как бы могут в встройку уровня ps5 pro. Это примерно 3070ti. Но не хотят давать такой лакомый кусок обычному юзеру.
встройка ps5 pro в мобильном варианте это Radeon RX 7800M
она в соло жрёт до 180W. если этот монстр зайдёт на слот ноутбучной встройки, вестимо ноут придётся охлаждать водянкой. кмк, рынок к ноутбукам с водянкой еще не готов
а на десктопах запроса на такую встройку сегодня уже нет.
Почему нет, для маленьких корпусов? Есть, да блин можно было бы на плойку винду накатить, я бы уже давно это сделал.
Мне кажется энтузиасты найдутся
Не обязательно водянкой, ноутбучные 4090 до 150Вт бывают. Так что скоро и до 180 дойдут.
Ну в Китае и в Азии вполне упарыватся на тему водянки в ноутбуки и я считаю что правильно делают. Надеюсь понемногу допилят до ума. Тот же мехрево на 4080-4090 вполне популярен в Китае на водянке и стоит не конь. Ценник на про версию 4080 с сжо всего 11500 в юанях. I9-13900 hx. Вот и разница
Ну сравнение с китайфоном очень хорошое
В теории железка очень крутая. Практический опыт использования очень грустный
Под них ничего не «оптимизируют» а голые драйвера тоже не очень
В теории железка очень крутая. Практический опыт использования очень грустный
Под них ничего не «оптимизируют» а голые драйвера тоже не очень
А что должны ещё под них оптимизировать? Когда всего в мире живых 3-4 игровых движка?
Простите но графические технологии работают чуть сложней чем «3-4 живых игровых движка»
Короткий ответ «каждую игру»
Короткий ответ «каждую игру»
Все оптимизации, касающиеся видеокарты именно что в движках сосредоточены. Остальное - проблемы бездумного накидывания ассетов и моделек в миллион полигонов для зубной щётки.
Понимание разработки игр уровня "где то чет слышал"
Понимание разработки игр уровня 10 лет опыта разработки
а какое мнение? интел до сих пор не дали разрешение на полноценные тесты и геймплейные видеовставки по новой В580, поэтому пока это всё спекуляции по официальным графикам от интела.
В прошлом поколении были жесткие проблемы с дровами для игр и программ, которые не поддерживались напрямую интелом.
Короче ждать надо нормальных независимых тестов
В прошлом поколении были жесткие проблемы с дровами для игр и программ, которые не поддерживались напрямую интелом.
Короче ждать надо нормальных независимых тестов
и сразу превосхищу аргумент, что такие тесты есть: нет, каналы типа "testing games" неоднократно были спойманы на мухляже результатми. Если кратко, то в геймплейных тестах б580 не было ни оного раза, чтобы настройки демонстриаровались для б580 (всегда в видео вставлен кусочек с картой конкурентов) + частота гпу у "б580" и процент загрузки абсолютно не меняются.
Такие каналы существуют для накрутки просмотров на момент анонсов, для своих геймплейных видео они юзают другие карты, но в графиках просто рисуют нужное название
Такие каналы существуют для накрутки просмотров на момент анонсов, для своих геймплейных видео они юзают другие карты, но в графиках просто рисуют нужное название
Чиво там не давали интел?
Это просто все сгенерные фейковые видосы для пропаганды, да
ну линус хуесос, он может.
и при этом ни одного геймплейного теста, только графики и картиночки, которые полностью совпадают с тем, что показывал интуль на своей презентации.
Геймплейные тесты нужны для понимания стабильности работы карт, для фиксации артефактов из-за кривых/сырых дров (как было у первой серии их карт), для понимая энергопотребления + глянуть на 1% и 0,01% фпс (редкие и супер редкие события). А тут аккуратненько всё причесали, усреднили, в рамках техзадания интелов выпустили
Геймплейные тесты нужны для понимания стабильности работы карт, для фиксации артефактов из-за кривых/сырых дров (как было у первой серии их карт), для понимая энергопотребления + глянуть на 1% и 0,01% фпс (редкие и супер редкие события). А тут аккуратненько всё причесали, усреднили, в рамках техзадания интелов выпустили
литералли в видео геймернексус игровые тесты, потребление и тд. никто нахуй 0.01% фпс не делает.
да, игровой тест
Госпаде блядь какие ж вы уебки, вы можете нормально нахуй писать? Буквально. Есть слово "буквально". Нахуй вы это говно пихаете сука везде
второй момент: каким-то таким непостижимым образом совершенно случайно эти карты выдали топовых "обзорщикам" железа и при этом ни один из них не сделал ни одного геймплейного теста. Интересно, как получилось такое совпадение?
Ни у Линуса, ни у ГеймерНексуа, ни у ДжейТуСента.
Только дерБауэр указал на проблемы с графонием и россыпью артефактов (в видео выше) + указал на непонятки с питанием. Вероятнее всего он каким-то образом смог получить карту вне техзадания интелов
Ни у Линуса, ни у ГеймерНексуа, ни у ДжейТуСента.
Только дерБауэр указал на проблемы с графонием и россыпью артефактов (в видео выше) + указал на непонятки с питанием. Вероятнее всего он каким-то образом смог получить карту вне техзадания интелов
>и сразу превосхищу аргумент, что такие тесты есть
такие тесты есть и от нормальных обзорщиков. тут и side by side и просто графики и про драйвера. всё есть
такие тесты есть и от нормальных обзорщиков. тут и side by side и просто графики и про драйвера. всё есть
вот за этого чела спасибо, впервые вижу его канал, вроде картинка похожа на правду, но нужно еще поковыряться в результатах, у него аж целый референсный вариант в руках, что немного странно
Художественный фильм...
У меня в магазе Арк стоит дороже чем 4060.
Так поменяй как на картинке в своем магазине, делов то
Если 5060 будет слабее 3080, то выходит мы уже три поколения как не имеем смысла обновляться с 2060 ))))
А как же всякие ии и прочая чушь которую куртка будет нам втюхивать? Итак понятно что будет. Вон новые процы от синих и красных тому доказательство.
Нейросети не = ИИ.
Но вопщем да, нахуя такие мощности покупать? Ради всё той же нейросети которые навязывают простому пользователю?
Но вопщем да, нахуя такие мощности покупать? Ради всё той же нейросети которые навязывают простому пользователю?
Ну это я образно. Я вообще имел в виду трассировку лучей и всякие dlss которые не всегда и не везде работают нормально а порой и нахер не нужны.
Проблема современных видевокарт не в мощности, а во всяких улучшайзерах типа последних версий DLLS, которые на прошлых версиях не работают. А хуесосы на разработчиках игр кладут всё больший хуй на оптимизацию, что это улучшайзеры становятся необходимыми.
Хз как но мне от олучшайзеров сильно лучше не становится. Я до сих пор не видел где реально применяли трасировку лучей RTX и где это прям было нужно. Когда только сделали все орали что вот щас будет новый гемплей с лазерами которые отражаются от 100500 поверхностей, а в итоге появились только мемы потому что люди в массе своей не видят разницы между RTX и его отсутствием, если у разработчика руки откуда надо и он со светом работал а не просто источник повесил.
Так я и не про RTX, это вообще главный наёб гоев последних поколений, мало того что не используется толком, так ещё и порой выглядит хуже чем нормальная работа постановщика света. А именно про апскейлеры и дорисовку кадров.
RTX, почему я должен плотить больше, что бы разработчику было легче и дешевле разрабатывать игры.
Но игры при этом все равно дороже с каждым годом
единственная игра где ртх решает и делает картинку действительно пизже - это киберпанк, потому что разрабы засунули дохера света на квадратный метр
а с модами на графику всё становится ещё пизже
видос сдедан на 4080
а с модами на графику всё становится ещё пизже
видос сдедан на 4080
Ещё RTX хорошо в Метро:Исход смотрится, я когда играл кайфовал от света. Две игры где технология действительно работает, збс.
Alan Wake 2 в RTX тоже достоин упоминания рядом с этими двумя
Причем исход только обновленная версия. В оригинале при RTX просто становилось темно как у негра в жопе.
Да и в обновленной не однородно, в храме царь рыбы прям сказка, в других местах бывает, что есть, что не ту не велика разница.
Да и в обновленной не однородно, в храме царь рыбы прям сказка, в других местах бывает, что есть, что не ту не велика разница.
Согласен, вот в исходе RTX просто охуенен
с мобилы чутка промахнулся и скинул не совсем тот видос. исправляю:
уже и забыл какой киберпанк по умолчанию цветастый, сам бега с модом на реализм, с измененным рендером и серыми цветами.
Улучшайзеры улучшайзерами, но ведь по факту мыло тогда а не игра.....
Да, требования растут, видеокарты дорожают, а игры выглядят хуже. В замечательное время живём.
AMD FSR 2 работает на невидео тоже. Даже на поцкалях (gtx10**)
AMD FSR 2 работает даже на голубых встройках.
Нет смысла переплачивать за микроскопическое улучшение, которое теоретически может дать DLSS
Проходили мы с одним чуваком Сталкер 2 одновременно, и его скрины почему-то всегда были с очень всратым графоном, просто либо мыло мыльное (с TAA), либо сплошные пиксели (без TAA). У меня всё было в порядке с графикой, когда сравнивал скриншоты. А потом оказалось, что у меня DLSS, а у него FSR, потому что карта от АМД, и когда я на пробу тоже включил FSR, графоний оказался именно таким жутким.
Подчеркну: я не говорю, что АМД хуже, просто реализация сглаживания через FSR конкретно в Сталкере 2 оказалась хуже, чем DLSS.
Подчеркну: я не говорю, что АМД хуже, просто реализация сглаживания через FSR конкретно в Сталкере 2 оказалась хуже, чем DLSS.
В какой-то игре сравнивал и там вышло, что FSR дает нормальный результат, а длсс мылит жутко.
Ну вот, раз на раз не приходится. Ко всему прочему, я очень рад, что есть фреймгенератор от АМД, потому что у меня 30 серия, на которой нвидия фреймген делать не стала, а без него косячные игры на UE5 хоть не запускай, так они тормозят.
Dlss это же не сглаживание вроде, а некий замылитель картинки для повышения фпс, или я не так понимаю?
Это сглаживание + даунскейлер. Игра без dlss против dlss/качество в сталкере очень проигрывает по качеству картинки.
Очень спорное заявление, сам вот карту менял потому как моя 6700xt не тянула в 2к, а с FSR играть всрато. Мне лучше, что то снизить. В том же харайзене втором, лучше было фул хд включать с рядом компромиссом, чем ультра 2к, но с FSR. Последнее что играл на прошлой карте это вроде спей марин, включил посмотрел, поплевался, снизил тени, включил нативное разрешение, уже совсем другое дело.
DLSS прям заметно лучше, хотя и без него приятнее.
А вот генерация кадров так вообще чуть ли не удвоение FPS на ровном мест (хотя наверное там много НО, и например сам я минусов не вижу ибо в соревновательные и особо динамичные игры не играю)
DLSS прям заметно лучше, хотя и без него приятнее.
А вот генерация кадров так вообще чуть ли не удвоение FPS на ровном мест (хотя наверное там много НО, и например сам я минусов не вижу ибо в соревновательные и особо динамичные игры не играю)
лол. Что значит "если"? Она будет слабее 3080. Она еле-еле с 3070 будет бодаться. Да, тебе покажут какие-то обосраные самодельные тесты, в которых будто бы это будет не так, где с каким-нибудь DLSS 7 или 10 или хуй уже знает каким этот кал будет выдавать замыленные 640*480 и писать что это 4к. Эти пидоры пожадились на память и на шину и сделали охуенный финт ушами. 60-я линейка, которая в каждой серии была мидлом, сейчас по сути своей лоу. И 4060 должна называться 4050 и 5060 - это 5050. Ну и разницы в производительности между линейками, начиная с 1000 серии уже не так много. 2060 уже, конечно, не очень, хотя и с ней жить можно. А вот смысла обновляться с какой-нить 2080 даже на 5 серию особенного нет. В fullHD всё она норм тянет.
смысл в ленивых уебках на разрабах без длсс уже скоро не одна игра выше 30фпс выдавать не будет карты лучше не становяться а вот прикручиный к каждому новому поколению апскейлер становиться охуенней в разы,сейчас он уже и кадры дорисовывает и мыло почти нет не удивлюсь если на презинтации куртка ток и будет пиздеть про новый нано ультра длссс 5.0
Судя по изменениям в железе новый длсс только и будет давать фепесы, апскейля 140р в 4к
Потому что Хуанг ахуел, вилы ему в сраку, я хотел взять 4060, а это оказалась 3060+длсс, судя по всему с 5060 будет то же самое
Потому что Хуанг ахуел, вилы ему в сраку, я хотел взять 4060, а это оказалась 3060+длсс, судя по всему с 5060 будет то же самое
Еще и генерация кадров, но там тоже не все так гладко, вот в жрущем сейлант хиле генерации нет.
Один хуй у нас всё втридорога и через пол году будет
Обновите уже методички, уже год минимум, а то и два 3060 на первом месте в стим.
Я летом считал сколько карт с RTX и их уже больше 50%
Есть смысл брать с рук 3070 для full hd? Сейчас стоит 1070
Смотря за сколько, я сейчас сам на 3070 сижу и смысла с неё переходить пока не вижу. Сталкера на высоких(DLLS баланс) прошёл в ~100фпс.
А за сколько в рублях ты считаешь цену 3070 адекватной?
Тысяч за 30 думаю в самый раз, учитывая что ещё 1070 продавать наверняка будешь. Я просто сам тоже с 1070 на 3070 на релизе переезжал и тогда это было прям очень заметное улучшение, сейчас думаю будет ещё заметнее.
Спасибо!
В прошлом году взял с рук за 209 долларов 3070. В целом для фулл хд полностью себя окупает по всем вопросам. Быстрая и не очень горячая. Очень рекомендую
Большое спасибо
Смотря для каких игр. Местами её 8гб видеобуфер ей впритык, а местами уже не хватает. Та же новая indiana jones and the great circle даже в фхд способна занять больше 11 гб VRAM. И проблема в том, что все больше игр, которые жрут памяти видеокарты как не в себя. Но если не планируешь играть во все новинки на ультрах, то карта ещё скорее жива. Но даже так RX 6700xt выглядит поинтереснее за счет большего объема VRAM.
Если честно, не знаю, для каких. Играю в бимку, начал приобщаться к Элитке. Всякие квадрипл эй проекты мне точно не интересны, были надежды скайрим в космосе, но игра вышла оплным калом. Про стар ситизен и говорить нечего
Чтобы написать коммент, необходимо залогиниться