Блогер Hardware Unboxed решил протестировать технологии масштабирования от AMD и NVIDIA, для чего провёл тесты в 26 играх. Алгоритм AMD проиграл с треском.
Для тестов блогер взял за основу режимы «Производительность» и «Качество», запуская игры в 1440p и 4К. Обе технологии смогли обеспечить схожий уровень кадровой частоты, но вот что касается качества реконструкции кадра — AMD проиграла по всем параметрам. Лучший показатель, которого ей удалось добиться, — это паритет с DLSS в паре случаев. В иных же сценариях алгоритм NVIDIA оказался лучше.
Кроме того, DLSS демонстрирует меньше артефактов и мерцаний, чем AMD FSR. С другой стороны, у технологии AMD есть одно неоспоримое преимущество: она не требует для работы видеокарты определённой спецификации и запускается даже на конкурентных устройствах, которые не поддерживают NVIDIA DLSS.
Источник:
У меня атомик работает на RTX 2080 на макс настройках в 4К, DLSS в режиме сбалансированный 60фпс стабильно (в качестве тоже довольно комфортно, но есть просадки фпс). Без DLSS можно ставить лок на 30фпс и играть в кинематографичных консольных 30фпс)
А для чего в принципе dlss нужен?
Зачем лицезреть мыло, если можно играть без него? К тому же отзывчивости управления не добавится. На хардвейре как раз выходило видео на тему dlss, посмотрите.
Могу понять, если у вас слабая карта и без технологии фреймрейт не играбельный (снизить настройки качества картинки?), но в остальном просто зачем?
5700XT до сих всё тянет без этой воды, планирую вот себе докупить 6750XT и в 1440p спокойно в честном разрешении играть.
Что за бред. Вы видать не пользовались dlss последними версиями. Вы dlss в режиме 4к в качестве от натива не отличите. Давно в инете уже есть разборы и там dlss показывает себя в некоторых ситуациях лучше нативной картинки
Лучше, чем SSAA или хотя бы MSAA?
Очень сильно сомневаюсь и готов поспорить, да смысла не имеет.
Мне подобных комментариев и при DLSS второй версии хватило, тоже самое слышал, что вы говорите, но я не верю в магию, чтобы и картинка лучше, и отзывчивость управления никуда не пропала, да ещё и fps вырос. Я видел, я сравнивал, у меня ноут на 2060, где без dlss не добится 60 кадров на ultra, но я сам пришёл к выводу, что лучше даже FXAA и пресет "high", чем ultra с dlss, особенно в играх с большим и красивым миром, где хочется смотреть на картинку, вдаль, искать всевозможные мелочи и надписи.
Так что нет, не убедите.
Да и зачем? У меня карта всё тянет без всевозможных "магий куртки", правда в FHD, но такой уж монитор. Как раз планирую купить 2k и 6750XT.
В инете множество сравнений с кропом х200 в каждом режиме и в нативе. Там очень все хорошо видно.
А то что вы упёрлись и не ходите принимать очевидное (когда есть +100500 роликов)... Ну ваше дело. Только тогда зачем вы другим навязываете своё мнение?
А зачем мне ролики, если у меня есть живое сравнение на 2060 и RX 5700 XT?
Я своими глазами видел, мне не понравились артефакты, которые вылетают и мыльница, которая присутствует.
В чёс проблема, если меня это не устраивает?
И я никому не навязываю своё мнение, я просто озвучивают его. С таким же успехом вы мне навязываете своё.
Именно, хорошо видно что в 80% случаев ДЛСС вроде хорошо работает, но в 20% мыльцо-артефакты. И чем непредсказуемее камерой ты водишь, тем будет это заметнее - т.к. алгоритм не по тебе строили, то и не удастся угадать что отрисовывать он должен.
Очевидно, что невозможно получить идеальное увеличение кадров "за просто так". Вот завтра новый "майнинг", куртка переключает серваки анализа под ДЛСС в режим майнинга, в итоге игр с ДЛСС выходит максимум 20 в год, а остальное "жрите как есть".
Плюс в нвидия любят недокладывать памяти. Сегодня 8 норм, завтра без 16 гигов не обойтись - и что будем делать? ах да, побежим за новой карточкой(утилизация отходов постоянно искуственно устаревающих видях? тю, кому это интересно, я же сейчас живу и хочу лучшую картинку, деньги готов занести).
В целом ДЛСС это провал т.к. технология не применима на абсолютно любую игру без участия куртки. Если бы я в условную индюшатину залетел и там ДЛСС тоже был - ок, хотя бы как повсеместная возможность. А под пару избранных игр, ну такое.
Если бы это действительно было бы под пару игр, то да - провал. Но dlss насчитывает около 200+ игр. Всё новые игры выходят с поддержкой dlss. Я не вижу тут провала. Тут больше проблем в том, что разрабы начинают забивать на оптимизацию.
> новые игры выходят с поддержкой dlss
> завтра новый "майнинг", куртка переключает серваки анализа под ДЛСС в режим майнинга, в итоге игр с ДЛСС выходит максимум 20 в год
...
Фича, поддерживаемая "внешней силой" очень ненадёжна.
> больше проблем в том, что разрабы начинают забивать на оптимизацию.
В том числе наличие ДЛСС этому потворствует. Не будь этого костыля, который теперь всё больше используется даже там где лучи не включены, разработчики бы не могли столь наплевательски относиться к оптимизации.
в 20% это каких? все артефакты видны на стоп-кадрах, а кадров если что например 120+, 120 кадров в секунду карл, какие ты там артефакты собрался рассматривать при настолько быстрой их смене? при покадровом разборе да, находят, при игре ты ничего не заметишь
Люди слушают спотифай в 128кбпс, вместо лосслесс, не жалуются.
Это, если не дошло, о том, что люди не замечают мелких огрехов. Давайте всё пустим по наклонной, а потом будем недоумевать - а как такое допустили, а почему кадры рисуются а всё равно всё хуже и хуже, там вон в тени враг не прорисовался, здесь тексутуру размыло, не ну в 120 фпс-то не заметим наверно.
В статике они все хороши в сравнении, но в движении, в быстрых сценах мыло. Я тоже не мог понять что за параша графика пока не отключил этот длсс
Тут фокус в том, что тот же ютюб мылит видосы
Когда ты играешь сам, разницу видно невооружённым глазом, а вы можете дальше рассказывать сказки про "чудесный" DLSS
Ну и да, попробуй глянь на движущиеся объекты на удалении - они оставляют шлейф
Довольно странно сравнение, SSAA в очень в редких играх встречается и жрёт очень хорошо, хотя картинка превосходная. К тому же, MSAA и FXAA древние, да и сглаживают хуже. Пиксель имеет квадратную форму. До идеального качества картинки всё равно не добьешься. Всё равно будет не плавные линии и неровности на объеках. Нельзя сделать, к примеру, круглую форму пикселя. Каждый из этих методов сглаживание, какие сглаживают хорошо, какие-то не очень. Я тоже раньше заморачивайся, искал "идеальную картинку". Но увы, идеального ничего нет
Жрёт много, не спорю, но и результат есть. Отсюда ноги растут. DLSS же рисует красиво, но не идеально, а инпутлаг всегда есть, если у вас было 40 кадров, а с включённой функцией стало 80. Ощущения от сорока никуда не денутся, управление совершенно другое. Визуально всё замечательно, но по факту те же 40 честно отработанных кадров.
DLAA это делает наоборот, уменьшает количество кадров, но картинка лучше выглядит чем с DLSS
Про DLAA ничего не знаю :)
в защиту длсс скажу что в 1080п она будет работать хуже чем в 4к, ибо инфы в условных 720п для восстановления в 1080 крайне мало. Длсс3 (FG) дорисовывает кадры в нативном разрешении и может работать отдельно от длсс2 (апскеил)
DLSS лучше всего себя проявляет в высоких разрешениях. В Full HD вы заметите еë работу, а вот в 2к и выше уже не заметно, а прирост фпс большой!
Да. Лучший способ анализа чего-либо, особенно в области компьютерных технологий, это свалить всё в кучу и сделать выводы на основе субъективной оценки, лучше всего - в бинарном ключе: понравилось/не понравилось. К чему все эти замеры, тесты и сравнения? А потом - разить всех оппонентов простым и чОтким доводом о том, что никто не имеет возможности судить о чужих субъективных ощущениях.
Вот так и живём, и двигаем научно-технический прогресс...
Различные решетки и провода в играх с вами не согласны)
DLSS не может быть лучше нативной картинки. Это невозможно в принципе, т.к. сама технология построена на ухудшении ради роста производительности. Максимум вы получите близкую к нативу картинку в неподвижном состоянии. В движении все резко ухудшается и чем больше объектов типа листвы, травы - тем хуже.
Просто выбирайте мониторы, в которых можно включать более низкое разрешение без появления мыла. Таких много, хоть и не все.
У карточек AMD есть опция масштабирования видеокартой. Включаешь, и твой моник всегда работает в нативном разрешении. И уже не важно, какого качества в нём скейлер.
например если хочешь поиграть на 4к монике.
Купить карту мощнее и не наблюдать мыло?
Почему все так верят в магию? Зачем тогда Nvidia выпускать технологию, которая даёт высокий фреймрейт в 4к на 3060? Зачем после этого людям покупать всё, что мощнее?
Потому что это не реальная картинки, а просто "для большинства", где, если не просматривается, всё хорошо.
Проблема в том, что мощнее карты может не быть. Даже разогнанная 4090 не всегда может дать стабильные 60 ФПС с включенным рт в 4к.
RT отдельная тема. При желании и в GTA 5 можно масштабирование 200% сделать, что существенно увеличит нагрузку.
По факту RT весьма сырая в принципе, несмотря уже на четвёртое поколение видеокарт. Какой-то bloom-эффект. Конкретно мне не зашло. За всех не говорю.
> Даже разогнанная 4090 не всегда может дать стабильные 60 ФПС с включенным рт в 4к.
И давайте поставим костыль вместо третьего и четвёртого колеса, авось машина и так поедет?
Это не проблема юзера, что навязываемая технология РТ настолько сырая, что её надо закрывать её одним технокостылём.
Юзер хочет видеть хорошую картинку, и в условной 4070 с РТ её в 4к всё равно не добиться - а в 2к ДЛСС уже и не так нужна оказывается, а игроков с видяхами **70 и ниже уровня большинство, в итоге фуллХД до сих пор самое ходовое разрешение под условную **60 года на три(два поколения видях).
Продолжайте вести наблюдение
Да и зачем мне снижать настройки качества картинки если мне проще dlss врубить? У меня вот например ноут профессиональный... Gigabyte серии AERO с 4к OLED дисплеем. В ноуте видяха 3070Ти на 145wt. RDR 2 на ультра настройках без dlss 30 fps, с dlss на качестве - 55-60. В балансом режиме 60+.
И зачем мне резать настройки графики если разницы в нативе или dlss по качеству нет, а разница в фпс почти 2 раза?
Так если у вас запросы на 4k, зачем вы берёте ноут с картой для 2k, а потом притягиваете за уши dlss как необходимость и манну небесную?
Это чисто ваш выход из ситуации, потому что вы пожалели денег и вас устраивает текущий результат, больше ни о чём это не говорит.
Цена этого ноута на момент покупки - как сейчас комп собрать на 4090, я хз с чего вы взяли, что я пожалел денег это во-первых.
Во вторых - я его брал, потому что по командировкам комп не потаскаешь
В третьих - он у меня для работы с графикой где нужен хороший дисплей. Игры тут просто приятное времяпровождение, а не основаная цель ноута.
1. Какая разница, какая была цена тогда и сейчас? Цены в принципе довольно плавающая вещь.
Вы хотите 4k, но покупаете ноут, который нормально тянет только 2k. Значит вы пожалели денег на покупку ноута посильнее, с видеокартой посильнее и совершенно не важно, что, когда и сколько стоило. На конкретный момент времени вы взяли именно 3070 Ti, а не 3080 Ti, но вам нужен 4k. Странно, не находите?
2. А причём здесь ваши командировки? Речь не о том, что за устройство вам нужно и сколько вы готовы за него заплатить, а о том, что ваш ноут не тянет 4k, но оно вам нужно (исходя из того, что вы говорили до этого), поэтому вы используете костыль - DLSS.
Моя же позиция в том, что если нужно играть в 4k, то и ноут(устройство) брать под 4k, чтобы играть без костылей.
3. Согласен, если игры - это приятное дополнение, то это чуть-чуть меняет дело, но суть та же.
Зачем вам снижать настройки графики, если можно доверить это дело DLSS, чьих изменений конкретно вы не замечаете?
Вопрос риторический.
Я в своё время на HD7670m играл в skyrim с отключёнными тенями через конфиг, потому что видяшка, увы, тянула игру слабовато (по-моему память была тройка, а не пятёрка, было две версии у карточки). Разрешение было 1366x768.
В общем и целом можно создать батник и назвать его "fix fps skyrim for HD7670m", а потом где-то на форуме два человека будут спорить на эту тему, мол, полезный фикс или нет. Один скажет, что без теней картинка ужасная, другой, что ему плевать на тени и он не видит разницы (на тот момент у меня не было претензий, по барабану было), а fps значительно вырос и играть комфортнее. Зачем покупать ноут с более производительной видеокартой, если есть фикс?
Думаю, что более чем прозрачно.
Там отзывчивость при фпс в 40+ (= под 80 с длсс) нормальная, это не кс или другие игры где это важно, эта игра простая на прохождение.
Да и к тому же на топовых решениях с высокой герцовкой монитором это будет плавно и круто
Задержка высокая на слабых картах
Важно Вам или важно в принципе? Мне комфортно, когда у меня под 120 кадров (честных), при 30/40/60 быстро устают глаза, напрягается зрение. И не важно, сетевой шутер это или одиночная RPG.
Так даже 4090 не вывозит некоторые игры в 60 стабильных на все в ультра, тот же киберпанк с новыми лучиками
И вы будете графику снижать вместо включения длсс?
Я отключу лучи, потому что технология сырая.
Зачем мне пользоваться чем-то сырым и дополнительно к этому включать что-то ещё, имеющее свои недостатки, если можно не пользоваться ни тем, ни тем?
Костыль на костыль ради чего?
Я в blood omed 2 и первый far cry играю в тысячный раз, как ещё в десятка два разных игр без этой технологии, что я, в киберпанк не смогу что ли?
Как допилят - попробуем, а вообще у меня при виде лучшей ассоциации с dead island и его bloom'ом.
длсс в целом нормально, если играть в 4к на телевизоре, мыла дикого нет, как например если ставить разрешение ниже.
Судя по всему, сами вы работу dlss не видели. Откровенно мылит только dlss и fsr первых версий. Есть dlss 2, который на отзывчивость влияет только положительно, так как увеличивается фпс, соответственно время построения кадра меньше. Генератор кадров присутствует только в dlss 3, который можно отдельно отключить. Отзывчивость при использовании генератора фреймов хорошая, если включать его при условии наличия 60 кадров без включения генератора. Если включать генератор, повышая от 30 до 60 кадров, то отзывчивость будет как при 30 кадрах - чудес тут нет.
Качество построенных генератором кадров хорошая. Артефакты есть, но не вглядываясь, их не каждый увидит.
И это суждение не по ютьюбу, а по реальному личному использованию
Вот именно, что артефакты есть. Для кого-то это критично, для других - нет, но факт остаётся фактом.
Мой выбор - доплатить и купить видеокарту мощнее, чтобы соответствовала моим запросам, выбор других - сэкономить и юзать DLSS.
Никого не осуждаю, но изначально я говорил про наличие огрехов в технологии. Не идеальная, я ловил артефакты, поэтому я не отметил для себя её важности и необходимость.
Мыло? Вы делаете стоп кадры и рассматриваете его с лупой?
При этом киберпанк на 2060 у меня в 2к отлично шёл на средне-высоких в +/- 60 фпс. Без DLSS 30-40 фпс.
Разница огромна.
При обновлении вижеокарты даже не сомневался, что мне нужна именно инвидиа с DLSS.
Зачем вам на рх6800 фср или длсс? Там все и так на ультрах летает.
в атомике фпс плавает между 65-160 фпс в зависимости от масштабов и интенсивности сцены на высоких настройках с отключенным сглаживанием в 4к (есть ещё ультра и максимальные настройки),
хотелось бы иметь стабильные 120фпс во всех сценах.
сейчас понимаю что надо было брать 4070ти/7900хт под 4к, но оба варианта получались почти в 2 раза дороже
ps: 13600k+ddr5-6400
Очень странно, что вы захотели от карточки среднего сегмента стабильности в 4К) Вам хотя бы 6900хт надо было взять для этого.
В этом и суть технологий апскейлинга, у девушки 3060 и она докидывает ФПС без явного ухудшения картинки, амд так не умеет
Такая же фигня. Незнаю как там dlss, но fsr не в каком режиме не устраивает. Сижу на 6600xt, несколько раз пробовал с fsr на монике 1440р, хрень полное в режиме касество такое мыло, что лучше просто разрешение 1080р выставить и то лучше будет
Попробуйте не баловаться с грязными хаками а играть в нативном разрешении.
Хорошо что я купил rtx 3050 тоже был выбором между NVIDIA и амд
И выбрал NVIDIA потому что у них никаких проблем обычно нет с драйверами
До этого брал AMD RX 580
Мама того что она звучала как пропеллер вертолёта при нагрузках в играх, так ещё и драйвера были плохими постоянно нужно было самому лазить в них и настраивать пропеллер при нагрузках
Просто у Nvidia все работает на основе нейронных сетей, а у АМД это просто апскейл с увеличением резкости
Соответственно нвидия под это должна выделять нейрокластер, а амд достаточно пару простеньких ядер.
Никакой нейросети не существуют, подобные технологии предугадывания кадров давно используются в телевизорах (програмное уплавление). Принцип простой - два предыдущих кадра сравниваются и генерируется третий на основе изменений между первыми двумя. Поэтому чем больше вы делаете нелинейных движений, тем больше артефактов.
Ты сейчас говоришь про генерацию кадров из DLSS 3, а я говорил про апскейл кадров.
нету у тебя никакой 3080...
почти все ааа игры умеют брать недостающий врам из озу, так что была бы у тебя 3080 , ты бы чушь неписал.
заскринь gpuz на фоне этой пернписки , если ты не трепло...
А ты знаешь что ram память не такая быстрая как gddr6x ? И поэтому возникают лаги в играх, когда буфер видеокарты переполняется.
А ты в курсе, что ОЗУ почти в 3 раза медленнее ВРАМ? Именно когда система начинает брать память из ОЗУ и начинаются приколы со статтерами, зависаниями и т.д. Именно по этому сейчас многие хейтят нвидиа с урезанной шиной 4070(ти) и всего с 12 Гб памяти, ибо когда начинается 2к и 4к (не говоря уже о будущих 4060 с 8 Гб), 3090 с её вдвое большей памятью и шиной, начинает догонять новинку, которая призвана её уделать. Это так по-твоему памяти хватает? Это именно по этой причине людям советуют гнать частоту памяти 4070, чтобы хоть чутка нивелировать ужасную шину с её 12 Гб видеопамяти...
Я тоже мог играть раньше на GTX 460 с выходом ГТА 5 даже с упором в видеопамять, где доп гиг брался из оперативы, но это было ужасно. Это тебе не консоли, где оперативная память и видеопамять одно и тоже и имеет сразу частоту от видеопамяти
юзай нормальный ссд , увеличь файл подкачки и будет тебе счастье.
а персонаж выше все же балабол, 3080 у него нету...
Так, видно с матчастью у тебя совсем беды, понимаю. Или по-твоему ссд имеет такую же пропускную способность и скорость, как у ВРАМ? Чего ж тогда ссд вместо оперативной памяти никто не ставит, м? Ну давай все будем ставить 8 Гб рам, зато купим ссд на pci 5.0, который минимум раза в два медленней ВРАМ, чё, это ж выход
Ты ещё расскажи мне, как в рабочих задачах нивелировать низкий объем памяти зелёных и убогую шину 40хх серии, где упор начинается прям сразу, по сравнению с 3090, которая сейчас по цене 4070ти? Скажешь купить два ссд, вместо одного?
У самого быстрого NVMe SSD на PCIe Gen5 сейчас пропускная способность 12 ГБ/с. У моей видюхи пропускная способность VRAM 1 ТБ/с. Успехов твоему файлу подкачки, чё =)
Умеют, ага. Поэтому на 3070 новый резидент работает с просадками до 10 ФПС, ибо требует 15г видеопамяти, а ласт оф ас вообще вылетает.
включи длсс и будет 45 фпс
gamegpu в помошь
Включи длсс на "производительность" ты забыл сказать. И добавить - получи мыльное УГ
Прямо минимум?
Последние это какие, у которых оптимизация через одно место?:)
При чем здесь оптимизация? Мы хотим не мыльных текстур, 4к минимум, но при этом в голове уложить не можем, что хорошие текстуры требуют куда больше видеопамяти? Попробуй зайти в Unreal Engine, загрузить любую модельку и накинуть разные текстурки, от 1к до 8к, и посмотреть, как сильно меняет жор памяти
При том, что есть "оптимизированные" игры, которым хоть 10, хоть 20, хоть 50Гб памяти будет мало, но таких как раз немного, а если появляются, то как правило фиксятся, потому что большинство сидит на картах с памятью 4-8Гб. Анрил кстати, не очень требователен к видеопамяти, 12Гб сейчас на несколько лет спокойно хватит.
Как раз-таки нет, все последние релизы действительно требуют куда больше 8 Гб, попробуй запустить на ультрах без РТ тот же киберпук на 4 Гб, интересно на это посмотреть. Там даже 3070 жрет 6.7, с РТ уже начинается упор в память. И да, РТ добавляет 1-2 Гб к Жору стабильно, а длсс или фср сильно не помогает в этом плане. Увеличивая разрешения до 2к и 4к - начинаются ещё большие приколы.
Анриал, как раз-таки, если цель сделать топ текстурки и вот этот фотореализм как на презенташках начинает жрать как не в себя. Уж поверь, с анриалом я напрямую связан, хоть не в целях игрушки пилить, а делать графику для промышленного дизайна, стабильно до 11 Гб улетало только на одну модель с норм текстурами ( справедливости ради, полигонов конечно несколько миллионов)
12 Гб хватит только до конца текущего поколения консолей, то есть на три года в лучшем случае - такие себе много лет. А вот карточки с 16+ видеопамяти действительно на несколько лет хватит, если только чудом у нового поколения консолей не будет под 20
Сочувствую, на моей бюджетной 3060 аж целых 12 Гб отсыпали.
Как владелец АМД советую взять все же Нвидия. АМД брать если разница по деньгам для вас существенна.
а какой владеешь? и почему стоит нвидиа?
6600XT от Гигабайта.
Драйвера все же у АМД не столь стабильные и мне не очень нравится, как они работают (бывает даже потеря производительности до 10%).
Если хочется что-то потрогать за пределами игр, то для Нвидии всё, обычно, работает из коробки, а у АМД поддержка околонулевая.
Просто для меня, на тот момент, была разница между моей и 3060 в 150$.
Ну хз. По моему все видео и сравнения особо не имеют смысла. И так всё время существования обоих компаний было ясно, что nVidea имеет гораздо большую совместимость и поддержку гораздо большего количества программ и игр. Причины этого, по сути, для конечного юзера не важны. Можно долго обмусоливать, что nVidea денег заносит всем подряд и прочее. Но от этого юзеру не легче. Потому я всегда покупаю nVidea. Сейчас в системнике 3090 OC с 24 гигами на борту. И я уверен, что на блидайшие года три/четыре мне её хватит.
Только 3090 даёт тот же ФПС, что и 6900, при этом стоит намного дороже. Так ещё и жрёт на 50% больше. На столько же греется сильнее. Чёт не убедительное превосходство
В 3D редакторах поработайте, с графическими движками и прочих программах. Я про совместимость, дрова и прочее. А не про фактическое превосходство. А по поводу нагрева... У меня 3090 OC 24 Gb Asus Tuf. Учитывая, что она разогнана и я её ещё разогнал через стандартную прогу асуса и она в простое 20-ть градусов, а в бенчмарке выше 80-ти не бывает, а в играх, дай бог доходит до 65-ти, то это самая холодная видяха из мощных, что у меня была. И это со штатным охладом.
держи в курсе
А я вот купил! Держу вас в курсе! А то наверное переживаете за нас.
за последние пол года в кругу общения было куплено 4 девайса на амд, в 3 из 4 случаев проблемы.
У меня было 5 нвидий. 4 из них сгорело. 3 из 4х в гарантийный период (обычно в течении года). Потом была АМД 280я, которая лет 7 отказала. Сейчас 2 года пашет 6900. На работе лет 5 пашут 2 560е. Во всех случаях всё работает идеально
А вообще взял бы разумеется АМД по чистой мощи без лучиков 6800 смотрится вообще отлично. Но! Есть одно но! Дрова.. вот тут засада. Нет я бы смирился ещё норм вполне если руки прямые но вот ньанс иногда по работе нужно и дома поработать с арткамом.. и вот тут засада , у амд в этих програх артефакты.. на нвидиа нет а у амд есть. Вот это то от амд видюх и отталкивает
Сейчас у многих комп это не только для игр. Но и иногда поработать нужно и тут увы амд не на коне
А так да не раздумывая продал бы свою добавил и взял бы 6800 или 6800хт
Надо смотреть на конкретные проги, в которых работаете. Во многих действительно НВ лучше. Но в некоторых лучше АМД, например в компасе красные прошлого поколения лучше 4090 до сих пор. Ну и в играх АМД повкуснее, конечно. Дрова под игры, конечно, пилятся в основном, там всё прекрасно.
Лучше.. хуже.. вопрос вторичный. Фокус в том что нвидиа может быть будет в какой то проге работать медленней. Но она будет работать. В отличие от.
А это немаловажный фактор.
Да для игр и я это признаю амд топ. Да у них отличное соотношение цена быстродействие. Но увы.
Если с нвидиа Я уверен что любая заточенное под работу прога пускай медленней но будет работать. То увы с амд это не так
Давно уже у амд никаких проблем с драйверами, прекращайте уже жить прошлым. У меня 6800 и никаких проблем. Когда амд выкатили адреналин драйвера, карточки вообще в мощи выросли процентов на 20. Нвидиа большинство своих косяков с драйверами даже не афиширует, а амд делает. Отсюда и популярное "на амд драйвера г". Хотя амд свои карточки делает на очень долгую перспективу и поддержку, уже не один раз это доказывали. Чего не скажешь об нвидиа с их картами на 8ГБ памяти. Ну смешно же. Я всю жизнь топил за зелёных и покупал только их, но задрали уже с их ценами и политикой. Меняйте спокойно на 6800/6800хт, если вам не важны новомодные лучи, которые даже на топовых решениях от нвидиа работают хрен пойми как.
Вы хоть прочитали про что написал человек? У него специфичное приложение и под картами амд оно не работает. Мдее
Есть конкретное приложение. Арт Кам. И именно в нем карты амд выдают картинку с артефактами.. любые . 6800 6600.
И ТД. В то же время любая видеокарта нвидиа там работает
Если у вас на ультра 30-50 фпс, а вам рисуют ещё кадров 40-50, вы поймите, это копия кадра с артефактами.
Если натив выдает 50 кадров, и даже если продублировать каждый кадр не изменяя его, для зрителя не изменится абсолютно ничего.
Я вообще не понимаю разработчика видеокарт, и смысл пилить софт для того что бы править существующие кадры. Эти мощности можно было бы пустить на прорисовку нового отдельного кадра.
Слепые ребята на слабых компах с ужасными мониками схавают, согласен. Они и фикалии готовы кушать ради фпс.
Не разрушайте людям веру в то что куртка им бесплатный фпс привез)) У меня в сообществе дискорда есть 1 пациент который вообще утверждает что с длсс у него картинка лучше чем в нативе)