Портал XDA-Developers составил любопытный «антирейтинг» потребительских видеокарт, в который вошли восемь моделей, признанных изданием худшими за всю историю. При этом «почётное» первое место в получившемся списке заняла сравнительно недавняя модель производства AMD.
Самой разочаровывающей видеокартой издание назвало Radeon RX 6500 XT с 4 ГБ видеопамяти на 64-битной шине. Она разочаровала геймеров своей низкой производительностью, уступающей даже гораздо более старым моделям.
На второй строчке разместилась NVIDIA GeForce RTX 4060 Ti (8 ГБ), которая на деле мало отличалась по чистой игровой мощности от RTX 3060 Ti. Более того, в некоторых тестах она даже уступала своей предшественнице.
Третье место досталось AMD Radeon R9 Fury X с 4 ГБ VRAM, вышедшей в 2015 году. Модель позиционировалась как высокопроизводительный GPU, однако это заявление не соответствовало действительности, а цена GPU оказалась неконкурентоспособной.
На четвёртой строчке — NVIDIA GeForce GT 1030 с видеопамятью стандарта DDR4, которая оказалась значительно слабее версии с DDR5. Это сказалось на снижении производительности, особенно с точки зрения пропускной способности памяти, что критически важно для обработки графики.
Пятой оказалась NVIDIA GeForce FX 5800. Главным недостатком этой модели была проблема с перегревом GPU, которая требовала мощной и шумной системы охлаждения для нормальной работы.
Шестая — AMD Radeon VII. Эта дорогостоящая и энергоёмкая видеокарта по своим возможностям примерно соответствовала RTX 2080, но при этом потребляла на 70 Вт больше энергии.
Седьмое место — у NVIDIA Titan Z, вышедшей в 2014 году. Одним из самых существенных недостатков видеокарты стала очень высокая цена в $3000. Это сделало её недоступной для многих потребителей.
Финальную, восьмую позицию авторы портала присудили NVIDIA GeForce GTX 480, печально известную сильным перегревом в сочетании с устаревшей 40-нм архитектурой.
Источник:
Таких заголовков могло бы и не быть вовсе. Если бы 25 лет назад Nvidia не купила 3dfx, а США в нужный момент поддержало их деньгами, как не раз было с AMD, сейчас могли бы быть нормальные видеоускорители, а не 5090 за 300-400 тыс. рублей.
(отредактирован)
История не терпит сослагательного наклонения. Возможно Radeon бы стоил 300тр сейчас, а возможно бабушка была бы дедушкой
не надо!
Просто авторы пока еще не придумали, по чьей именно версии 🙄.
В озоне или днс можешь купить🤣🤣🤣
Ну так они за свою цену вроде как не плохи
Платить и быть бета тестером мусора плюс ещё и дикий temporal dithering в дровах. Спасибо
Арки, как ни странно, довольно неплохие карточки, звёзд с неба не хватают, но прям худшими их назвать язык не поворачивается
Какая? Колись, орешек 😁
GT210
Дак у тебя считай топ, почти как моя 710
Солидарен. Моя GMA3100 тоже не попала!
Да тоже ожидал увидеть, но нет - видимо действительно народная :)
а моя затычка 1030 попала, но на пол ноги) у меня ддр5.
К примеру та же 4060TI мне обошлась в 30к (январь 2014). Нужна была относительно современная, не горячая, не жрущая кучу Вт. В итоге для себя другой модели лучше и не нашел
Она вышла явно позже 2014 года)
естественно 2024г, опечатка )
А что с обычной 4060 ? Без ti
Обычная 4060 хороша лишь низким потреблением 120-130 Вт против 160 Вт у 3060 12Gb и 180 Вт у amd 6750, если бы не это то я бы выбрал 6750 за ту же цену но с 12 Gb и производительностью как у 4060 ti или даже 4070 (без лучей естественно). Но для мини корпуса itx характеристики 4060 лучше чем у остальных
У меня просто в ноуте 4060 laptop стоит, заявлено потребление до 140w , но я больше 100 не видел.
Вот именно - для "нетолстых" ноутов это топик, иначе если хочешь поиграться то нужно брать или "гроб" 2.5 см толщиной и более или терпи тротлинг и сброс частоты и энергопотребления раза в полтора-два, до 100 Вт вместо 150-180 заявленных
У меня тоже в ноуте 4060 и заявлено 140w, я пока максимум видел 121w непомню в какой игре
Вроде при игре в The last of us part I
Эх чувак, что у тебя с кармой?) хотя ладно, я сам 2 раза выходил из минус 15😁 декором два лайка в помощь
А блок питания сколько?
230 w
Май 2023 начало продаж 4060 ti на 8гб
"18 мая 2023 года NVIDIA представила RTX 4060 и RTX 4060 Ti, и также объявила что RTX 4060 Ti на 8ГБ выйдет 24 мая" вы уверены в своей дате покупки? ))))
1000$ за 4060ti - дорого
Поздравляю с выходом из 10 летней комы!
Ох, школьники...
Пояснение для тех, кто в танке.
Человек, на чей комментарий я отвечал, пишет, что купил 4060 за 30к в 2014. В 2014 бакс был примерно за тридцатку.
Андестенд?
Ага, о чем я и говорю.
А сколько 4060 реально стоила в 2014 не подскажете, раз уж включили душнилу?
Напомнило слова Мэдисона Жопича, говорил, он говорил, что Гагарин на луну летал. Ему все начали писать, Жопич, Гагарин не летал на луну.
(отредактирован)
Ахахах доллар по 30]
Бабок на скамейке😆
портала XDA-Developers, полагаю. Забавно, это написано в первой же строчке после заголовка. Во второй, если считать с именем автора статьи.
Как затычка вообще хорошо шла. Тем более что их раз-два в таком формате.
И какое там DDR как-то неважно.
(отредактирован)
Согласен. У меня ВК вообще на DDR2 сейчас спокойно работает. Разве что новые игры с завышенныим требованияим не тянет, а Win10 и ретро-гейминг на ней спокойно работают.
1030 вообще вышла в момент всемирного майнинга, и стоил он для своей мощности неприлично много.
А вот было куда лучше не покупать её и на сэкономленные деньги купить по мощнее процессор со встроенным видеоядром (по крайне мере R7 и/или I7) где будет куда больше пользы.
> 1030 вообще вышла в момент всемирного майнинга
>Release Date. May 17th, 2017
Как-то не очень. Да и в ковидные времена куда жёстче было.
> купить по мощнее процессор со встроенным видеоядро
Процессор со встроенным видеоядром сам по себе не работает. Есть куча ситуаций именно когда нужна затычка.
Например, в старом игровом компе заменить старую печку на затычку — и вторая жизнь как «офисного».
(отредактирован)
Это встройка же
в райзен 5 5700g такое количество групп видеоядер.
(отредактирован)
Там по моему сменились названия vega 8, 7, 6 вроде мощнее стала vega 8 после 2200g/3200g
vega 6 у райзен 5 5300g, vega 7 у райзен 5 5600g. - говорит про это 3дньюс, информацию про vega 7 подтверждаю и я, об этом может подтвердить аида64 gpgpu или в меню где дисплей или с каким таким названием там информация, её можно через скриншот в поисковиковых картинках поискать попробовать.
это пакет, в нём количество штук, vega 8 это восем пакетов, тут что названия сменились можно объяснить через выставление что в каждой моделе видеокарты где vega в пакет могут положить другое количество штук ядер гпу. Да и возможно у этих ядер другие герцы, ведь 5600g - 1900мгц, 5700g - 2000мгц. Столько параметров, о них судить по производительности гпу будет легче по бенчмаркным баллам не умеющим через эти, тем более производительность усиляется пропускной способностью памяти и архитектурой этих гпу ядер.
Спасибо. Я просто, думал, что vega 11 стала 8й. Буду знать)
vega 11 действительно слабее может-быть чем 8 помню смотры, про что я говорю, возьмите vega 11 занизьте этим ядрам герцы, в каждую единицу из одиннадцати положите меньше штук, затем архитектурно по производительности улучшите сами ядра выпустив улучшенный по производительности гпу, но с меньшей вегой, тогда меньшая вега может-быть производительней архитектурными улучшениями, это когда у одинаковых герцев один производительнее другого. В райзене 5700g находятся эти ядра на 1900мгц, а в веге 56 эти ядра находятся на частоте 1156-1471 мгц основная-разгонная, возможно указаны значения референса, а не конкретного вендора, то есть сапфир если такую бы выпускала могла-бы и изменить параметр, целый список с основой-разгон у гпу и у видеопамяти гпу есть на течповерап под моделью конкретной карты и тдп, однако, я допускаю что герцы могут не только за архитектуру, а и из-за тдп получится, вспоминая процессоры при нагрузке на все потоки, тдп растёт и герц за этл может понизится или из-за температуры, герц влияет сильно там на эти параметры, то есть мы сейчас обсуждаем занизят ли они герцы основные, так как вызывает ли такое количество ядер большое тдп, так как на тдп влияют весомо герцы, а количество ядер не прикасаемы, то повлиять могут на тдп через гнрцы, захотят ли, устроит ли их тдп, влияет ли вообще количество ядер вот что мы обсудили, а сравнивая видеокарты помнить бы ещё о приросте производительности от видеопамятной пропускной способности, чтоб не спустать сказать из-за веги такая производительность, способом хотя-бы герцы одинаковые сделат и одинаковую пропускную памяти, времки не трогая это слишком, а пока почитайте эту духовную информацию:
"Спецификации Radeon RX Vega 56 существенно урезаны по сравнению с ускорителями на базе полностью функционального GPU. Здесь активны 56 из 64 NCU, но само по себе это означает снижение вычислительной мощности шейдерных ALU и блоков наложения текстур лишь на 13%. Производительность Vega, как мы выяснили ранее, в значительной степени определяет лимит мощности карты, а он у Radeon RX Vega 56 снижен на 29% по сравнению с Vega 64 (с 295 до 210 Вт), поэтому тактовые частоты GPU, по табличным данным пострадавшие не так уж сильно, в действительности будут заметно ниже. Кроме того, на 15% понижена и тактовая частота оперативной памяти HBM2. Благо AMD сохранила в неприкосновенности back-end чипа — набор контроллеров памяти и ROP." - обозревает 3дньюс.
раздайте названия ядрам.
(отредактирован)
Ничего себе, спасибо, очень подробно!
SM назвала эти пакеты nvidia, а у amd они зовутся CU, - передаёт статейка на хабр.
Мы их вегой звали только что или пакетами или группами, а вверху где цитата они ncu почему-то вместо cu. Сами же ядра что входят в группу, зовутся ixbt, msi, 3dnews сайтами CUDA-ядра и у nvidia и у amd хотя, откуда в amd cuda-ядра, там следует их называть opencl-ядра тогда уж. Но в эту группу ядер входчт не только cuda-ядра, а что будет входить например shader-ядра это будет решать архитектура, а её меняют постоянно для новых моделей, тут как говорится потому нет знания что в каждой конкретной, однако это не всё. Так же vega с числами, например vega 10 или vega 20 это название архитектуры у амд, у веги 64 и веги 56 и радеона vii видеокарт есть ещё названия вега 10 и вега 20 это названия архитектуры, а не количество sm/cu ядер, в данном случае cu ядер. Это есть в таблице у валерия косихина в 3дньюс обзоре этих карт. Вообще-то информация взята ещё с нвидиа сайта про архитектуру rtx 2080ti или rtx 2000 серии про SM. В райзене 5700g где vega 8 название архитектуры уже другое это gcn 5.1, в современных картах перешли на rdna 3.5, если амд захочет исправления производительности с рей-трейсингом, а у неё плохо с этим делом, рассудительно что масштабные изменения будут с изменением архитектуры и техпроцесса, таким образом на rdna у них расчёт, это данные из новостей, правда на 3.5 версиях что в rx7900xtx это дело ещё не стало годным.
вот как начинается одна из статей "Архитектура RDNA подарила графическим картам AMD новую жизнь. Ускорители Radeon RX 5000 стали крупным явлением на массовом рынке своего времени и остаются мерилом быстродействия на доллар для новых продуктов. А благодаря следующей, 6000-й серии марка Radeon вновь заняла место на игровом олимпе. Однако у «красных» GPU были и хорошо известные слабости. По скорости трассировки лучей железо AMD могло соревноваться только с GeForce предыдущего поколения, но никак не с актуальными предложениями NVIDIA. Да и возможности быстрых матричных вычислений для масштабирования кадров при помощи ИИ, уже ставшей обязательным атрибутом современных графических процессоров, чипы Navi до сих пор не имели."
так что же такое вега в названии карты? я не знаю. Хабр заявил не причтную вещь, говорит если гпу грузится в 100% это значит они может и флопса не вычислить, а просто работать с видеопамятью что-то делать и мне вспоснился мой опыт с динамическими тенями в одной игре, фпс встал, а разгон стал карту грузить в 88 + неск.процентов, а до разгона в 100% но ыпс не дал, только чуть чуть, так как разгон делал примерно на 80% от тех 100%, то есть 8% дал, а вот разгон озу сразу давал встройке фпс на тенях этих.
Да и быстрее отвал этой самой HBM памяти
HBM память вообще надо похоронить.
Нет ничего лучше и надёжнее классической компоновки видеокарт, когда у тебя ГПУ и память - это разные детали, и они заменяемые. Да и стоят по отдельности не так дорого.
Часто менял классические чипы памяти?)
Вообще да.
Hynix на RTX 3060-3070 прям павально приходили.
Не я лично, но мастера меняли. Я диагностом был тогда. в 99% случаев была память, меняли на микрон или на самсунг.
hbm похоронить или bga припой чем делать разъём под чипы как раньше?
HBM память это грубо говоря видеочип и память - одна деталь. Выход из строя памяти - выход из строя всей детали, и пофиг что там видеочип ещё живой. Память не поменять. Ток всю деталь заказывать что уже экономически не целесообразно т.к. почти за эту же цену можно взять другую такую же видеокарту.
Когда используется классическая компановка, видеокарта ещё ремонтопригодна. То есть сдохли чипы памяти - в сервисе спокойно за 3-4-5к рублей заменят весь комплект видеопамяти + ещё могут апгрейд видеокарты сделать за отдельную плату, если существует модификация такой видеокарты и Биос с более большим объемом видеопамяти. ГПУ трогать не будут т.к. он живой. Хотя в последних видеокартах и Биос не шьётся. Ток конфигурационные страпы пересаживаются, что б видеокарта работала допустим с памятью Самсунг, Микрон или Ханикс с таким-то объемом.
нужно было ещё раз взглянуть на гпу подложку с памятью этот раз был у радеона семь чтобы от цпу подложки не давних фото отличать, но честно говоря, может возникли сомнения в bga пайке к подложке, но почему в этом месте даже на гпу подложке не возможно сделать разъём для вставки даже не смотря что закроется возможно корпусом чипа, не везде же закроется, если корпус ещё что-то, то там где его не будет там, речь про возможность чем целесообразность. Кстате насчёт лучше помните новость про вставку в хрусталь памяти, в стопку нейровычислительное что-то, чтоьы вычислять без гпу, а прямо в хрустале тогла скорость обещаемая со слайда чему верить сами понимаете в сто раз выше чем в районе терабайта в сек?
АМД 6700 и 6750 с 12 Гб памяти и лучшей производительностью (не во всех играх и без учёта лучей естественно)
поспорили бы с данным утверждением
6750 xt +- по чистой производительности, но это амд, куча багов, греется и т.д. + 12гб видеопамяти особой роли не играют на 1440р, у меня и на 8гб всё отлично, а там, где больше нужно, уже чипа не хватает
я за 41 взял на 16 гигов и кайфую: тихая, хватает и для для работы и для игорей. вполне удачная карта, просто надо было брать по нормальной цене.
а я за 32 взял 4060ти итх, тоже кайфую
А какого вендора эта видеокарты была у Вас? Это очень решает.
Sapphire вроде, я уже точно не помню, 9 лет прошло. Я её в конце 2011 купил и в 2015 поменял на 980ti
Sapphire? Тогда неудивительно, моя первая видяха была от них (ATI Radeon 9600) и была тем ещё калом (постоянный отвал драйверов).
каталист драйвера разве не ati драйвера чем sapphire?
А, да, я и забыл(
Так этож двухчип, к примеру: GeForce 7950 GX2/9800 GX2/GTX 295/GTX 590/GTX 690, тоже грелись как не в себя
Эта видюха была просто с чудовищной пропускной способностью в 4096 бит, 16Гб видеопамяти в 2019 году, сидела на впервые в мире на 7нм. технологии чипсета. Она свободно дралась на равных с топом от Нвидии -2080 на 4К разрешении и практически ничем не уступала. В максимальной мощности нагрев был всего на 80Гр. Ну а то, что она ела на 70Вт больше - конечно для некоторых критично, но в топ-сборках (а именно это и попадает Радеон 7 или RTХ 2080) +- 70 Ватт не сделают разницы, для какого-нибудь платинового БП в 800-900 Ватт, для будущего апгрейда. Она была на 5К дороже, чем 2080, но у нее было в 2 раза больше памяти.
С надежностью у нее были проблемы.
самый бюджетный вариант купить 4060 и не парится , все технологии есть и протянет достаточно долго ..
Все новье она "потянет" на низких в hd разрешении
Низкие в HD не интересно, но реально из новых жду только gta6, а самое свежее из того что интересно это far cry 6
Она топтала в грязь все надежды школьников того времени, когда игра требовала шейдеры а карта отказывала их запускать, помню как обламывался с играми, тот же Prince of Persia Sands of Time
Особенно, когда школьники в то время и не знали про какие-то шейдеры, инет был дорогой диалап, и не понимали суть ошибки, у одних игры работали, у других же нет, так как этот обрубок был у половины школьников. Помню пытался скачать пиксельные шейдеры, мол их же не хватало, думал как и дх, скачал и играй 😁
(отредактирован)
Это да, и когда игры не запускались, думал что видеокарта слабая а не проблема в каких-то шейдерах, к счастью в то время быстро видеокарта поменялась на ATI Radeon 9550 и всё запускалось без проблем)
xRikVelx,
Вот вот, надеялся увидеть её на первом месте. До сих пор шрам на душе.
Помню прошёл Сайлент Хилл 2, и был диск с 3кой. А вот она требовала шейдеры, и побрила мои надежды)
Вполне, самый недорогой из нового поколения.. У меня был. )
Радеон 7 вроде сильно ненадежная, но в целом неплохая.
FX 5200 была очень странной картой. Главная проблема была в том, что за те же деньги можно было взять Radeon 9200 на которой игры показывали в два раза больший FPS.
давно поменял эту видеокарту в 2019 году на 1030, просто монитор новый купил а у него цифровые входы и VGA но нет DVI и поэтому поменял видеокарту, поскольку в fullhd картинка через VGA была не очень и местами дрожала ..
как картинка у gt1030, не кажется тусклой?
Играл в бдо в 1 фпс в 320р?
PowerVR*
Собирал в миниитх корпусах ПК, прекрасно туда вписывается.
Есть на руках 8800GTS(512) от BFG и EVGA. До сих пор рабочие
у меня есть gs8800 на 256мб, до сих пор работает, я хз что её убьет 🤔
Тогда в 2007 существовала версия о расслоении чипов как мне тогда в сервисном центре объяснили,похоже где то с качеством или же архитектурой в первой версии накосячили,но все карты самопроизвольно дохли.
буду знать 🤔
HBM память размещается на одной подложке с кристаллом ГПУ. Если одно из двух выходит из строя - на помойку веся подложка с ГПУ и память.
Поэтому да же Nvidia в 4090 использует классическую модульную систему, ГПУ отдельно, память отдельно, где-то рядом вокруг чипа расположены.
(отредактирован)
Ноутбучная 3050 это норм
Нет) это огрызок с 4 гигами
(отредактирован)