В ходе интервью с изданием CNBC генеральный директор NVIDIA Дженсен Хуанг заявил, что его компанию ожидает рекордный год. Причиной он называет развитие технологий искусственного интеллекта, а генеративные нейронные сети, как он полагает, приведут к полному изменению компьютерной архитектуры.
Глава NVIDIA считает, что прогресс в области центральных процессоров сильно замедлился, а будущее за вычислениями на графических процессорах. Он уверен, что генеративные ИИ полностью меняют индустрию. По его прогнозам, оборот рынка компонентов для центров обработки данных может вырасти до триллиона долларов.
Дженсен Хуанг считает, что до сих пор ключевая роль в индустрии была у производителей центральных процессоров для персональных компьютеров и серверов, где лидируют Intel и AMD. Но с развитием ИИ-приложений приоритет смещается в сторону графических процессоров, и в этой области NVIDIA на данный момент считается «королём». По словам Хуанга, будущее за генеративными данными, для которых нужны видеокарты.
Он добавил, что будущим центрам обработки данных и суперкомпьютерам не потребуются миллионы кластеров ЦП, поскольку несколько графических процессоров смогут справиться с поставленной задачей.
Источник:
когда за 25 лет не смог создать свой собственный процессор, а синие и красные конкуренты освоили всех технологии и тебе надо чем-то крыть
Слушать куртку на серьёзных щщах - себя не уважать
Можно слушать, можно не слушать.
Но у них сейчас ОЧЕНЬ жирные контракты как раз на поставку этих ихних A100 и H100, сотнями тысяч штук для ЦОД и нейронных суперкомпьютеров.
Производить в нужных объемах не успевают, куртка на них деньги буквально лопатой гребет, а позапрошлогодние доходы от крипты кажутся уже мелочью.
Чип близкородственный 4090, обвязка тоже, а стоит такая "карточка", в обложке "суперускорителя" 10000 - 15000 $
А вот красные, АМД - просохатили тему и сейчас грызут себе пятки))
хз, все автомобильные ускорители амд, у них еще есть эмбедед которые в серьезных контроллерах с математикой стоят. У куртки есть покачто жесткие праблы с серверным софтом. У амд с серверным софтом дела лучше, но это заслуга скорее изза поставок процессоров "в комплекте".
Вообще многие думают что gpu это то что нужно для нейронки, хотя есть спецовые npu в асиках которые дешевле и мощнее. Но ктото уже говорил что в будущем gpu в компах будет более важным компонентом, а точно, это же амд перед тем как выпустить FX. Они догда еще апишку представили Mantle. Получается куртка просто скомуниздил фрузу?
Все эти ИИ ровно такая же маркетинговый мусор, как и в свое время были мониторы с gsync, которые специально комплектовали доп процессорами в монитор, что повышали цену в разы, а затем амд с freesync на одном органе проверил их мусор. Тут тоже самое
Расскажите о своем мнении тем, кто уже простестил chatGPT
ИИ мусор?? Ага конечно
Я тебя наверно удивлю, по видео карты обладают процессорами) а если ты все же имел ввиду ЦПУ, то опять удивлю у зелёных они тоже есть) на одном цпу от зелёных сейчас продается очень популярная игровая консоль)
Да и он настолько донный, что плакать хочется. Так что именно потому и говорит, что это не они обделались, а им в штаны подкинули
Такой донный, что тянет новую зельду и еще тысячи крутых игр. Что там на ваших ультра мощных снапах? Китайская пародия на зельду да пубг?
А смысл делать хорошие игры на смартфон? Там аудитория домохозяек/офисных клерков и прочих огромная. Такие нормальных игр не видели, им донатных помоечный с кучей дейликов-активностей, склепанных на коленке 10 китайцаси и бабки успевай считатт
Монетизация геншин с вами готова поспорить о том, что нужно людям... Напомню, что игра стала популярна именно из-за баек о том, что это клон Зельды для мобильных платформ
Если что, то любой современный топ мобильный проц вдвое обходит тегру из свича. У меня есть их портейбл версия нвидиа шилд. Чтож она даже мой телефон на снэпе 730 не догоняет и близко. Есть помощнее приставка ктороая как настольная (кстати на том же проце что и свич), так вот, геншик она еле тянет на минималках.
Напомню, что этот чип представили в 2014 году. На тот момент даже рядом никто с ним не стоял. Как-то смешно сравнивать с современными чипами, девять лет спустя 🙄
Свищ ? Так портирование на него это отдельный процесс с оптимизациями и кастрациями.
Действительно, я как-то не задумывался, что свич на тегре сделан) я думал там амд или типа того внутри
Tegra не процессор?
Да он даже с виду на кловуна похож
Вы видно за новостями не следите. Буквально за день капитализация Nvidia выросла на 24% и достигает почти триллион долларов. И аналитики прогнозируют дальнейший рост из-за растущего спроса на оборудование для дата-центров с использованием ИИ.
Вырастет и потом упадет, у меня так два раза в день бывает, и я этим пользуюсь. Фондовый рынок - вещь примерно такая же, хаи и х*и
Ну ОК, на чем основывается заявление что время Nvidia ушло, в какой области? Какие основания для обесценивания?
Один из крупнейших но не единственный клиент это тот самый МС который закупил десятки тысяч их чипов (цена чипа 10к зелени). Вот и думай. При этом имеется только один конкурент АМД. Они на пару будут снимать сливки удовлетворяя запросы клиентов.
нет
если ЦП еще хватает с запасом на длительное время, то переход на такую компоновку лишь заставит чаще менять железо из-за быстрого устаревания.
Самый правильный комментарий.
Бери паяльник и меняй банки памяти, в чем проблема?
Проблема что нужен непаяльник и прошивка которая понимает новый объём.
На материнке и так слот под видяху есть. Дает больше опциональности. Видеокарта это не только ядро. Там компоненты на плате место занимают как четверть, а то и половина материнки. Теоретически это возможно реализовать, но смысла 0.
А вот идея с расширяемоемой памятью на видеокартах неплоха. Патентуй)
Уже были такие видеокарты в 90е
И звуковые карты кстати тоже.)
длиннющая awe32 например) надо будет послушать кстати звук из неё будет
Жаль отменили. Было бы удобно. Но я понимаю что производителю такое не выгодно. Как и в смартфонах без карт памяти они навариваются на тех кто хочет памяти побольше.
Его видяхи лучше лишь в лучах и только в них. До RTX серии красные легко дёргали любой GTX
Да, и кто соперник 1080 ti?
Веги?)
Нет такой, да)) с флагманами не конкурируют, как и до сих пор нет конкурента 4090 и не будет
Дергали в чем? Где?)
В Vulkan/Direct3D12 играх. И продолжают дергать так, что навидия не знает что делать, даже труп OpenGL перестала насиловать
Смешно))
В стате стима за 17 год, в топ20: 16 карт он нвидиа, 2 от Интел, 2 от АМД
В стате за 18 год, в топ20: 17 карт он нвидиа, 2 от Интел, 1 от АМД
В стате за 19 год, в топ20: 19 карт он нвидиа, 1 от АМД
В стате за 20 год, в топ20: 17 карт он нвидиа, 2 от АМД и 1 UHD от интел
В стате стима за 21 год, в топ20: 17 карт он нвидиа, 3 от АМД
В стате стима за 22 год, в топ20: 18 карт он нвидиа, 2 от АМД
Настолько дергает, что что пришлось брать топ20, а не топ10. Потому что АМД даже в список 15 популярных карт попопадает через раз))
хм, значит по такой логике всякие Рио, Клио, Джетты, Логаны, которые продажи огромные, дергают ГТР, М5, РС6, Е63 АМГ, 911, Мустанг и так далее. Это я не к тому, что видюхи от Амд лучше, но в бюджетных и средних сегментах не хуже, топ за Нвидиа. Хотя местами Нвидиа прям удивляют... с этой 4060 это лажа полная. И моменты когда 950 и 960 по сути одна карта, тоже мем был своего времени. Когда вышла 1050, которая по сути тоже самое по производительности, что и 950.
В рабочем софте
Как бы творчество нах не нужно для эволюции
Ну ну, а что нужно?
Размножение
"заменить не удасться"
Подсел на майнеровскую иглу ?
Где в новости такое написано?
С каких пор у Apple ядро Linux?
Основа OS X это Darwin на ядре XNU который сочетает наработки NEXT и FreeBSD
Какой конкрктно компьютер? В новости явно написано не про ПК. Ппочитайте ещё раз о чем речь.
увы. индусский код шлёп-шлёп-продакшн и модные фреймворки. и в итоге куча мощности железа расходуется совершенно в пустую.
А куча мощности впустую, это работа электростанций даром, дополнительные выбросы. Но капиталистам на это все пофиг. Они отвалят фантикам журнашлюшкам и те запилят очередной ролик типи "какие потребители безответственные и вообще не сортируют мусор". Только за кадром останутся те кто производит этот не нужный мусор и шлакопрограммный код.
Хорошо, что Атомные электростанции наконец-то начали обстреливать артиллерией)
Время их уходит...
Как по мне - рядовой потребитель будет только больше раскошеливаться.
Пока гибрид получается только у AMD.
AMD хоть завтра назовут "процессоры с интегрированной графикой
видюхами с интегрированными процессорами.
Чтобы отменить такие нехорошие предъявы надо срочно походить по сцене и рассказать об очередном прорыве, наспех выдать "прорывную технологию". Теперь вот, вместо того, чтобы догонять замедляющийся процесс ЦП, решено остаться на одном месте и пририсовывать красявости с помощью сетевого алгоритма (от термина нейросети уже тошнит, простите). Конечно, зачем развивать ЦП в видюхах, когда можно не развивать и объяснить, что это круто! Нынешние технологии в большей степени маркетинг, нежели что-то другое. Впрочем, как и все остальное в нашем стремительно меняющемся мире. Кажимость и видимость на уровне эмоций конечного потребителя, и ничего больше. Купи это и ты почувствуешь как все круто, как мы это показываем в рекламе. Купил, и все не так круто? Ну ты чего, глупый, это же просто рекламный образ, вон, даже мелкими буквами под звездочкой было написано, что это просто реклама и ничего больше. Купи лучше следующую модель, она вышла недавно. Если ее купишь, то смотри как будет круто... и так до бесконечности.