Авторитетный инсайдер и автор YouTube-канала Moore's Law Is Dead рассказал новые подробности о будущем ARM-процессоре NVIDIA, разрабатываемом в сотрудничестве с MediaTek. По его словам, это будет очень производительный чип в графическом плане.
Несколькими днями ранее инсайдер рассказал, что сначала NVIDIA намерена выпустить мобильный APU-процессор для ноутбуков с энергопотреблением порядка 80 Вт. Он должен составить конкуренцию будущему ARM-процессору AMD Sound Wave на архитектуре Zen 6.
Ссылаясь на свои источники, в новом видео Moore's Law Is Dead заявляет, что этот ARM-процессор NVIDIA сможет предложить тот же уровень графической производительности в играх, что и 65-ваттная версия GeForce RTX 4070 для ноутбуков. Также в составе чипа будет продвинутый нейронный процессор для эффективного выполнения задач искусственного интеллекта.
Выпуск ARM-процессора NVIDIA ожидается в конце 2025-го или в начале 2026-го. Первыми устройствами на его основе могут стать игровые ноутбуки Alienware.
Источник:
(отредактирован)
(Комментарий удален)
(Комментарий удален)
В данном случае истинность или ложность высказывания будет заключаться в приеме рынком данного решения. В случае apple рынок arm принял. В случае самой дорогой компании мира скорее всего случится то же самое. Таким образом, с большой долей вероятности истинность данного конкретного высказывания будет зависеть от мнения авторитетного источника (в данном случае NVIDIA)
В случае данного APU за процессорную часть отвечает МТК, которых принято пинать на данном ресурсе ибо "ко-ко-ко где десяток лет поддержки и патчи безопасности ко-ко-ко", при том что смарты на снапе получая обновы в длительной перспективе(более года) превращаются в такую же тыкву как яблоки.
А рынок мобилок не может себе позволить 1) энергопотребление 4090 2) лучи(слишком падает производительность). Т.е. в сухом итоге нвидии придётся меряться "чистой" производительностью(длсс3 не сильно спасёт т.к. не будет нвидиа все игры прогонять через свою нейронку, а вот у АМД есть генератор кадров на уровне драйвера).
Короче лично я тоже отношусь скептично. Полно портативок типа гпд_вин или стимдека, нвидиа не может предложить относительно других устройств ничего революционного на данный момент.
Ну проблемы данного форума МТК не особо интересуют. Я хотя и сидел в сенсорную эпоху на процессорах apple и снапах, сейчас против процессоров МТК ничего не имею, dimencity 8xxx и 9ххх прям хороши и вполне себе на уровне. А по поводу видеоядра - у яблочных оно вполне себе на уровне 4060-4070, и с рэйтрейсингом и прочими плюхами, зелёные вполне могут себе позволить разработать и энергоффективное и достаточно мощное решение лучше чем у яблок.
А можно копиумом поделиться? 4070 в bg 3 около 120 фпс, квад хд, ультры. M3 max с фср квалити 70-90 фпс, квад хд.
Там в 2 раза разница. И это речь про НАТИВНУЮ игру. Ненативные игры вообще сравнения не выдерживают.
Для встройки это более чем комплимент, согласитесь. Я имел ввиду старшие м4, там как обычно все ещё лучше, и вообще мой поинт был в том, что нвидия способна выдать графическое решение, которое будет значительно лучше конкурентов.
> мой поинт был в том, что нвидия способна выдать графическое решение, которое будет значительно лучше конкурентов
будьте добры по пунктам. Чтоб именно "значимо".
В чистой производительности нвидиа не лучше амд. Сейчас длсс-ы "спасают" ситуацию на ПК, но что будет на мобилках?
А яблочные встройки даже у М4 не близко к 4070. Около 4060, может 4060ти в особо удачной игре(ибо в винде много тратится на директИкс, в маках получше будет).
> В чистой производительности нвидиа не лучше амд.
Если я правильно сравниваю то 7900 XTX это что-то соразмерное 4070 ti s
Аналогов 4080 и 4090 у амд просто нет, или ошибаюсь ?
Ещё хотел уточнить у людей в теме, почему у амд теплопакет всегда больше практический на 50% ? так дешевле ? С точки зрения гуманитария если теплопакет меньше при одинаковой производительности то изделие более технологично что косвенно говорит о его надежности и долговечности, или это не так работает ?
> Аналогов 4080 и 4090 у амд просто нет, или ошибаюсь ?
А у АМД есть карточки такой стоимости как 4090?
> почему у амд теплопакет всегда больше практический на 50% ?
Наверно АМД настолько волшебники, что умеют из связки пси-е+8пин коннектор вытягивать больше 225 Вт.
> С точки зрения гуманитария
У условной 4070 теплопакет 200? У 7800й, которая обходит(без длсс), теплопакет 245. Да, 200/245 получить 50%, и правда гуманитарно.
В случае с Apple рынок заставили принять ARM, так как альтернативы просто нет.
когда начитался страничек с логическими ошибками с википедии, но не понял как это работает. Изначальный тезис о "бессмысленности" вообще ни на чем не основан. Был задан логичный вопрос, "на чем основано это мнение, чего не осознает нвидиа?". Тут не было тезиса что "нвидиа права, потому что это нвидиа".
Судя по новости, медиатек проплатил нвидии, что бы использовать их gpu. Вот и всё.
не думаю, что к авторитету только. Логично предположить, что компания умеющая в зарабатывание денег, умеет и неплохо так расчитыватиь свои дальнейшие стратегии , чтобы они приносили им в будущем прибыль. И пока у них получается неплохо так. А вот к примеру у Интэла что-то тне получилось не так давно.
Допустим Нвидиа просчитали и понимают, что Shinzon прав, но видят, что вложив сколько-то там миллиардов в разработку процессора, сумеют впарить его призводителям ноутбуков, которые втюхают свои ноуты на бессмысленной технологии обычным гражданам. Но денег-то на этом заработают.
Понимаешь есть словой хайп. Так вот щас хайп на arm процессоры.
Я не понимаю причём здесь внимание денег? Денги не дают понимание
У нас же есть куча примеров когда крупные компаний вливали тонны денег но не добильись успеха
(Комментарий удален)
У него бэкдоры в эмуляторах игровых консолей, зачем задавать такой вопрос?
(Комментарий удален)
На лампах процессоры строят, там нет бэкдоров))
Хм... На чем существует интернет... OpenWRT поддерживаемые архитектуры: ARM,MIPS,MIPS64,PPC,x86, x86-64
новость от 24 октября 2024 года
ARM отзывает лицензию у Qualcomm
И кто дурак?
При чем тут квалком? Который, к тому же теперь имеет свой Орион?
Орион на какой архитектуре по вашему на x86?
На арм, но сильно модифицированной. Причиной приобретения компании, разработавшей ядра Орион, и было нежелание быть в рабстве у арм холдинг
Если arm архитектура сильно модифицированная, то это не отменяет того момента, что она arm. А если она arm то будь добр плати лицензионные отчисления.
Ну квалком так не считает, потому суд. А с учётом юрисдикции возможны всякие варианты.
Квалки проиграют, выиграть битву сложно, очень, очень сложно.
(отредактирован)
Это местный Алёшка юродивый, чуть не в каждую новость свой коммент вставляет. И откуда у людей столько свободного времени
Она вообще смысла не имеет. Даже на мобильниках. Пока Arm владеет архитектурой Arm ничего хорошего не будет.
Ну да ну да, придумали и пошли нафиг.
Если стали делать ноутбуки с ARM - значит чего-то оно стоит
Ну, ну... расскажите это, инженерам одной известной компании из Купертино!?:), особенно архитектуре: ARMv8.5-A!!!
Ну я бы не спешил с такими выводами. Мелкомягкие написали 24H2 под arm процы, за ближайшие пару лет допинают код. NVIDIA и AMD пошли в разработку ARM, единственная компания кто пока никуда не сдвинулся это intel, который куалком хотел купить, тот самый intel, который каждый квартал бьет рекорды по убыткам.
Мобильный сегмент на сегодняшний день продолжает набирать обороты, продажи PC и комплектующих постоянно снижаются, тренд многолетний. Текущая производительность мобильных решений уже обеспечивает достойный уровень, держать PC особого смысла нет, только для специфических задач.
ARM не революцаия, скорее эволюция, для конечного пользователя в принципе без разницы, главное чтобы работало дольше, тише, лучше. Скорее всего процесс перехода будет бесшовный.
Понятное дело, что x86 полностью не умрет, и еще долго будет с нами, но это уже совсем другая история!
(отредактирован)
И тут возникает вопрос про технологию. Что с ней не так? Что такое бессмысленная технология? И почему ее так много сейчас используют? И видимо вы знаете осмысленную технологию, не могли бы поделиться секретом, какая она?
Поэтому M4 Max потребляя порядка 45-60 ватт сравним в большинстве задач с топовыми x86 потребляющими в разы больше ?) Понятно, что там ASIC модули решают, но все равно потрясающая производительность. И тут так же, вряд ли самая дорогая компания (Nvidia) ошибается.
x86 бессмысленная технология. Тянуть совместимость 40 давности пора прекращать. Есть ARM и RISC-V. За ними будущее.
ну так перспектива как раз за ARM!
Да-да ждём эту перспективу со времён Apple M1.
Ждем! Windows 11 уже можно загрузить
>ARM бессмысленные чипы, бессмысленная технология. имеет смысл лишь на мобильных устройствах
Уверен, что вы даже в руках не держали ноутбук на ARM. Второй месяц использую ноут на Snapdragon X Elite, и вот, что я вам скажу:
1) Время работы от акб примерно от 14 до 18 часов на яркости 70-80%, интернет, видео, офис, музыка
2) Всегда холодный ноут, греется только в сильно нагруженных задачах
3) Куллеры не включаются, потому что им нечего охлаждать, тишина без этих пылесосов на весь день
4) При обычном закрытии крышки ноута на ночь, он выжирает 1-2% акб всего, при этом он включен, открыл крышку и моментально работай
5) Отзывчивость интерфейса просто колоссальная
И т.д.
(отредактирован)
читай внимательнее !!!APU-процессор для ноутбуков с энергопотреблением порядка 80 Вт!!!
Второй абзац. Ноуты на apu будут порядка 80вт.
Не смущает что этот проц будет на порядок дороже?
Tegra x тоже был топчиком, не копеечным в начале. Можно было-бы на основе этого лайт версию сделать, или в убыток давать на старте. Зато хоть честный нектген.
"этот ARM-процессор NVIDIA сможет предложить тот же уровень графической производительности в играх, что и 65-ваттная версия GeForce RTX 4070 для ноутбуков."
Может использовать для этих целей уже имеющийся ноутбучный GeForce RTX 4070?! Производительность у нового чипа та же, а потребление +25W 😀😁😂
Та не понятно кто чем думает и чего хочет добиться. Может это будет новая архитектура, кто её знает
ARM архитектура у него. Сказано же.
Ля, я про ГПУ, думал что очевидно догадаться.
Ну блеквел будет. Это очевидно.
Так реализация будет внутри SoC, а не дискретной картой. Довольно очевидно из новости же
Вас не смущает, что к существующей дискретной 4070 для ноутбуков с 65 вт нужно приложить ещё процессор на 45-65 Вт, чтобы её использовать? И в результате получается новый интегрированный APU 80 Вт против 110-130 Вт существующих дискретным систем. Вполне себе нормальный прогресс, вопрос только цены для конечного пользователя.
(отредактирован)
Про 45-65 немного хватили, например у AMD 7035u вместе с 680М Radeon термопакет 28 Вт. У большинства неигровых ноутбуков даже с дискретной картой потреблением в пределах 80 Вт
ноутбуки с RTX 4070 - это не "неигровые ноутбуки", и уж далеко не "большинство". Не умещаются они в 80 ватт.
Согласен, не умещаются. Это не отменяет того факта, что в них все еще ставят 35-ватный R7 6800HS, "35-ватный" (я намеренно взял это в кавычки) R7 7435HS, 45-ватный i7-13620H. Так что остальные ваты дожирает большой и хороший дисплей, подсветка клавиатуры чипсет и пропеллеры. Насчет 80 против 100-110 наверное не буду спорить
----
Интересно, в бусте эти 80 ватт будут удваиваться, как это происходит, например, у i7-13620h?
(отредактирован)
Типа: моя жига быстрая как ламба, только ламба без двух колес....
Потому что разговор идет о компактных и тихих ноутбуках, а не о десятикилограммовых грохочущих игровых монстрах с потреблением в киловатт.
Несколько лет назад Nvidia маркировала мобильные некоторые карты max-q, не прижалось и сейчас целиком отдали на откуп производителям ноутбуков, единственной отличительная маркировкой для конечного пользователя стало потребление энергии, которое публикуют в характеристиках. Т.о. они привели в сравнение конкретную привязку к производительности. Не вытянет оно производительность 4070@115Вт.
(отредактирован)
Может им нельзя самим собирать по каким-то договорённостям, нет возможности с тсмс контракт заключить напрямую или ещё какие приколы
Хз, учитывая, что они занимаются своими арм для нинтендо. Возможно просто мтк гораздо мощнее делает ядра, вот и пришлось идти на сотрудничество.
Снижение стоимости разработки, оптимизации всякие.., да, много чего можно взять у Медиатека!!!
Удивлюсь если в этот раз у них выйдет иначе.
По-моему Tegra, например, используется в Nintendo Switch. Так что там даже 7-8 поколений вышло. Нормально продержалась, хотя, конечно, не туда ушла, где хотели видеть её Nvidia, когда на ней пытались выпускать планшеты и портировали игрушки для пиара.
Чего бл???