Помимо нового MacBook Air компания Apple обновила два своих ПК — Mac Studio и Mac Pro. Оба получили новейший процессор M2 Ultra, до 192 ГБ оперативной памяти и поддержку аж шести Studio Display. Также была представлена и простая модификация Mac Studio.
Начнём с главной особенности продвинутого Mac Pro — он получил M2 Ultra, полностью избавившись от чипов Intel. По заверениям сотрудников компании, новинка в три раза быстрее всех прошлых решений. Полную информацию про самый мощный процессор Apple можно прочитать в нашем материале.
Также это первый ПК на Apple Silicon с расширением возможностей: всего имеется шесть слотов PCIe Gen4 x16 для подключения периферии. В них можно установить сетевые устройства, дополнительный объём памяти или карту видеозахвата. Новинка, скорее всего, не будет поддерживать сторонние видеокарты NVIDIA или AMD.
Ещё Mac Pro оснащён восемью портами Thunderbolt 4, которые можно использовать для одновременного подключения к шести мониторам Pro Display XDR. В наличии два USB 3.2 Type A, два HDMI, два сетевых порта на 10 ГБ и 3,5-мм аудиоразъём на задней панели.
Новый M2 Mac Pro 2023 года стоит $6999 и будет доступен с 13 июня.
Вторая новинка — Mac Studio на процессоре M2 Max или M2 Ultra. Первая версия на 20% быстрее, чем Mac Studio на M1 Max, и на 50% быстрее при рендеринге в Adobe After Effects. Кроме того, она в четыре раза быстрее самого мощного iMac на базе процессоров Intel. А вот у второй версии на 30% производительнее графическая часть и на 20% — процессорная. Также имеется поддержка новейшей версии HDMI, Wi-Fi 6E и Bluetooth 5.3.
Mac Studio на M2 Max будет доступен уже на следующей неделе за 1999$.
Источник:
Забьют картой afterburner и рейдом от пегаса.
зачем убирать? Для этого есть Mac Studio как раз
Оно там никому не надо, у них родной GPU есть и никакие другие поддерживать они не собираются. Это разъёмы для плат захватов с профессиональных камер и звукового оборудования.
Сперва подумал что это терка ручная, потом прочитал название.
"Умный" пылесборник
А нафига он там? Через год будет нечего продавать как инновацию же.
Тим Кук, перелогиньтесь
При чем тут эпл то? Это сами процы ARM не поддерживают pci-e ведь это технология Intel
Эпл при том, что она предлагает итоговый продукт. В итоговом продукте есть шесть слотов PCIe Gen4 x16.
Это их право и их понимание продукта, с моими ожиданиями сходиться вообще не должно. От меня здесь только сожаления об отсутствии возможности.
И теперь можно припомнить новость
"Nvidia провела презентацию, была показана работа связки новейшего 6нм 8ми ядерного процессорного модуля MediaTek Kompanio 1200(4 ядра Cortex-A78, 4 ядра Cortex-A55, графика GPU Mali-G57) с видеокартой GeForce RTX 3060. На платформе под управлением ОС Linux запустили Wolfenstein: Youngblood и демо The Bistro"
Потому про то, что они не поддерживают PCIe можно не писать)))
Фраза «работа связки» никак не говорит об использовании pcie подключения. Nvidia вполне могла придумать и другой способ подключения она имеет в этом опыт на скрещивании arm процессоров и своих графических чипов.
Да и странно было бы тут эпл «злобно» ограничивать пользователей, это нелогично банально
ARM давно может в PCIe, в конце концов это шина данных
>Давно может
Ну тогда вам не составит труда привести пример устройства с arm процессором и возможностью подключения обычной видеокарты по pcie мне правда интересно есть ли такое я например не слышал.
Так, стоп, для начала. Речь шла про PCIe - тот же raspberry pi 4b имел на борту одну линию (2019 год) на которой висел какой-то контроллер . Чипы с PCIe были у Marvell, calxeda и Texas Instruments. Но хватит о тех, о ком ты не слышал.
Хочешь именно чтобы воткнуть видеокарту? Десктопных армов считай и нет (Qualcomm якобы планирует притащить поддержку в 8cx gen4), но есть серверные Ampere Altra (аж 128 линий PCIe Gen4, основан на ядре ARM Neoverse N1, который armv8.2) и AWS Graviton, в них вполне можно ставить обычные видеокарты для PCIe и использовать, правда скорее всего только под линуксом. Да и сам ARM предлагает «development platform c PCIe»
P.S. Там и nvidia свои гибридный arm soc в прошлом году анонсировала, правда не знаю с поддержкой ли PCIe
P.P.S. Изыскания в интернете говорят что на этих серверных платформах не все легко, но в целом линии PCIe там в том числе и для них и в том числе. Ну, т.е. какая нибудь Altra с платформой A100 от nvidia должна работать без проблем
>речь шла про pcie
Речь шла про подключение видеокарты, разъемы мы и так в статье видим
>Хочешь именно чтоб воткнуть видеокарту?
Я хочу именно просто воткнуть видеокарту и чтоб она еще работала так же как я привык на пк. Зачем писать эту тонну текста если на выходе только подтвердил мое утверждение? Примера нормальной работы обычной видеокарты с arm нет.
Я очень сомневаюсь что эпл не прилагала усилий для того чтобы иметь возможность подключать видеокарту в конце концов каким бы мощным ни был m2 ultra вряд ли его графическая система сравнится с 4х головой сборкой amd и вряд ли эпл такая ситуация нравится
Ampere Altra и AWS Graviton будут работать с Nvidia A100 и Nvidia T4. Что тебе ещё надо?
Ну что ты все крутишь и крутишь)
Наумничал а по итогу ничего не сказал.
Ясно же что у нас речь шла об обычном компьютере в который можно воткнуть обычную видеокарту.
Я кстати сомневаюсь что в твоих примерах видеокарта может работать на вывод изображения, она там явно только для вычислений как в майнингферме зачем тогда о них говорить
Это ты постоянно меняешь условия.
Вначале ARM не поддерживает PCIe - нет, поддерживает. Это просто шина данных
Потом показателем становится работа именно с видеокартой - нет, северные платформы работают с северными видеокартами. В том числе и распиливая и отдавая «виртуальную» видеокарту внутрь виртуальной машины
Теперь показатель «воткнуть обычную видеокарту в обычный компьютер» - и опять нет, можно
Вот тебе список протестированных десктопных видеокарт на ampere Altra с работающим выводом изображения:
GeForce® RTX™ 3070 Ti VENTUS 3X 8G OC
PNY GeForce® RTX™ 3060 Ti 8GB
GeForce® GTX 1050 2G OC
ZOTAC GeForce® GTX 1060 3GB AMP Core Edition
Рабочие видеокарты не ограничены списком, просто эти - протестированы. Единственное что изображения во время стадии загрузки - нет. Только после подгрузки ядра Linux
Я тебе все очень просто и конкретно написал что я хочу. Просто вставить видеокарту и использовать как и привык. Нет ты начал крутиться приводить в припер какие-то серверные системы видеокарты без видеовыхода, линуксы в виртуалке и тд.
По твоему что для подключения rtx3060 надо серверный Интел зеон обязательно покупать?
Вот и все
Если ты хочешь использовать дискретное видео с ARM процессором - у тебя просто нет выбора, кроме как использовать серверную платформу, ибо только они дают свободные линии PCIe для периферии (новый мак не в счёт). То что ты хочешь чего-то странного - это твоя проблема. Вопрос стоял о поддержке ARM-ом PCIe, в рамках выставленных требований - он поддерживает, поставил, установил драйвер и используй. Тем более что твоя «играть в игрушки» - это далеко не единственный способ их использовать
И снова какая-то ерунда от вас
>у тебя нет выбора
Выбор то у меня как раз есть, просто не использовать arm))
Ваше изначальное утверждение было что arm нормально поддерживает pcie для видеокарт на что я логично возразил что ни одного потребительского продукта с таким функционалом я не видел.
На что вы начали нести какую-то чушь про сервера и виртуалки с линуксом. Ну смешно же.
И да я хочу играть в игрушки и если «супер пупер мощный процессор» на это неспособен то он мне не нужен.
Они о какой «полноценной поддержке» нет и речи ведь старые thunderbolt позволяли подключать видеокарту а новые почему-то нет
>Это сами процы ARM не поддерживают pci-e ведь это технология Intel
>Ну тогда вам не составит труда привести пример устройства с arm процессором и возможностью подключения обычной видеокарты по pcie мне правда интересно есть ли такое я например не слышал.
Ни слова про потребительский сегмент для платформы, зато есть обобщение что ARM не умеет в PCIe. При этом аж 4 обычные потребительские видеокарты, которые будут работать с выводом изображения я привёл. Де факто десктопных арм почти нет, а те что есть на дают линий PCIe для периферии. Но вот сервера…
>Ни о какой «полноценной поддержке» нет и речи ведь старые thunderbolt позволяли подключать видеокарту а новые почему-то нет
Эй, ты сейчас про маки что-ли? Но ведь свет клином на них не сошелся, речь шла про ARM, а не про процессоры М серии от Apple Silicon. И к слову, они их видят, но не работают с ними
P.S. Apple не использует референсные ядра арм, у них лицензия уровня дизайна архитектуры и они вправе делать все что захотят и называть это ARM при условии поддержки обязательного набора инструкций для выбранной версии архитектуры. Такая лицензия - есть далеко не у каждой конторы занимающейся разработкой процессоров на arm
К слову
>pci-e ведь это технология Intel
Эта технология доступна всем членам PCI Sig, годовое членство стоит 4000$ в год и позволяет скачивать все спецификации себе. Для не членов 1500$ за CD диск, или 100-500$ за бумажную версию. Вы думаешь хоть у фирмы занимающейся процессорами нет таких денег?
> Эй, ты сейчас про маки что-ли? Но ведь свет клином на них не сошелся, речь шла про ARM, а не про процессоры М серии от Apple Silicon.
Ну назовите мне другой ноутбук с arm процессором и возможностью подключения видеокарты.
Я не понимаю что вы доказать пытаетесь)
Что где-то есть сервера к которым костылями прилепили видеокарту и что теперь? Как это относится к тому что старый мак про имел возможность установить видеокарту а новый не имеет?
> думаешь хоть у фирмы занимающейся процессорами нет таких денег?
Ну кто их знает ) вот видеокарты не работают может и правда денег не хватило ))
примера нормальной работы нет только в потребительском сегменте. Саму идею трудно продать диванным людям, начали с безрискового рынка слабосильных печатных машинок, там ниша буквально свободна из за прожорливых процов.
yhnyhn11 расписал все по делу, а ты строишь непонимающего, почему такого нет в массовом сегменте.
PCIe на ARM есть, видеокарты подключать можно (но в массовомм сегменте в этом не было смысла), но для эпла это вариант представить в следующем году "итс революшен джони", комп на М2 и с видеокартами. Ты видел, насколько они задерживаются за актуальными, но не популярными технологическими решениями? Выкатывают их после тотальной обкатки на инженерах тестировщиках, маркетинге?
>нормальной работы нет только в потребительском сегменте
А меня будто должен другой волновать
>сложно продать людям
Ну тут согласен сложно продать возможность подключения игровой видеокарты для процессора который не подходит для игр
А эпл то наверное капец как рады презентовать новый мак про который слабее прошлой модели
так это твои проблемы что ты такое хочешь. Скажем так, мы хотим того, что нам никто в эпл не обещал))
Просто ждем когда это станет мейнстримом, а пока это удел серверов и извращенцев. Да и процессор вообще то подходит для игр, он довольно мощный, но опять же, это эпл, закрытая экосистема при отличных технологиях. Те же планшеты - шикарны, стилус - лучший после wacom, под софт из апстора все работает идеально. Но никаких эмуляторов или сторонних программ)) приходится мириться
Игр там нет не из-за самой эпл а из-за отсутствия спроса на них
Да железо в теории мощное но все упирается в поддержку а ее не предвидится.
Айпад считаю самым бесполезным устройством если ты не художник как был большим айфоном так и остался
так у них это замкнутый круг. Владельцы маков покупают консоли, а полтора клавомышных соревновательных проекта на маках есть.
Айпад шикарен (как раз походный блокнот для набросков, причем там шикарные CAD приложения, так что не только для художников), стоит раз пять меньше решения от wacom и работает куда дольше), но по мне лучший вариант - Mini. Книги фильмы, игры, софт и все это помещается в кармане ветровки
Не работало оно отлично, из 6000-й серии радеонов работал 6600, 6800 и 6800хт, а 6700 обе шли лесом, потому что Apple решила, что они не нужны.
ну это были проблемы любителей Macos ))) на винде подключалась любая внешняя графика, да и сама макось теряла смысл с нормальной видеокартой.
Ну вот поэтому макось и дропнула поддержку eGPU.
да) и дропнула свои куцые возможности расширения на AMD. Но опять же, там другая целевая аудитория и макось плюс минус справляется с этими задачами
это специфические компы под определенные задачи. Скажем так, кому нужно - закупят. Иногда, под оптимизированные процессы они бывают даже дешевле сборок на винде. А вообще естественно лучше купить любой комп за 7000 и он будет в среднем по задачам быстрее этого. Ну и там дальше появляются нюансы работы на ЦПУ ГПУ сколько нужно оперативы в рабочей станции.
192 гига оперативки, а не vram, если бы там было 192 vram то он бы стоял на ноль больше))
А так, можно мать купить хоть на 256 гигов если самому собирать пк
там общая память
Ну тогда да, не знал.
Но еще важна сама производительность чипа же, и что лучше будет?
Эпловские армы очень бодрые, но дискретные топовые вихри все равно сильно мощнее чем может выдать gpu M-серии. Ну и всякие Machine Learning все же соответственно до сих пор в массе на всяких невидиа (они молодцы, в свое время удачно просыхают и дали инструмент для вычисления на видеокартах, чем обеспечили себе преимущество)
Дискретные топовые видюхи*
RTX 4090 быстрее будет, но если только сцена уместится в 24 Гб. А если нет, то придется рендерить на CPU, что будет гораздо медленнее. Тестов M2 Ultra пока нет, но думаю будет на равных с 13900 при гораздо более меньшем энергопотреблении.
придется собрать кластер видях)) но вообще, как я понял, там не сильно страшно 24гб. Сцена подгружается, просто тратится время на лишние операции. Поправьте, если не прав.
Бггг, ну, если на то пошло, есть всякие Nvidia A100/H100 за дохрена мешков денег, у которых по 80Гб видеопамяти, и могут объединяться в группы по их проприетарному интерфейсу, с пропускной способностью в 900 Гб/с
оох, у меня от одного ценника этой "мечты" ноги подкашиваются) У нас привычно было иметь компов 10 с топовыми видеокартами, работать за ними, а когда был нужен рендер - ставили на параллельный рендер на всех машинах. Мини ферма)) В сумме может дотягивали до одной такой видеокарты по мощности))
но там не будет macOS
M2 Ultra не мобильный чип и он действительно мощнее интела
M2 Max это большой и довольно мощный по площади кремниевый уродец сам по себе, так эплу было мало - и он склеил их два штуки вместе чтобы получить M2 Ultra. Так что оно и близко не мобильное. Насколько он мощный? Тут уже придётся чуть подождать тестов, но слабым он не будет
M2 ultra это как и сказали чип не мобильный и он то может вполне и без труда обойти Intel Xeon.
Но вот в прошлом Mac Pro можно было установить две двухголовых AMD карточки получив систему с 4 видеочипами и вот в том что m2 ultra будь он хоть гига, мега или еще чето сможет обойти или хоть что-то аналогичное продемонстрировать вот в этом я сомневаюсь
Не сможет, у них неплохое видео, но дискретные видеокарты мощнее. Единственное что там оперативная память общая с видеочипом, и на задачах где нужно много видеопамяти - это будет хорошо. С другой стороны есть ведь и не десктопные видеокарты с тоннами видеопамяти…
Наверно стоило бы объяснить почему где и как он мощнее, а не вот это вот ясказалмощнеее!!!111
IIceBgo,
Разные архитектуры разные оси и железо, и на пальцах не объяснить вот так вот . Почитайте про х86 и arm чуть чуть хотябы
Я просто запутался. На самом деле, если я правильно понял, чипы M2, которые стоят в макбуках/планшетах и M2 Ultra не имеют ничего общего. Я сначала подумал, что ультра это просто более заряженная версия M2.
не, это то же самое. Просто заряженная версия М2. Увеличили площадь кристалла, накинули транзисторов.
M2 max - это заряженная версия m2, которая больше и имеет больше «фарша» (вычислительных блоков). М2 ultra это чиплет из двух M2 max. Хотя общая архитектура там одна
Ultra уже чисто стационарный процессор.
UEFI - не виндузятский, просто ты не умеешь его готовить, вместо него жал использует свой, точно такой же, проприетарный костыль который ничем не лучше кроме замкнутости на эпл
В чем офигенная? m2 - проходняк, который слепили из m1 и который ничего нового не показал. m1 - интересный вариант, но очень спорный, потому что ради производительности получил значительные ограничения и тех решения, от которой стали отходить еще в 80-е года. Он круто смотрится в небольших мобильных чипах, но странно в здоровых мейнферймах. Да и m1, по сути, улучшенный мобильный a14, который изначально и не планировался для пк. И в чем связь ухода с x64 архитектуры и eufi?
Прямо скажем, попытка там очень слабая :)
ну купи. Купи за 285000 рублей. Ну надо...
Так он же на arm
Это их проблемы))
Есть, но М-серия пока не умеет в дискретное GPU, из забавного, макбуки вроде как eGPU (это то которое линии PCIe через thunderbolt/usb4 пропихивает) определяют, но работать с ним не умеют, и особых надежд что старые модели когда нибудь научаться - нет
Нет kext'ов (драйверов) — нет eGPU, а ARM-дрова никто не делал, т.к. Apple всем показала кукиш, когда создала свои закрытые системы. Замкнутый круг. Ну и ещё MacOS не умеет возвращать сигнал на встроенный экран, хотите чтобы что-то выполнялось на еGPU — к нему надо подключить экран и только то, что выводится на внешний экран будет получать ускорение от eGPU. Говорю как человек, который к макбуку подключал Radeon 6800 XT.
ЦА тут как раз очень конкретная и купит его за любые бабки, не просто так он вдвое дороже обычной студии, которая для простых смертных. Студию купят фрилансеры и дизайнеры, видеографы. А тёрку эту — крупные конторы, вместе с контрактом на обслуживание и горой другого специального оборудования, на фоне которого $10 000 за мак про — фигня. Всякие звуковые лейблы и киноделы пачками будут брать и просить добавки.
Насколько я знаю, киноделы все сидят на линухе, на маках у них только звукари, часть аниматоров и менеджмент. Мак не может в серьезный рендеринг, для этого используются здоровые линуксовые фермы.
ох уж эти мифические крупные и крутые конторы... я всю жизнь на конторах работаю, крупных и не крупных. все как сидели на серверах виндовс так и сидят. а ну да простите два с половиной кинодела купят, да, не заметил
да у них теперь нет смысла в хакинтоше аппаратном(только если не нужны программы). Вся суть маков теперь в арме, в долгих ноутах, в бесконечной видеооперативке. Не сильно дешевле выйдет под те же задачи. А дальше уже вопрос, зачем нужен именно МакОС ))
с мак-мини и макбуками - тут у многих оно есть и все прекрасно понимают - зачем купили. Но вот ЭТО, ТОПОВОЕ и ДОРОГОЕ - прям интересно.
я вообще подозреваю, что самих по себе систем с конфигами более 100Гб ОЗУ - мало, особенно если там ОЗУ стоит качественное...
это покупают студии. Для них это и траты небольшие и у них крутой сервис (не нужно переживать за поломки и ожидания, сломалось, сразу заменили) и стоят они на самом деле не так много по сравнению с проф решениями на винде и другим оборудованием. Знакомый рендерит на маке. Моделлит на винде с каким то сумасшедшим пакетом софта, потом просто перекидывает всю сцену в относительно слабосильный Макбук )) При том сам софт для моделлинга на маке тормозит.