Как сообщает авторитетное издание The Wall Street Journal, ссылающееся на собственные источники, компания Qualcomm в сентябре этого года обратилась к Intel с предложением выкупить её. Это может стать одной из самых крупных и значимых сделок в индустрии.
И хотя рыночная стоимость Intel сейчас оценивается в 90 миллиардов долларов, компания переживает крупнейший кризис в своей истории. Для понимания, во втором квартале текущего года производитель процессоров отчитался об убытках в размере 1,6 миллиарда долларов, хотя ещё в начале года этот показатель был почти в четыре раза меньше — 437 миллионов долларов.
«Задачей номер один было ускорить наши усилия по сокращению технологического разрыва, который образовался за счёт более чем десятилетия недостаточных инвестиций», — заявил глава Intel Пэт Гелсингер на выступлении перед инвесторами ранее в этом году, добавив, что компания находится на пути к тому, чтобы наверстать упущенное к 2026-му.
Сумма сделки пока не разглашается. Примет ли Intel предложение Qualcomm — тоже пока неизвестно. Но если это случится, на рынке можно ожидать масштабные изменения.
Источник:
Арм и бесполезный. В каком году живём?
В 2077.
АРМ бесполезен с точки зрения универсальной вычислительной машины(собственно суть существования компьютера это многофункциональность). Но для потребительского устройства, да работает чтоб видосики посмотреть, ленту соцсетей полистать, три в ряд сыграть.
Это в каком месте арм не универсален? За ним нет такой адовой горы легаси - правда, но о его неуниверсальности - это ты перегнул. Ты вообще видел какие сейчас есть числодробилки в качестве серверов на ARM?
Нет, у меня нет принципиальных претензий к x86-64 (интеловский x86s мы похоже не дождемся), но и наезд на «универсальность» ARM я не понимаю
(отредактирован)
Вроде кто-то говорил на этом форуме, что арм не подходит в качестве универсальной архитектуры из-за частых изменений оной, что исключает обратную совместимость со старыми программами. В этом и плюс х86 что можно нативно запустить хоть приложение начала двухтысячных на современном ПК. Поправьте если не прав.
(отредактирован)
Вот да, arm агрессивней перерабатывает архитектуру и софт 2000х без перекомпиляции (а иногда без переработки) на современном ARMv8/ARMv9 не запустится. И это действительно может быть проблемой для бизнеса в целом, и всяких заводов со своим уникальным легаси в частности.
Но это не про универсальность архитектуры, а про совместимость с легаси. И тут ARM однозначно проигрывает x86-64
Там снизу пишут что за ним будущее - я так не считаю, я считаю что это просто очередной этап. И ещё не факт что ARM победит в гонке. Но х86-64 точно не похоронят ещё лет 10
(отредактирован)
кто-то еще на вин98 сидит, это их личное.
Для 90 процентов потребителей нет нужны в легаси и поддержки устаревших вещей.
Промышленности нужно легаси, а она всегда с болью обновлялась. И это очень много денег. Хорошо когда твой бизнес адаптировался и способен на это, но не каждое, даже современное производство на это способно.
Да и с крупными САПР - проблема
(отредактирован)
никто им не мешает продолжать использовать процессоры со старой архитектурой. Опять же это их личное решение адаптироваться или нет. Все это делается, нужно только желание.
Это ты так решил? Я тебя огорчу но много кому не просто надо! А нужно
кому? Тебе нужно? Так сиди на старом проце, семера одного не ждут.
А ну да. Все мужики 30+ юзают софт времён виндовс 95 каждый день точно
Мда... архитектура ARM представлена 85 году. Где ты используешь вид98 расскажи нам профи? Какие сверх уникальные программы тебе так нужны что ты так переживаешь за устаревшее?
(отредактирован)
Откуда такая статистика? Пруфы?
(отредактирован)
Да и не нужно никакой победы и монополии, пусть существуют обе архитектуры, на этом и основан прогресс технологий, я бы еще RISC-V к ним в гонку добавил.
(отредактирован)
Ну совсем старые инструкции можно программно эмулировать, если надо.
АРМ это не волшебная палочка. Это те же транзисторы. Если ты делаешь его меньшим по энергопотреблению, значит у тебя меньше не просто частота но и число транзисторов что занимаются какой-то полезной работой, т.е. на условный рендер видео есть выделенный конвеер транзисторов, а на скажем расчёт числа пи до миллионого знака после запятой(просто как пример) нету, и арм сразу сдувается.
Поэтому АРМ это просто уход в боковую ветвь процессоростроения. В потребительском сегменте - да, выглядит прекрасно, но потребителю можно скормить почти что угодно с помощью рекламы.
А например условные cuda ядра нвидии(тоже жрущие энергию похлеще х86-64), способные на огромный круг задач, всё равно предпочтительнее в ряде более специфичных задач чем просто рендер видео на макбуке.
Так что АРМ это просто энергоэффективное специализированное решение, а не шаг в будущее.
>>А например условные cuda ядра нвидии
Мимо, чипы nvidia не являются процессорами общего назначения. Зачем ты их сюда принес?
>>Так что АРМ это просто энергоэффективное специализированное решение, а не шаг в будущее.
Я его таким и не называл
Я упомянул нвидию в контексте того, что АРМ это "огрызок" от всей совокупности конвееров задач в процессорах х86-64, когда те же cuba зачастую предпочтительнее АРМ потому что могут больше в своей нише. Т.е. если мы будем "развивать АРМ", это будут сотни или тысячи вариаций АРМ под узкоспециализированные задачи, где в процессорах будут только нужные части, а чуть что понадобится другое - делай другие АРМы. Как-то не выглядит экономически эффективно пересобирать компьютер каждый раз как нужно что-то новое.
>>Я упомянул нвидию в контексте того, что АРМ это "огрызок" от всей совокупности конвееров задач в процессорах х86-64
Хочется тебе или нет, но ARMv8/ARMv9 это вполне современные CPU общего назначения
>>когда те же cuba зачастую предпочтительнее АРМ потому что могут больше в своей нише
Это должно было быть «cuda»? Так с тем же успехом они в этих же задачах предпочтительнее ядер x86-64, где же тут преимущество над ARM? Кто мешает в ARM-сервер воткнуть видеокарту от Nvidia и точно также использовать cuda?
>>Т.е. если мы будем "развивать АРМ", это будут сотни или тысячи вариаций АРМ под узкоспециализированные задачи, где в процессорах будут только нужные части, а чуть что понадобится другое - делай другие АРМы.
И да, и нет. Ты можешь изменить их конфигурацию под себя если тебе это необходимо для каких-то специфических оптимизаций, но они в любом случае останутся ядрами общего назначения
>>пересобирать компьютер каждый раз как нужно что-то новое.
А… зачем? Старый проц же продолжит работать. Например, пишешь ты некий софт производящий сложные математические расчеты. В процессе разработки ты решил что получится неплохо оптимизировать их используя AVX-512 на интелах или SVE2 с длиной вектора 512 на ARMv9. И применил.
Через год ты подумал и решил что с длиной 1024 будет ещё лучше, и вот, на старом железе это недоступно. Ибо при производстве ARMv9 ты заказал только SVE2 с длиной вектора 512. Хочешь - используешь старое, нет - пожалуйста обнови железо. А в случае x86-64 разве иначе?
> ARMv8/ARMv9 это вполне современные CPU общего назначения
Ага, и макбук идеал ПК.
Они выполняют узкий кргу потребительских задач, потому что заточены под это. для 80% пользователей нужно лишь 20% возможностей нормального х86-64.
> они в любом случае останутся ядрами общего назначения
Тут уже предлагали например эмулировать ПС3 на АРМах. Я тоже вам советую.
> Старый проц же продолжит работать
В АРМ чётко ограничены наборы инструкций. Т.е. старый проц работать будет, но в десятки раз хуже нового АРМ со специализацией на новой задаче.
> А в случае x86-64 разве иначе?
В случае х86-64 падение производительности тоже будет, но заметно меньшее. Т.е потеря составит не сотни процентов, а десятки. Потому что на х86-64 было больше инструкций изначально. Принципиально АРМ отличается от х86-64 только тем что он "зарезан в хлам", ой не так, "оптимизирован для своих задач" то есть. Да, специализация даёт впечатляющие результаты при выполнении узкого круга задач, это как когти у хищника - в бою превосходны, но человеческие руки создают орудия труда, в итоге когти перестали быть соперником. Хотите ли вы иметь человеческие руки или менять конечности каждый раз как будет нужда в выполнении иной задачи?
>>для 80% пользователей нужно лишь 20% возможностей нормального х86-64.
Я все ещё надеюсь их услышать, ну те возможности которые есть у x86-64 но нет у современного ARM общего назначения
>>Тут уже предлагали например эмулировать ПС3 на АРМах.
Поэмулируй powerpc на x86-64. Какая разница? Эмуляция это "дорого". Ах да, Cell в ps3 - это тоже родственник powerpc, и что, x86-64 намного быстрее?
>>В АРМ чётко ограничены наборы инструкций. Т.е. старый проц работать будет, но в десятки раз хуже нового АРМ со специализацией на новой задаче.
Чет какая-то фигня, есть набор инструкций, например ARMv8.2. Он на всех процессорах соответствующих этой реализации архитектуры одинаков. На ARMv8.6 добавились дополнительные инструкции. Где тут отличие от x86-64? Туда точно также добавляют инструкции, и на старом железе их нет
>>В случае х86-64 падение производительности тоже будет, но заметно меньшее. Т.е потеря составит не сотни процентов, а десятки.
Эмм, ты уверен? Если софт требует определенные инструкции которых у процессора нет - то работать не будет ни у ARM, ни у x86-64. Да, если компилятор при сборке вместо отсутствующей инструкции способен собрать эквивалентную "вермишель" из других - скомпилированная программа заработает, но это претензия не по адресу. Бей разработчиков компиляторов и разработчика платформы чтобы помогал патчить компилятор. Это работает в обе стороны
(отредактирован)
> нет у современного ARM общего назначения
Именно что "нет" почти что не будет, а вот скорость, тут станет веселее. Из АРМ убрано очень много всего, что не является "общего назначения".
> Туда точно также добавляют инструкции, и на старом железе их нет
Ну давайте ещё позатирайте что х86-64=АРМ только АРМ во всём лучше. Из той же оперы.
Мы говорим не о добавлении нового, а о том что АРМ принципиально отличается от х86-64 в базе.
> Бей разработчиков компиляторов и разработчика платформы чтобы помогал патчить компилятор.
Да, я вижу как их бьют, по современных играм на ПК. Даже просто игровой движок Анриал5 так избит что места живого нет, всё работает через ДЛСС.
АРМ это в своей основе компромисс, где выкинули не самое общеупотребляемое. Да, большинству этого хватает, но развитие боковой ветви всё равно приведёт к дереву, просто мы сейчас срезали ветку и ещё раз 20-30 лет будет ждать пока она обрастёт до дерева.
>>Именно что "нет" почти что не будет, а вот скорость, тут станет веселее. Из АРМ убрано очень много всего, что не является "общего назначения".
Я понял, один вой про «ARM - это плохо»
>>Ну давайте ещё позатирайте что х86-64=АРМ только АРМ во всём лучше. Из той же оперы.
Я в этом обсуждении ещё ни разу такого не сказал, в том числе и в дискуссии с тобой.
>>Мы говорим не о добавлении нового, а о том что АРМ принципиально отличается от х86-64 в базе.
Внезапно, и что? Вон powerpc принципиально отличается, risc-v принципиально отличается. Дальше то что?
Или тебе не хватает некого специфичного софта не переписанного под ARM? Так это опять же эта штука - это немного другой вопрос. Если оно тебе необходимо и переписано под арм не будет - то и альтернатив x86-64 у тебя все равно нет
>>АРМ это в своей основе компромисс, где выкинули не самое общеупотребляемое
Я устал. Какое общеупотребляемое? Есть какой-то другой общеупотребляемый ARM? Архитектура процессора не обязана быть совместимой с архитектурой конкурента. Они выбрали другой подход - их право. И это не делает их процессор - калекой, нет задач которые можно считать на x86-64 и нельзя считать на arm. Но софт для вычислений может существовать только под x86-64 и не существовать под arm, и это разные типы ограничений
Кстати, вон, Китайский Zhaoxin делает x86-64 процессоры, ты уверен что хочешь потрогать их продукцию? И там все чисто, лицензия у них есть
(отредактирован)
Нет, не "АРМ плохо", а "у АРМа даже меньше будущего чем у х86-64".
Я вижу что мы друг друга не понимаем, так что предлагаю прекратить.
ARM - самое перспективное решение в сфере мобильных устройств. До сих пор Intel не смогла что-то противопоставить той же Apple с ее M-серией. Это интел и amd никак не могут догнать.
Вы хоть посмотрели бы, как на макбуке рендерят видео, обрабатывают фото. Интел с амд в таком режиме протянут минут 45, а потом надо искать зарядку.
30 часов видео проигрывают на лаптопах с arm и это на не на амолед-экране, а ips. Конечно, интел с амд сейчас в шоке от того что происходит, но поздно конкурировать с решениями от qualcomm и apple.
Если мы берем игры, то с решениями от интел и амд никто не соперничает, но все же для мобильной работы на первый план выходит соотношение энергоэффективности и производительности - здесь же только arm решения правят.
Помню, когда глава adobe flash решил поиграть в принципы с покойным Стив Джобсом. Конец все знают: Apple уничтожила всю компанию, так как перешла на HTML5, вслед за которой все остальные поступили так же.
(отредактирован)
Почему-то все забывают, что работа - это не только рендер видео, а и управление заводом, программирование более старых машин да и вообще запуск разных програм на разных устройствах. Тем более для работы нет нужды 30 часов проигрывать видео от батареи потому что банально проще подключить ноутбук к зарядке, хотя это и есть несомненный плюс.
Я понимаю что людей тянет на новые устройства каждый год, но именно рабочие машины должны оставаться рабочими машинами с Легаси совместимостью как написали выше.
HTML и flash это абсолютно другая история, менее обширная чем замена всей структуры на уже работающих механизмах по всему миру. Другое дело что тяга к этим переменам влечет за собой нахождение нового решения, коим арм в текущем виде не подходит по своим критериям.
(отредактирован)
Очень странные взгляды. Для начала вам стоит ознакомиться с возможностями Ruspberry Pi на arm. Я к тому, что в наше время люди просто покупают этот одноплатный компьютер и программируют все, что им нужно. Другой вопрос в том, что для специфических сфер x86-64 будет актуальна, однако я лично не знаю ни одного человека в окружении, кто программирует для старых машин.
Зато 99.9% работают, обрабатывают видео, играют, используют платформы для общения и т.д.
Обычному человеку не нужно писать программы для завода.
Кстати, да, программировать люди предпочитают на macbook pro на базе m-серии arm-процессоров.
Почему? Хотя бы потому, что автономность высокая.
Заряжать каждый день по нескольку раз и заряжать раз в день - это одно и то же? Не для меня.
Люди часто бросаются комментировать, хотя я четко дал понять, в каких сферах arm не имеет равных.
Ответьте, сколько макбук продержится на максимальной частоте при рендеринге видео? Если cpu, gpu нагрузить на 100%? Я сомневаюсь, что он хоть 2 часа протянет. Потребление зависит от частоты, если вы будете часами рендерить видео на частоте в 2Ггц, то конечно автономность будет выше, но кпд сего действия стремится к 0. Когда обычный ноут справится с задачей рендеринга за 20-30 минут.
Я не предпочитаю программировать на макбуке, тут вы мимо.
(отредактирован)
Хороший вопрос.
Учитывая, что m3 pro наголову разбивает i7 13700H как на ядро, так и в многопотоке, а при этом имеет громадное преимущество в энергоэффективности, то выводы сами напрашиваются.
Надо лишь брать версию про, в ней активное охлаждение.
Конечно, удержание максимальной температуры невозможно, но она более стабильная, чем на решениях от intel или амд.
Активное охлаждение = большое потребление. Арм по энергоэффективности лучше, но разница там минимальная до 20% и то в зависимости от задач. Арм лучше работает в фоне и спящем, когда минимальная нагрузка он меньше потребляет, чем х86_64, но вот в производительных операциях, таких как рендеринг, arm отстанет, производительность окажется меньше, чем на аналогичном х86_64. Я не знаю откуда вы взяли, это. К примеру тесты Snapdragon X конкретно так показали отставание от Интел или Амд и проблемы с виндой. Про М3 я не особо в курсе, знаю только что для 3d они слабы, по тестам рендеринга сцен.
(отредактирован)
Интересная мания сравнивать с интеловскими кипятильниками и еще при этом приувеличивать
тдп в 30 ватт в m3 и до 115 в интел 13700H при задействовании буста(на практике еще больше).
Это почти х4 разницы. Грубо говоря, чтоб достичь большей мощности, intel:
а) расходует гораздо больше энергии
б) перегревается сильней.
M3 даже рядом не стоит с 13700H. Без нагрузки да, М3 будет экономичней. Но мне важна производительность гораздо больше.
«Грубо говоря, чтоб достичь большей мощности, intel:
а) расходует гораздо больше энергии
б) перегревается сильней.»
Так тоже самое делают и ARM, взгляните на TDP серверных arm, они потребляют ненамного меньше аналогов х86_64 (более 100Вт), разницы почти нету.
(отредактирован)
Забавно, что вы сравниваете кратковременный пик у интел и постоянку у М3. А теперь откроем ноутбукчек
Тесты от батареи у про на М3 - и правда 30Вт(Даже меньше, 28Вт)
Но, как всегда, есть нюанс. При стресс тесте от розетки выдает потребление в 68Вт, троттля до 57Вт в дальнейшем. БП у ноута на 70Вт. АКБ у ноута на 70Вт*ч. Неужто яблочники обманывают, и арм таки режет производительность без розетки? Или магия эпле обходит законы физики?
хищническое озеро предлагает для u отметки определённой модели 15вт при 1.8, 1.2ггц это основа, а с цтдп у них выходит 12вт но тогла частоты не скажу это интел 7.
метеорное озеро умеет на опр. модели в 9вт для u и там 1.1, 0.7ггц, это интел 4.
а арм сколько при таких ваттах умеет в гц в основе или указанные гц это сколько вт, это основа или турбо?
>>Если cpu, gpu нагрузить на 100%?
На уровне x86-64 ноутов. В таком сценарии они слабо отличаются. А вот в рендеринге видео которым так хвастаются - да, аппаратные конвейеры кодеков и наглухо прибитые к ним библиотеки используемые в софте видеоредакторов делают своё дело
В дискретных видюхах, есть аппаратные энкодеры, ситуация такая же будет. А вот там, где надо производительность x86 по прежнему впереди, что не говори.
(отредактирован)
Если прочтете внимательно, то заметите, что разговор об m3 pro. Есть еще max.
Single-Core Performance
Performance in single-threaded apps and benchmarks
Core i7 13700H - 74
M3 Pro - 89
Multi-Core Performance
Measure performance when all cores are involved
Core i7 13700H - 49
M3 Pro -51
Power Efficiency
The efficiency score of power consumption
Core i7 13700H - 69
M3 Pro - 95
Integrated Graphics
iGPU capabilities for gaming and 3D-intensive tasks
Core i7 13700H - 47
M3 Pro - 99
NanoReview Final Score
Generic CPU rating
Core i7 13700H - 63
M3 Pro - 76
Извиняюсь, не обыграл, а просто в хлам разнес.
Кстати, тест на производительность это и есть максимальная нагрузка.
Есть еще max-версия, но там уже совсем другой уровень.
Эти цифры ни о чем, они различаются от платформы к платформе и зависят от настроек бенчмарка. Я говорю о реальных задачах. Смотрел тесты рендеринга сцен на м3, давно было, разница была, более чем двухкратная. С последними Интелами на тот момент. М3 проиграл. Увы, чуда не произошло, за производительность требуется платить, в данном случае высоким потреблением. С 2D рендерингом видео, как уже сказали используются аппаратные средства, энкодеры видеопотока, чтобы лишний раз не грузить проц, благодаря им высокая производительность и экономия, но к ARM это отношения не имеет. С воспроизведением видео та же ситуация, проц простаивает. Я думаю программное декодирование 4К видеопотока M3 вообще не осилит, либо будет загрузка проца 90-100%. Интел или Амд даже не топовый, без проблем. Просто в этих ноутах arm есть всякие хитрости, чтобы обеспечить высокую производительность в повседневных задачах, как только вы захотите что-то серьезное сделать упретесь в совместимость/производительность. В программировании будут проблемы с кросскомпиляцией на другие платформы в том числе на х86 (поэтому лучше винда или линукс х86), в 3D графике это низкая производительность и так далее.
(отредактирован)
здесь не самые энергоэффективные процессоры, в англ.википедии есть список для 13ххх и 14ххх моделей хищникоозёрных, но у интел есть ещё интел 4 тех.процесс, а эти поколения они интел 7. Более того, там заявленный испыт. интел, а здесь испыт. гикбенча под операционной системой с настройками цп от производителя устройства, насколько отличия от интел, тем не менее это ещё один испыт., но возможно для сравнения с вики где интел испыт. не подходит и скорее всего он турбо частотный, так как прошивка когда зреет бенчмарк она играет в игру с баллами писали некоторые новости, про этот тест производительности знают возможно. Поскольку частота влияет здорово на потреб. нужно сравнение в одинаковой частоте или ещё лусше в самой максимальной что в настройках по-умолчанию ведь это ещё и производительность, но однако тогда лучше не облажаться с нанометрами, взять те же или последние у интел если сравнение с интел, а у неё метеорные озера называются ultra'ми, а не cora'ми вроде. Англ. википедия ещё подтверждает что H процессоры отмеченые как 28вт процессоры в основе не самые энергоэффекьивные, интел может предложить в 13ххх линейке 15вт процессоры помеченные как U, там люд составил таблицы, это удобно.
(отредактирован)
приглашаю поглядеть на интеловские 3 и 2 нм заявленные английской википедией стрельные и лунные озёра, глядите их потребление и герцы в основе.
ошибка: кажется не следовало писать что ultra в метеорном озере заменяет слово core, оно слово i заменяет вроде, вместо i9 ultra 9, выходит название intel core ultra 9 дальше дописывается модель или как-то так.
ещё ошибка: англ. вики говорила там отмеченные как P процессоры это 28 вт в основе, а отмеченные как H они 45 вт в основе. Вот у P там 2.2ггц,1.6 ггц e и p ядра в основе у одной модели, а у другой 1.9ггц, 1.4ггц но за то турбо частоты выше чем у 2.2ггц, 1.6ггц. Просто ожидается что если основа потребляет ро меньше то и турбо будет по меньше, правда это ещё не проверено, но хорошо что там указана и турбо частота с ваттами чтоб проверить и у P выходит 5.2p ггц, 3.9e ггц при 64ваттах, это таеое турбо у того что в основе 1.9, 1.4.
кстате, турбочастота пусть я и не скажу на все ядра при их полной 100% нагрузке или на одно-два, насколько я помню из офф. сайта интел турбо это на одно-два, если на рекламные заявления характеристик цп в ггц это может не повлиять, то на бенчмарк может если тест по цп чистый выдаёт производительные баллы или достигнутый герц в многопотоке, но турбобуст не самый сильную частоту даёт, самую высокую даёт intel thermal velocity boost и какие у него правила пока не скажу, знаю чтотна офф.сайте интел под конкретными моделями есть значок справки вопросовидный, там много под моделью их бустов и описание, может потребоваться обход чтоб сайт пустил.
однако что делать если количество ядер будет влиять на потребление, кажется на моём цп тае и есть, даже скорость л3 кеша падает отключая ядро падает, отключая два ещё больше.
(отредактирован)
ну может не интеловские они 3нм и 2нм, зримо это тсмцеевые именования по названиям нм, но процессоры интеловские. Какие там нанометры у эйполовских? вот на той же англ. вики есть про них, в любом случае у тсмц несколько видов одних и тех же нм, у каждого может отличатся mtr/mm2 поэтому тут может и не быть разницы, вики как раз пишет не 3нм, а n3b, даже n6 есть, пишет вики. В основе есть 17вт варианты, если это интересно.
(отредактирован)
>>В дискретных видюхах, есть аппаратные энкодеры, ситуация такая же будет.
Они так-то до некоторой степени есть и в интегрированном видео от intel/amd, но нет настолько злобно приколоченного к ним софта. Вообще мне казалось что результаты должны быть похожи, но в стане x86-64 что-то пошло не так. И да, дискретное видео тоже нужно чем-то питать
По-моему людям просто хочется взять МакБук потому что это МакБук. Последние ноуты на Винде вполне даже нормально держат свои 8-10 часов при программировании, чего вполне достаточно или же вам лень подключить ноут к розетке?
А если взглянуть на бизнес рынок компьютеров где пользовательский экспириенс является второстепенным фактором, почему-то там в основном будет винда. Тот рынок, где не важно какое у вас устройство, главное чтобы работало и было совместимо. Именно на этом и держится структура управления многими механизмами общества, где необходима обратная совместимость, которая в этом случае будет очень значительным фактором и которая имеет огромную, так сказать, невидимую простому обывателю долю рынка.
(отредактирован)
Apple потихоньку захватывает рынок своими арм решениями - это факт. И в ближайшее время ситуация не изменится.
Если это не спец.сфера применения, то я предпочту арм-решение. 100%
Я вот тоже перешел на мак бук в работе. Взял на м1 эйр и офигел. Ноутбук бывает бесшумным и очень долгоиграющим, а еще приятным в плане работы с операционной системой.
Конечно это не все плюсы для меня, но это скорее поверхностные ощущения от того почему я уже 1.5 года остаюсь работать исключительно на мак ось.
Ну например эир м3 даёт бесшумную работу, довольно хорошую мощность, до 10 часов не сложных задачь и часа 4-5 какого нибудь монтажа или окло того, ещ5 и офигенную систему которой приятно пользоватся. Крч причин много, а вот причин брать виндовс ноуты я наоборот не вижу. Всё что могут они, может и мак, но при жтом у мака есть свои выше описанные плюсы
"Крч причин много"
Ещё и в 2 раза большую стоимость нежели аналогичный по характеристикам/мощности ноут на Винде.
Программист - это не тот, кто сидит в кафе и работает за macbook'ом, оставьте эти розовые мечты. Конечно, и такие люди есть, но давайте не будем выдавать желаемое за действительное - их меньшинство. Зачастую это офис и рабочий коллектив, а в офисе у тебя всегда есть свой стол с дополнительными мониторами, один из которых скорее всего вертикальный (если ты true-программист, ахаха), где подключить ноутбук к розетке не составляет труда. К чему тогда это преимущество в виде автономности как основной(!) аргумент в пользу ARM?
Как ноутбук для поездок - да, для тех, кому нужна автономность (по профессиям - хз, какой-нибудь SMM, наверное) - да, но как преимущество над x86 для всех и каждого - с чего бы?
Я работаю удалённо, сижу дома за ноутом и автономность мне вообще не нужна - розетка всегда рядом. Скажу больше: я за три года пользования этим ноутом использовал его в "мобильном режиме" пару раз и с трудом представляю себе ситуацию, где будет на какой-то постоянной основе требоваться автономность. Конечно, приятно, когда ноут живёт на зарядке по 10 часов, но это действительно больше для тех, кто в кафешке сёрфит в интернете, да сериал досматривает по время обеда.
Не спорю, есть те, кому это важно, но переход на ARM - это не шаг на встречу лучшему, это просто другая дорога со своими компромиссами и костылями.
x86 универсальна и для всего.
Отличная тема. Но я лично знаю ребят, которые постоянно перемещаются.
Так в чем проблема, если вас устраивает ноут, работающий 2 часа без зарядки?
Кому-то нужна автономность, а кто-то и у розетки сидит.
Я же не работаю в apple, чтоб убеждать или нет.
Смотрел много мнений, читал, а здесь уже выразил свой взгляд.
У каждого свой сценарий работы.
Не у всех получается стационарник с собой перетаскивать, кто-то работает и на удаленке.
Я приводил аргументы относительно ваших слов, что большинству программистов нужна автономность. Имея свой опыт и смотря на опыт моих коллег, а также знакомых и друзей, могу сказать, что автономность устройства для разработчиков кода и не только имеет практически нулевую ценность. Мы почти всегда в офисах, где есть розетка, гораздо ценнее наличие универсальности, особенно если ты работаешь в нескольких проектах одновременно или цепляешь проекты из разных направлений, выполняя один за другим.
Автономность в данном случае как тачпад на MacBook: он, конечно, удобнее, чем на большинстве ноутов других компаний, но для нашей работы этот плюс бесполезен, ибо работать на тачпаде - сомнительное удовольствие.
Главная мысль, которую я хочу донести - это то, что ваши слова полностью неверны. Это не x86 для специфических сфер актуальна, это arm для специфических сфер актуальна, в x86 универсальна. Именно в специфических сферах автономность является одним из наиболее важных факторов, ради которой вы можете пожертвовать универсальностью в плане используемого ПО, тех же игрушек и ограниченным выбором в плане конкретной модели устройства.
Вот, что я хочу сказать.
Вот реально. Кто-то серьезно работает в кафе? Со всем этим шумом, хождением людей туда-сюда на которые постоянно отвлекаешься. Да, бывают разные форсмажорные ситуации когда можно посидеть, поработать так пару часов. Но в штатной ситуации ты будешь работать дома, в студии, в офисе или в крайнем случае в номере отеля. Где совсем другая обстановка и всё под рукой.
Ты что, сейчас всем подряд надо рендерить видео и обрабатывать фото, особенно пользователям Эпле)))) все ж блохеры сейчас да инстаграмные фотографы
Раковая опухоль x86 это винда
На работе ноутбуки "отечественные" пришли на линухе, но из за отсутствия ПО пришлось на некоторые Винду ставить
Так вот, на линухе чтобы услышать шум вентилятора - нужно реально что то делать, при том активно
В винде - просто оставляем в простое и он уже половину времени будет молотить куллерами
Да даже на интеле маки были более долгоживущими чем аналогичные компы на винде
Это правда. Еще бы. Виндоус - это аналог miui - там в фоне 40% мусора было, потом приходилось все ограничивать вручную.
Линукс чистый, ты все держишь под контролем. А винда - это за тебя решают, что и как будет.
Да, конечно, какой-то умелец перестарался. Я работал на линуксе, не сразу привык. Но если ты уже обрел опыт, то линукс - это очень гибкая и чистая система. Обычному же пользователю лучше винда. Линукс - это как конструктор лего из коробки.
"Обычный пользователь вместо линукса/чистого андроида выберет Винду/муйню (1юай), потому что он хочет работающий из коробки продукт."
Я обычный пользователь можно сказать домохозяйка, который хочет что бы система просто работала. А не гоняла меня Ставь 7,10,11,15,20. Каждый раз перекраивая интерфейс, и навешивая все больше костылей что запаришься отключать. Попутно постоянно не понятно чем насилуя диск, судя по тому как тот трещит.
Мне нужно что бы я раз поставила систему и та мне служила до конца жизни без всей этой байды. Что бы я просто включала пк, ставила на него в пару кликов нужную мне программу или игру, и залипала в интернете. А не думала как почистить реестр и системный раздел от невесть откуда берущегося хлама и постоянно появляющихся "полезных" служб
Надоела майкросовстская возня, я хочу норм работы и стабильности. Поэтому в 2017г полностью ушла на Arch Linux, и мне не в тягость один раз под себя настроить всю систему и просто ей до конца жизни пользоваться, не ожидая что меня снова на новую погонят, или компания начнет фантанировать очередными "гениальными" идеями как "полезных" служб на пользователя повесить.
Само собой маму тоже на линукс перевела, ибо ей стабильность еще нужнее, так как она когда майкрософт в очередной раз все привычное сломает, не сможет ничего сделать с этим, ибо умеет ток ярлык открыть браузер жать.
Ну а те кто не хотят ничего настраивать сами, просто ставят приглянувшийся коробочный дистрибутив по типу линукс минта и тп.
(отредактирован)
Диск у вас вероятно занят файлом подкачки. У меня в текущем ПК 64 Гб озу и этот файл наконец-то перестал использоваться на постоянку, только если запустить кучу очень тяжёлых программ программ одновременно.
В то что обычная "домохозяйка" без проблем пользуется линуксом с трудом верю. Меня интересуют нейросети и я несколько раз пытался ставить некоторые из них через подсистему линукса в винде. И каждый раз это заканчивалось ошибкой на каком либо этапе гайда (и ещё ведра доп гайдов, потому что оригинальный создан для уже шарящих людей), а также тратой многих часов. Единственные успешные взаимодействия (иногда условно, потому что результат не работает правильно) с линуксом - это автоматические установщики, которые полностью проработаны кем-то и выполняют все нужные команды без участия пользователя
Это проблемма отечественного вендора ноутов, который с драйверами и настройкой пресетов управления питанием не стал заморачиватся, а не винды.
Очевидно, что если ноут поставлялся с Linux, то и компашка "рога и копыта" заказывали у оем все под нужную ось.
Это проблема винды, а не каких то там мифических пресетов
Это работает с любым линуксом и любым ноутбуком
Что там в винде пресеты могут делать?
Да нифига они не могут
Вот сейчас я в командировке, со мной рабочий ноутбук HP ProBook x360 440 G1 на i5 8250U
Винда на нем (10) перед командировкой (более недели назад) приводилась к заводскому состоянию (делался полный сброс), ПО никакое не ставилось, ибо вся работа для которой он мне нужен в командировке - это MS Office который активирован входом в профиль, и браузер
План электропитания HP Optimized
Открыт сейчас только диспетчер задач в котором я вижу что процессор постоянно загружен на 1-2%, и частота постоянно скачет в промежутке между 0.95 и 1.25 ГГц, хотя минимальная частота у него это 0.8
Процессы которые дают эту нагрузку "Диспетчер окон рабочего стола" и "системные прерывания"
И в итоге куллер постоянно молотит
Сейчас скачаю убунту, попробую поставить на флешку и посмотреть как там будет в простое с открытым диспетчером задач, или как он там в Линуксе, отпишусь позже
(отредактирован)
надо либо отключить турбобуст в процессоре, либо в программе управляющей вентиляторами сдвинуть их включение градусов до 70-80
Это ноутбук, что ты там собрался сдвигать
Просто винда постоянно грузит какое то из 4 ядер процессора, при этом подкидывая частоту на этом ядре
Сейчас поставил линь на флешку, чисто по приколу (делать мне нечего в выходной в чужом городе)
Есть скачки частоты до 1.8 раз в пару секунд по некоторым ядрам, но в основном 800 МГц стоит, так же на рабочем столе с открытой папкой
DE на линукс тоже так то нормально жрут из за своего васянства, если не брать в расчёт тайловые и минималистичные. Kde до сих пор кривой вон: то скролинг запорят, то утечки памяти.
"Системные прерывания" не к Windows, это лишь индикация запроса. Зачастую виновник либо драйвер, либо оборудование, либо диск.
Из коробки вот сейчас голый kubuntu, заработал тач экран, звук и почти все кроме тапа по тачпаду, с драйверами графики не заморачивался, но вроде автоматом что то протянулось
, частоты пляшут по ядрам на рабочем столе 800-900, изредка 1800 и вентиляторы не шумят
Может дело конечно в том что у меня железо не такое свежее
(отредактирован)
Да и факт остаётся фактом
У меня на лине на работе в простое из 30 ноутов ни один не шумел
Поставили Винду на часть - постоянно подвывают
Сейчас на свой поставил - аналогично
По отзывам маководов (в интернете читал) что ставили Винду на свой мак - расход батареи процентов на 30 больше чем на макоси
Не советую убунту, лучше линукс минт, он на нее основе. Убунту уже не первый год якшается с майкрософт, активно обмениваясь друг с другом опытом как побольше телеметрии и рекламы навещать в систему, поэтому там тоже может быть куча лишних процессов. А ваше лучше сразу арчеподобные дистрибутивы пробовать, например endeavouros, тем кому нужен постой графический установщик.
Благодаря их роллинг релизовости и ауру там проще и удобнее программы ставить если научится мбо это по другому работает, чем в винде. Ну и система будет вечно обновляться, а не каждые пять лет гнать на новую версию как это модно на винде и убунту.
Однако должна предупредить. Судя по тому что я читаю от пользователей на форумах. Линукс на ноутбуках это больная тема. Там часто может что то не подхватится из оборудования. И часто жалуются что он быстрее садит батарейку, лично есть знакомый что глубоко рыл всякие настройки, редактировал всякие конфиги и создавал скрипты. Месяцами, прежде чем добился что бы система сильно батарейку не жрала.
Ну и я не представляю как мс офис на линуксе запускать будете. В конце концов эту программу как и многие на линус не выпускают. А через вайн это учится делать это доп заморочки и нет гарантий что все хорошо заработает. Еще ставя линукс надо знать как сделать правильную разметку для него. Нужно ли вам отдельные разделы для хранения данных или уже есть, просто можно нтфс перемонтировать для чтения файлов. Нужен ли хом отдельным разделом и своп подкачка. Обычно гайды рекомендуют отдельно выносить, но лично я делаю ток один корневой раздел для всей системы. И один обычный ext4 для хранения своих файлов, если не было, или просто в нтфс старый оставляю. Но у вас могут быть свои потребности.
Итого для не подготовленного, переход на линус может быть довольно болезненным так как там полно своих особенностей и подводных камней что надо изучать заново, как изучали виндовс когда ее впервые в жизни увидели. Я сама было в 10 году сильно обожглась об убунту на ноутбуке, ибо в то время там почти ничего из железа не работало, ибо не было драйверов, даже музыку послушать ее могла. А то что линксу с ехе программами не по пути стало для меня уже пост фактом, открытием. ))
Сейчас на этом ноутбуке уже лет 8 стоит ток одна система без переустановок, Arch Linux, и все поддерживается, но один странный глюк остался, ноут загружается с нулевой яркостью и либо та сама выравнивается когда добирается до рабочего стола, либо в ручную надо через fn повышать.
На счет батарейки не знаю и не задумывалась, ибо всегда данный ноутбук от розетки использовала, а о том что линукс якобы батарейку быстрее садит услышала ток через несколько лет от других. А ныне батарейка уже давно почти мертва, поэтому держит от силы минут 10.
Мой вам совет в случае с сразу заметными и крупными проблемами на линуксе. Просто вернитесь на винду, если не готовы прилагать много усилий для решений. Что-то править и решать их это надо много терпения и сил, что нужно далеко не каждому. Ну а если линукс встанет на ваше железо без проблем, он прослужит верой и правдой много лет, без них. Мешая разве что не привычными особенностями что могут потребовать новых навыков от пользователя.
По поводу шума, не знаю как на счет куллеров ибо не задумывалась об этом. Но меня поразила разница обращения винды и линукса с HDD дисками.
На ПК моя основная ос уже почти 8 год это Арч линукс. Но второй еще строит вин 10 что могу раз в несколько лет запустить. Уж не знаю что винда с дисками делает при запуске но там такой треск стоит и так долго что мне кажется те посыпятся. Тогда как на линуксе когда файлы активно перемешать большими объемами, я уже забыла о существовании этого треска даже у нтфс разделах от винды. И в целом копирование на дисках под линуксом будто быстрее работает, даже при работе с нтфс.
(отредактирован)
Открывайте процессы и смотрите куда идёт процессорное время. Я так вылавливал всякие там не закрытые процессы программ, активно работающие сторонние службы добавленные в систему драйверами. Из последнего была проблема с Armory Crate, одна из служб которого активно начинала работать в фоне. До этого вылавливал такое поведение от служб AMD и Intel.
>>Помню, когда глава adobe flash решил поиграть в принципы с покойным Стив Джобсом. Конец все знают: Apple уничтожила всю компанию
Там и без этого было столько проблем, что флеш бы умер. Не тогда, так через три года, но его бы дропнули все браузеры. К тому моменту закрывать дыры уже устали все
Не умер бы, потому что даже google вначале внедрила adobe flash, а после конфликта Джобса выпилила.
Это и есть 2 сaмых важных фактора в упадке flash.
Флеш помер потому что
1. Появилился более быстрый интернет
2. Появился HTML5, WebGL и WebAssembly
3. Флеш вечно был занозой в одном месте, ибо для него столько кривого было написано, его постоянно латали, он постоянно глючил, и просто был дырявым, и часто его просто отключали
Гугл выпилил флеш после того как Адоб в 2011 отказалась от разработки мобильного флеша, ибо это был тот ещё кактус (на моем первом смарте он был)
Да и на компе - обновился браузер - а флеш не работает, как и плееры на сайтах, потому что дыры нашли и разработчики браузера отключили его
Я читал всю эту историю от и до.
В 2007 году 92% компов было на флеш. Youtube знаешь? Он был на флеш. Весь. В 2010 именно Джобс начал конфликт, который в судебном порядке проиграл. Да, именно проиграл. По этой причине он бойкотировал их услуги и это было начало конца. Плевать всем, что было или нет до этого, факт в том, что в 2011 этому последовали Гугл. И участь компании была предрешена. Гугл продолжил ту же тему Джобса,
делая упор на безопасности.
Я жил эту историю
И знаю что Ютуб был на флеше
Года до 2014-2015 большая часть интернета на нем проигрывала
И Джобс тут не особо то и при чем
Флеш на смартфонах работал ещё более криво чем на компах знаменитое "плагин flash не отвечает" помнишь на том же ютубе?
В 2011 в начале года HTML5 был уже на стадии кандидата в релиз
В конце года Адоб заявила о прекращении разработки, потому что флеш был закрытым по большей части, и Адоб хотела сделать из него платформу для тех же игр на мобильных системах со своей рекламой и т д.
Но вот не задача, конкурировать с тем же андроид маркетом (гугл плей) они тупо не смогли бы
В общем что было на начало 10х годов
1. Во флеше постоянно находили дыры
2. Флеш постоянно крашился и было много криво написанного ПО Для него, да и хорошо написанное тоже падало (Ютуб например)
3. В скором времени было появление HTML5 что снизило бы базу пользователей (для воспроизведения не надо плагина)
Тупо больше неудобств с флешем
4. Мобильный флеш оставлял желать лучшего на тех устройствах где он был, ибо 600 МГц процессоры и 512 мб ОЗУ/ПЗУ было как то маловато для полноценного использования флеша в интернетах
5. Не пустили на айось
Все это в совокупности сподвигло Адоб на правильный шаг
На смену технологии приходила другая, открытая технология, более безопасная и удобная
Собственно что мы и видим сейчас
> ARM - самое перспективное решение в сфере мобильных устройств
И я даже соглашусь. Для мобильного(!) устройства важнее чаще будет автономность чем возможность просчитать больший объём информации.
Однако мобильность лишь малый сегмент. Скажем так, никто из учёных не занимается наукой на бегу, т.е. именно что на беговой дорожке условно. Большая часть интеллектуального труда это концентрация на задаче, подача максимального питания для вычислений, т.е. это стационар с питанием от сети а не бег аки белка в колесе с тапанием по айпаду. Ну а мобильные терминалы это удобно, но только малая часть жизни проходит "в передвижении".
Если же вернуться к началу ветки обсуждения, "Уход от бесполезного арм или наоборот, арм везде, где только можно?" - "Арм и бесполезный. В каком году живём?" - для большинства задач на смартфоне людям-потребителям хватает чипов АРМ 2020-21 года. "Мощь" снапов 8ген3 развивается только для игрушек да обработки камеры. Т.е. АРМ уже подошёл к пределу своей полезности, по сути так нечего вытаскивать нового, это как сегодня клепать "старые" чипы для стиральных машин например(где не нужно особо развитие, функции выполняет и ладно). Т.е. для будущего развития АРМ - "бесполезен". Архитектура имеет свою нишу, хорошо её наполнила, но расти куда-то дальше можно лишь в частотах, кол-ве транзисторов и наращивании "конвееров" задач(!!!) - т.е. идти к тому же чем является х86-64 многие годы. Зачем делать одну и ту же работу по два раза? ну если только чтобы обойти патенты на закрытые технологии интела и амд, чтобы в рынок втиснуться, но это уже история бизнеса,а не развития процессорных архитектур.
Ты прям рассказал про Неуловимого Джо
Сразу видно жертву блоггеров, потому что кроме как про рендер видео и сказать нечего.
Какие-то сказки про 30 часов просмотра видео. При этом не заданы параметры, такие как: яркость, бит рейт видео. Вообще ничего нет.
Ну я на своем леново мог 6 часов играть в fallout new vegas. Твой макбук так сможет?
Сравнивали при одинаковых условиях. Сравнение - это когда берут условно 15 ноутбуков и тестируют при одинаковых условиях.
У меня макбука нет. Да и не для игр он.
И да и нет, ибо в итоге его «универсальность» сыграла с ним злую шутку, ибо тянет за собой вагон не актуальных сегодня элементов + закрытость на часть патентов Intel/AMD, что не дает x86 использовать полностью открыто и делать на ней разным компаниям процессоры.
На x86 лицензию имеет не только Intel/AMD, но и текущий владелец активов ныне покойной VIA. Другой вопрос что с тех времен у Intel/AMD добавилось изрядное количество доработок и патентов…
Основной рынок для процессоров это бизнес, а бизнесу без разницы, арм или не арм. Там бывают даже всякие нишевые архитектуры, в случае с арм бизнесу профит в его заточенности под энергоэффективность - первоочередной показатель выгоды при всех прочих с x86
> в случае с арм бизнесу профит в его заточенности под энергоэффективность
А вы не у Дженсена х у а н г а учились случаем? Ну типа "чем больше покупаешь тем больше экономишь"
Дело в том, что АРМ сегодня может быть превосходным, а завтра - превратиться в тыкву. Всё из-за невероятно строгого ограничения на набор инструкций и исполняемых конвееров операций. Ведь тут как с обычным конвеером Генри Форда - когда люди стали выполнять специализированные задачи, производительность кратно повысилась, но если в этом конвеере внезапно не будет хватать чего-то, его надо будет переделывать. Т.е. купив сегодня сервера на АРМ, они смогут выполнять свою задачу хорошо, а завтра что-то изменится и те же АРМ станут "тыквой", и надо будет купить новые АРМ(!), чтобы сохранять эффективность работ на прежнем уровне.
В целом, АРМ это шаг "вбок", ветка дерева - она может быть зеленее и с листьями, но ствол х86-64 это всё равно основа. Кому-то для костра хватит веток, а кому-то для каравеллы надо стволы.
>х86-64 это всё равно основа
опять же, бизнесу без разницы что там, если оно решает задачу. Собственно арм, будучи более простой по дизайну архитектурой типа RISC, имеет векторные расширения, дешевле и в производстве, и в использовании (тоже из-за простоты плюс в энергоэффективность), да еще имплементации меньше уязвимостей показывает. Вин, вин, вин. За x86 остаются только нишевые задачи с узкоспециализированными инструкциями, которые только некоторым нужны. Собственно арм и в тыкву он превратиться не может, слишком популярная и отполированная архитектура, и в последний раз какая-то серьезное изменение на рынке процессоров было десятилетие - полтора назад с выходом AVX. Из текущих конкурентов можно отметить наверное еще лишь полностью открытый RISC-V, который до сих пор, к сожалению, сильно отстает по качеству оптимизаций под него, и потребует еще минимум лет 5 для серьезной борьбы за место
(отредактирован)
> бизнесу без разницы что там, если оно решает задачу
Не ну да, точно Дженсена уста молвят.
> имеет векторные расширения, дешевле и в производстве, и в использовании
Первое не всё покрывает, насчёт дешевле в производстве так ещё бы, размер меньше, а по энергоэффективности он хорош только пока выполняет очень узкоспециализированные задачи, чуть отклонись и будет греться как печка.
> в последний раз какая-то серьезное изменение на рынке процессоров было десятилетие - полтора назад с выходом AVX
И скоро тоже должно быть изменение, кремний приближается к физическому пределу.
В случае с арм будет тоже самое что и с OpenCL
В свое время АМД сделала крутейщие число дробилки, но у нвидии был и есть CUDA переход с которого на другую архитектуру означает обучить заново специалистов научится программировать под чипы АМД, портировать уже имеющиеся проекты, а часто вообще переделать полностью потому что у архиьектур разные особенности
Для бизнеса главное прибыль
Если для x86 как и для CUDA полно программистов, полно готовых решений разного рода за почти полвека, то ARM лишь предстоит всем этим обзавестись
С CUDA вышло куда проще, нвидия до сих пор в некоторых бенчмарках до 2 раз быстрее
А давай посмотрим на инфраструктуру ТОП-3 облачных провайдеров? Самые популярные сервера на Linux - это ARM (потому что дешевле, но работают так же).
Код на Java запустить? Как нефиг делать. Golang? Легко. Образ Nginx, Postgresql, PHP (90% интернет трафика это Wordpress на PHP) под ARM проблема найти? Нет, не проблема. Почти всё работает на ARM. И работает точно так же как и на x86.
Да, игры не все запускаются, но на моём маке с M1Pro и с Game Porting Toolkit 2 я могу запустить многие игры, не все, но очень много, без тормозов, артефактов и т.п.
> Почти всё работает на ARM
Потому что код под это переписали. Да, этого можно добиться в специализированных задачах, где АРМ со своим обгрызанным функционалом в сущности имеет исключительно нужные инструкции. Но это не делает АРМ архитектурой будущего. Просто вместо швейцарского ножа у вас более хороший нож, и он работает как нож, а вот когда понадобится отвёртка вам придёт купить отвёртку, а швейцарский нож просто трансформируется в отвёртку. "Специализация — удел насекомых.“ — Роберт Хайнлайн".
Код приложений остался неизменным, его никто не переписывал. Можешь проверить.
Значит инструкций в АРМ хватило. Но это в текущем варианте.
АРМ это чистое "вырезание ненужного" из х86-64. Ну вот вам лично тоже две почки не обязательны, вырезать одну и вес тела уменьшится, хорошо же, "энергоэффективненько" так.
Аргументы про инструкции слышу только от людей не понимающих что такое эти инструкции. Всего хватает в ARM и запустить на них можно что угодно.
Компиляторы для всех языков есть уже под все архитектуры. Собрать почти любой код можно под любую архитектуру.
Если компилятора нет - то это язык 20 лет не обновлялся и нахрен никому не нужен из-за проблем с безопасностью/поддержкой/комьюнити
Не ну конечно, всего хватает в проце где обрезали много частей ради энергоэффективности. Верю!(сарказм).
А с чего он бесполезен с точки зрения универсальной вычислительной машины? Может аргументы, а не просто слова? Это обычные процессоры, просто с пониженным энергопотреблением за счёт выпиливания всякого мусора который есть в х86
У него несколько больше отличий от x86-64 чем просто меньшее количество инструкций. Возражений по поводу «универсальности» у меня нет
(отредактирован)
По сути там просто вырезали куча старого легаси, которое сейчас не исользуется в основном. Так что не вижу в этом ничего плохого. В каких нибудь иследовательских центрах будут стоять х86, для обычных людей же арм будет лучше сейчас
> он бесполезен с точки зрения универсальной вычислительной машины?
Не то что совсем бесполезен, но объективно - там многое вырезано или чётко специфицировано под задачу. Как пример было тут упомянут в комментах - если вдруг видеокодека не будет хардварного, и АРМ вместе с х86-64 должны будут софтвенно декодировать, то АРМ сразу будет долбить в 100% нагрузки в 4к видео, а х86-64 нет.
> обычные процессоры, просто с пониженным энергопотреблением за счёт выпиливания всякого мусора
Конечно каждому детсадовцу известно что в х86-64 куча мусора и что его можно взять и выпилить, только глупые люди в интел и амд не знают.
Безусловно х86-64 не идеал. Но АРМ обрезан очень и очень строго ради той самой энергоэффективности - питаешь меньше транзисторов значит меньше энергопотребление. Поэтому надо понимать, что если надо будет увеличивать возможности АРМ, да ещё и вдруг сохранять легаси-совместимость(чего сейчас нет), то АРМ очень быстро "превратится" в тот же х86-64.
Хардварные кодеки под av1 тот же на арм смартфонах появились раньше десктопа (и нвидия, и амд только спустя ещё поколение завезли), только причем тут процессоры, если кодек на видеокарте?
за архитектурой Arm будущее чем за засранными древними инструкциями x86
(отредактирован)
О, да. Слышали, проходили. Как там RPCS3 под арм запустить, не помнишь?
идете на Авито, покупаете за 10к прошитую пс3, профит
Зачем покупать, если можно не покупать и просто бесплатно получить то же самое?
фанаты интел: пользуются бесплатно.
фанаты арм: вынуждены постоянно что-то там покупать.
У вас всё ещё возникает вопрос, почему квалком покупает интел, а не наоборот?
Да это и так понятно и я не об этом писал. Я скорее к тому что какая нам, потребителям выгода от того что придется что-то покупать. Такое чувство будто некоторые люди этого не понимают.
потому, что более успешен на данном этапе. И, думаю, если сделка состоится, то Квалкому в первую очередь будут нужны от интела R&D, патенты и инфраструктура. А вовсе не x86...
вот это ты перевернул, тебе точно надо в политики
Давно уже на м 3 запустили RPCS3, на ютубе много видео с этим. Кстати, на официальном сайте есть поддержка, надо было сперва там посмотреть, а потом уже спрашивать.
Кстати, запустили на самой убогой версии с 8 гб озу.
Офигеть. Признаю, был не прав. Производительность, конечно, хуже, чем х86, но эмуляция неплохая.
Интересная тема. И как было с производительностью?
На какой платформе запускали?
Прекрасно, если мы заполучим такие возможности.
О да. Эмулятор который годами писали под х86 смогли на рм запустить кое как и плохо. Это же точно проблема именно арм
Как оказалось, запустили. И я не знал про это, признаю неправоту.
Мусор копится в винде с легаси совместимостью, а в процессорах многие слишком старые блоки даже в х86-64 убирают, при необходимости добавляя эмуляцию.
от одноколесного транспорта руки фу )))
то, что теряет остойчивость (стабильность) при потере питания - не "транспорт" а, скорее, "спортивный снаряд", "игрушка". 🤷♂️
вы же про мотоциклы сейчас?
я сам при потере питания теряю устойчивость и стабильность. а так же повышается нервозность и агрессивность. так что не убедительно
(отредактирован)
Если компьютеры начнут работать как люди - наступит филиал ада на земле
из серии "Книжек больше не будет а будет одно сплошное телевидение!". 😏
Арм не менее древний как бы
что будет покажет время. Если вообще будет. Но просто как показатель достаточно занятный факт, подтверждающий, что мобильные процессоры в определённом моменте могут банально обойти классические десктопные решения.
По большей части в попугаях
Не надо путать специализацию с архитектурой.
о чём ты? Чисто из-за специфики своей это физически невозможно. Мобильные процессоры всегда будут догоняющими. Или я неверно понял твой коммент, тоже вариант)
Если Интел будет каждый год добавлять 5% мощности, а арм устройства 30% в сравнении с предыдущим поколением, когда-то может случиться что 5ваттный проц в телефоне будет помощнее чем условный 30 ваттный в компе.
какие 30 процентов? Последние процы всё так же на папу герц бустят, а потом с троттлингом борятся, а то и забивают. Та же фигня, только в профиль.
Всё зависит от решаемых задач.
У меня сейчас в рабочем компе 280-ваттный проц с 64 потоками.
Сомневаюсь, что ARM его заменит...
Ну прям показатель. Фуфыксы тоже много жрали))) тот же 9590 220Вт спокойно и аж 5 ггц брал.
На сегодня нет таких ARM для решения моих задач.
Если кратко - инженерные симуляции, решение нелинейных уравнений и т.д. и т.п.
Тем более это AMD Threadripper, не Intel.
Ну все зависит от потребностей естественно. Моя работа на 99% в сети + графика, для чего удобнее как раз использовать связку мак+айпад.
Не заменит в обозримые годы не потому что проц не способен на это, а потому что отсутствует САПР под него. И его не то что быстро не переписать, никто даже не будет чесаться пока рынок основательно не перетряхнет.
А переписать софт такого уровня - это тот ещё геморрой
(отредактирован)
О том и речь. Я до сих пор пишу дополнения на С под САПР, там есть такая возможность. И всё шевелится, работает. Даже не С++
Арм будущее.
Ничего себе бесполезный...уже сервера на армах а вам все бесполезный
скорее всего не купят, вмешается конгресс сша
Это что же получается, сейчас процессоры АМД предпочтительнее получается, чем интел? Раньше вроде бы наоборот было!
Ну видимо так и получается
Так с выходом линейки райзенов стало.
Давно уже
Интел сомнение что не вливал деньги, просто они возможно ушли в карманы, а не в науку. Интелу следует положить встройкам 3д-кеш, может устроить вычисления встроенной и отдельной видеокарты, развивать договорное производство чтобы нарастить компетенции, +5% в то время как конкурент наступает, им нужны нанометры, где питание с обратной стороны? Интелу следует быть более подвижной и рисковой, пока она докладывает жадность и раздавая ядра не кладёт многопоточные вычисления, умудряясь убирать инструкции вроде векторных, не докладывая нейро и лучевых ускорений.
вот смотрю твой постинг про кэш и думаю, ты наверно просто не в курсе что в интелах давно кэш в стройках есть ? чисто посмотри спецификацию nuc 8
это не такой кеш, который как l2 кеш в амд rdna 2 видеокартах, 64 килобайтный?
(отредактирован)
nuc 8 процессор у меня i3 8109 кэш l4 128 мегабайт карл!!! вот тебе и видеобуфер на процессоре при том для отрисовки 2d идеально
погугли процессоры 4 ядерные и выше из этой линейки 655 ирис у них такой же кэш, жаль интел не додумалась как эффективно использовать ..
В чём разница меж l4 кешем нюка и 32гб 128 бит озу в процессорах лунар лейка?
l4 кэш процессора работает напрямую на максимальной пропускной способности , только вот интел как то не реализовали потенциал и только старые игры которые влезают в этот кэш эпично летают
Тест надо делать и аиду задержки и скорость смотреть, думается может то может-быть интересно. Никс пишет 40% энергоэффективность распай на цп чем мат.плате, со-димм или камм2 это приносит.
А что если бы они сделали гибридный набор инструкций? И ARM и x86 в одном чипе.
либо развитие Xeon Phi, т.е. х86 процессор на PCIe карте
что бы основной ЦП был ARM, но при необходимости x86 проц на PCIe карте мог выполнять старое ПО
В случае ноутбуков необходимо будет какое-то новое специфическое решение
какой нибудь N100 с отключенной графикой, I/O и прочим не нужным для сопроцессора на M.2 думаю уместить будет можно
Кстати очень интересная идея: мобильность когда нужно и совместимость когда она необходима
С технической стороны кстати тоже вполне возможно.
Но это нужно не только железо, но и чтобы все ОС добавили поддержку такого проца программно. Это не просто драйвер нужен, это потребуется пипец как заморочится с ядром.
и какая же цена будет за такой процессор? Явно не 5 копеек.
Ну 50 к может быть.
ну и накой оно нужно.
Помнится мне, тут люди бегали и кричали, что лучше xp/7 ничего лучше не было. Сейчас на 11й сидят и всем все ок :) Также будет с арм.
так ведь вынуждают, делают оборудование не совместимым, делают программы не совместимыми, поставляют оборудование с операционкой. Делают однопоточные программы, чтобы нельзя было процессор нагружать в 100% и было тормозимее и откладывают вычисления на видеокарте, чтобы те же причины.
(отредактирован)
Хз как по мне что хрюша что 7 были максимально убогими, костыльными. В базе голая система, никакого ПО, все скачай\купи. Никаких удобств в использования. По сути база для постройки системы.
Ничоси всем ок. Зайдите в любую ветку по windows 11 и прочитайте что там пишут и как на самом деле "всем ок".
Ну да, всем ок
Ну так и осталось. 7 была последняя нормальная система от майкрософт.
Вы не путайте теплое с мягким, когда переходят потому что лучше, с когда переходят потому что вынуждены ибо старое намеренно ломают и поддержку отбирают.
А причем тут ARM, по сути это RISC процессоры, котрорые ранее использовала та же apple, и к ним же вернулась. То что квалдком пытается мобильные чипы пропихнуть в сегмент ноутов, это их дурь. Если бы они делали декстопные версии, без ограничений по питанию и потреблению, все было бы нормуль. Проблема тут в переходе, нет софта, заточеного под эту архитектуру, соответственно нет спроса. У эпл с этим гораздо проще решилось, есть железо, операционка и транслятор на время перехода. Производителям софта остается только перекомпелировать свои программы. Что не затратно.
Ну так х86 начиная с Pentium Pro и AMD K5 тоже внутри RISC, и эмулируют х86
Что дальше?
Да вобщем то и все, есть процессоры для мобилок, есть для декстопов, ноутов, еще каких то задач. И неважно какого они типа. Важно не пытаться уже выпускаемые чипы, пихать туда где они не эффективны. То что по сути попытался проделать квалдком, решив сесть в один вагончик с эппл.
Но с точки зрения антимонопольной политики, бизнеса не вижу перспектив такого объединения, иболучше просто обменяться акциями, лицензиями и иметь тесное сотрудничество...
(отредактирован)
(Комментарий удален)
Почему? Отнюдь... Я то назвал целью - совместное развитие, а цель может быть другая...
Понятное дело. Осталось только главе квалком доложить, что Sanek217 перспектив не видит. И сделка сразу отменится.
сомнение, но арм их разработка? представьте потери с лишения арм и переход на другое.
Вы в каком-то новостном вакууме уже лет 5-7 как, в части мнения об интеле дак точно.
Не знаю, что там 5-7 лет назад было, но сейчас смотрю на рынок процессоров и вижу, как амд не умеют работать с четырьмя планками оперативы, сбрасывая в таком кейсе частоты ддр5 до частот ддр4. На ютубе смотрел ролик про 8000 серию, и там человек жаловался на pcie: то ли на число линий, то ли ещё на что-то, я в этом не разбираюсь. Но мысль "амд хороши по цифрам, а на деле, если не хочешь заморачиваться, лучше взять интел" понял. Да, топовые линейки интела 13-14 поколений имеют проблемы. Но в 12 проблем не было, и в 15 их практически наверняка не будет. А при покупке амд быть на стороже нужно постоянно, и для каждой модели проверять все характеристики, вдруг именно там амд решили сэкономить на этот раз.
У амд еще проблема в том, что они beta обновы обычным пользователям кидают. У некоторых потом проблемы с пк и прогами.
это когда было?
Кто ж знает. Я не в клубе амд, но слышал в каком-то видосе, челу пришла обнова и какая-то прога перестала работать, или не прога, а система.
слышал звон, да не знаю где он.
Если с видеокартами AMD ещё возможно (у них в принципе качество хуже, всё таки доля рынка меньше заметно), хоть я и на своей RX 580 и нынче RX 7600 не заметил, то с процессорами такого нет вообще. Драйверов на процессор не существует, а автообновления BIOS - ССЗБ.
8000 серия рязани исключительно под сборки без видеокарты, это процессоры бюджетного сегмента, с урезанными ядрами. Они никогда не позиционировались как замена 7000 серии, собственно.
Давайте оставим в стороне разгон. Последние интелы поддерживает частоту памяти 5600 (это она - базовая?) - я ведь могу запустить 4 планки на частоте 5600?
К примеру, на сайте амд в характеристиках процессоров 7000/8000/9000 серий, которые я смотрел, явно написано 5200 для двух планок, 3600 для 4 планок. То есть ограничение на уровне процессоров.
И у амд контроллер памяти в процессоре, к слову. На том же сокете, на той же матери будут выходить и новые линейки процов с поддержкой большей частоты. Хотя какой смысл привязываться к четырём планкам - непонятно, взять кит 2*64 и его на всё хватит, для двух планок хоть 7800 ставь в разгон. А если мало, то обещают планки по 256гб, по 128 уже в продаже.
Я смотрю спецификацию процессоров на официальном сайте амд.
(отредактирован)
Лучше же брать интел с 90° на чипе и потреблением в 500вт, чем эти амд где какие то проблемы, но мы не знаем какие
Одна настройка в биосе и мой интел выше 75 не поднимается при компиляции на все потоки под башней. Сколько ватт он потребляет, я не знаю, но полкиловатта там точно нет. Да и пофик в общем-то, он же десктопный, электричество в розетке есть. В простое 33 градуса максимум в самые жаркие дни.
И мне откровенно лень покупать амд, чтобы самому убедиться, что отзывы на форумах верны и амд греется до 50 градусов в покое и под 100 под нагрузкой независимо от качества охлаждения.
Что там за настройка такая волщебная, частоты занижаешь что ли?) И где ты такие отзывы видел и на что конкретно, на первые фуфыксы?
1. CPU lite load 3 вместо default.
2. На сайте днс, много где пишут температура в покое 40-45 градусов для Ryzen 7600/7700/7800x3d. У кого-то есть и до 37 градусов, у кого-то и до 50.
Ни разу, понимаю что вам нравится АМД и её решения, мне нет. КП, кривые Агесы, чип в углу, проблемы с отводом тепла, плохие видеокарты/встройки, чехарда с нормальными ЦПУ и обрубками процов... Для вас это всё мной надумано, а по мне нет, я пробовал - не нравится.
(отредактирован)
У амуде сейчас лучшие встройки и меньший tdp
Лучшие в чём? в запуске игр в HD на минималках?))) Этого мне не надо.. Мне надо совместимость с софтом по обработке видео, безукоризненная работа с кучей стандартов их сжатия, великолепное ускорение 2D интерфейса и серфинга. Всё остальное фигня. Поиграю я с DLSS, DLAA и RTX - это не умеют карты АМД. У АМД нет встроек в номальных процах, есть только в куцых обрезках.
Лучшие в производительности.
Нормальные процы это какие?
Лучшие по производительности? Ну попробуйте закодировать AVC или H.265 с помощью встройки АМД - результат ну такое себе... А встройка Интел делает это играючи, что и требуется от встройки. Ещё раз: играть на встройке - себя не любить.
Нормальные процы у АМД - в которых не обрезана шина PCIE, в которых большой кэш (не 3Д и 3Д), в которых чип в углу...
(отредактирован)
> Ну попробуйте закодировать AVC или H.265 с помощью встройки АМД - результат ну такое себе..
5600G, пробовал - нормальное качество. Сколько-то так игры писал с дискреткой, чтоб её не грузить.
Собственно, я его и покупал ради более новых кодеков, на старом A8-9600 VCE качеством сильно хуже.
для кодирование видосиков с realme 9 более чем достаточно.
Почему? В игры эпохи 4 мыловарни можно очень даже приятно поиграть.
> в запуске игр в HD на минималках?))
это старые Cezanne так могли (по факту в той же рдр2 на средних, только про озвучку не говори, это не к месту), и то в основном из-за упора в память. На 7840 FullHD уже стандартно.
Intel на бумаге лучше, а по факту оптимизации под их встройки почти что нет, так что 7840 сейчас действительно лучше, не говоря уж об Ryzen AI HX.
> Мне надо совместимость с софтом по обработке видео, безукоризненная работа с кучей стандартов их сжатия, великолепное ускорение 2D интерфейса и серфинга.
Имею плохой опыт работы со встройками интела, слишком быстро забрасывают драйвер, плохо поддерживают DX/Vulkan, от QSV особого толку не видел - качество херовое, жать всё равно лучше процом.
А ещё они сайт заблочили в РФ, я не могу сейчас ни драйверы достать для своих буков оттуда, ни информацию про встройки/сами процы посмотреть.
> У АМД нет встроек в номальных процах, есть только в куцых обрезках.
У AMD начиная с 7000 серии стоит RDNA2 610M графика во всех ЦП без суффикса F.
У штеуда аналогов 5600/5700G/8700G нет, если мне нужен ПК без видеокарты.
И с каких пор у них это обрезки? Играю с дискреткой 7600 (PCIe x8) и 5600G, вопросов нет к производительности, FPS нормальный в 2к.
> Поиграю я с DLSS, DLAA и RTX
Из этого списка реально нужный только DLAA, потому что мыло в современных играх. А так пробовал и апскейлеры, и RTX - разве что в Minecraft/Quake2 прикольно бегать, а так толку около нуля в том же CP2077.
Пробовал на RTX 3080, сейчас встала необходимость себе в PC взять видеокарту тоже - решил таки остаться на красных, а не на 4060 перейти. В майнкрафте фпс с лучами в FHD хватает, а так без них спокойно играю, отправляя стрим себе на мак с 2к экраном. Рыкса справляется и не шумит.
Intel в этом плане даже не рассматривал, знакомый плюётся и жалуется на бажность драйвера и жуткий жор в простое: 4-8W против 50W (что странное, на этом же топе от амд жор примерно такой же - видимо в 7600 уже исправили)
с потребительской точки зрения пусть лучше остаются разными компаниями и конкурируют друг с другом, предлагая рынку (потребителю) более эффективные и дешевые решения, чем у соперника.
многие хвалят. Я давно наблюдаю и мне очень нравится этот вектор развития. По сути - революция.
garrichello,
loko_2004,
Intel это компания динозавр, причем самый настоящий. Здоровая, жирная, неповоротливая, с уникальным мышлением, что на бизнес-языке означает сильную забюрократизированность, часто неэффективные решения, огромные расходы на инфраструктуру и огромное эго.
Например, мало кто знает, но Intel производитель номер 2 решений для AI после Nvidia. У них есть направление по производству ускорителей Gaudi, вот только купить их сложно, потому что говорят Intel очень долго проверяет потенциальных покупателей на предмет куда эти решения пойдут и для чего будут использоваться. Это одна из причин почему в основном покупают Nvidia, и не в последнюю очередь благодаря ее софту.
Заводы. У Intel их очень много и все свои! Говорят, в компании придерживаются идеологии, что у нормального капиталиста обязательно должны быть заводы, как же иначе! Несмотря на то, основная статься расходом у Intel - это физическое производство чипов, эффективнее и дешевле было бы производить их на TSMC, они все равно делают все сами. AMD когда-то тоже в своем роде прошла аналогичный процесс - у них тоже были свои заводы, но встал вопрос эффективности, они провели оптимизацию в компании и продали заводы, с тех пор делают все чипы на TSMC.
У Intel очень много разных направлений. Есть даже подразделение Mobileye - AI-решение для смарт-автопилота в автомобилях. Но по мнению тех кто работал в Intel, в компании редко приживаются "неродные" проекты да и управление всеми этими разнородными бизнесами задача сама по себе непростая, а в случае Intel тем более.
Ну и в целом, как я понял, это очень гордая компания и там принято на многих конкурентов или потенциальных партнеров смотреть "как на г-но".
"Для меня что Интел, что Квалком - самые лучшие процессоры. Пользуюсь только ими. Так что объединение усилий двух компаний при должном управлении может вывести эту пару на Олимп."
Я тоже люблю Intel и Qualcomm. Intel это экосистема для x86 и еще очень много всего - SSD (в том числе лучшие в мире Optan), серверные решения, лучшие сетевые и беспроводные карты и еще очень длинный список. Экосистема Qualcomm в свою очередь отлажена и отлично работает в смартфонах, причем это не только сам процессор, там тоже экосистема - процессор, видео, GSM модем драйвера и т.д.
Я уже писал как-то, что Intel тоже могла преуспеть на рынке смартфонов, причем не один раз. В начале эпохи смартфонов Apple Стив Джобс лично ездил к ним и предлагал делать процессоры и модемы для iPhone, но Intel не понравилась "слишком низкая" сумма, они тогда не очень верили в это направление, к тому же они довольно гордая компания и его послали. В итоге чипы сделал Samsung, а iPhone стал очень успешным проектом. Второй раз на моей памяти была попытка с Lenovo K900. Я сам его купил когда он только появился в России. Честно говоря, если бы его делали не Lenovo, а кто-нибудь поприличнее, а может быть даже сами Intel, у него могло бы быть будущее. У меня он продержался пару недель, - несколько битых пикселей на огромном (по тем временам) экране появилось в течение первой недели, а на вторую я отнес его обратно в магазин. Хоть он и был на тот момент помедленнее в играх чем аналоги от Qualcomm, но мне понравился, модем кстати там был тоже от Intel, сеть ловил и держал связь очень хорошо. По многим критериям это был очень необычный смартфон - аппаратная часть на архитектуре x86, огромный тонкий необычный корпус, полностью металлический с большим экраном, заметно грелся (иногда по непонятным причинам).
"...не вижу перспектив такого объединения, иболучше просто обменяться акциями, лицензиями и иметь тесное сотрудничество..."
"Действительно, какая цель поглощения для Квалкома?"
По последним новостям как только Intel выступила и объявила о "проблемах", ее тут же со всех сторон стали закидывать деньгами и потенциальными заказами! Тут Байден 3 млрд выделил, там заказ еще на 7 млрд и т.д. В последний писали что они объявили курс на эффективность и в октябре соберут совет директоров в полном составе, чтобы обсудить текущее положение дел и обновить стратегию развития. Слухи и новости о поглощении могут быть липовыми, но такой метод точно поднимает оценку компании.
Сложно судить про цели Qualcomm, можно только предположить. Они могут получить заводы Intel в США (которых к 2027 году у них должно быть уже 24) и эффективно использовать их мощности, по крайней мере загрузить их на полную. У Intel множество разных направлений и огромный R&D, и много чего еще - кто знает к чему в перспективе может привести такая синергия. Будет полегче конкурировать с решениями из Китая. Так что все эти меры и эта ситуация в целом больше похожа на "спасательный круг" для Intel от правительства США. Как обычно дадут денег, при необходимости оптимизируют, может быть немного поменяют менеджмент да и все. Никуда Intel не пропадет, если конечно не произойдет очередной потоп или еще какая-нибудь катастрофа.
Насколько я помню, для амд это не было вопросом эффективности, это был вопрос выживания.
А насколько отказ от заводов будет эффективнее и дешевле для интела, мы сможем узнать только когда (или если?) на Тайване война начнётся.
Я не уверен что тут можно говорить о "выживании". Напечатать еще немного долларов для них не проблема. В США вообще любят использовать меры по протекционизму для своих компаний. В ВТО не раз жаловались на их сельскохозяйственные холдинги по этому поводу.
Если на Тайване начнется заваруха, тогда Intel точно полностью загрузит свои заводы. Говорят, они уже выкупили у SML новейшее оборудование для литографии под самый современный техпроцесс.
А вся эта история с Qualcomm больше похожа на сигнал рынку, чтобы успокоить инвесторов и акционеров, а также не допустить падения акций.
(отредактирован)
Вы точно правильно прочитали? Qualcomm хочет купить Intel, а не наоборот
Захват рынка пк комплектующих. Это же мегавыгода
Патенты стоят дорого :) и ради них иногда выкупают компании целиком. Плюс расширение бизнеса
Скорее снепдрегон на десктопе
Ах да, где-то я это уже видел...
Intel atom и так был. Core i много жрут
Так кто кого покупать собрался? Квалком хочет купить Интел или предлагает Интел купить себя?
Первое
(отредактирован)
100%, как только не вылизывают этот АРМ. :D
А есть фанаты арм что ли. Я вот не вижу смысла в х86 на ноутах, я фанат арм?
Рекомендую приобрести планшет с клавиатурой, чтобы не ждать
И получить большой телефон
Учите мат.часть... оборотный капитал и тд.
Просто, нужно было выпускать не дырявые процессоры, а топ.
Пример ibm и Intel это пример того как гигантский бизнес рушиться просто отстав технологически от конкурентов.
Уверен, что следующая будет Apple, их зависимость от TSMC не лучше отсталости Intel'a
Нет, показывает как невыгодно и дорого что-то реальное производить в Сша, там расходы огромные на всё, примерно выходит по курса Бигмака, где доллар это 25-30р. Все остальные производства кроме Интела уже закрыты, они как последние из могикан.
Ну нет же. Автомобили там делают, оружие там делают, пытаются перетащить к себе производства из Европы.
У них есть свое производство. Дело не в том, что дорого.
И чего бы Интел тогда там сидел, если бы это было им не выгодно?
Так это сам их директор говорил, когда он пришёл в Интел, было по его словам 125 различных фирм по микроэлектронике со своими заводами, теперь остался один Интел по сути. Ну вот и у них проблемы, теперь думают что делать, и частично перемещаются, впервые Core Ultra 200V делают полностью на Тайване. Вот оружие делать выгодно, там ценник запредельный, можно ставить просто любой. Автомобили, Детройт уже полностью закрыт, а многое только собирается в конце, а детали из Китая, Азии.
(отредактирован)
Скандал был что в оружии американском комплектуха китайская. Поорали и разошлись. Заменить все равно нечем.
микрон, интел, тсмц в аризоне уже тестирующие 4нм, помоему глобалфаундриес в ньюйорке имеет фабрики, хотя это стоит перепроверить.
Глобалфаундриес поработали года 2-3, и потом AMD всё перенесли на Тайвань, ещё немного делали I/O чипы для Ryzen 3000-5000, а теперь и они на Тайване, выходит фабрика по сути пустует, что-то делают, но уже небольшими партиями только.
(отредактирован)
понятно, ещё на вегах 56 и 64 так и написано сделано на тайване, есть веги где в корее, просто вики говорит есть или была одна фабрика в ньюйорке, это про неё речь?
что касается дороговизны, тсмц 30-40 млрд $ вкладывает ежегодно теперь. Платить сотрудникам ей ли дорого сразу в трёх-четырёх странах? А микрон с её гддр7 делает выстрелы, а вот интел решил быть сноаюва плюс 5% когда конкурент наступает, когда куплен еув с высокочисловой аппертурой переносит на тсмц и это что ожидаемо мной +5% идёт от нанометров скорее, вместо нароста компетенций по своему умению применять еув дающий нм. Вот заодно про самсунг не давно писали её упущение против тсмц было таковым, что руководство боится рисковать и вкладыватся, вот не успешные деньгивливания, разве карман не присвоит эти деньги?, за то отказывать себе в аналогеиcowos чтобы его никогда не было, зная какой у встроек и цп ожидается прирост для полупроводниковых компаний что может привлечь заказчиков не выглядит взвешенным решением, хоть и у самсунга кажется что-то наблюдается, ведь положить то герцы интел они не бросают, только теперь конкурент вырос, а интел ведёт себя как раньше будто конкурента нет, а ведь он появился когда это время упущенное не поспособствовало возврпщению предводительства в части цп, а ведь работ было для интел и по видеокартам, компетенции которых могли-бы применять на встройках, решить продолжать вести себя так когда конкурент в силе теперь это риск в котором интел себе еще не отказывает, после попыток так себя не вести, даже снижать цены не хочет, интел ближе к интел чем другие ближние, помимо ближних и внешних, сама себе враг.
майкрософт, наса кстате в сша. Была статья почему не, и там было про риски геополитики выбранной страны и про компетенции, потом статья про индию где работники не желают в что-то, расслабленые, однако полупроводники там, но чьи и что делают забылось. Была статья про sk hynix, у них euv стоит, а они делают 10нм ихние, еув у тсмц на семи нанометрах делает скажем так если верить теч центуриону то n7 = 66mtr/mm2 для hpc это dram заявляется, а n7p делаеь 96mtr/mm2, чем тот 7нм что делает 66 около, есть n7+ что 105 или сколько там mtr/mm2, тем не менее рынок dram вроде как sk hynix+samsung говорили в одной статье был 90%, гддр7 сегодня передовые, есть у упомянутых самсунга и хиникса, но микрон из сша умеет в неё, нвидиа же выбирает, она сейчас у тсмц отоваривается, у которой 5нм и 3нм есть, с нм же можно энергопотреблением чем производительностью взять и может уместить больше объёма, навернре что полупроводники лишь детали, а озу это усьройство, уметь надо, так что микрон своё делает и бывает в озу и видеокартах, сейчас он там ли ещё не могу сказать правда, не смотря что ск хайникс и самсунг в корее, однако самсунг есть в сша, про хиникс не скажу, так что им ли дорого?
(отредактирован)
Интел дураки. И сами себя добивают глупыми решениями. Почему не известно.
Пример не отключаемый temporal dithering в Интел iris xe на двух ноутах. На одном из них решилось постоянным использованием 4060 от которой глаза не болели. Значит дело не в экране было. Зачем Интел такое делает не известно
ARM только мощностей подавай чтобы нормально работало.. на x86 для того чтобы нормально работало - дополнительных мощностей не нужно, процессор четырнадцатилетней давности довольно таки резво чувствует себя даже в интернете, нежели тот же самый ARM, который использовать в качестве калькулятора и дэнди (если не дообновят эмулятор до лишь 14+ ведроида) возможно лишь..
Все от оптимизации идет еще. Например голый андроид летает и на старье и браузер по типу Via, клиент kate mobile, new pipe и многое другое
я тоже пользуюсь голым ведром, нью пайпом и конечно же последней версией хрома, так как на старых браузерах джаваскрипт ломит производительность, многое крошится и некорректно отображается, поэтому эта вынуждаловка от гугла обновляться стабильно работает в отношение веб-обозревателя.
помнится нью пайп умер не так давно и его воскресили, но эта зависимость не дает гарантии никакой что через пол года или более мы сможем смотреть ютуб без ограничений..
я от гула отказался еще в 2017 году, когда сервисы гугл вешали производительность оболочки и нормально пользоваться смартфоном из 2012 года (флагман) уже было невозможно.
У меня нормально и хром 87 работает. Просто нужно обновить webwiew
А остальное..... Неохото лишний раз соприкасаться с корпорацией "добра"
веб превью который с каждой версией необратимо засоряет память без возможности удалить или голым ведром на котором ничего не работает кроме геморроя
ставил оптимизированный веб-вью из шапки форпда, системой не подтянулся и удаляться отказался, решил сие чудо удалить рутом..
думаешь почему эти ARM столь популярны? - правильно, за счет массового обмана и ввода людей в заблуждение.
интенсивная поддержка исскуственного устаревания со стороны крупных корпораций делает свое дело и бизнес приносит прибыль.
с x86 дела обстоят иначе и здесь не нужно бежать обновлять процессор или ОС на более актуальные версии чтобы иметь возможно комфортно пользоваться устройством, а что у нас по андрюше со своим АРМ? = два года обновлений и ещё несколько лет патчей и хана, новая версия гугл сервисов или обновление ютуба уже не дают ощущение того что устройство стабильно выполняет эту функцию что наводит на мысль о том что пора менять устройство из-за его уже исскуственной неактуальности.
Я не покупаю смартфон, если на него нет стабильной Lineage. От гугла отказался лет 5 назад
Тут устаревание идет еще и за счет того, что прокачать смартфон нельзя. Да и ARM чип распаян. Сколько чипов, столько и разъемов
Мне кажется смартфоны x86_64 и то прогрессивнее
ничем они не прогрессивнее, интел на свои атомы забила болт. Сами они тогда жутко сливали даже целеронам и по производительности были как те же ARMы.
И никаких преимуществ платформы ПК не было, ни винды, ни обновлений ведра...
Потому чьо дальше не развили
Вот HP t5325 2009 года вроде с Marvell Kirkwood до сих пор успешно работает на последнем Debian с последним ядром
А Kirkwood по сравнению с современыми ARM как первый Pentium по отношению к современым х86
уже многое перелопатили
Потому что стандартная дикое оверпрайс.
Ноуты/хромбуки стоят в 2-3 раза дороже при хуже функционкле и ужасном экране 60 герц и 50% РГБ цветами
А планшеты и телефоны это качественные быстрые девайсы за 200-300 долларов. Отсюда и любовь к арм. Если бы не Нинтендо то и игры на арм бы были
Наоборот хорошие. АМД с 5000й серии камней почти не развивается не считая х3д. Потому, что конкуренции нет. Те же 8400ф, 8700ф, 8600г во многом хуже 5800х
это мобильные процессоры, и они немного в другом секторе играют.
Сравнивай с 7500F/7700X/7800X3D
Stress Test
The stress test with a combined CPU/GPU load is very interesting, since it shows a significant difference to the model with the M3 Max.Even in the stress test, the M3 Pro is able to deliver the full performance of the processor and graphics card for the whole time.
Overall, the power consumption lies at around 55 W.
Power Consumption
There are no surprises in the power consumption measurements, and the device is very efficient at minimum brightness. Even the maximum consumption during idle operation of almost 17 W is completely okay, considering the high resolution and increased SDR brightness of more than 600 cd/m².
Under load during the stress test, we measure a maximum of almost 103 W, so the included 140 W charger is completely sufficient offering enough reserves to also be able to continue charging the battery even under load.
Power consumption of Core i 13700H
The chip's "minimum assured" power consumption sits at 45 W. Its Turbo power consumption is not supposed to exceed 157 W; its Base power consumption is supposed to be around 55 W.
Кратко переведу. Базовое потребление 55 в. У М3 про 30в.
Максимальное потребление у core 13700H 157ватт (приблизительно), но в реальности больше.
У м3 про при стресс тесте 103в.
Зарядник на 140 в.
Где здесь одинаковые цифры? При обычном использовании м3 про вообще уничтожает. 17 ватт в обычных операциях использует м3 про и 55в. core i7.
Если говорят что архитектура А не поддерживает коды архитектуры Б - это просто означает что не поддерживаемый софт будет работать медленнее, возможно даже на порядок, но работать будет - эмулятор справится с легаси.
(отредактирован)
(отредактирован)
(Комментарий удален)
ты какую-то нейросетевую хуцпу для домохозяек принес
ссылку отправил.
Они XSCale PXA продали Marvell прям перед выходом iPhone
И с тех пор на ARM обиделись, потому что пытались толкать Atom с смартфоны
Лишь бы иметь фабрики на своей территории. А то Китай уже не братушка