WWDC 2020 - ARM Macs?

  • Jono weißt du ob auf einem Intel nuc schon big Sure läuft?

    Sehr wahrscheinlich nicht, läuft ja generell bisher nirgends. Und wenn’s denn mal soweit ist, werde ich das NICHT testen, da der NUC mein Arbeitsrechner ist. Da lasse ich anderen den Vortritt was das testen angeht. Ich warte definitiv bis zur Final ab.


    Support ausschließlich im Forum und NICHT per PN!

  • Noch interessant, anscheinend gabs in Skylake massive Qualitätsprobleme die Apple noch mehr motiviert haben könnten auf ARM umzusteigen: https://www.macrumors.com/2020…s-hastened-apple-silicon/


    Dieser Kommentar triffts auch gut: "I get the feeling they were also pretty furious when they'd designed a new MBP chassis for cooler 10nm quad core chips and Intel delivered hotter 14nm 6 core chips"


    Am Schluss hatte Apple die schlechte Presse für Fehler die Nvidia und Intel gemacht haben...

    • Apple Mac Studio | M1 Ultra | 64GB RAM | 1TB
    • PowerMac G5 | Dual 2GHz | 8GB RAM | GeForce 6800 Ultra DDL
    • AMD Ryzen 9 3950X | ASUS Strix X570-I Gaming | 64GB DDR4-3600 CL16 RAM | Corsair MP600 M.2 NVMe | Radeon RX 6900 XT | Phanteks Enthoo Evolv Shift | Custom Loop | MacOS 12 | OpenCore
      Ryzen MacPro | EFI | RadeonSensor | Aureal
  • Ich denke auch es wäre dann mal so langsam an der Zeit das Dorf in der Kirche zu lassen und zum eigentlichen Thema zurück zu finden 😉


    Natürlich kann man die Entscheidung von Apple kontrovers diskutieren und man darf auch enttäuscht sein aber doch bitte im gebotenen Rahmen und ohne dabei unpassende Kraftausdrücke zu verwenden oder sich gegenseitig an die Krawatte zu gehen. Apple hat entschieden auf eine andere Plattform zu schwenken und daran werden wir nichts ändern. Auch dann nicht, wenn wir noch so laut wettern oder Trampelanfälle bekommen. Es hat niemand was dagegen, wenn solche Entscheidungen diskutiert werden aber im Rahmen sollten solche Diskussionen dann schon bleiben.


    Weil es hier aber gerade so schön in den Kontext passt hätte ich aber auch noch eine andere Sache die mir zunehmend auffällt und die bezieht sich nicht auf die emotional geführten Diskussionen hier sondern eher auf die allgemeine Stimmung die einige User hier in der letzten Zeit verbreiten. Ich möchte darum bitten das Ihr alle mal in Euch geht und Euch Gedanken dazu macht, wie ihr Euch gebt. Eine Signatur in unterstrichener, roter Fettschrift und dazu passend trotzig wegeditierte Inhalte in Postings bis hin zur totalen Verstümmelung ganzer Threads sprechen nämlich ebenfalls eine deutliche Sprache und hinterlassen eine entsprechend negative Außenwirkung.


    Bei all dem Ärger über fordernde Neulinge muss aber auch mal die Frage erlaubt sein woher diese Haltung eigentlich kommt, die Antwort auf die Frage ist einfach denn so lange mit EFI Ordnern um sich geschmissen wird als gäbe es kein morgen mehr ist nicht zu erwarten das sich an der Haltung eher unbelesener und unbedarfter User etwas ändern wird. Will ich erreichen das sich jemand mit der Materie auseinandersetzt wäre es angebracht dem User die Sachverhalte zu erklären. Mit erklären meine ich dann aber auch so zu erklären das der User auch eine Chance hat sie zu verstehen.

    Ein Verweis auf irgendwelche Guides im Netz vorzugsweise in englischer Sprache ist in 98% aller Fälle nicht der richtige Weg. Diese Guides findet man weit bevor man uns findet man kann also davon ausgehen das den meisten Usern, die hier nach Hilfe fragen, diese Guides bekannt sind und sie diese schlicht nicht verstanden haben oder verstehen können.


    Sei es drum denkt mal drüber nach. In meinen Augen macht das jedenfalls mehr Sinn als sich die Köppe darüber heiß zu diskutieren ob ARM nun doof ist oder nicht insbesondere weil (noch) niemand weiß wie leistungsfähig das am langen Ende wirklich ist.

  • griven Kann man mal wieder so unterschreiben was du sagst.


    Sei es drum denkt mal drüber macht meiner Meinung nach jedenfalls mehr Sinn als sich die Köppe heiß darüber zu diskutieren ob ARM nun doof ist oder nicht insbesondere weil (noch) niemand weiß wie leistungsfähig das am langen Ende wirklich ist.

    Genau, und vielleicht wird es auch noch etwas länger einen Nischen Mac Pro geben mit Xeon. Das weiß halt niemand, außer Apple...

    Liebe Grüße, alex


     Mac mini Late 2020 – M1 – 16GB RAM – 256GB SSD

     MacBook Pro 15” Late 2015 – i7 4980HQ – 16GB RAM – 256GB SSD

     MacBook Pro 13” Late 2014 – i5 4278U – 8GB RAM – 120GB SSD

    iPhone 13 – iPhone 8 Plus – iPad Pro 12,9" – AirPods 1. Gen – AirPods Pro – Apple Watch S5 44mm




  • griven ist zwar auch OT, passt aber zu Deinem Statement. Kann man nicht sowas wie einen Forumskindergarten bauen, in dem die Neulinge erstmal landen und ihr Anliegen formulieren können? Wenn das dann anhand einsehbarer Kriterien geprüft wurde, gibt’s Zugriff auf den Rest des Boards? Ist ne Philosophie-Frage. 😏

  • Ich empfehle euch die Apple Developer App aus dem App Store zu laden. Viel interessanter Content enthalten auch zu Apple Silicon und den Neuerungen in macOS.

    Edit: Apple Silicon kann kein AVX und Rosetta 2 entsprechend auch nicht.

    LG Chris


    Meine Hardware:

  • Ich empfehle euch die Apple Developer App aus dem App Store zu laden. Viel interessanter Content enthalten auch zu Apple Silicon und den Neuerungen in macOS.

    Edit: Apple Silicon kann kein AVX und Rosetta 2 entsprechend auch nicht.

    Die habe ich genutzt, um mir die WWDC "live" anzusehen. Natürlich kam erst der ganze iOS-Kram, bevor es interessant wurde. Irgendwie hat mich Craig's Präsentation abschnittsweise an Jenson's "It just works"-Parolen zum RTX-Release erinnert. Und, wie zu erwarten war, keine echten Infos. Auch die später hinzugefügten Videos in der App würde ich persönlich eigentlich eher der Kategorie "Mau" zuordnen. Interessant, aber echt oberflächlich.

    Build: Intel Core i9 10980XE, Asus Rampage VI Extreme Omega (BIOS 3501), 256 GB Corsair Vengeance LPX DDR4-3200, 2xWD SN750 2TB, 1xWD SN750 1TB, XFX Merc 319 RX 6800 XT, Areca ARC-1224 SAS RAID Controller, AirPort Extreme (BCM943602CDP), Open Core

  • Vermutlich weil man selbst noch nicht so weiß, wohin die Reise geht. Bei iOS weiß man ja was man hat und wie es läuft. Apple Silicon ist ja nun was ganz neues und scheint wohl auch noch nicht der Finale Name zu sein, demnach hält man sich erstmal zurück.


    Vermutlich will man kein zweites Apple AirPower Szenario schaffen. Kann ich - persönlich - sogar verstehen :D

  • REVAN Das kann ich mir nur schwer vorstellen. Der Plan ist eigentlich der gleiche wie bei den iDevice-Chips: RISC zu CISC 2.0 machen. Also soviel Fixed Function Hardware zum Beschleunigen von allem Möglichen einbauen, bis x86 dagegen wie ein RISC-Chip aussieht :think:


    Das Lineup von iDevices über MacBooks bis hin zu iMacs kann man damit sicher sehr gut abbilden. Wenn ich an meine Freunde und Familie denke, dann wird das definitiv aufgehen.


    Aber was ist mit dem Mac Pro? Ich habe leider keine Idee, wie das am Ende ausschauen wird. ARM braucht aktuell einfach mehr Kerne für ähnliche Leistung, aber irgendwann ist mit der Skalierung vieler Kerne auch an einer Workstation Schicht. Aus meiner Sicht ist der Mac Pro das einzig echte Fragezeichen.

    Build: Intel Core i9 10980XE, Asus Rampage VI Extreme Omega (BIOS 3501), 256 GB Corsair Vengeance LPX DDR4-3200, 2xWD SN750 2TB, 1xWD SN750 1TB, XFX Merc 319 RX 6800 XT, Areca ARC-1224 SAS RAID Controller, AirPort Extreme (BCM943602CDP), Open Core

  • Bei "normaler" Software kommst du aber mit fixed Units nicht weit. Diese sind zwar enorm effizient und leistungsstark aber eben nicht flexibel.

    Workstation:

    Threadripper 3990x - Gigabyte TRX40 AORUS XTREME - 256GB DDR4 3200 MHz RAM - 2x RTX 3090 FE


    Notebook:

    Acer ConceptD 7 Ezel - I7 10875h - 32GB DDR4 - RTX 2080 S

    Dell XPS 15 - I7 10750h - 64GB DDR4 - GTX 1650ti

    Dell XPS 17 - I9 10885h - 64GB DDR4 - RTX 2060 Max-Q


    Handy:

    iPhone 12 Pro Max

  • Gaulomatic SoC heisst alle Blöcke auf einem Chip, aber nicht dass alle Funktionen effektiv in der CPU sitzen und im Befehlssatz hinzugefügt werden.

    • Apple Mac Studio | M1 Ultra | 64GB RAM | 1TB
    • PowerMac G5 | Dual 2GHz | 8GB RAM | GeForce 6800 Ultra DDL
    • AMD Ryzen 9 3950X | ASUS Strix X570-I Gaming | 64GB DDR4-3600 CL16 RAM | Corsair MP600 M.2 NVMe | Radeon RX 6900 XT | Phanteks Enthoo Evolv Shift | Custom Loop | MacOS 12 | OpenCore
      Ryzen MacPro | EFI | RadeonSensor | Aureal
  • Als Musiker ist man z.B. mehr an sehr kurzer Latenz interessiert. Meist ist hier der Bottleneck die “Real-Time-Response” und mehr Kerne, die vielleicht eine Nanosekunde später gigantische Rechnungen erledigen könnten, interessieren gar nicht mehr. Im Unterschied zu Filmleuten, gibt es bei uns kein rendern und daher lagen in der Vergangenheit i9 und i7 in dem Segment vor den Xeons ...


    Ich kenne mich überhaupt nicht mit diesen Hardware-Sachen aus ... an die Profis: meint ihr, ein Arm-Chip könnte Real-Time-Amwendungen betreffend besser, schlechter oder gleichwertig zu x86 sein?

  • Aluveitie Klar, die ISA wird nicht erweitert. Aber wie Romsky schon festgestellt hat, bringen die ganzen Schaltungen halt bei "normaler" Software nix. Der Teil der Chipfläche liegt dann brach. Die Idee hinter RISC war doch, den Chip möglichst gut auszulasten. Daher mein Vergleich zu CISC, denn wo ist der fundamentale Unterschied zwischen Fixed Function Hardware und Silizium, was für einige komplexe Befehle vorhanden aber nur partiell eingesetzt wird?

    Build: Intel Core i9 10980XE, Asus Rampage VI Extreme Omega (BIOS 3501), 256 GB Corsair Vengeance LPX DDR4-3200, 2xWD SN750 2TB, 1xWD SN750 1TB, XFX Merc 319 RX 6800 XT, Areca ARC-1224 SAS RAID Controller, AirPort Extreme (BCM943602CDP), Open Core

  • Gaulomatic Auslastung der Funktionseinheiten einer CPU hat nichts mit CISC/RISC zu tun (schliesslich sind x86 intern schon seit langem auch nur RISC CPUs). Das einfach auf die Komplexität das Instruktionsset. Ob aber neben der CPU noch eine GPU, Security Enclave usw auf dem gleichen Silizium sitzt spielt doch für die CPU keine Rolle.


    SoC heisst einfach das möglichst viel was sonst verteilt in einzelnen Chips sitzt auf einen kommt. Es gibt in jedem Rechner ne unmenge an Funktionen die nie gebraucht werden. Wenn keine Musik läuft nützt dir die Soundkarte auch nichts, aber spielt auch keine Rolle ob die in einem PCI Slot steckt, onboard ist oder im SoC.


    Schlussendlich wird Apple Kosten/Nutzen für alles was auf den SoC kommt genau abwägen um den grösstmöglichen Nutzen rauszuholen.

    • Apple Mac Studio | M1 Ultra | 64GB RAM | 1TB
    • PowerMac G5 | Dual 2GHz | 8GB RAM | GeForce 6800 Ultra DDL
    • AMD Ryzen 9 3950X | ASUS Strix X570-I Gaming | 64GB DDR4-3600 CL16 RAM | Corsair MP600 M.2 NVMe | Radeon RX 6900 XT | Phanteks Enthoo Evolv Shift | Custom Loop | MacOS 12 | OpenCore
      Ryzen MacPro | EFI | RadeonSensor | Aureal
  • Aluveitie Ursprünglich schon, es war eine der Grundideen hinter ARM-CPUs, als das "A" noch für Acorn stand. Daß die ganzen Chips sich heute nicht mehr derart unterscheiden ist auch keine News. Aber mit den nicht geringen Anteil an FFH muss man die Frage stellen, wie sehr man die CPUs eigentlich noch vergleichen kann. Wenn in Craig's Demo drei 4K-Streams in FCP laufen und das über spezielle Schaltkreise realisiert wird, lässt das eben keine Rückschlüsse auf die eigentliche CPU-Performance zu; sobald die eben nicht genutzt werden. Und jetzt komme ich auf den Mac Pro zurück, der - so vermute ich an dieser Stelle mal ganz sportlich - vielleicht eher als ein iMac bei meinem Dad für Berechnungen genutzt wird, die nicht über spezielle APIs / Schaltkreise ausgeführt werden.

    Build: Intel Core i9 10980XE, Asus Rampage VI Extreme Omega (BIOS 3501), 256 GB Corsair Vengeance LPX DDR4-3200, 2xWD SN750 2TB, 1xWD SN750 1TB, XFX Merc 319 RX 6800 XT, Areca ARC-1224 SAS RAID Controller, AirPort Extreme (BCM943602CDP), Open Core

  • Als Musiker ist man z.B. mehr an sehr kurzer Latenz interessiert. Meist ist hier der Bottleneck die “Real-Time-Response” und mehr Kerne, die vielleicht eine Nanosekunde später gigantische Rechnungen erledigen könnten, interessieren gar nicht mehr. Im Unterschied zu Filmleuten, gibt es bei uns kein rendern und daher lagen in der Vergangenheit i9 und i7 in dem Segment vor den Xeons ...


    Ich kenne mich überhaupt nicht mit diesen Hardware-Sachen aus ... an die Profis: meint ihr, ein Arm-Chip könnte Real-Time-Amwendungen betreffend besser, schlechter oder gleichwertig zu x86 sein?

    Das liegt aber größtenteils am schlechten Scheduler.

    Workstation:

    Threadripper 3990x - Gigabyte TRX40 AORUS XTREME - 256GB DDR4 3200 MHz RAM - 2x RTX 3090 FE


    Notebook:

    Acer ConceptD 7 Ezel - I7 10875h - 32GB DDR4 - RTX 2080 S

    Dell XPS 15 - I7 10750h - 64GB DDR4 - GTX 1650ti

    Dell XPS 17 - I9 10885h - 64GB DDR4 - RTX 2060 Max-Q


    Handy:

    iPhone 12 Pro Max

  • meint ihr, ein Arm-Chip könnte Real-Time-Amwendungen betreffend besser, schlechter oder gleichwertig zu x86 sein?

    tja - ich kann nur meine Meinung kundtun...


    Ich schätze RISC wird keine Probleme damit haben, weil seine Maschinenzyklen nicht so lange dauern wie beim CISC. Dadurch würde ich - entsprechende Programmierung des Systems vorausgesetzt - mehr Agilität erwarten.


    Letzlich würde ich vermuten, daß es darauf hinausläuft, Kaufe das, was es richtig macht, Bild und Video-Bearbeitung mit entsprechenden Grafikkarten, Audio-Bearbeitung mit entsprechenden Audio-Karten - einen guten DAC kann keine CPU ersetzen...

    Schon in den 90igern habe ich entsprechende Systeme kennengelernt (SGI-Workstation für 40,000Mark, plus Videokarte für 80,000Mark und nochmal das gleiche für die Software -> Realtime Videobearbeitung!) ebenso im Musik-Bereich, was für den HomeAnwender ne SoundBlaster16 war, gab es in größerer, qualitativerer Ausführung mit mehr Kanälen und DACs für PCs und Macs...

    Der Mac würde dann rein zu einer Management-Station werden...


    RISC oder CISC (Bestimmt nicht alles korrekt, ich versuche nur mal einen Einblick/Überblick für "Laien" darzustellen, Fehler bitte mich aufklären - ich lasse mich gerne korrigieren :p ):

    Es wurde schon erwähnt, daß die x86-Technologie einen Stillstand hatte und man an den GHz Grenzen kratzte, dann hat die israelische Entwicklungsabteilung einen Kniff angewandt - wie hier von Aluveitie erwähnt und RISC-Technik in die Kerne gebracht - und Intel musste sich dem Anwender gegenüber erklären, wieso plötzlich "lahm getaktete" CPUs (core2duo & Co) mit weniger als 2GHz schneller sind als ihre "Vorgänger", die 4GHz P4...


    Der Kern des x86 hat RISC-Charakter, letztlich aber ist es kein RISC, denn es werden mit Compilern ein lesbarer Code wie Basic, C, Pascal (sogenannte Programmierhochsprachen) in einen Maschinencode mit vielen hundert (Maschinen)-Befehlen übersetzt, welcher dann ausgeführt wird.

    Mir fehlen jetzt die Referenzen - vielleicht hat da jemand anders was für mich? - aber ein CISC (x86) hat zB 2000Befehle und ein RISC hat 200. Ein Befehl muss aus dem Speicher geholt werden (lahme Geschichte) um dann intern verarbeitet verarbeitet zu werden (sowas geht schnell). Wenn ich nun 2000 Befehle habe, benötige ich eine gewisse Anzahl von "Wörtern" (Byte) um diese abzubilden - also mehr Wörter für einen Befehl, im Gegensatz zum RISC mit 200 Befehlen, welcher mit weniger Wörtern zurecht kommt. Unterm Strich muss also weniger bei einem RISC zur Befehlsausführung weniger zur CPU übertragen werden. Der Befehl ist kürzer und somit schneller an der Ausführung als bei einem CISC.

    Dafür hat der CISC "Spezialisierungen", auf etwas Einfaches reduziert, kann er eine 3x10 direkt berechnen, während ein RISC die 10 nimmt und sie 3mal addieren muss... Im RISC müssen also manche spezialisierte Funktionen / Rechenschritte mit mehr Taktzyklen berechnet werden als in einem CISC.

    Deshalb hat sich der RISC auf einen Befehlssatz reduziert, womit 80% der häufigsten Operationen abgedeckt werden. Das spielt er dann aus...


    Aus dem praktischen Bereich:

    Ich arbeite seit vielen Jahren mit Solaris-Server auf Sparc (RISC) und x86 (CISC). Bei Datenbankanwendungen hatte der Sparc mit 1.5GHz kein Problem mit dem Xeon 3GHz mit zuhalten oder ihn sogar hinter sich zu lassen, im Gegensatz zB bei manchen (!) Bildoperationen, die waren gleich bis manchesmal schneller beim x86... oder beim Komprimieren - keine Chance des RISC zum CISC...


    So, Danke an alle, welche durchgehalten haben, ich hoffe, ich habe denen, die mehr und besseres Wissen in dem Bereich als ich haben nicht zuviel Kopfschmerzen verursacht ;)

    Bye

    Stefan


  • Das liegt aber größtenteils am schlechten Scheduler.

    Interessant! Aber was wird das für die Arm-Macs bedeuten? Werden die einen schnelleren Scheduler haben? :-)

  • guckux Das ist nicht ganz korrekt. Die P4 wurden mit einer extrem langen Pipeline ausgestattet um möglichst hoch zu tackten. Es war aber schlicht nicht möglich die Pipeline effizient zu füllen und statt bis wie geplant 10 GHz sind sie bei 5 GHz in die Power Wall gelaufen. Die Core Architektur war wiederum ein Re-design des Pentium M, welcher auch schon Micro-ops implementierte. Durch die kürzere Pipeline und anderen Optimierungen konnten sie endlich wieder zu AMD aufholen.


    Aber die CISC vs RISC Debatte ist schon so veraltet ich glaube kein Chip Designer kümmert sich noch darum...

    • Apple Mac Studio | M1 Ultra | 64GB RAM | 1TB
    • PowerMac G5 | Dual 2GHz | 8GB RAM | GeForce 6800 Ultra DDL
    • AMD Ryzen 9 3950X | ASUS Strix X570-I Gaming | 64GB DDR4-3600 CL16 RAM | Corsair MP600 M.2 NVMe | Radeon RX 6900 XT | Phanteks Enthoo Evolv Shift | Custom Loop | MacOS 12 | OpenCore
      Ryzen MacPro | EFI | RadeonSensor | Aureal
  • griven danke für diese offenen Worte. Das war sinnbildlich auch nichts anderes als mit Schrot auf Tauben schießen. Diplomatisch und nichtssagend wie immer. Meine Konsequenz daraus kann ich für mich ziehen.


    Viel Erfolg!