"Der neue Weg" macOS zu nutzen oder "The new way of building a Hackintosh"

  • theCurseOfHackintosh zumal man die Systeme (Apple/PC) nicht wirklich vergleichen kann (andere Architektur, Einsatzzweck ein völlig anderer, bzw. fehlende Kompatibilitäten wie damals beim PPC).

    Wer versucht die Systeme zu vergleichen (und ja auch Apple hat sich da meiner meinung nach zur Witzfigur gemacht), der hat sich nicht mit den verschiedenen Architekturen auseinander gesetzt.

    Das einzige was ich auch am PC geil finden würde ware der UnifiedMemory, ich denke aber das wird wahrscheinlich nicht in nächster bzw. nie eintreten im PC Bereich.

    Auch zum Thema Intel / AMD, noch vor ein paar jahren war AMD das Kernkraftwerk und Intel der Öko, die Zeiten ändern sich, die Consumer wollen halt immer mehr Power.

    Intel kommt da mit der Architektur nur leider seit Skylake nicht wirklich weiter, während AMD hier einen Quantensprung vollzogen hat (Fertigungstechnik, Powersavings).

    Diese vergleiche sind so Sinnvoll wie einen VW-Käfer mit einem Porsche vergleichen zu wollen, nur weil beide einen 6 Zylinder Boxermotor haben (können).

    Ich werde das nie wirklich verstehen, mir kommt es vor wie ein Pubertärer Schw...zvergleich.

    Wird zeit das die Leute wegkommen von dies ist besser als weil, denn im Endeffekt trifft die Entscheidung immer der Konsument. Benchmarks dienen lediglich dem Vergleich / der Statistik (welche ja auch beeinflusst werden kann).

  • Das einzige was ich auch am PC geil finden würde ware der UnifiedMemory, ich denke aber das wird wahrscheinlich nicht in nächster bzw. nie eintreten im PC Bereich.

    Im PC Bereich gibt es DirectStorage, da braucht man den Zirkus den Apple da macht nicht, erst mal im Spiele Bereich unter Windows 11, danach für Grafikanwendungen, Nvidia hat es schon vor Jahren vorgestellt, wie sich eine GPU allein ohne RAM und CPU ihre Daten von der SSD zieht und mit aufkommen von PCIe 5.0 und SSDs die 10000 MB/s können, kann das richtig fix werden.

    Außerdem kommen noch Intel Sapphire Rapids die max 64GB HBM Speicher in der CPU haben.

    CPU: AMD 3960X

    GPU: 2x RTX A5000 + WX5100

    MB: ASRock TRX40 Creator

    RAM: 256 GB ECC

    OS: Unraid / 2xWin 10 VM / macOS VM

  • ist aber nur entfernt vergleichbar nicht das selbe verfahren.

    Eigentlich machen das GPUs schon seit Jahren wenn ihr VRAM voll ist, das sie den System RAM nutzen, nur bei Apple liegt der Vorteil an DDR5 und der kurze Weg.

    Unter DDR5 kommen RAMs mit mehr als 10000 MHz da juckt es nicht mehr ober der Weg nun 10 oder 20 cm lang ist, für viele heißt es das drei bis vierfache der Geschwindigkeit was sie jetzt im System haben.

    Wenn die CPU nicht mehr der Bottleneck ist, dann liegt es andere Komponenten und wie viel du bereit bist dafür auszugeben.

    Schauen wir mal wie es weiter geht.

    CPU: AMD 3960X

    GPU: 2x RTX A5000 + WX5100

    MB: ASRock TRX40 Creator

    RAM: 256 GB ECC

    OS: Unraid / 2xWin 10 VM / macOS VM

    Edited 2 times, last by Bob-Schmu ().

  • Und das sind dann auch völlig andere Einsatzbereiche als Laptop oder Personal Computer im weiteren Sinne.

    theCurseOfHackintosh ... die Consumer wollen halt immer mehr Power....

    Und ich behaupte der Stromverbrauch ist den meisten komplett wurscht. Sonst würde aktuell keine/r mehr eine Grafikkarte kaufen, die 100W verbrät. "Klar verbraucht meine CPU 300W aber sonst ruckelt es. Und wer will das schon..."


    Aber da will ich mich jetzt nicht mit den Kollegen aus dem 69XX-Thread quer legen, ich hab ja auch eine Radeon VII...

    GA-Z97X-UD7 TH / 4790K / Radeon VII / LG 34UM95-P
    GA-Z97N-WiFi / 4790K / RX580
    HP ProBook 650 G1 / Clover

  • EdD1024 nichts anderes vermochte ich damit auszudrücken. Bei den aktuellen Energiepreisen wünschte ich mir allerdings eher eine CPU / GPU die Power hat und trotzdem Strom Spart. Naja das wird wohl eher nicht mehr passieren, eher das Gegenteil. Ich nenne meine Rechner mittlerweile schon Heizungsalternative ;)

  • Sonst würde aktuell keine/r mehr eine Grafikkarte kaufen, die 100W verbrät. "Klar verbraucht meine CPU 300W aber sonst ruckelt es. Und wer will das schon..."

    Eine aktuelle GPU (nicht Notebook), die 100W braucht?! Gibt's nicht, 200-300W sind schon normal, meine hat auch 290W...

    150W sind schon energiesparend, und 350W auch "ok".

  • Wir loben Apple an der Stelle aber Stromsparen ist für sie höchstwahrscheinlich auch unausweichlich. Die 11te Intel Generation ist in 16" samt einer leistungsstarken GPU nicht mehr unter zu bringen. Solche Windows Laptops sind bereits 17" groß und das will Apple vermutlich dann auch nicht. Das war jetzt höchste Eisenbahn. Die Frage ist nur, woher wussten sie das vor 5-10 Jahren bereits, dass es jetzt gegen die Wand fährt?

    GA-Z97X-UD7 TH / 4790K / Radeon VII / LG 34UM95-P
    GA-Z97N-WiFi / 4790K / RX580
    HP ProBook 650 G1 / Clover

  • Naja dass der Energiehunger der Welt (nicht nur im IT Bereich) rasant steigt ist seit Jahrzenten ein Thema. Dass es ein Ende an Resourcen gibt, ebenfalls. Über den Klimawandel und den Ausstieg aus Kohle und Gas wurde schon in den 70ern geredet, und das Thema Atom Energie ist in einigen Teilen der Welt auch durch (zumindest was den Willen der Bevölkerung angeht).

    Von daher brauchte man da keine Glaskugel ;-)

    system1: iMacPro1,1; Gigabyte z390 Gaming X rev1, Intel Core i7-9700K, GSkill Ripjaws V, Sapphire RX 5700 XT Nitro+


    mein immer aktuelles EFI

  • Man konnte aber jetzt nicht zwingend damit rechnen, dass Intel lange nicht unter 14nm kommt. Fraglich ob die aktuelle Architektur bei ca. 5nm konkurrenzfähig wäre. Glaskugel eben.

    GA-Z97X-UD7 TH / 4790K / Radeon VII / LG 34UM95-P
    GA-Z97N-WiFi / 4790K / RX580
    HP ProBook 650 G1 / Clover

  • Apple hat das sicher nur bedingt vorhersehen können. Denen ging es imho erstmal eher darum sich aus der Abhängigkeit von Intel/AMD zu lösen. Vielleicht ging ihnen auch die Entwicklung zu langsam voran. Dazu die Erfahrungen aus den Axx Prozessoren mit dem Know-How Aufbau da könnte auch einen guten Teil dazu beigetragen haben das sie sich in die Richtung entwickeln.



    Den Profit den Intel/AMD für CPU, Graka und Chipsatz eingefahren hat wollten die in ihrer Tasche haben/behalten. Das einfachste ist dann wirklich ein SoC. Der sollte Rechenpower haben. Ich denke die Energieeffizienz war dann eher ein "Abfallproduct" bzw. sekundäres Ziel das durch die neue Architektur auf eben diesen SOC mit kurzen Signalwegen etc. gewährleistet werden konnte.

  • Was ich dem Video letztenendes positiv abgewinnen kann, ist eine Zukunftsperspektive für die Zeit nach Apple X86 Support. Vielleicht wäre Virtualisierung von ARM ja eine Möglichkeit das Hackintosh-Ding am Leben zu halten. Aber die ganzen tools erstmal zu zu entwickeln, dauert sicher erstmal ne weile.

  • Vielleicht wäre Virtualisierung von ARM ja eine Möglichkeit das Hackintosh-Ding am Leben zu halten.

    Eher unwahrscheinlich das es nach dem Intel/AMD Support noch was sinnvolles geben wird, gerade in Bezug auf die GPU, wie will man das emulieren?

    VM Tools ohne Hardwareunterstützung sind für den produktiven Einsatz nicht zu gebrauchen, mal rein schauen in ein OS ja aber nicht mit Arbeiten.

    So lange sich noch erfreuen wie es geht, danach ein Apple Gerät kaufen.


    Ein 32 Zoll iMac mit M2 Chip max 16 Kerne CPU Einheit (12 High und 4 low), max 128GB RAM und max 64CU GPU Einheit würden für sehr viele mehr als genug sein und über Jahre reichen.

    CPU: AMD 3960X

    GPU: 2x RTX A5000 + WX5100

    MB: ASRock TRX40 Creator

    RAM: 256 GB ECC

    OS: Unraid / 2xWin 10 VM / macOS VM

  • Eher unwahrscheinlich das es nach dem Intel/AMD Support noch was sinnvolles geben wird, gerade in Bezug auf die GPU, wie will man das emulieren?

    VM Tools ohne Hardwareunterstützung sind für den produktiven Einsatz nicht zu gebrauchen, mal rein schauen in ein OS ja aber nicht mit Arbeiten.

    So lange sich noch erfreuen wie es geht, danach ein Apple Gerät kaufen.


    Ein 32 Zoll iMac mit M2 Chip max 16 Kerne CPU Einheit (12 High und 4 low), max 128GB RAM und max 64CU GPU Einheit würden für sehr viele mehr als genug sein und über Jahre reichen.

    Wie man das emulieren will? Genauso, wie man es in der retro gaming szene seit jahrzenhten macht. Dynamic Recompiling, High Level Emulation, Low Level Emulation etc. Es geht letzten Endes nurn darum, herauszufinden, ob und was moglich ist.


    Falls nicht, cruise ich einfach mit meinem Bugatti Chiron zum Apple Store, hol ein Bündel Lila Schein aus meiner designer jogging hose und sag pack 2 ein von den Dingern. Standard. Aber Gelld ausgeben – das kann ja jeder. :D

  • Wie man das emulieren will? Genauso, wie man es in der retro gaming szene seit jahrzenhten macht.

    Der Vergleich hinkt aber hinten und vorn, bis jetzt hat es noch nicht mal jemand geschafft ein iOS Emulator zu erstellen, Hypervisor Typ 2 dessen Grafikunterstützung uiii das ist mehr schlecht als recht, schaut man sich andere Emulatoren an, wird es nicht besser.


    In ein paar Jahren wird es so wieso nur noch ein Apple OS geben und jedes Gerät identische skalierte Chips, dann heißt es ja ich will ein Apple Gerät oder nein ich will keines aber ein Emulator in der Form wie man es benötigt wird es nicht geben.

    Wenn man ganz viel Träumt, kann es vielleicht in Erfüllung gehen aber eher nicht, ist jetzt nicht negative gemeint, nicht falsch verstehen.

    CPU: AMD 3960X

    GPU: 2x RTX A5000 + WX5100

    MB: ASRock TRX40 Creator

    RAM: 256 GB ECC

    OS: Unraid / 2xWin 10 VM / macOS VM

  • Bob-Schmu einen macOS Emu? Ich lieg grad unterm Tisch vor lachen.
    Ich erinnere mich daran das ein ppc OS X Emulator mal in den Communities angepriesen wurde, bis heute hat kein Mensch den gesehen. Oder einen Xbox 1 Emulator , gibt zwar einen der funktioniert allerdings mehr schlecht als recht.


    Mir ist das völlig Wurst im Endeffekt. Wenn es später kein hackintosh mehr gibt, gibts halt für knapp 1k nen. MacBook Air. Für meine Zwecke absolut ausreichend.
    ich hatte vor mir eins der neuen mbps zu gönnen, allerdings funktioniert darauf keinerlei Virtualisierungssoftware, kein hypervisor Typ 2. daher und weil ich keinerlei content creation betreibe für mich unsinnig. Zum Coden würd sich zuerst genanntes schon eher eignen.

  • Ich denke, je größer der Bedarf für eine Virtualisierung von macOS is, desto mehr Potenzial und Brainpower wird investiert, um es zu verwirklichen.


    Und da der Bedarf an iOS emulatoren eher verschwindend gering ist, tut sich da wahrscheinlich deswegen auch nicht viel.


    Am Ende des Tages wird irgendwas entwickelt werden – Skepsis hin oder her. Ob es nutzbar sein wird, stellt sich DANN heraus – nicht vorher!

  • Die Frage ist nur, woher wussten sie das vor 5-10 Jahren bereits, dass es jetzt gegen die Wand fährt?

    Geräte, die heute rauskommen, werden ja nicht erst seit gestern entwickelt. In Firmen wie Apple kannst Du Dir sicher sein, dass die nächsten 2-3 Jahre zumindest in groben Zügen bereits skizziert sind. Um aber zu wissen welche Geräte (Leistung, Formfaktor usw.) man bauen kann, muss man auch die Roadmap der einzelnen Zulieferer kennen.


    Nun hat die Stagnation bei Intel nicht erst vor kurzem begonnen, sondern zieht sich bereits seit langem hin. Aufgrund mangelnder Konkurenz ist das nur wenigen aufgefallen, Endusern schon mal gar nicht nach dem Motto, wenn es nichts besseres gibt, kann ich mich auch nach nichts sehnen. Zudem kannst Du Dir sicher sein, dass das Intels Verhältnis zu Apple etwas enger war als zu den meisten anderen Abnehmern und Apple daher mehr über die Roadmap wusste. So war es damals auch beim PPC->Intel Switch. Hier wurde MacOS immerhin von Beginn an intel kompatibel gehalten obwohl es keiner wusste ("just in case..." ;-) ).

    Meine Meinung zu dem Thema hier ist, dass wir eventuell eine halbwegs brauchbare Virtualisierung sehen werden, aber auf keinen Fall eine, die wirklich den Namen Hackintosh verdient. Das wird leistungsmäßig genügen um low end Programme zu betreiben, aber für alles was auch nur ansatzweise CPU und GPU lastig ist, sind die Tage von nicht-Apple Hardware gezählt.


    Einer der Hauptgründe für Hacks neben dem Preis war ja von jeher auch die Leistung. Dank des modularen Aufbaus des dem Hack zugrundeliegenden PCs, konnte man Konfigurationen realisieren, die mit original Hardware entweder gar nicht oder nur zu sündhaft teuren Preisen möglich waren. Wenn nun nur noch Virtualisierungen funktionieren, diese aber leistungstechnisch nichts bringen...was soll ich dann damit?

    Darüber hinaus relativiert sich dank Apple Silicon ja gerade auch das Preisargument. Bereits mit einem MacMini erreicht man zu einem äußert erschwinglichen Preis Leistungsdaten, die man im PC-Bereich vergeblich sucht (bevor der erste Klug......er um die Ecke kommt: wenn man natürlich auch echte MX Programme nutzt). Für einen Home-User ist das Preis-Leistungsverhältnis bei Apple gerade spitze und wenn die VKs einigermaßen stabil bleiben, sich die Chips aber von Generation zu Generation wie die AX Pendants besser als der Rest der Branche entwickelt, wird dieses Verhältnis sogar immer besser.


    Soll bedeuten: bereits heute gibt es für normale Home Anwender, die sich ohnehin auf Apple Terrain bewegen, oder Anwendungen nutzen, die es auch unter macOS gibt, kaum einen Grund nicht zu Apple Hardware zu greifen (nicht upgradebar? Interessiert 90% der Homeuser ohnehin nicht). Die PROs werden gerade ebenfalls mit einem guten Leistung-pro-Euro Verhältnis versorgt, zumindest im mobilen Bereich, Desktop folgt noch. Bliebe also nur noch der "Prosumer" Bereich, aber den könnte u.U. ein macMini Pro abdecken (wobei selbst die normalen M1 bereits schnell genüg für die meisten in diesem Bereich sind).


    Für mich ist auf jeden Fall klar, dass mein aktueller Hack noch ein paar Jahre seinen Dienst tut und wenn dann nichts absolut unverhersehbares passiert ein echter Mac ins Haus kommt.

    Some men see things as they are and say 'why?', I dream things that never were and say 'why not?'

  • Geht mir ähnlich. Eigentlich genau so.


    Ich muss gestehen ich nutze auch meine älteren Hacks weiterhin sehr gerne, gerade z.B. den XPS15 9560, tolle Tastatur und das Trackpad. Super Bildschirm, CFG Lock und Spirenzien offen zugänglich, echt sagenhaft. Wenn ich an das XPS17 und ENVY 17 denke, kriege ich graue Haare, trotz i9, da sie sich wie ein Herd anfühlen und sackschwer sind.


    Am Ende des Tages war der Move von Apple doch ganz geschickt, die Hackintosh-Szene in Ruhe zu lassen. Viele fanden so den Weg zu macOS und werden in Zukunft bestimmt gute Kunden von Apple sein.

    Für mich ist auf jeden Fall klar, dass mein aktueller Hack noch ein paar Jahre seinen Dienst tut und wenn dann nichts absolut unverhersehbares passiert ein echter Mac ins Haus kommt.

    GA-Z97X-UD7 TH / 4790K / Radeon VII / LG 34UM95-P
    GA-Z97N-WiFi / 4790K / RX580
    HP ProBook 650 G1 / Clover