AMD vs. Nvidia Mojave (Hackmac) Panikmache ? oder weiß jemand mehr ?

  • Ich habe damals diesen Horrortrip verfolgt, bis Nvidia erst in der Lage war einen WebDriver für die Pascal-Unterstützung anzubieten...
    Das wollte ich dann irgendwann mal nicht mehr mitmachen.

    Gruß
    Al6042

    Keine Unterstützung per PN oder Pinnwand... Eure Anfragen gehören ins Forum, nicht in mein Postfach!

  • die frage hab ich mir schon vor mehr als einem jahr, noch vor dem launch der vega karten gestellt - gerade wegen dem pascal webdriver fail das @al6042 gerade ansprach..


    für mich war ausschlaggebend so nah wie möglich an einer apple konfiguration zu sein wie nur möglich, einfach um gleichzeitig die fehlerquellen zu minimieren.
    gleichzeitig wollte ich ne gpu mit der ich unter windows auch zocken kann.


    die vorteile:
    ich brauch nicht auf nvidia und deren webdriver warten, die performance ist gerade in apple apps umwerfend und unter windows zockt es sich auf gtx 1080 niveau.. inklusive freesync! außerdem wirkt es schon fasst wohltuend einmal wieder den underdog zu unterstützen im kampf gegen das nvidia monopol :D


    nachteile:
    soo OOB wie alle dachten war die vega dann auch nicht, man liest noch immer von lüfterproblemen die man mittlerweile aber patchen kann.. aber es erfordert eben eingriffe. meine vega ist zwar wassergekühlt, daher war mir der lüfter egal, aber ich hatte massives GPU-Tach flickern und dazu passendes coilwhine rattern.


    vor kurzen hatte ich bock und hab den für mich doch unnötigen lüfterpatch versucht - einfach so. siehe da, rattern weg.


    alles in allem bin ich froh die vega genommen zu haben, AMD karten sind mittlerweile sehr
    einfach handzuhaben. aber auch nicht perfet. ich fühle mich aber mit ner offiziel supporteten karte einfach langfristig sicherer, den gedanken werden nun wohl mehrere haben.

  • Nun da gibts mehere Gründe - einerseits einfacher bzw. völlig problemlose Systemupdates ( Nvidia Web Treiber dauern oft paar Tage ) dann noch bessere Performanve bei ganz wenigen Apple Apps - wie Final Cut.
    Ansonsten haben die AMDs eigentlich nur Nachteile - eindeutig mehr Watt/Speed und auch teuerer/Speed.
    Schlicht Schade, dass Aplle sicjh nicht mehr um NV schert und Nvidia für OS X Support natürlich nicht jährlich hundertausende US$ ausgibt ohne dass Apple auch nur einen NV CHip kauft. Von den paar Hackintosh Leuten können die den OS X Support kaum finanzieren.

  • Nun einige Zeit wird Nvidia das mit OS X schon noch mitmachen. EGPU sorgt evtl. für paar mehr reale Mac OS X Kunden welche NV kaufen.
    Bei Win+OS X würde ich nicht unbedingt auf AMD gehen!!! EInzig wenn Final Cut wichtig ist, das läuft mit AMDs einfach besser. Sonstige Apps werden auch auf modernen Pascal Nvidias mind. so gut laufen wie die AMDs. Die 1060er ist auf jeden Fall besser als die AMD 580 im Dual Boot Einsatz (Win+OS X).

  • Ist halt in erster Linie eine Frage was man erreichen möchte. Für eine Dualboot Windows Daddelbude mit macOS als weiteres System ist eine NVIDIA sicher die bessere Wahl einfach weil Nvidia sich auf die Gamer unter Windows spezialisiert hat und hier deutlich mehr Leistung pro Watt zu bieten hat (was letztlich aber eher den Treibern und der breiteren Kooperation mit dem Studios zu verdanken ist als der besseren oder überlegeneren Architektur). Liegt der Fokus aber auf macOS und Windows läuft eher nebenher dann schlägt das Pendel doch recht deutlich Richtung AMD aus schon allein weil mit einer AMD Karte diverse Abhängigkeiten bzgl. der Treiber wegfallen.


    Mir ist natürlich bewusst das jetzt gleich wieder die Benchmark/Leistungskeule geschwungen wird und ja es stimmt in den gängigen Benchmarks schneiden selbst unter macOS die NVIDIA Karten mitunter besser ab als die AMD Karten aber das ist ein trügerisches Bild das in keiner Weise die wirkliche Leistungsfähigkeit im Realbetrieb spiegelt. Gängige Benchmarks (CineBench, Valley, Heaven, Luxmark) messen die OpenGL/CL Leistung unter macOS soweit so gut so, zumindest seit Sierra, nicht mehr zeitgemäß denn Apple setzt nicht mehr auf OpenCL/GL sondern auf Metal und hier beißt sich der Hund in den Schwanz. Die AMD Treiber in macOS sind für macOS optimiert und damit eben auch für die Metal API und eben nicht mehr auf OpenCL/GL spätestens mit Mojave schneidet Apple den OpenGL/CL Zopf endgültig ab und verwendet für den Windowserver selbst eben auch nur noch Metal (in Mojave inzwischen in der 4. Inkarnation). Natürlich gibt es aus Gründen der Kompatibilität eben auch weiter Support für OpenCL/GL allerdings in einer hoffnungslos veralteten Version (OpenCL 1.2, aktuell ist OpenCL 2.2) ähnlich sieht es mit OpenGL aus. Nvidia liefert die Treiber selbst sprich hier besteht Potential entsprechend der eingesetzten Versionen zu optimieren um bessere Ergebnisse zu erzielen aussagekräftig ist das freilich nicht.


    Will man fair vergleichen muss also ein Metal Benchmark her wobei sich zum Beispiel GFXBenchMetal anbietet und hierbei die OffScreen Tests denn diese benchen wirklich die schiere Rechenleistung der Karten unabhängig vom angeschlossen Screen, Auflösung oder Sync Barrieren erst dann ist Leistung unter macOS wirklich vergleichbar. Was abseits von Benchmarks die wirkliche Leistung im täglichen Betrieb angeht kommt das freilich auf die eingesetzte Software an denn die Mär das Adobe besser mit NVIDIA und die Apple Pro Apps besser mit AMD spielen stimmt auch schon lange nicht mehr. Zwar spielt Adobe theoretisch mit CUDA auf Nvidia Karten besser als auf AMD Karten aber auch das stimmt nur bedingt denn dazu muss die Cuda Treiber Version zum einen zum Adobe Produkt passen zum anderen aber auch zum eingesetzten Webtreiber und damit hätten wir schon wieder das alte Dilemma der neue Webtreiber passt nicht zum Cuda Treiber den Adobe aber gerne hätte und schon hat man goar nüscht gewonnen...

  • Und damit wir gleich mal mit dem vergleichen anfangen können hier mal die Ergebnisse meiner R9-290X unter macOS Mojave in GFXBenchMetal wobei ich nur die OffScreen Tests verwendet habe um die Vergleichbarkeit sicher zu stellen. Ausgewählt habe ich laut Screenshot:



    Interessant zu sehen wäre nun wie sich das ganze mit NVIDIA Karten einer vergleichbaren Version verhält und natürlich auch wie sich AMD Karten vergleichbarer Generation schlagen ebenfalls interessant dürfte sein zu sehen wie sich die neueren Modelle schlagen (RX, Vega56, Vega64 und natürlich auch die Flaggschiffe von NVIDIA). Auch wenn die Offscreen Tests kein EyeCandy bieten (es lohnt sich die onScreens anzusehen) und die Ausgabe eher nach kaputter Grafik aussieht sind die Ergebnisse wohl eher Vergleichbar als bei den "alten" Benchmarks zumindest bezogen auf macOS...


  • Zum Thema CUDA das lässt sich auf meinem System schon seit Monaten nicht nutzen :-/


    Benutze ich GTX 650 Karten da is da keinen Webtreiber brauche und die performance für Skyrim/sc2/cs:go am mac für mich ausreichend ist.
    Nur rendern geht nicht so dolle ...


    ATI hat erheblich Nachteile der einzige Vorteil ist die Treiberunterstützung.
    Gaming technisch ist AMD nicht existent die bieten null support für gaming schmieden.
    Ebenso ist die render Qualität im 1zu1 Vergleich deutlich schlechter als bei nvidia.


    Benchmarks sagen hierzu nichts aus.
    Man kann in einem vw Jetta oder einem benz 200 fahren.
    Es gibt sehr schöne Videos zum Vergleich.
    Ebenso bin ich der Meinung das Intel mit abstand die besten Grafikkarten baut im Verhältnis strom/leistung/qualität.
    Wenn intel den chip auf eine dedizierte Karte packen würde und somit besser kühlen könnten, würden sich AMD und nvidia umschauen ;-)

    Macbook Pro Retina 2015 + 16GB ram 1TBGB ssd AMD Radeon R9 M370X 2048 MB  OSX 10.14.6)
    GA-Z77 DS3H + i7 3770 + 24GB RAM, RX580 8GB,240GB evo960 NMVe, TP-Link T8E (AC Wlan) + Bluetooth usbstick OSX 10.14.6 OC(on stick)


  • Naja Rendering unter macOS ist bis auf wenige Ausnahmen auch keine Schlacht die auf der dedizierten GPU geschlagen wird hier denkt Apple einfach ein ganzes Stück weiter. Je nach Prozessor Generation und/oder eingesetztem Codec übernimmt die iGPU mit ihren Hardware Codecs den Job und das kann jede IntelHD ab HD4000 (H264) deutlich effizienter und schneller erledigen als die überwiegende Zahl der dedizierten GPU´s.


    Intel optimiert seine Grafikkerne auf genau solche Aufgaben indem in Hardware gegossen wird was sonst aufwendig vom Prozessor berechnet werden müsste. Die IntelHD Grafikkerne sind Spezialisten im de- und encodieren diverser gängiger Videostandards versagen dafür aber kläglich wenn es darum geht Dinge zu berechnen die von diesen Pfaden abweichen zum Beispiel wenn es im Videoschnitt darum geht Effekte zu berechnen. Apple kombiniert per Default beides sprich die Berechnung der Effekte, das schneiden, editieren und berechnen in Echtzeit übernimmt zum Beispiel in FinalCut die dedizierte GPU das rendern des fertigen Projekts übernimmt je nach Ausgabeformat dann die IntelHD die mittels Intel QuickSync punkten kann. Es gibt freilich auch dedizierte Karten die Hardware de- und encoding bieten allerdings sind das grundsätzlich nicht die "Brot und Butter" Karten und leider zumeist auch nicht die üblicherweise sehr teuren Highend Gamer Karten sondern gerade bei NVIDIA sind es die noch teureren Quadro Karten welche diese Features mitbringen und welche im übrigen originär auch durch die Webtreiber primär adressiert werden.


    Die IntelHD Grafikkerne sind, abgesehen von den de- und encodern, eigentlich maximal für ein Office Nutzerprofil brauchbar alles andere überfordert die IntelHD Kerne hoffnungslos. Intel hat nicht umsonst in den mehr als sauren Apfel gebissen und mit der Kaby Lake G Serie Chips auf dem Markt gebracht die neben intelHD Graphics (üblicherweise HD630) auch noch eine AMD RX Vega mitbringen um die Schwächen der IntelHD zu kompensieren. Man darf gespannt sein wie sich das zukünftig entwickelt denn immerhin hat Intel den Designer der RX und Vega Architektur von AMD abgeworben...