Amd RX 580

  • ... bei mir leider nicht :thumbdown:


    Und wo hast Du die Kexte installiert ?
    In:
    - EFI/CLOVER/kexts/10.12
    - EFI/CLOVER/kexts/Other
    - /L/E
    oder
    - /S/L/E


    Ich habe mittlerweile schon alle Varianten ausprobiert und konnte feststellen, daß das Prob entsteht erst nach dem sleep/wake X(


    Auch der Sound verschwindet aus dem hinteren Ausgang, ist aber weiterhin an dem Kopfhörer vorderen Ausgang vorhanden.


    Hätte da evtl. jemand eine Idee, woran es liegen könnte ?
    Sind die Lilu+Green kexts für mein Z170N-WiFi+RX580 doch nicht optimal ?

     iPhone 4_4s_5_6s_X_PowerMac7,2 G5 (Mid 2003)_iMac10,1 (27" Late 2009) out of order_MacPro5,1 (Mid 2012)


  • S/L/E


    meine derzeitige Installation ist leider ne Multibeast-Kiste *wegduck* aber es läuft alles sauber und stabil, auch Wake und sleep, was brauch ich mehr :-)

  • ... ja, ok. Dann reden wir über zwei etwas anderen Verfahren.


    Bin seit dem MacPro3,1 ein überzeugter Vanilla-Installation Fan :thumbup:
    und hatte bis dato mit solchen Sachen wie iCloud, iMessage, FaceTime, WLAN/BT & Co. nie Probleme.


    Die gleiche Kiste aber mit EVGA Nvidia GTX980 und Webdriver hat dieses Prob nicht, nur mit der neuen RX580 und Lilu+Green ?(


    Mit:
    1. Inject ATI
    2. FB Dayman
    3. Fake-ID: 67DF1002
    4. FixDisplay
    und somit mit den originalen macOS Kexten gibt es das Prob nicht, aber ich habe nicht unbedingt die Lust immer die iGPU als main Graka zu benutzen und auf das Apple Logo zu verzichten ;)

     iPhone 4_4s_5_6s_X_PowerMac7,2 G5 (Mid 2003)_iMac10,1 (27" Late 2009) out of order_MacPro5,1 (Mid 2012)


  • Hallo,


    meine neue Asus Dual RX 580 läuft super nur mit der Einstellung RadeonDeInit "Yes". Das Einzige ist der Stromverbrauch.
    Die RX 580 verbraucht im Idle ca. 30 Watt (!) mehr als eine NVIDIA 1060, die ich testweise eingesetzt hatte. Das sollten maximal 10 Watt mehr sein.


    Kann man den Stromverbrauch optimieren, z.B. durch eine SSDT? Mit Pike R. Alpha's Skript habe ich eine neue SSDT erstellt, das beeinflusst vermutlich nur Prozessor und Speicher.


    Die Karte wird als AMD R9 xxx erkannt, vielleicht liegt es daran.


    Eine funktionierende SSDT für die RX 580 habe ich noch nicht gefunden. Würde das zusammen mit dem RadeonDeInit oder Whatevergreen oder nur mit dem SSDT funktionieren, braucht man dann noch Patches usw.?


    Das ist ja alles sehr frisch und alles in Veränderung momentan, mit OS X 13.2 kann sich alles wieder ändern. Vielleicht hat ja jemand aktuell eine Idee.

  • Alles in allem macht RadeonDeInit und die SSDT Variante von Mieze exakt das gleiche sprich sie deinitialisieren die Karte damit macOS den Treiber korrekt laden kann. Im Kern macht auch WhatEverGreen nicht so viel mehr der einzige Unterschied zu den anderen beiden Lösungen ist das WhatEverGreen passend zur Device und Vendor ID noch die passenden Properties zur Karte injected (aus dem R9 XXX wird dann die korrekte Bezeichnung) und bei Karten bei denen nachweislich die die DeviceID noch in den jeweils zuständigen Kexte eingebracht werden muss passiert auch das. Mit dem PowerManagement der Karte hat das aber wenig bis nix zu tun :D


    Das PowerManagement für die GPU regelt der jeweilige Treiber (hier werden die PowerManagement Fähigkeiten definiert) und die AppleGraphicsPowerManagement.kext ob und in wie weit man hier noch optimierend eingreifen kann weiß ich allerdings nicht.

  • Hm - AppleGraphicsPowerManagement.kext ist aktiv.


    Ich habe noch etwas weiter geforscht: Wenn man nur einen Monitor im DVI stecken hat, braucht das System ca. 90 Watt, also die RX 580 alleine ca. 10 Watt, super. Mit einer zweiten Karte in einem der Display-Ports geht der Verbrauch auf 114 Watt. Leider hat mein NEC keinen HDMI Anschluss, so dass ich nicht testen kann ob das ein Display-Port Problem ist. Ca. 25 Watt Mehrverbrauch der Karte für einen zweiten Monitor ist jedenfalls viel.


    RadeonDeInit oder Whatevergreen nehmen sich nichts im Verbrauch - habe ich getestet. Ein spezielles SSDT für die 580 als dritte Variante habe ich noch nicht mit zwei Monitoren ans Laufen gebracht.


    Könnte irgendwas eine Anpassung vom Framebuffer irgendwas ändern? Hab ich mich noch nicht mit beschäftigt, soll ja eigentlich automatisch richtig zugeordnet werden mit RadeonDeInit.

  • "AppleGraphicsPowerManagement.kext ist aktiv." - zuständig für die iGPU und GFX.
    Yep, aber das bedeutet erstmal gar nix wenn die bei kextstat als geladen und im IOREG bei GFX auftaucht.
    Man kann einen key LogControl einfügen und auf 1 setzen. (Dieser Key kommt bei einigen MacModellen schon vor, aber immer auf 0 gesetzt - sprich aus)
    Was macht der wenn = 1?
    Dann sieht man in der Konsole Ausgaben mit AGPM .... wenn sich der Powerstate ändert (bzw. durch AGPM geändert wird). Also hoch und runter geschaltet wird (State 0 = schnellster, State x langsamster.


    Bei meiner vorigen Nvidia konnte man das dann gut sehen - natürlich für Dauerbetrieb wieder auf 0, aus setzen, da der Log etwas Performnce kostet.


    Bei meiner RX 460 kommen aber trotz LogControl = 1 keinerlei AGPM log in der Konsole, sprich der ist zwar geladen wird aber nie aktiv bzw. macht gaaar nix. Aber wohl damit auch nix falsch - Man muss das positiv sehen! :)


    Screenshoot wo dieser LogControl hin muss:




    Das zweite Bild zeigt AGPM mit LogControl = 1 auf meiner vorigen Nvidia - damit ihr seht wie das in der Konsole dann aussieht.

  • Mit Higher Sierra konnte ich beim ersten mal booten nach der Installation gar nichts sehen, Bildschirm schwarz, dann noch mal gestartet mit bootargs: -v -x nv_disable=1 danach direkt die KEXTE rein und "feddisch"




    mit lilu und whatevergreen sieht es so aus:

  • "AppleGraphicsPowerManagement.kext ist aktiv." - zuständig für die iGPU und GFX.
    Yep, aber das bedeutet erstmal gar nix wenn die bei kextstat als geladen und im IOREG bei GFX auftaucht.
    Man kann einen key LogControl einfügen und auf 1 setzen. (Dieser Key kommt bei einigen MacModellen schon vor, aber immer auf 0 gesetzt - sprich aus)


    Hi mitchde,


    wow - das ist interessant. Ich habe bei meiner Hardware Mac-F60DEB81FF30ACF6 die LogControl eingesetzt, auch nichts in der Konsole - wenn ich nichts falsch gemacht habe.


    Im IORGEG sieht AGPM so aus, unter Framebuffer eingerückt:



    Dort steht im Framebuffer-Eintrag: Display:NONE. Kann das Problem irgendwas mit dem Frambuffer zu tun haben, muss das eine andere Definition sein? Ich habe keine Ahnung von der Materie, aber vielleicht fällt ja einem Spezialisten ein wie man das Powermanagement für AMD Karten ans Laufen bringt. Sollte doch möglich sein, oder?

  • Also bei mir steht das Display Type : LCD , was auch stimmt. LCD Moni am DVI Ausgang.
    Mag sein dass das je nach Anschluss (HDMI, DPI,..) anders ist bzw. der angeschlossene Moni Type nicht erkannt wird.
    Aber egal, Hautsache geht, oder?


    Bei deinem SMBIOS typ siehts ja so aus:
    AGPM wird GFX1 bei nur nutzen (da in der DSDT GFX1 vorhanden ist. Bei mir ists GFX0 (weil so in der DSDT).
    LogControl Zahl 1 ist auf der gleichen Ebene wie GFX1 / GFX2 hinzuzufügen, also nicht eingerückt unter GFX1/2 :)
    Doch, wei gesagt bei mir scheint AGPM zwar wie bei dir geladen zu werden aber nix in der Console sichtbar.
    Was sein kann ist, dass AGPM bei den neuen AMDs etwas anders geht und die Arbeit dazu mehr im AMD Treiber stattfindet und AGPM nur zum einstellen der Werte dient = somit auch kein Log in der Console.


    Nur eins ist sicher:
    Der benutze SMBIOS Mac muss für AMD GPU schon passenden GFX0 (oder 1) drin haben sonst wirds nix. Nur IGPU oder nur Nvidia GPU wird den AMD AGPM nicht machen.
    Insofern wird man, falls man ein Mac Modell ohne AMD (das sind die die GFX0/1 haben und dann mit AGDCEnabled beginnen.
    Hat man so einen GFX0 / 1 AMD AGPM Eintrag (in der .plist seines Mac Modells) so wäre noch anzumerken,
    dass natürlich der Wert GFX0 (GFX1) dort auch in der IOREG vorhanden sein muss. AGPM nimmt immer das passende zur IOREG - findet es zum kein GFX1 (weil in der IOREG GFX0 ist) wird AGPM nicht arbeiten können.


    Anders rum gehts natürlich. Es ist viel einfacher diesen Wert in der config.plist an seine IOREG anzupassen als umgekehrt. Hat man IOREG GFX0 und in der AGPM steht GFX1 , ändert man einfach die AGPM GFX1 in GFX0 um.
    Man kann AGPM auch deaktivieren, wenn man statt GFX0 (wie IOREG) GFXX nimmt. Dann "übersieht" AGPM die GFX0 GPU.


    PS: Dein (F60... und mein (FC...) Mac Modell mal ausgeklappt. Man sieht wo die LogControl hin kommt. Und es gibt, wie schon bei Nvidias unterschiedliche control-ids . Die bestimmen auch mit ob AGPM läuft. Sehe gerade es gibt 16 und 17.
    Zu Nivida Zeiten musste man diese ID teilweise auch mal ändern damit AGPM rennt.

  • Ich war zu blöd: Bei mir steht auch LCD, taucht ohne AGPM Filter in der IOREG dann auf.


    Es gibt 5 ATY, AMD. Radeon... Einträge in der IOREG. Die ersten beiden sind für DP, dann 2 für HDMI, dann 1x DVI. Merkwürdigerweise taucht der AGPM Eintrag nur beim ersten DP-Eintrag auf, für alle andernen Einträge nicht. Kannst Du Dir das erklären?



    Ich habe mal beide Monitore auf DP gesteckt, so dass einer der LCD auf dem ersten DP-Eintrag auftaucht. Ändert nichts, weiterhin hat nur der erste Port in der IOREG einen AGPM Eintrag, nichts in der Konsole, keine Änderung beim Stromverbrauch.



    Insofern wird man, falls man ein Mac Modell ohne AMD (das sind die die GFX0/1 haben und dann mit AGDCEnabled beginnen.


    Was meinst Du mit "mit AGDCEnabled beginnen"? Kann man das irgendwo einstellen?
    "in der .plist seines Mac Modells" Wo ist das denn zu finden?

  • Nun ich denke der AGPM taucht in der IOREG nur einmal auf, auch wenn man mehrere Monis (an weiter Framebuffer ) angeschlossen hat. Macht auch Sinn, da das Powermanagement ja für die eine GPU gemacht wird und nicht für die Monis :)


    Mit AGDCEnabled beginnen, meint was das Bild rechts bei meinem Post vorher zeigt. Nach GFX. kommt als erstes AGDCEnabled in der .plist . Bei GFX Einträgen für Nvidia GPUs oder ältere AMDs ist das anders, da kommen völlig andere Einträge.
    Damit beschreibe ich die Sache, dass je nach verwendetem Mac Modell in der SMBIOS zwar die CPU gut passt aber nicht unbedingt die GPU (und iGPU) welche vom AGPM bedient wird. Somit kann man, muss man aber nicht :) - weil es unklar ist ob AGPM überhaupt aktiv arbeitet.
    Früher was das so und ich vermute das gilt auch heute noch, dasss die GPUs zB. keinesfalls Amok laufen wenn AGPM nicht funktioniert. Das regelt die GPU dann allein in deren BIOS je nach Last.


    Bei meiner GPU merke ich keinen Unterschied ob ich AGPM "aktiv" habe, sprich passende GFX0 plus passende Werze für neuere AMDs habe oder AGPM deaktiviere indem ich in AGPM GFX0 in GFXX umbenenne und somit keine AGPM Werte eingestellt werden (wie immer auch AGPM mit den Treibern zusammen arbeitet).


    Solange man das im laufenden Betrieb nicht per RadeonMonitor.kext auch nachsehen kann ist leider alles akademisch :) Slice (insanely mac) arbeitet wohl an einem neueren RadeonMonitor.kext für neuere AMDs. Aktuelle machen wohl KP oder andere massive Probleme.

  • AGP enabled steht bei Mac-F60DEB81FF30ACF6 auch sowohl in GFX1 als auch GFX2. Das mit dem Framebuffer hab ich immer noch nicht kapiert, ob der in dem Zusammmenhang nicht eine Rolle spielen kann.


    Ansonsten habe ich gerade gelesen, dass der neue iMac wohl eine 580ger Karte haben soll. Keine Ahnung, ob das die Situation verbessert, ist aber bestimmt nicht ungünstig bei den nächsten System Updates.

  • Da sind wir aber wieder bei den üblichen Apple-Spielchen: spezielle Ausgänge, incl. fest eingebautem Display sorgen halt dann doch dafür, das die entsprechende Karte bei und NICHT ooB läuft. Kleiner Lichtblick am Rande: auch in Apples Developer-Box für Metal & 3D unter High Sierra steckt eine (Sapphire) AMD RX 580 in einer kleinen Sonnet-Thunderbolt-Box. Da liegen zwar auch Extra-Treiber für Sierra bei, aber unter High Sierra läuft die Kiste als Anhang an ein MacBook Pro von Anfang an.
    Der aktuelle iMac hat die RX 580 als Option, bei so etwas ist die kostenlose App MacTracker immer eine ganz gute Quelle:




    :hackintosh:

  • Einfach nach der Basis Installation auf 10.13 vor dem ersten LogInScren direkt mal bootargs: -v -x nv_disable=1 booten, danach username und Passwort und co. setzen, direkt danach kextutility mit whatevergreen und lila befüttern und nachm Neustart läuft alles super, oder?

  • Mich stören halt noch die 35 Watt Stromverbrauch der Karte in Idle mit zwei Monitoren. Lt. Spezifikationen sollten das z.B. unter Windows 12 Watt sein. Eine NVIDIA 1060 verbraucht jedenfalls 25 Watt weniger in meinem System. Ansonsten läuft die RX 580 gut.

  • ahh, alles klar :-) bei mir fährt er eh nach 15 Minuten in den Standby, naja Mac OS verbraucht da eh etwas mehr.

  • Idle ist im Prinzip sofort, wenn man die Maus nicht bewegt oder gerade nichts gerechnet wird - also ständig.


    Ich habe momentan einen Strommesser am Computer. Bei Inaktivität rauscht der Verbrauch bei mir in ein paar Sekunden auf ca. 112 Watt runter - beim 3D Rendern können das schon mal 350 Watt sein - Speedsteps funktionieren also super. Bei der NVIDIA 1060 ging der Verbrauch da aber auf 88 Watt. Eigentlich soll die RX 580 nur 4 Watt mehr verbrauchen in Idle. Ob Apple so schlecht optimiert?

  • Mich stören halt noch die 35 Watt Stromverbrauch der Karte in Idle mit zwei Monitoren. Lt. Spezifikationen sollten das z.B. unter Windows 12 Watt sein. Eine NVIDIA 1060 verbraucht jedenfalls 25 Watt weniger in meinem System. Ansonsten läuft die RX 580 gut.


    Glaube bei den GPU Tests der zeitschrift CT waren das bei den Highend AMDs auch unter Windows deutlich mehr als 12 Watt bei 2 Moni+!!! Insofern ists halt so dass AMD, egal ob Win oder OS X, sowohl im Idle als auch Load Mode mehr bzw.- deutlich mehr Watt zieht als die Pascal GPUs. Bei der VEGA hatte man sich ja dahingegend Besserung erhofft aber ... glaube die müssen erst den Chip in nächster Generation etwas schrumpfen (weniger nm) .

  • Merkwürdigerweise braucht die Karte mit einem Monitor nur um die 10 Watt - egal ob DVI, DP oder HDMI. Mit zwei Monitoren braucht sie ca 34 Watt, egal in welcher Kombination der Ausgänge, hab alles getestet.


    Dazu kommt, dass sogar "tote" angeschlossene Kabel diesen höheren Stromverbrauch verursachen. Mit nur einem Monitor sowohl in DVI als auch in DP oder HDMI gesteckt geht der Stromverbrauch auch auf 34 Watt - der Monitor kann aber natürlich nur einen Eingang anzeigen. Die Grafikkarte hat also an dem zweiten Kabel nichts zu tun und braucht trotzdem mehr als 3x soviel Strom wie nur mit einem Kabel.


    Mich würde interessieren ob jemand anderes ähnliches bei seiner RX 580 beobachten kann.