6800XT: Extrem hoher Idle-Verbrauch durch 144Hz/HDR statt 60Hz/SDR

  • MB: Gigabyte H410M H V2 (rev. 1.0)

    CPU: 10400F

    RAM: 2x 16GB

    GPU: 6800 XT Referenz

    SSD: Micron 2300 512GB

    Display: Gigabyte M34WQ (läuft mit 144Hz unter Windows 10 als auch macOS)


    Ich habe unter Windows im Leerlauf einen Verbrauch von ca. 35W für das gesamte System, unter macOS 12.6.5 ist der Verbrauch mit 120W mehr also dreimal so hoch, was ich auf die GPU zurückführe - diese wird im Leerlauf laut RadeonGadget auch deutlich wärmer (bis 69°C, dann setzen die Lüfter ein) als unter Windows (38°C).


    Resizable Bar habe ich testweise deaktiviert (keine Änderung), Native ASPM ebenfalls testweise aktiviert (keine Änderung).


    Hat jemand einen entscheidenden Hinweis, wie man diesen absolut unnötigen Stromverbrauch in den Griff bekommt?

  • hallo 14minus9 ,

    nicht ganz unwichtig hierbei ist es zu wissen, ob du dein windows via oc bootpicker oder nativ, also "f12=bootmenüauswahl von gigabyte?" , startest. evtl. auch mal "eist" im bios aktivieren, das ist zwar imho nur für das speedstepping der cpu zuständig, -ist vielleicht noch an anderer stelle eine schraube


    lg :)

  • Außer den verschiedenen BIOS-Einstellungen gibt es ja noch eine komplett andere Variante: Wie wär's mit macOS Ventura? Zumindest eine Testplatte. Auch wenn die XT6800er ja schon mit BigSur laufen konnten.


    :hackintosh:

  • Da scheint definitiv was nicht zu stimmen. Ich habe selbst auch eine 6800 XT Referenz Karte und bei mir sind es gerade 38 Watt.



    nutzt du irgendwelche zusätzlichen Kexte für die Karte?

  • Arstidir Ich nutze den XHCI-AMD6900XT.kext, um den USB-C-Port der Karte nutzen zu können. Der erhöhte Stromverbrauch war aber auch vor dem Kext schon so.


    Wohlgemerkt braucht das gesamte System unter Windows 10 22H2 inkl. GPU(!) nur 35W im Idle statt wie bei dir 38W nur für die GPU unter macOS.

    Dateien

    • config.plist

      (38,8 kB, 49 Mal heruntergeladen, zuletzt: )
  • Das variiert aber auch. Gerade sind es zB. 20 Watt GPU Verbrauch.


    Vielleicht wäre ein Test mit einen frischen OS wirklich ganz gut, so wie MacGrummel vorgeschlagen hat.

  • Ich hatte 12.6.5 jungfräulich aufgesetzt als ich die EFI mit OC konfiguriert habe, von daher weiß ich nicht ob das wirklich was bringen kann.


    Habe mal die config.plist und den OC Ordner im letzten Post mit angehängt.


    So, unter Ventura (13.3.1) ist der Verbrauch nun um ca. 30W geringer - aber auch nur, weil die Bildwiederholrate auf 60Hz eingestellt war.

  • Du verwendest einen F-Prozessor, also ohne iGPU. Warum nimmst Du dann nicht ein iMacPro-SmBIOS? Das könnte Deine Probleme lösen, denn der iMac ohne Pro erwartet eine Grafikeinheit auf der CPU.

    Wenn Du Dich so schon in den Apple-Systemen iMessage oder iTunes angemeldet hast, ändere nur die Rechner-Bezeichnung von iMac20,1 zu iMacPro1,1 unter PlatformInfo/Generic/SystemProductName und behalte den Rest Deiner Daten bei.

    Übrigens wäre es hilfreich, Deine(n) Rechner in die Signatur zu schreiben, das spart das Blättern zum Anfang der Threads..


    :hackintosh:

  • MacGrummel Habe das SMBIOS mal auf iMacPro1,1 geändert, das hat am Verbrauch nichts geändert, evtl. war die GPU 1-2°C kühler.


    Das Rätsel ist nun gelöst, es lag an der Bildwiederholrate bzw. auch am HDR-Modus, der automatisch aktiviert wurde.


    Jeweils getestet unter 12.6.5 und 13.3.1:


    Steht die Bildwiederholrate auf 60Hz, braucht das System alleine nur 35-40W (inkl. 2x SATA SSDs, 1x NVMe SSD, PCIe-Switch x1 auf 2x x1, Fenvi T919 WLAN-Karte + 4 Port PCIe Firewire-Karte),


    inkl. Monitor im Idle dann ca. 75-80W,


    bei festen 144Hz oder VRR (48-144Hz) inkl. Monitor schon happige 140W,


    und bei zusätzlich aktiviertem HDR inkl. Monitor 150-170W!


    Was kann Windows so viel besser, dass es auch bei aktivierter hoher Bildwiederholrate so sparsam ist wie bei einer niedrigen? Kann man das in macOS ggf. ebenfalls erreichen? Nicht, dass ich unter macOS zwingend 144Hz bräuchte (und erst recht nicht zum Preis des verdoppelten Stromverbrauchs), aber nervig ist es irgendwie schon.

  • 14minus9

    Hat den Titel des Themas von „6800XT: Extrem hoher Leerlauf-Stromverbrauch - 120W (12.6.5) vs 35W unter W10 22H2“ zu „6800XT: Extrem hoher Idle-Verbrauch durch 144Hz/HDR statt 60Hz/SDR“ geändert.
  • Bei mir verbraucht der Rechner in macOS, an der Steckdose gemessen, mit 60hz Monitor auch um die 85W.

    In Win geht das ganze runter auf 53W. iGPU only = 30W.

    Meine Vermutung/Schlussfolgerung ist, dass in macOS über den PCI slot mehr Strom gezogen wird.

    Das mit der höheren Hertzzahl war ja auch Thema bei den neuen RX 7000er Karten. Je höher die ist, desto mehr Verbrauch. Das lässt sich wohl auch auf die 6000er übertragen. Bei den Neueren darf man aber nicht vergessen, dass dort mittlerweile die total card power (also inkl. PCI slot) angeben wird und nicht nur der Chip verbrauch.

    Bei den Temperaturen in macOS muss man noch beachten, dass dort die Junction Temp ausgelesen wird. Vondaher ist die Temperaturangabe immer etwas höher in macOS.

    Ich find das auch Schade so und falls es dafür eine Lösung gibt, wäre ich an der auch interessiert.

  • Meine Vermutung/Schlussfolgerung ist, dass in macOS über den PCI slot mehr Strom gezogen wird.

    Das ergibt keinen Sinn. Es wird nicht einfach "mehr Strom gezogen" sondern die GPU fordert für irgendwas mehr Leistung an, ob das über den Slot oder die 12V-Stecker passiert ist für den Gesamtverbrauch völlig irrelevant.


    Bei den Temperaturen in macOS muss man noch beachten, dass dort die Junction Temp ausgelesen wird.

    Die ist bei mir unter Windows im Idle maximal 1-2°C höher als die des anderen Sensors (aktuell 38/36°C unter Windows), während die Junction Temp unter OSX bei mir nie 51-52°C unterschreitet.

  • 14minus9


    hast du unter Device Properties einen PowerPlayTable Key eingetragen? Ich habe das vor einer Woche genacht…


    Ich habe den Key eingetragen und seitdem ist der Zero-RPM Modus deaktiviert, was bewirkt, dass die Karte im Idle so 45 Grad hat.

    Und seit dem taucht die RX 6900 XT auch wunderbar im Systembericht auf und nicht als GFX0 Developer Device.

  • hast du unter Device Properties einen PowerPlayTable Key eingetragen?

    Nein.

    seitdem ist der Zero-RPM Modus deaktiviert

    Bei mir wird die 6800 XT problemlos erkannt und für 5-7°C weniger werde ich nicht unnötig die Lüfter laufen lassen. Keine Ahnung was das überhaupt insgesamt bringen soll, erscheint mir als ziemlich sinnfreie Übung.

  • Wenn die 6800 XT problemlos erkannt wird, dann würde ich auch darauf verzichten. Das mit den Zero-RPM war bei mir, der Nebeneffekt.


    Ich hatte es echt lange probiert, nach Versuch 5 klappte es dann, deswegen nur teilweise zu empfehlen 🥴

  • Bis auf den völlig überhöhten Idle-Stromverbrauch bei 144Hz/HDR vs. Win10 läuft die Kiste absolut traumhaft.

  • Stromverbrauch war bei mir immer top bisher, auch an meinem LG 4k 120Hz OLED. Hast du ein Referenzdesign oder Customdesign?