Beiträge von macinsane

    Leider geht auch bei AMD nicht alles einfach so. Die Intel zu aktivieren ist der richtige Weg um Encoding zu bekommen. Zusätzlich würde ich Whatevergreen rausnehmen und stattdessen entweder ATI inject in Clover aktivieren oder besser noch den AppleGraphicsDevicePolicy patch von piker nehmen (KextstoPatch mit Clover Configurator)

    Code
    1. Name
    2. AppleGraphicsDevicePolicy
    3. Find
    4. 626F6172 642D6964
    5. Replace
    6. 626F6172 642D6978

    Kann man als weitere Alternative auch in der DSDT lösen (kann ich auf Nachfrage erklären).

    Damit sollten erst einmal alle Display-Ausgänge aktiviert werden.

    Liebe Leute,

    versuche verzweifelt bei meinem HTPC Powermanagement unter Mojave hinzukriegen und suche nach Hilfe.

    Unter High Sierra läuft es wunderbar, da reicht die IvyBridge-FakeCPUID und es rennt. Unter Mojave gibt es leider ne Kernelpanic ohne NullCPU und das bedeutet fortwährend 3,6GHz. Mojave bootet nur mit der uralten Linnfield-FakeID durch, dann läuft er aber nur mit dem niedrigsten P-State von 800MHz. Hatte auch schon mal ne SSDT gebaut, aber die ändert leider nichts. Hat jemand ne Idee? Vielen Dank für eure Hilfe!

    Ich möcht mein System möglichst ohne Patches halten und hab extra die AMD gewählt um nicht mehr die Web Driver der GTX 1050 zu benutzen.


    Welche Patches meinst du?

    In der config.plist könntest du unter "Kernel and Kext Patches" folgendes etwa mit Hilfe des Configurators eintragen:


    Name


    AppleGraphicsDevicePolicy


    Find HEX


    626F6172 642D6964


    Replace


    626F6172 642D6978


    Der Patch stammt von pikeralpha. Habe auch mal ne SSDT angehängt, die ähnliches bewirken sollte.


    Deine Abneigung gegen Patches in allen Ehren, aber ohne Patches geht es nicht :) Auch eine Kext ist letztlich eine Box voll mit Patches, wie etwa Whatevergreen oder FakeSMC. Und Clover und Ozmosis patchen auch ne Menge, ohne dass du das merkst! ;) AMD geht auch nicht einfach so OOB. Apple hat halt dafür eigene Treiber im System und für die neuesten nVidia Karten eben nicht. Wahr ist, dass wir inzwischen fast immer ein Bild kriegen, wenn wir eine AMD-Karte ins Board stecken, was aber nicht heißt, dass alles so läuft, wie es sollte.

    macinsane Das ist nicht ganz richtig. Wenn man beispielsweise im iMacPro1,1 SMBIOS Quick Sync nutzen will, muss man (zumindest beim 8700K) den Inject deaktivieren und die IG-Platform-ID rausnehmen. Anschließend läuft die IGPU ohne irgendein Zutun connectorless.

    Das bezweifle ich stark, dass es ohne einen Inject einfach so geht ;) Sieht dein Ioreg so bei dir aus, wie beim angehängten Bild? Wenn unter der IGPU irgendwelche Framebuffer auftauchen, ist sie nicht connectorless. Habe übrigens auch eine CoffeeLake-Config... Is aber auch egal, agree to disagree! In der Regel muss ein inject und eine Platform-ID her, damit die Intel connectorless läuft, dieser Ratschlag sollte meiner Meinung nach weiterhin für die meisten gelten.


    Mal wieder zum Thema richtige Konfig:

    Bisher galt ja immer, dass FinalCut Premiere beim Export und Rendern (zumindest am Mac) plattmachen soll. Nun las ich, dass sich mit CC18 da einiges geändert haben soll.

    Deshalb habe ich mal Premiere ausprobiert.


    Wieder der 3:20min Clip ohne Effekte oder Sonstiges drauf.


    Export als H.264 4k.


    Final Cut braucht 3:40min für den Export, Premiere nur 2:15min! Was ist da los?


    Zum Vergleich auch mal die iStat-Ausgabe während des Exports. Man sieht, dass bei FinalCut die CPU und die AMD wenig tut. Premiere nutzt vor allem die AMD und die CPU. Scheint, das FCPX also auf Quicksync setzt, während Premiere das nicht oder zumindest weniger tut.


    Ist Premiere nun für die RX580 die bessere Wahl?

    Jup, weiß ich. Wenn ich sie nicht injecte, habe ich aber einen schönen zweisekündigen rosa Startscreen, deshalb denke ich mir: soll Dnl und andere lieber nen Haken setzen, falls das nicht das einzige ist, was seltsam ist ;)

    Eine kleine andere Frage, ist es normal, dass meine Intel HD 630 nun als "Intel HD Graphics KBL CRB" in VideoProc erkannt wird?

    Nein, das soll nicht sein. Wenn die so angezeigt wird, hast du wahrscheinlich keinen Intel inject in Clover aktiviert.

    macinsane Ich habe deine Aussage schon verstanden, du aber offenbar meine nicht. Was ich sagen wollte: In Verbindung mit Quick Sync bringt eine DGPU keinen Vorteil beim Rendern von HEVC auch wenn sie genutzt wird. Quick Sync bremst das ganze aus - zumindest unter macOS. Ob das unter Windows auch so ist habe ich nicht getestet. Nur ohne Quick Sync bekommst du unter macOS einen ordentlichen Boost bei HEVC sofern du das OS dazu bekommst die DGPU zu nutzen.

    Genau, das ist das Problem bei den RX-Modellen, die AMD-Treiber unterstützen die Beschleunigung nicht, sondern die Apps nutzen Quicksync. Wenn man die IGPU deaktiviert, wird es langsam, weil macOS dann den Softwarerenderer benutzt und nicht den AMD-Renderer. Das ist bei deiner Vega (wenn richtig konfiguriert) anders! Der heilige Gral wäre, wenn wir das auch für die RX-Modelle hinkriegen, damit die 300 Euro nicht für den Ofen sind. Menno... ;)

    H.264 profitiert von der DGPU nicht sonderlich. Nur HEVC wird massiv beschleunigt. Siehe mein Experiment hier: Intel Quick-Sync mit WhateverGreen


    Das dürfte wohl bei so ziemlich allen Konfigurationen ähnlich aussehen, egal ob Vega oder RX5xx. Wer auf HEVC setzt sollte jedenfalls Quick Sync deaktivieren, das bremst die DGPU unnötig aus.

    Nein, ich habe auch keinen Leistungsgewinn bei HEVC. Und bei den RX wird da natürlich Quicksync benutzt, bei deaktivierter IGPU ist die RX580 langsamer als mit und das ist ja GERADE das Problem, das versuche hier die ganze Zeit zu sagen 😂 Nochmal: Toll wäre, wenn die RX580 wie eine Vega angesprochen werden würde und der Hardwareencoder auch bei FinalCut mitlaufen würde. Wie bereits erläutert, hatte ich das geschafft und ich hatte eine Verdoppelung der Leistung ohne IGPU, nur stürzt Mojave da halt ab, weil Apple die Beschleunigung softwareseitig der Vega vorbehält.

    Würde mich auch interessieren und crusadegt Ja, aber die machen nicht so mit, wie sie könnten. IGPU plus Radeon ist deutlich schneller als IGPU allein, aber RX 580 ist kaum besser als RX 560 und das sollte nicht sein und lässt mich vermuten, dass der AMD Hardware-Encoder nicht benutzt wird.

    Bringt mir meine RX 580 aktuell was im System? Oder ist das Geld was rumliegt? Wenn ich das ja richtig sehe nutzt ja z.B. VideoProc nur meine Intel630 und gar nicht meine RX 580 oder? Zumindest zeigt er mir nur unter Hardware die RX 580 an.


    Sry wenn ich mit den vielen fragen nerve, aber ich möchte lernen und verstehen. Möchte ja nicht noch in 30 Jahren hier im Forum für jede Kleinigkeit um Hilfe bitten :)

    Ehrlich gesagt: nein, bringt nicht so viel :) Also jedenfalls, wenn man Videobearbeitung macht. Apple setzt bei den Polaris GPUs auf Intels Quicksync. Man sieht das sehr schön, wenn bestimmte Effekte oder Videoformate benutzt werden, dass sich die 580 dann zurücklehnt, auch wenn sie messbar mit iStats oder Intel Powergadget mitmacht. Ich hatte nach dem Wechsel von RX560 auf RX580 einen Frame Zugewinn beim Export. Aber Cities Skyline läuft jetzt super mit der vollen OpenGL-Power ;) Wie ich an anderer Stelle schon beschrieben habe, konnte ich mit dem Wechsel auf iMacPro SMBIOS und inject vom Vega-Beschleuniger meine Videoleistung fast verdoppeln. Das ist aber von den Apple-Treibern nicht vorgesehen und ich habe damit ständig Freezes.


    Deshalb bin ich sehr interessiert daran, was macdesignerin und Brumbaer hier versuchen. Vielen Dank dafür! Bei mir passiert jedenfalls derzeit das gleiche wie bei den meisten: Nach Neustart habe ich wieder eine RX. Drüberbügeln von Mojave Release reicht, es braucht die Beta nicht. Beim Starten vom USB-Drive verliert er die Pro übrigens nicht. Das dort installierte macOS behält die Pro. Vielleicht hilft das bei der Fehlersuche. Im Übrigen habe ich nach ersten Tests dadurch leider gar keinen Leistungsgewinn bei FinalCut. Werde es aber auch mal mit Macpro6,1 probieren.


    EDIT: Habe es mit MP6,1 ausprobiert. Keine Verbesserung bei Pro+IGPU in Final Cut, die selben Exportzeiten wie mit iMac18,3 und RX+IGPU. Bei standalone Pro gleiche Exportzeiten für H.264, bei HEVC stürzt macOS ab. Videoproc friert das System bei Pro immer ein, egal ob mit oder ohne Intel. Schade.

    CMMChris Aber das ist doch bei deiner Konfiguration sogar kontraproduktiv, oder? Der Videodecoder der Vega sollte doch die Intel eigentlich abhängen? Wenn ich bei mir die IGPU ganz abschalte und den AMDU7V4 injecte, der für Vega vorgesehen ist, geht die Leistung immens nach oben. Nur schmiert halt Mojave immer wieder aus heiterem Himmel ab, so dass es nicht praxistauglich ist. Auf dem Bild zeigt er übrigens fälschlicherweise an, dass er den Intel-Beschleuniger nutzt.

    Leider kann ich nicht mit einem iMac aufwarten, aber ich habe mal diverse Tests angestellt für einen Vergleich.


    Config:

    Clover ATI-Inject (sowohl Radeon als auch Orinoco-Framebuffer), Intel 3E920003

    sowie Clover leer mit Whatevergreen 1.2.3 (Whatevergreen injected die Intel mit 3E910003, warum auch immer).


    Test:

    Videoproc (.MTS, 3:21 Min, 1080p, 50fps)

    Export als MP4 in HEVC


    FinalCut (BruceX 5k)

    Export Originaldatei H.264 und Apple-Geräte HEVC 8-bit


    FinalCut

    Wird MTS in der Vorschau ruckelfrei abgespielt? Ja/Nein


    Ergebnis:

    Videoproc

    Radeon/Orinoco-Framebuffer 76fps

    Whatevergreen 1.2.3 69 fps

    FinalCut

    kein merklicher Unterschied, H.264 in 15-17s und HEVC in 18-19s (tendenziell Clover mit Radeon-Framebuffer am schnellsten, Whatevergreen bei allen Testdurchläufen am langsamsten)


    FinalCut: MTS in der Vorschau abspielen

    Radeon/Orinococ-Framebuffer ruckelfrei, IGPU taktet hoch

    Mit Whatevergreen starkes Ruckeln, IGPU taktet nur bis 350MHz, kaum 10 fps


    Weitere Ergebnisse, die seltsam erscheinen:

    macOS verwendet bei H.264-Export die IGPU scheinbar nicht, laut Ioregistryexplorer wird der IntelAccelerator nicht aktiviert! In iStats sieht man auch, das 0MHz bei der Intel während des BruceX-Exports angezeigt werden. Und zwar bei allen Testkonfigurationen. Anders beim HEVC-Export, hier taktet die IGPU auf vollen Turbotakt und Ioregistryexplorer zeigt währenddessen, dass der IntelAccelerator läuft. Das mag erklären, warum es kaum einen Unterschied zwischen H.264 und HEVC-Export bei FinalCut gibt.