RX570 mit DVI auf VGA kein Bild (unter Windows ja)

  • Hallo. Ich nutze zurzeit die aktuellste Version 10.14.1. Alle Kexte sind auf dem neuesten Stand. Die RX570 funktioniert sonst perfekt. Der erste Monitor ist per HDMI angeschlossen und den zweiten wollte ich per DVI auf VGA Adapter anschließen da dieser leider nur VGA hat. Ich finde den zu schade fürs rumstehen. Leider sehe ich nur ab und zu mal ein Bild auf dem zweiten und wenn das nur in Rose. Erkannt wird dieser aber leider nicht richtig angesprochen. Habe meine Config nochmal überarbeitet aber leider kein erfolg. Bei Hardware Encoding nur so am Rande ich weiss nicht ob es wichtig ist wird nichts angezeigt. Ich weiss VGA ist schon ein altes Eisen. Ich habe den auch schon fast abgeschrieben. Vielleicht habe ich ja noch Glück. Besten Dank

  • Hier sind mehr Infos nötig. Es gibt zwei Möglichkeiten, die bei dir zutreffen könnten:

    - Du nutzt einen passiven DVI-I auf VGA Adapter. Das geht mit macOS nicht, da hier die Karte direkt ein analoges Signal ausgibt, was macOS schon lange nicht mehr unterstützt. Mir ist jedoch keine RX bekannt, die noch einen DVI-I bietet.

    - Du nutzt einen aktiven Adapter. Kenne ich zwar nur für DP oder HDMI auf VGA, was aber nicht heißt dass es das nicht auch für DVI gibt. Das geht grundsätzlich (ich setze selbst einen HDMI->VGA und einen DP->VGA an einer RX560 bzw. RX570 ein).

    Da der Monitor erkannt wird würde ich auf einen aktiven Adapter tippen. Es passiert öfters dass nicht alle Anschlüsse einer RX direkt ein Bild ausgeben, hast du daher die Möglichkeit, den DVI-Port anderweitig (unter macOS), z.B. mit einem anderen Monitor zu testen?

    iHack: Ryzen 5 1600, GA-AB350M-D3H, Sapphire RX570 4GB, 32GB DDR4-3200, 250GB NVMe SSD + 512GB SSD + 1TB HDD, OC, macOS 12.0.1, Manjaro Linux


    alter iHack: i3-4330, GA-H81M-HD3, Sapphire RX460 4GB -> RX560 BIOS, 8GB DDR3-1600, 128GB SSD, 250GB HDD, OC, macOS 12.0.1, Manjaro Linux


    ThinkPad T410: i5-520M, Nvidia NVS3100M, 4GB DDR3-1066, 120GB SSD, 250GB HDD, Clover, macOS 10.14.6


    Bastlerware: Acer Aspire 7741G: i5-430M, ATI HD 5650 1GB; 4GB DDR3-1066; 250GB HDD, Clover, macOS 10.13.6, 1.5 von 2 SATA-Ports defekt...


    Originals: MacBook Pro 15 Late 2013 (macOS 12.0.1), iPhone X 64GB (iOS 15.1)

  • Wenn es mit einem DVI-Monitor geht dann liegt ziemlich sicher am Adapter. Auch wenn es theoretisch gehen müsste, denn ja das ist ein aktiver Konverter.

    iHack: Ryzen 5 1600, GA-AB350M-D3H, Sapphire RX570 4GB, 32GB DDR4-3200, 250GB NVMe SSD + 512GB SSD + 1TB HDD, OC, macOS 12.0.1, Manjaro Linux


    alter iHack: i3-4330, GA-H81M-HD3, Sapphire RX460 4GB -> RX560 BIOS, 8GB DDR3-1600, 128GB SSD, 250GB HDD, OC, macOS 12.0.1, Manjaro Linux


    ThinkPad T410: i5-520M, Nvidia NVS3100M, 4GB DDR3-1066, 120GB SSD, 250GB HDD, Clover, macOS 10.14.6


    Bastlerware: Acer Aspire 7741G: i5-430M, ATI HD 5650 1GB; 4GB DDR3-1066; 250GB HDD, Clover, macOS 10.13.6, 1.5 von 2 SATA-Ports defekt...


    Originals: MacBook Pro 15 Late 2013 (macOS 12.0.1), iPhone X 64GB (iOS 15.1)

  • Kannste knicken, der Adapter ist nur ein Digital auf Analog Adapter , daher wird das nichts bringen, da wie mein vorredner schon schrieb, apple keine analogen signale mehr unterstützt.


    Problem dabei ist nicht dein Monitor, sondern Apple, weils da einfach keine Unterstützung zu Analogen Monitoren gibt.

  • Wenn bei dir Videoproc keine Videobeschleunigung anzeigt, hast du ganz andere Probleme ;) Wie hast du die Karte installiert, welche Kexte benutzt du? Wenn sie richtig eingestellt ist, müsste das auch mit den Monitoren klappen!

    Intel Core i5 11500, Gigabyte Z590i Vision D, 64GB RAM, XFX Radeon RX 6600, macOS 12 (OpenCore 0.7.7 / iMacPro SMBIOS)

    Original MacBook Air M1 (2020), MacBook Pro 15 (Late 2013)

  • Nein wird definitiv nicht mit VGA klappen, weil Apple das Signal nicht bereitstellt, sowie darüber auch keine erkennung des Bildschrims.


    Hab selbst einen Monitor mit VGA/HDMI/DVI hier und alles funktioniert, bis auf das VGA da wird nicht mal erkannt das ein Monitor angeschlossen ist.


    Achso beim Adapter miniDP auf VGA klappt es allerdings und aber auch nur am real mac, nicht aber am Hacki.

  • Absolut, VGA ist schwierig, trotzdem: Etwas anderes stimmt definitiv nicht, wenn die Videobeschleunigung aus ist.

    Intel Core i5 11500, Gigabyte Z590i Vision D, 64GB RAM, XFX Radeon RX 6600, macOS 12 (OpenCore 0.7.7 / iMacPro SMBIOS)

    Original MacBook Air M1 (2020), MacBook Pro 15 (Late 2013)

  • ozw00d Der verlinkte Adapter ist ein aktiver Konverter. Steht so in der Beschreibung und auf dem Bild hat er nicht die vier Stifte um den langen Kontakt -> DVI-D. Außerdem wird der Monitor erkannt, was mit direktem VGA nicht geht. Außerdem haben die RX alle auch kein DVI-I mehr (habe extra nochmal nachgesehen), einen reinen Adapter könnte man gar nicht in den DVI-D Port an der RX stecken, da einige Löcher fehlen.


    polaplex Ich nutze einen DP auf VGA Konverter aus dem lokalen Geiz-ist-Geil-Markt (wobei der gar nicht so billig war), Hersteller Icy-Box, bei Amazon finde ich den gerade nicht. Im Prinzip sollte jeder gehen (bei DP zu VGA gibts keine reinen Adapter, da muss immer ein Konverter drin sein), aber das perfekte Gegenbeispiel haben wir hier ja schon. Mein HDMI auf VGA Adapter ist auch von dort, selber Hersteller.

    iHack: Ryzen 5 1600, GA-AB350M-D3H, Sapphire RX570 4GB, 32GB DDR4-3200, 250GB NVMe SSD + 512GB SSD + 1TB HDD, OC, macOS 12.0.1, Manjaro Linux


    alter iHack: i3-4330, GA-H81M-HD3, Sapphire RX460 4GB -> RX560 BIOS, 8GB DDR3-1600, 128GB SSD, 250GB HDD, OC, macOS 12.0.1, Manjaro Linux


    ThinkPad T410: i5-520M, Nvidia NVS3100M, 4GB DDR3-1066, 120GB SSD, 250GB HDD, Clover, macOS 10.14.6


    Bastlerware: Acer Aspire 7741G: i5-430M, ATI HD 5650 1GB; 4GB DDR3-1066; 250GB HDD, Clover, macOS 10.13.6, 1.5 von 2 SATA-Ports defekt...


    Originals: MacBook Pro 15 Late 2013 (macOS 12.0.1), iPhone X 64GB (iOS 15.1)

  • DerJKM Super vielen dank dann weiss ich bescheid. Ich denke dann werde ich mich trotzdem lieber einfach nach einen anderen günstigen umschauen.

    macinsane Naja ich habe meine GTX770 ausgebaut und alles was mit Nvidia zu tun habe entfernt. Die RX570 denn rein gebaut und siehe da es ging alles. Whatevergreen und Lilu auf dem neusten stand und läuft. Aber leider kriege ich es nicht hin das was bei encoding was angezeigt. Nur wenn ich meine HD4600 aktivieren dann zeigt er diese an aber mehr kann ich auch nicht sagen.

  • Leider geht auch bei AMD nicht alles einfach so. Die Intel zu aktivieren ist der richtige Weg um Encoding zu bekommen. Zusätzlich würde ich Whatevergreen rausnehmen und stattdessen entweder ATI inject in Clover aktivieren oder besser noch den AppleGraphicsDevicePolicy patch von piker nehmen (KextstoPatch mit Clover Configurator)

    Code
    1. Name
    2. AppleGraphicsDevicePolicy
    3. Find
    4. 626F6172 642D6964
    5. Replace
    6. 626F6172 642D6978

    Kann man als weitere Alternative auch in der DSDT lösen (kann ich auf Nachfrage erklären).

    Damit sollten erst einmal alle Display-Ausgänge aktiviert werden.

    Intel Core i5 11500, Gigabyte Z590i Vision D, 64GB RAM, XFX Radeon RX 6600, macOS 12 (OpenCore 0.7.7 / iMacPro SMBIOS)

    Original MacBook Air M1 (2020), MacBook Pro 15 (Late 2013)