2 Grafikkarten im Hack. EIne NVIDIA und eine AMD VEGA? kann das funktionieren?

  • Hallo, ich habe mal eine hypothetische Frage:

    Würde es funktionieren eine RTX 2080Ti für Windows und eine VEGA 64 für OSX einzubauen und die jeweilige nicht genutzte Karte im OS zu deaktivieren, oder macht das überhaupt keinen Sinn?


    Hat vielleicht jemand sowas schon mal versucht?

  • Ich würde vorschlagen, dass der Titel des threads ein Fragezeichen ans Ende bekommt. So klingt er wie eine Problemlösung statt eines Problems.

    Hacken ⛏️⛏️
    Haken ✔️

    .

    anscheinend: es sieht so aus als ob, und wird wohl stimmen

    scheinbar: es sieht so aus als ob, stimmt aber nicht

  • grt

    Hat den Titel des Themas von „2 Grafikkarten im Hack. EIne NVIDIA und eine AMD VEGA“ zu „2 Grafikkarten im Hack. EIne NVIDIA und eine AMD VEGA? kann das funktionieren?“ geändert.
  • hab mir mal eine titeländerung erlaubt ;-)

    ersthilfe vor ort für altes zeugs (-> laptops) 8)

    berliner häckinTosh.stammTisch am 3.monatsmittwoch im maxFish/kunsthaus ACUD

    der stammtisch in berlin ist WIEDER DA!! nächster termin voraussichtlich: mittwoch 15.9.21, 19.00 uhr

  • Wieso sollte er denn auf dieses Board wechseln sollen , das Maximus X Code ist eines der High-End Boards mit Z370 Chipsatz.

    Ein Wechsel bietet gar kein Vorteil beim Betrieb von 2 Grafikkarten. Beide können die 16 PCIe Lanes der CPU auf eine 8x/8x Konfiguration aufteilen, was das Maximum der Dinge für eine Mainstream Plattform bietet. Die RTX 2080Ti könnte da schon anfangen, ins PCIe Lane Limit zu laufen, wobei auf die 3% wird es wohl auch eher nicht ankommen.


    Zur Sinnhaftigkeit, sicherlich ein interessantes Konstrukt, aber die Sinnhaftigkeit erschließt sich mir nicht ganz. Mal abgesehen davon könnte Nvidia da noch einen Reinschieben. Die haben gerne mal Treiberblockaden drin, was das Zusammenspiel mit AMD angeht.

    Thermisch wird das auch spannend. Beide Karten sind nicht gerade stromsparend und wenn dann die eine die andere blockiert wird es garantiert mal hier und da zu Problemen bei der Wärmeentwicklung kommen.

    Original Apple: MacBook Pro 14 2021 - macOS Sonoma

    Hackintosh: Lenovo M710q - macOS Sonoma

  • @ductator Wenn dir der Sinn in einem x16/x16 nicht ganz klar ist, dann würde ich mal richtig lesen, für dich jetzt mal zur Veranschaulichung, er hat eine RTX 2080 Ti die gegenüber einer GTX 1080 TI 10 -15 FPS bei Spiele im Vorteil ist, diese RTX

    bindest du jetzt x8 ein laut deinem Link frisst es dann ganze 5-10 FPS bei UHD Auflösung, was bleibt noch über 5 FPS.

    Wegen 5 FPS mehr, hat er dann 1100 Euro für 2080 Ti bezahlt anstatt nur 700 für eine 1080 Ti und die 2080 Ti ist dann nur 3% schneller.



    Die Seite zeigt spiele von 2017 - 2018, neue Spiele die 2019 - 2020 kommen werden an der Performance noch ein bisschen drücken.


    Wieso der Vergleich zur 1080 Ti, da es für diese Karte Treiber gibt unter High Sierra und man dadurch keine zweite GPU braucht.


    Von einem OpenCL Modus aller Rendern oder mathematische Berechnungen reden wir erst gar nicht, da da zeigt sich was die Unterschiede zwischen x8 und x16 sind.


    Von den kosten des Boards was er hat reden wir mal gar nicht, da das Board 350 Euro gekostet hat und das ASUS WS Z390 Pro nur 380 Euro kostet.

  • Spielt das eine Rolle, ob nun die 16 Lanes auf echte 2x8 aufgedröselt werden, oder per PLEX/Switch auf zwei „geschummelte“ x16? :)

    ASUS PRIME X299-DELUXE i9-9940X • DDR4 64GB • SSD 960 PRO 1TB • Thunderbolt3 Titan Ridge • 2x AMD Radeon RX Vega 64 • BMD Intensity Pro 4K

    ASUS WS X299 SAGE/10G i9-10980XE • DDR4 64GB • SSD 970 PRO 1TB • Thunderbolt3 Titan Ridge • 2x AMD Radeon VII • BMD DeckLink 4K Extreme 12G


    Ordnung ist die primitivste Form von Chaos. (Hans-Jürgen Quadbeck-Seeger)

  • Wenn er jede Karte für sich in einem OS betreiben will, macht ein Board mit x16/x16 schon mehr Sinn, da dann die vollen 16 Lanes angebunden sind.

    Natürlich kann man auch das probieren AMD und Nvidia für Spiele gemeinsam nutzen so kann man sich das x16/x16 Board sparen.



    Unter macOS kann man dann auch die Nvidia nutzen im OpenCL halt eben nur nicht als Bildausgabe, unter Windows kann es passieren das du durch das Gespann dann doch bei deinem Board noch 5 FPS mehr bekommst unter UHD, kann muss aber nicht.

    Einmal editiert, zuletzt von rubenszy ()

  • OK Danke für die Antworten und für das ändern des Titels.

    Klingt interessant alles.

    Die RTX habe ich noch nicht, deswegen meine hypothetische Frage.

    Mir hat die Vega 64 leider zu wenig Leistung für 4k Gaming, aber zum arbeiten netze ich eben gerne macOS und auch Final Cut.


    Vielleicht bestelle ich mir eine RTX und probiere ich es mal aus und vergleiche mal die Leistung mit 8x PCIe und 16x PCIe Lanes, aber das dauert noch etwas. Muss hier erstmal einen Wohnungsumzug auf die Reihe kriegen.


    Laut dieser Seite ist der FPS verlust bei 4k und 8 Lanes gar nicht so schlimm. https://www.techpowerup.com/re…CI-Express_Scaling/3.html


    Ist immer noch schneller als die Vega

  • Vielleicht noch warten auf die Unterstützung der "Radeon VII" durch macOS? Erreicht nicht ganz die Top-Nvidia, ist aber durchaus auf Augenhöhe. Und sollte unter macOS deutlich schneller als die Vega64 sein.

    ASUS PRIME X299-DELUXE i9-9940X • DDR4 64GB • SSD 960 PRO 1TB • Thunderbolt3 Titan Ridge • 2x AMD Radeon RX Vega 64 • BMD Intensity Pro 4K

    ASUS WS X299 SAGE/10G i9-10980XE • DDR4 64GB • SSD 970 PRO 1TB • Thunderbolt3 Titan Ridge • 2x AMD Radeon VII • BMD DeckLink 4K Extreme 12G


    Ordnung ist die primitivste Form von Chaos. (Hans-Jürgen Quadbeck-Seeger)

  • @toasta Warum machst du dir es eigentlich so kompliziert kauf dir doch eine zweite Vega 64 und Bau die ein, Crossfire im Windows aktiviert.

    Beide sind im UHD Gaming schneller als eine RTX 2080 Ti und du sparst noch Geld außerdem steigert es deine Performenms im FC durch die zweite GPU.


  • Mach dich bei Google schlau oder schaue bei YT, da gibt es genug Videos zum Thema Crossfire Vega 64 vs. RTX 2080Ti, da ist das Gespann bei UHD meist 10-15 FPS schneller als eine 2080 Ti

  • Wenn du eh eine RTX einbauen wolltest zusätzlich, dann hättest du es auch machen müssen, ein größeres Netzteil einbauen.

  • Was soll das bringen wenn du die Karte im Windows deaktivierst, der Verlust durch die 8 Lane's ist da, wie ich geschrieben habe kannst du diesen Verlust durch Verwendung von beiden GPU's etwas ausgleichen, wenn es das spiel zu lässt.

    Spare dir das Geld raus werfen für eine RTX, kauf die lieber eine zweite Vega und ein 1000+ Watt Netzteil, hast du mehr von.

    Da du ja eh schon eine Vega im System hast.

  • Community Bot

    Hat das Label Erledigt hinzugefügt
  • rubenszy  toasta


    Wie ging es denn nun weiter/aus?


    Meine 3080FE wird gleich eingebaut, doch vorab möchte ich sicherstellen, dass der Hacki Boot danach noch läuft.

    Meine RX580 würde ich dadrunter setzen oder ggfs. die iGPU des i9 verwenden.

    Wo stelle ich das nun genau ein, dass der Hacki danach die Karte korrekt findet?



    Zweitens: Ich habe das Gaming Plus Z490 und ja es ist nicht optimal für 2Gpus, es kommt sowieso noch ein Umstieg irgendwann auf die 6800XT.


    Mein Board sieht so aus: Erweiterungsslots2x PCIe 3.0 x16 (1x x16, 1x x4), 3x PCIe 3.0 x1, 1x M.2/M-Key (PCIe 3.0 x4/SATA, 22110/2280/2260/2242), 1x M.2/M-Key (PCIe 3.0 x4/SATA, 2280/2260/2242)


    Sehe ich das richtig dass die 3080 voll unter Windows auf 1x16 läuft also keine Leistungsbußen hat und nur die RX580 unter MacOS dann mit Leistungsbußen x4 läuft?

    Das wäre ok - nur soll die RTX3080 nicht beeinträchtigt werden.

    Gruß Kexterhack