RX 6xxx(XT) Thread, Lieferbarkeit, Kompatibilität, Leistung

  • Code
    1. Hab die Tage mal ein Video gemacht, wie sich das Spulenfiepen einer 6900XT anhört.


    [Externes Medium: https://youtu.be/VnK6dsjjSn4]


    Leise ist das nicht.

    Im Video ist es schwer hörbar. So ähnlich klingt es bei mir auch, bissel tiefer. Meine Gehäuse ist aber noch komplett offen auf Tisch. Willst du sie tauschen ?

    AMD Ryzen 9 5900X, Asus B550 ROG Strix F WiFi, G.Skill Trident Z 32GB F4-3600C15D-16GTZ, Sapphire RX 6900 XT 16GB Nitro+ OC, SSD PCIe - 2TB SN850 Black und 2TB Samsung 980 Pro, Microboard M340CLZ 34 Curved 3440x1440 100Hz Freesync

  • Meine unter dem EK Block ist wesentlich lauter...


    Mork vom Ork wie is denn deine was die Lautstärke angeht?

    Hast auch dem Block drauf...

  • ich habe auf meiner PowerColor RX6900XT und dem EK Quantum Wasserblock auch deutlich hörbares Spulenfiepen.

    Höre dieses aber nur bei offenem Gehäuse

    ASUS WS X299 SAGE/10G • Intel Core i9-7920X 12-Core 2.9GHz • 128GB RAM • ASRock Radeon VII Phantom Gaming • 2x Samsung 980 NVMe M.2 SSD 1 TB
    Custom Wasserkühlung • Thermaltake TheTower 900 • 1x SAMSUNG 49" @ 5120 x 1440 (100Hz) via DP • LG OLED 55" TV @ 3840 x 2160 (100Hz) via HDMI
    WINDOWS 11 ENTERPRISE INSIDER (PRO950 NVMe) • macOS BIG SUR und MONTEREY latest Build (jeweils auf Samsung 980 NVMe) • OpenCore always latest

  • Kommt ja auch son bisschen auf die Grund-Geräuschkulisse im Zimmer an, ob man das hört.


    Bei mir ist, seitdem ich den NAS in den Flur verbannt habe, absolute Stille. Und wenn ich mal keine Musik anhabe und einfach nur auf dem Desktop bin, höre ich sogar das Spulenfiepen von den SSDs. Und das ist deutlich deutlich leiser. Würd sagen Faktor 5.

    vorgefertigte EFIs für diverse Intel Plattformen auf meiner

    ---------------------------------------------------------------------------

    Github Seite: https://github.com/SchmockLord?tab=repositories

    ---------------------------------------------------------------------------

    My Youtube Channel: https://www.youtube.com/channel/UCnohQxGguJlqTeOsZUl3E4A

    ---------------------------------------------------------------------------

    Desktop: MikroATX Build ASRock B650M Riptide | 7800X3D | 6900 XTXH MSI Gaming Trio Z

    Laptop: MacBook Pro 16 Base Model

  • Bin ich froh, dass ich so alt bin, dass mich diese Grakas kalt lassen. Ist echt deutlich billiger

    Einfach Nvidia kaufen, hatte bisher immer Glück mit den Karten, das die keine Geräusche machen, außerdem suche ich eh immer nur welche mit zwei bis drei 100mm Lüfter, sind dann schön leise.

    WSR:

    GR:

    Mac:

  • und FEUER:

    -

    schaun wir doch mal

    ASUS WS X299 SAGE/10G • Intel Core i9-7920X 12-Core 2.9GHz • 128GB RAM • ASRock Radeon VII Phantom Gaming • 2x Samsung 980 NVMe M.2 SSD 1 TB
    Custom Wasserkühlung • Thermaltake TheTower 900 • 1x SAMSUNG 49" @ 5120 x 1440 (100Hz) via DP • LG OLED 55" TV @ 3840 x 2160 (100Hz) via HDMI
    WINDOWS 11 ENTERPRISE INSIDER (PRO950 NVMe) • macOS BIG SUR und MONTEREY latest Build (jeweils auf Samsung 980 NVMe) • OpenCore always latest

  • No Sir, kein Support in dieser Beta...

  • weiterhin nix :( langsam geb ich etwas die Hoffnung auf

    Hackintosh

    ASUS TUF Z490 PLUS WIFI

    Intel Core i9-11900K

    Radeon RX 6900 16 GB

    128 GB Ram

  • Wenn kein Support kommt, muss man (oder ich zumindest) echt überlegen was ich machen kann. Meine VEGA 64 reicht mir definitiv nicht mehr. Eventuell ein 2-Grafikkarten-System. Die VEGA 64 würde ich wahrscheinlich durch eine schwächere Karte tauschen und dann eine NVIDIA reinsetzen. Beide müssten die passenden Anschlüsse für meine Bildschirme haben und dann müsste ich im Prinzip die Signale von beiden Bildschirmen auf einen DP-Switch legen und dann je nach OS umschalten von welcher Graka das Signal genutzt werden soll ... ich hoffe man versteht was ich meine. Aber DP-Switches sind krass teuer und die Konstruktuion wäre sehr aufwändig. Aber immerhin habe ich auf macOS nichts rechenintensives, das ich nicht auch auf Windows ausführen könnte.

    iMac20,2 | Gigabyte Z490 Gaming X | i9 10900K | 16GB Sapphire RX 6800 PULSE OC | 32GB DDR4 | EVO Plus 970 1TB | 2 x EVO 850 500GB | macOS 11.4 | OpenCore 0.8.5

    HPE ML150 Gen9 | Xeon E5-2630v4 | 128GB ECC DDR4 | 2x EVO 860 1TB + 8x WD RED 4TB | VMWare

  • Der Herbst kommt keine Sorge bis dahin gibt es Support und wenn es nicht die 11.x Version ist dann die 12.x

    WSR:

    GR:

    Mac:

  • Wenn kein Support kommt, muss man (oder ich zumindest) echt überlegen was ich machen kann. Meine VEGA 64 reicht mir definitiv nicht mehr. Eventuell ein 2-Grafikkarten-System. Die VEGA 64 würde ich wahrscheinlich durch eine schwächere Karte tauschen und dann eine NVIDIA reinsetzen. Beide müssten die passenden Anschlüsse für meine Bildschirme haben und dann müsste ich im Prinzip die Signale von beiden Bildschirmen auf einen DP-Switch legen und dann je nach OS umschalten von welcher Graka das Signal genutzt werden soll ... ich hoffe man versteht was ich meine. Aber DP-Switches sind krass teuer und die Konstruktuion wäre sehr aufwändig. Aber immerhin habe ich auf macOS nichts rechenintensives, das ich nicht auch auf Windows ausführen könnte.

    So war das bei mir auch. Habe meine RX5700 auf eine RX6800 upgegraded zum Zocken unter Windows und für den Mac extra eine RX580 als zweite GraKa reingesteckt.

    Einen Switch brauchst Du nicht unbedingt, wenn Deine Monitore zB je einen DP und einen HDMI Anschluss haben, denn das haben die GraKas auch. Dann kannst Du immer am Monitor einstellen, welche der GraKas Du anzeigen willst.


    Ein Nachteil lässt sich aber mit zwei GraKas in Slot 1+2 momentan nicht vermeiden: Die Hauptgraphikkarte in Slot 1 wird statt mit PCIe x16 nur noch mit PCIe x8 angesteuert, es gibt zumindest keine X570 Boards, die das anders machen. Wenn Du einen dritten x16 Slot hast (der ist bei mir aber auch belegt), dann kommst Du drumrum.

    Ich habe keine Benchmarks gemacht (oder gesehen), könnte mir aber vorstellen, dass das bei den Ryzen Boards mit PCIe 4.0 nicht viel ausmacht.

  • Hi,


    ich hab jetzt nochmal genau geortet. Die Grafikkarte macht nicht das Geräusch bei TimeSpy oder anderer Last. Es ist vom Corsair HX1000 Netzteil wenn die GPU viel Watt zieht.


    kaneske


    Danke für Tipp mit Signalrail. Mein Corsair HX1000 läuft auf Multirail. Dachte gerade Multi wäre besser. Teste ich mal.

    AMD Ryzen 9 5900X, Asus B550 ROG Strix F WiFi, G.Skill Trident Z 32GB F4-3600C15D-16GTZ, Sapphire RX 6900 XT 16GB Nitro+ OC, SSD PCIe - 2TB SN850 Black und 2TB Samsung 980 Pro, Microboard M340CLZ 34 Curved 3440x1440 100Hz Freesync

  • Der Herbst kommt keine Sorge bis dahin gibt es Support und wenn es nicht die 11.x Version ist dann die 12.x

    Bis Herbst wäre es aber extrem dumm, da ist die 1/2 Grafikkarten Generation durch ;-)

    Hackintosh

    ASUS TUF Z490 PLUS WIFI

    Intel Core i9-11900K

    Radeon RX 6900 16 GB

    128 GB Ram

  • @fboulegue


    Bei der Verfügbarkeit fängt da gerade mal der Launch an :D

    Wenn die "neue" Greater Navi oder was weiß ich kommt - rechne plus 12Monate nach (Paper) Launch Date ;)

    Also alles gut!

    Gruß Kexterhack

  • kana das stimmt zwar mit dem PCIe x8, aber in der Praxis wirst du echt keinen Performance-Unterschied bemerken. Habe mich da auch mal schlau gemacht, weil ich selber beim Zocken keinen Unterschied feststellen konnte, es aber aber trotzdem (oder gerade deswegen) genauer wissen wollte. Gibt da einen sehr coolen Beitrag von GamertsNexus: https://www.gamersnexus.net/gu…erformance-impact-on-gpus


    Spulenfiepen habe ich unter Last auch mit meiner ASUS TUF 3080 OC... ach sch... drauf, zumindest haben wir eine Karte ergattern können. First-world problems etc. ;)

    Hardware:

    • Hackintosh: A4-H20 | B760-I Gaming | RADEON 6900 XT | i7 14700k | 32GB DDR5
    • Windows 11: NR200P | B760-I Gaming | MSI 4090 RTX | i9 12900k | 32GB DDR5
    • Monitor: LG C1 48 OLED
  • Bis Herbst wäre es aber extrem dumm, da ist die 1/2 Grafikkarten Generation durch

    RDNA 3 und Zen 4 kommt nicht vor 2022, von daher hat die RDNA 2 noch eine gute Laufzeit, da Apple aktuell keins System am Markt hat was RDNA 2 nutzt brauchen sie sich auch kein Stress machen den Support dafür anzubieten, der M1 ist erst mal vorrangig und dieser hat bewusst kein eGPU Support bekommen.

    Wie in diesem Thema schon mal gesagt, rechne mit Unterstützung wenn die neuen Modell kommen, die noch einem AMD GPU Chip haben, wenn es früher kommt wäre es nicht schlecht, was ich aber so langsam nicht glaube, von daher ist Herbst eigentlich schon die richtige Zeitangabe.


    @kana Bei PCIe4.0 merkt man keinen Unterschied, ob der Slot mit x8 oder x16 läuft, da die aktuellen GPUs eh noch nicht die volle Bandbreite ausschöpfen, was ein PCIe4.0 x16 Slot bieten kann.

    WSR:

    GR:

    Mac:

  • kana  Technotron

    Dann ist es vll. sogar besser nur ein Board zu haben was diese Unterteilung gar nicht kann/macht.

    Bei mir läuft Slot1 x16 (Slot0) und Slot 2 (Slot1) mit x4.

    Geht das bei den teureren Boards dann nicht einzustellen?


    Aber wie gesagt im Gaming Bereich macht 1x16 oder 2x8 keinen Unterschied.

    Keine Ahnung wie es im Compute Bereich aussieht aber glaube da gibt es auch keine Nachteile, wenn man nicht extrem viel Bandbreite braucht.

    Gruß Kexterhack

  • Problem ist hier mehr das MacOS zum teil Probleme hat wenn die GPU mit PCIe Gen 4 hat (stottern im UI etc). In der Regel wird bei X570/B550 mit RDNA1 Karten empfohlen den Link Speed auf Gen 3 zu setzen.

    • Apple Mac Studio | M1 Ultra | 64GB RAM | 1TB
    • PowerMac G5 | Dual 2GHz | 8GB RAM | GeForce 6800 Ultra DDL
    • AMD Ryzen 9 3950X | ASUS Strix X570-I Gaming | 64GB DDR4-3600 CL16 RAM | Corsair MP600 M.2 NVMe | Radeon RX 6900 XT | Phanteks Enthoo Evolv Shift | Custom Loop | MacOS 12 | OpenCore
      Ryzen MacPro | EFI | RadeonSensor | Aureal
  • kana  Technotron

    Bei mir läuft Slot1 x16 (Slot0) und Slot 2 (Slot1) mit x4.

    Geht das bei den teureren Boards dann nicht einzustellen?

    Wenn ich richtig nachgezählt habe, gibt es bei drei SLots einfach nicht genug Lanes, um gleichzeitig die vollen x16/x8/x4 zu unterstützen, daher fällt dann der erste auch auf x8 zurück, wenn im zweiten eine Karte steckt.

    Einstellen kann man da nichts (ok, Bifurcation Support, aber das ist ja ein etwas anderes Thema).