RX 6xxx(XT) Thread, Lieferbarkeit, Kompatibilität, Leistung

  • Mehr oder weniger bessere Spannungsversorgung hast du mit ner Custom, was aber den Kohl nicht fett macht bei WaKü.


    Habe eine Referenz XT, die kommt auch auf 2650/2100MHz GPU/RAM ohne Probleme.


    Die Karten haben halt eine Sau hohe Leistungsaufnahme, die auch bei Customs kaum bis wenig höher freigegeben ist als bei der Referenz.


    Eine Devil/Nitro+ ist eine gute Luft gekühlte Karte aber das Geld, was die mehr kostet als eine Referenz, würde ich in den WaKü Block stecken als mir extra eine Bordpartner Karte zu holen.


    Mehr als 2800 geht eh nicht bei der XT, und das Powerlimit wird dir weit vorher sagen das Schluss ist, auch bei einer Custom.

  • SchmockLord Auch wieder etwas OT: Für was für ein eGPU-Case hast Du dich entschieden?




  • Wenn man nur eine Ahnung davon hätte, wann bei AMD wieder Bestand reinkommt, könnte man sich ja ein wenig darauf vorbereiten. Dieses 1-2 Mal am Tag reingucken, wie ich es mache bringt ja schließlich auch nichts. Der "Ausverkauft" Button deprimiert mich. :-(


    Sorry Jungs. Ich muss jetzt mal Schokolade essen.

    Some men see things as they are and say 'why?', I dream things that never were and say 'why not?'

  • von wegen die Vögelchen hätten etwas gezwitchert...Muss wohl ein UHU gewesen sein oder? Beeinflusst aber leider die Kaufentscheidung ungemein. Unter Windows hab ich persönlich keinen Bock drauf. Ich richte mich dann lieber auf die Aussagen von kaneske und Co. Und der dumme AMD Shop ist auch mal wieder leer. Ziemlich frustriert weil kannste kaufen dann kriegste nix.

  • dis war wohl nix die Wochäää :-)

    Hackintosh

    ASUS TUF Z490 PLUS WIFI

    Intel Core i9-11900K

    Radeon RX 6900 16 GB

    128 GB Ram

  • from amazon Italy


    today they sold about 50 of these..now available from 18_

  • Nabend Freunde.


    Hab heute die 6900XT bekommen und den ganzen Tag getestet. Gegen meine 3090. Wollte euch mal an den Ergebnissen teilhaben lassen. Wird wohl auch noch ein Video zu kommen.


    Hier sind meine Ergebnisse: https://docs.google.com/spread…t5LEwR8I/edit?usp=sharing


    Getestet wurden: Cyberpunk 2077, RDR2, Ghost Recon Breakpoint, FS2002, PCARS2, iRacing und als Benchmarks Time Spy, Port Royal sowie OpenVR Benchmark.


    Auflösungen 2560x1440 und 5120x1440 sowie VR, wo möglich.


    Nicht hoch wissenschaftlich sondern so wie die meisten das für sich wahrscheinlich machen würden: Gleiche Einstellungen eingestellt, gleiche Situation/Savegame geladen und dann geschaut, bei welcher FPS es sich ungefähr einpendelt.


    Ich wünschte es wäre anders, aber für mich ist die 6900XT einfach nix. Bei dem was ich so spiele, sind die Unterschiede einfach zu eklatant zugunsten Nvidia.


    In allem was ich getestet habe, war die 6900XT eigentlich nur in Ghost Recon Breakpoint besser. In allem anderen die 3090.


    Um es kurz zu machen: Wenn ihr in Auflösungen bis max. 4k spielt und auf Features wie RT, DLSS und VR verzichten könnt, dann ist die 6900XT schon ne tolle Karte und auf Augenhöhe mit der 3090. Sobald diese Features aber eine Rolle spielen, hat die 6900XT keine Chance. Es gibt Ausnahmen, aber im Großen und Ganzen kann man das so sagen.


    In VR kommt die 6900XT nicht ansatzweise an die 3090 ran. Da sind die Unterschiede massiv. Und zu den Unterschieden die ich über die FPS Anzeige messen konnte, gesellt sich noch der subjektive Eindruck, dass das Bild in VR mit der 3090 deutlich schöner, höher aufgelöster und schärfer aussieht. Man sieht bei der 6900XT deutlich, dass das adaptive GPU Scaling von Oculus VR greift.


    Was mir bei AMD besser gefällt sind bspw. die Presets für Undervolting und Overclocking. Undervolting ist bei Nvidia nur kompliziert mit dem Kurveneditor zu bekommen. Und ich kann bei AMD auch Screen Capturing in 5120x1400 machen. Das geht bei Nvidia nicht.


    Dafür gefällt mir bei Nvidia besser, dass ihr in Geforce Experience für viele Spiele auf eure Grafikkarte bzw. euer System optimierte Einstellungen vorgeschlagen bekommt. Und damit hab ich persönlich über viele Jahre gute Erfahrungen gemacht. Auch jetzt wieder mit Cyberpunk.


    Die Geräuschkulisse ist subjektiv bei beiden Karten ähnlich. Hab ich aber nicht gemessen.


    Ich bleibe auf jeden Fall bei der 3090 und behalte die 5700XT im eGPU Case für macOS.


    Beste Grüße,

    Chris

    vorgefertigte EFIs für diverse Intel Plattformen auf meiner

    ---------------------------------------------------------------------------

    Github Seite: https://github.com/SchmockLord?tab=repositories

    ---------------------------------------------------------------------------

    My Youtube Channel: https://www.youtube.com/channel/UCnohQxGguJlqTeOsZUl3E4A

    ---------------------------------------------------------------------------

    Desktop: MikroATX Build ASRock B650M Riptide | 7800X3D | 6900 XTXH MSI Gaming Trio Z

    Laptop: MacBook Pro 16 Base Model

  • Nein. Hab mich aber auch nicht groß damit beschäftigt. Zwei Mal probiert. Big Sur Beta 11.2.

    vorgefertigte EFIs für diverse Intel Plattformen auf meiner

    ---------------------------------------------------------------------------

    Github Seite: https://github.com/SchmockLord?tab=repositories

    ---------------------------------------------------------------------------

    My Youtube Channel: https://www.youtube.com/channel/UCnohQxGguJlqTeOsZUl3E4A

    ---------------------------------------------------------------------------

    Desktop: MikroATX Build ASRock B650M Riptide | 7800X3D | 6900 XTXH MSI Gaming Trio Z

    Laptop: MacBook Pro 16 Base Model

  • I hope that if OSX support arrives, there will be added value on Metal and therefore some situations will be rebalanced even for use with software such as DaVinci Resolve or others, where today, Nvidia wins even with lower level cards.

    I am confident that in windows it is also a driver problem ...

    we'll see!

  • Unter Linux wenn man in Foren ließt sieht das nicht besser aus für die RX 6000 Modelle, von daher kann es kein Treiber Problem unter Windows sein.


    Vielleicht wenn SchmockLord mal Lust da zu hat, ein Vergleich zwischen Windows und Linux zu machen, da er ja jetzt beide Top Modelle hat, danach kann man sich dann selber ein Bild machen, was man so mit Metal erwarten kann.

    WSR:

    GR:

    Mac:

  • SchmockLord hat dein Board eigentlich schon SAM bzw resizable BAR support? Falls ja, war dies aktiviert oder hast du einen Test mit und deaktivierten BAR Support durchgeführt? Das wird sicherlich das Endergebnis nicht ändern, aber der Abstand sollte im Schnitt geringer sein.

    --- Hackintosh 2020: Gigabyte Z490 Vision D, 10900K, 64GB RAM Ballistix 3200Mhz@3600Mhz CL16-18-18-36 V1,37, AMD Radeon RX 6900 XT, BIG SUR ---

  • Bob-Schmu

    don't take this illusion away from me :)

    I have my own tests with Davinci Resolve and my Vega 64

    With OpenGl and davinci I have much lower results in OSX than Metal and comparable but always lower than metal in windows (in windows only in OpenGl of course)

    I hope so :)


    also because in a few days I will have an XFX Speedster 6800 xt and an AMD 6900 Xt reference..and I wouldn't want to give them both away to get an RTX 3090 :) :)

  • So, die BigNavi-Treiber können kommen. Ich habe soeben meine RX6900XT auf Wasser umgerüstet:


    ASUS WS X299 SAGE/10G • Intel Core i9-7920X 12-Core 2.9GHz • 128GB RAM • ASRock Radeon VII Phantom Gaming • 2x Samsung 980 NVMe M.2 SSD 1 TB
    Custom Wasserkühlung • Thermaltake TheTower 900 • 1x SAMSUNG 49" @ 5120 x 1440 (100Hz) via DP • LG OLED 55" TV @ 3840 x 2160 (100Hz) via HDMI
    WINDOWS 11 ENTERPRISE INSIDER (PRO950 NVMe) • macOS BIG SUR und MONTEREY latest Build (jeweils auf Samsung 980 NVMe) • OpenCore always latest

  • Wenn einer die Glaskugel findet schau ich mal rein...😉


    Dienstag? Mittwoch?