RX 6xxx(XT) Thread, Lieferbarkeit, Kompatibilität, Leistung

  • Gibt es eine W6700/6800/6900? NEIN! Kommt diese noch? Eher nicht... Ist im iMac eine 5700er oder ähnlich verbaut? JA!


    Edit: schluden Lad mal deine SSDT-GPU-SPOOF.dsl (.dsl weil ich mal reingucken möchte und das dann nicht wieder dekompilieren muss) hoch:).

    !!!KEIN SUPPORT PER PN!!!

  • Das ist ein Gerücht, denn die W5700 und W5500 sind z.B. Workstation-Karten, die auf RDNA aufbauen.

    Workstation Karten vom Preis und Ports her ja, aber der Chip ist identisch zur Consumer Version.

    Die RDNA Karten sind Primär für Gaming gemacht nachdem AMD mit GCN als Mischarchitektur zu wenig effizient war, um bei Gamingkarten mit Nvidia ganz vorne zu Konkurrenzieren.

    Der Nachfolger von GCN im Compute-Bereich ist ja CDNA, nicht umsonst gibts für den MacPro Vega II MPX Module.

    Zitat von Hackbook Pro

    Gibt es eine W6700/6800/6900? NEIN! Kommt diese noch? Eher nicht... Ist im iMac eine 5700er oder ähnlich verbaut? JA!

    Device IDs für Pro Karten und Screenshots einer solchen sind bereits geleakt, da kommt noch etwas.

    • Apple Mac Studio | M1 Ultra | 64GB RAM | 1TB
    • PowerMac G5 | Dual 2GHz | 8GB RAM | GeForce 6800 Ultra DDL
    • AMD Ryzen 9 3950X | ASUS Strix X570-I Gaming | 64GB DDR4-3600 CL16 RAM | Corsair MP600 M.2 NVMe | Radeon RX 6900 XT | Phanteks Enthoo Evolv Shift | Custom Loop | MacOS 12 | OpenCore
      Ryzen MacPro | EFI | RadeonSensor | Aureal
  • Aluveitie Kann sein, aber leaken kann man vieles...

    !!!KEIN SUPPORT PER PN!!!

  • AMD muss neue Workstation Karten veröffentlichen und kann damit vielleicht auch an eine 3090 ran kommen.


    Aber die Preise werden solche Karten nicht rechtfertigen, in diesen Zeiten sowieso nicht.


    Aber super schön das es jetzt Treiber gibt!

    XEON 14core 64RAM 2x Radeon VII Catalina

  • So..der AMD Shop wäre dann mal aktuell down. Bin gespannt ob der gleich mir neuem Bestand wieder on geht.


    Edit: Shop ist wieder da, aber das einzige was wieder auf Lager ist, sind die großen Ryzens.


    Edit2: Und schwupps, sind sie wieder out of stock.


    Edit3: Hm...entweder hat der Shop nun dem Andrang nicht mehr standgehalten, oder aber die droppen CPUs und GPUs getrennt. Zumindest ist der Shop jetzt wieder down, dieses Mal allerdings mit einer sauberen Maintenance Meldung.


    Edit4: OK, das wars für mich. Dieser Shop ist schon strange. Unter Firefox, wo ich um 17:30Uhr die F5 Taste maltretiert habe, wird mir nun ein "Access denied" angezeigt und zwar wohlgemerkt schon wenn ich nur AMD.COM ansteuere.

    Öffne ich einen privaten Tab komme ich auf die Seite, auch auf den Shop, aber dann ist außer dem 5800X alles out of stock.

    Nutze ich Safari komme ich auf die Seite und den Shop und dann ist neben dem 5800X auch der 5950X bestellbar, egal ob Desktop oder iOS.

    Und nutze ich den Firefox unter iOS, sieht es aus wie mit dem Safari.

    :think:

    Some men see things as they are and say 'why?', I dream things that never were and say 'why not?'

    2 Mal editiert, zuletzt von TheWachowski ()

  • Hast du einen Link zum AMD Shop?

  • AMD muss neue Workstation Karten veröffentlichen und kann damit vielleicht auch an eine 3090 ran kommen.

    Du bist dir aber bewusst, das es von Nvidia auch Pro Karten gibt, nennen sich RTX A4000 16GB, A5000 24GB und A6000 48GB, per NVLink ist es sogar möglich das eine GPU den gesamten RAM (memory pooling) der anderen Karte nutzen kann, so war es bei meinen beiden RTX 5000 Karten auch.

    Leider besteht die Möglichkeit nicht, es bei einer RTX 3090 zu nutzen, von daher spiele ich mit dem Gedanken wieder zwei Karten statt einer zu nutzen, die A5000 ist schon sehr interessant.

    WSR:

    GR:

    Mac:

    Einmal editiert, zuletzt von Bob-Schmu ()

  • maex
    Das ist er.

    Some men see things as they are and say 'why?', I dream things that never were and say 'why not?'

  • Bob-Schmu

    Was machst du mit so viel Power?

    Gruß Kexterhack

  • Beruflich nutze ich ANSYS Discovery die ihre Berechnungen über die GPU / GPUs macht und noch Keyshot, privat erstelle ich für den LS19 Modelle und Maps, auch arbeite ich mit Unreal Engine.

    Bei eine Waldlauf- und Landwirtschaftsszene kommt meine 3090 unter natives UHD schon stark an die grenzen max 25 FPS, mit DLSS Plugin ist das ganze sogar ruckelfrei.


    Hier kannst du mal ein kleinen Einblick haben wenn ein LS auf der Engine basiert,



    und das wenn man eine 3090 zum kotzen bringen will



    Spiele könnten so schön aussehen, wenn die Konsolen nicht so schwach wären und die Spiele Entwickler nicht nur an den Profit denken würden.

    DirecX 12 und Vulkan bieten sogar die Möglichkeit Multi GPU Lösung mit unterschiedliche Hersteller, nur wenige Entwickler nutzen das, obwohl es kein großen mehr Aufwand wäre.

    Ein Beispiel ist Assassins Creed Valhalla, zwei Jahre Entwicklung und was kommt raus, immer noch die selbe Engine aus 2013 und mehr als verbugt das ganze, von Cyberpunk brauchen wir nicht reden, hatten wir ja schon in einem separaten Thema und nach mehreren GBs von Updates, immer noch Haufen Bugs in dem Game.

    WSR:

    GR:

    Mac:

    Einmal editiert, zuletzt von Bob-Schmu ()

  • Bob-Schmu

    Interessant. Ja, man wird wohl immer wenn man es herausfordert Technik an die Kotzgrenze bringen können. Aber gerade in deinem Bereich, benötigt man es halt auch und kann nie genug haben. Aber dennoch hat die neue Gen. wohl einen guten Sprung gemacht.


    Bzgl. der Konsolen würden das wohl einige anders sehen, da Sie wohl auch einen Sprung gemacht haben. Aber klar in dem Vergleich sind Sie schwach und werden auch immer schwächer als ein PC bleiben. Und da stimme ich dir voll zu. Spieleentwicklung richtet sich an den Massenmarkt und da wo das Geld zu holen ist. Deshalb werden auch viele Schinken immer neu aufgelegt und ausgelutscht, Quantität zählt mehr als Qualität - leider zu oft.


    Die Diskussion um zu wenig Vram bei Spielen verstehe ich daher nur Teils. Natürlich schadet mehr nicht, und man könnte denken das man es braucht. Aber schaut man sich den gesamten GPU Markt an, haben die meisten Spieler wohl max. 8GB Vram im Schnitt. Da wird sich auch erstmal nicht viel dran ändern, die nächsten 2 Jahre, da die kommenden Games in Entwicklung gegangen sind als es noch keine 6700 oder 3060 mit 12GB Vram gab. Erst mit heutig startenden Entwicklungen wird darauf wohl eingegangen. Würde man jetzt im kommenden Jahr bereits so viel Vram voraussetzen würde man doch den Großteil des Marktes abschneiden.


    CP fand ich vom Gameplay bisher auch nicht so geil und die Grafik schwankt auch finde ich- manche Ecken sehen toll aus, manche 0815.

    COD MW die Clean House Szene sah schon nett aus. A plague tale innocence war gut. Freu mich auf Diablo 4 und suche/warte noch auf games die grafisch mal alles aus der RTX3080 rausholen.

    Würd mich mal wieder auf ein Game mit schöner Storyline freuen a la Max Payne1 etc. oder ein Half Life1, oder ein neues Tomb Raider. Hier bräuchte es mehr Ports von Konsolen. Wobei Ports Mist sind, besser vom Pc auf Konsole, aber andersrum - verschenkt es meist Potenzial. Bei einigen Entwicklungen hat sich leider einiges negativ geändert oder man empfindet es so. Extrem gehypte Dinge - wie bei CP - ist es meist schon klar, dass es nicht den Erwartungen entsprechen wird.

    Gruß Kexterhack

  • Die Diskussion um zu wenig Vram bei Spielen verstehe ich daher nur Teils. Natürlich schadet mehr nicht, und man könnte denken das man es braucht. Aber schaut man sich den gesamten GPU Markt an, haben die meisten Spieler wohl max. 8GB Vram im Schnitt. Da wird sich auch erstmal nicht viel dran ändern, die nächsten 2 Jahre, da die kommenden Games in Entwicklung gegangen sind als es noch keine 6700 oder 3060 mit 12GB Vram gab. Erst mit heutig startenden Entwicklungen wird darauf wohl eingegangen. Würde man jetzt im kommenden Jahr bereits so viel Vram voraussetzen würde man doch den Großteil des Marktes abschneiden.

    Dieses Jahr packt Microsoft noch Direct Storage im Windows aus, was den ganzen Hardwaremarkt verändern wird, Gaming PCs brauchen keine großen RAMs mehr und auch keine dicke CPU mit über 100W TDP und hohe GHz Zahl.

    Was man dann nur noch braucht ist eine gute GPU mit viel VRAM und eine schnelle SSD.

    Kleine AIOs für CPU werden dann auch immer mehr interessanter, da man sich bloß eine 35 - 65W CPU einbauen braucht, dadurch macht Intels Alder Lake dann richtig Sinn.

    Das ganze wird bei Spiele anfangen und bei Anwendungen aufhören.

    WSR:

    GR:

    Mac:

  • Bob-Schmu

    Ja das hatte ich auch im kopf.

    Hab ne samsung pcie4 drin in 500gb als sys- und anwendungsplatte. Dann muss ich meine 2tb ssd sata wohl ggfs tauschen.


    Die 3080 wirds wohl vram mäßig packen. Wollte auf RT nicht verzichten, da bringt ne 6800XT keinen großen Mehrwert, da auch macOs nicht richtig supported wird.

    Oder ich hab glück bei ner 3090FE und kann die 3080FE 1:1 momentan tauschen :D aber die wäre wohl für mein setup zu groß.

    Gruß Kexterhack

  • Sieht super aus!


    Allerdings hab ich die 5700XZ schon gegen die VII getestet. Da war die VIIer deutlich überlegen. Dieser Test scheint mir recht abstrus...

    iMacPro 1.1 - MacOS Ventura - Asus Prime X299 Deluxe - i7940x - 64GB DDR4 - 2x Radeon VII - Thunderbolt Titan Ridge + MacBookPro M1 Max

  • bekommt man Big Sur 11.4 Beta eigentlich nur mit Developer Account oder gibt es noch einen anderen Weg? Habe nun eine rdna2 Karte bekommen und würde die gerne unter Big Sur nutzen, jedoch jetzt extra dafür meinen Account als Developer einzurichten würde ich gerne vermeiden.

    --- Hackintosh 2020: Gigabyte Z490 Vision D, 10900K, 64GB RAM Ballistix 3200Mhz@3600Mhz CL16-18-18-36 V1,37, AMD Radeon RX 6900 XT, BIG SUR ---

  • SW-HackPro

    Als Developer kommt Du da nur früher dran, da die Public Betas immer ein wenig später kommen. Aber Du kannst Dir letztgenannte installieren:


    https://beta.apple.com/sp/betaprogram/

    Some men see things as they are and say 'why?', I dream things that never were and say 'why not?'

  • Erdenwind Inc.

    danke für den Tipp. Werde ich mir später mal anschauen.


    TheWachowski

    Ist den 11.4 bereits als public beta verfügbar? Hierfür muss man sich ja auch registrieren - ich nehme an eine Abmeldung später vom Public Beta Programm ist ohne weiteres möglich?

    --- Hackintosh 2020: Gigabyte Z490 Vision D, 10900K, 64GB RAM Ballistix 3200Mhz@3600Mhz CL16-18-18-36 V1,37, AMD Radeon RX 6900 XT, BIG SUR ---

  • Sieht super aus!


    Allerdings hab ich die 5700XZ schon gegen die VII getestet. Da war die VIIer deutlich überlegen. Dieser Test scheint mir recht abstrus...

    Wie immer kommst ja auch auf die Aufgabe / Tasks an wenn du was in DaVinci etc. testet.

    Es gibt bestimmt Tasks in FCP, DV wo die VII besser läuft, da Glaube ich schon den Videoprofis ;)


    Barefeats stets nur Macs - was teilweise auch zu Unterschieden was RAM SPeed, Cores, etc. angehen kann mit Hackintosh Systemen. Man sieht auch gut die CPU Limitierung beim Blackmagik Metal Test. Beim MacPro 2010 (2010 CMP, 6 Core) limitiert die CPU(+ drumherum) bei gleichen GPUs die Metal FPS auf 60. Beim 2019er MP 12 C sind die gleichen GPUs fast doppelt so schnell!!!


    Blackmagic RAW Speed Test - Metal GPU
    8K 12:1 bitrate (
    HIGHER Frames per Second = FASTER)


    liegt die 5700XT nicht schlecht gegenüber der VII.

    BRAW-speed-test-metal.png

    2 Mal editiert, zuletzt von mitchde ()