Beiträge von apfelnico

    kavenzmann

    Im Grunde kannst du das alles mal ausprobieren. Die Anordnung von rubenszy sieht auch gut aus. Nimm dann die Grafik-SSDT erst mal raus. Wenn das Teil läuft, wäre im Systembericht zu schauen, ob alle Karten ihre vorbestimmten Lanes erhalten.


    Viel Erfolg, und Danke an rubenszy

    Wobei ich immer noch denke, dass die Pläne von ASUS vermurkst sind. Da geht doch bestimmt je Plex eine 16x Leitung von/zum Prozessor (beim 40er).

    Das ist natürlich doof, weil du den Thunderbolt ebenfalls benötigst. Dann ist wohl großes Ringtauschen angesagt. Ehrlich gesagt, finde ich die Blockzeichnung von ASUS etwas verwirrend. Nicht dass ich nicht in der Lage wäre, das zu lesen; es geht eher um die tatsächlich verfügbaren Lanes.


    Es gibt ein "X99-E WS block diagram" und ein ""X99-E WS User Manual block diagram".

    Im ersten gibt es die Unterscheidung der Lanes bei einem 28Lane- und 40Lane-Prozessor. Völlig klar. Im letzten steht nix drin, aber auch hier eine andere Verteilung. Insgesamt scheinen mir aber zu wenig Lanes vom Prozessor weg zu gehen. Beim 40er nur 8+16 (zu den PLX) +4 (NVMe). Sind 28. Beim 28er 8+8+4 sind 20. Im letzten Bild haben wir auch 16+8, nur eben umgekehrt. Da stimmt doch etwas mit den Zeichnungen nicht! Wofür PLX (doppeln) und QSW (splitten) sind, ist auch klar.


    Aber wenn grundsätzlich JEWEILS 16Lanes an beiden PLX (beim 40er) käme, sähe es etwas anders aus. Und die Bandbreite ist ja da. Macht 32+4(NVMe), bleiben wir immer noch unter 40. Kann das mal einer verifizieren? Vielleicht solltest du dich damit mal an ASUS wenden kavenzmann ?


    Was meinst du dazu rubenszy ?

    in den Spezifikationen steht beim 40er nun ausgerechnet gar nichts, aber selbst beim 28er sind die Angaben hier erstaunlich (durch Plex und QSW): https://www.asus.com/de/Commer…s/X99E_WS/specifications/


    Spricht doch einiges dafür, dass die Diagramme fehlerhaft sind. Nicht was die Leitungen betrifft, sondern was an einzelnen Punkten wie rübergeht, gedoppelt und aufgespaltet wird.


    Sollte es also anders sein, könnten die Karten auch munter anders verteilt werden. Wobei die Thunderboltkarte leider zwingend auf Platz2 bleiben muss, geht technisch nicht anders. Aber dann könnte die erste Grafikkarte vielleicht doch in Slot1 (per Riser), und die zweite Grafikkarte auf Slot 3. Die BMD Decklink dann auf Slot4 (passt Unter der Grafikkarte die den Slot verdeckt, dieses Riser-Dingens? Ansonsten Slot5.

    Zeil der Nummer ist es ja: zum einen, jeder Karte die optimalen Bedingungen zu geben; zum anderen, dem APTIO-V Mist zu entkommen. Beieinander liegende Karten sollten da im Vorteil sein.

    Das weiß ich. War synonym verwandt. Alles hier im Haus ist auf macOS ausgerichtet. Und da werde ich nicht ausbrechen, wegen eines Grafikkartenherstellers und mir damit jede Menge andere Probleme ins Boot holen (was erst mal gar nicht mit Nvidia zu tun hat). Und im Studio wurzel ich tatsächlich noch mit einem MacPro6.1 rum, und der soll jetzt in Rente. Entweder neuer MacPro (in wenigen Minuten wissen wir mehr), oder ein Hackintosh. Im Büro sind MacMinis, die Azubis haben iMacs und alte Käsereiben.

    Mein Hack ist ein recht privates Projekt, hat nix mit dem geschäftlichen zu tun.

    Hört sich prima an. Nutzt du das neue 16.x auch für Editing oder nur FCC?

    Habe jetzt gerade mein erstes Projekt damit komplett gestemmt fürn NDR (Länder Menschen Abenteuer, 2x 45min) und bin etwas "gespalten". Gibt etliche feine Sachen, und manche zum Haare raufen …


    rubenszy

    kommt drauf an, was man genau mit Resolve macht und welches Material verarbeitet wird. Ist ja eine "eierlegende Wollmilchsau". Gibt Leute/Firmen, die arbeiten ausschliesslich damit zur FCC, andere wiederum nutzen es ausschliesslich zum mischen, wie der NDR (Fairlight).


    Klingt natürlich spannend, dann müsste ich aber auf Windows gehen. Das will ich aus verschiedensten Gründen im Studio aber überhaupt nicht.

    kavenzmann

    Ok, dann läuft grundsätzlich auch alles. Ist wieder das Problem, genügend freien ZUSAMMENHÄNGENDEN Speicher für Allocation zu finden. AptioV Problem.


    Dann probiere mal testweise diese beiden Treiber anstelle von bisherigen AptioMemoryFix.


    Edit:

    Also beide neue rein, nicht alternativ. Dafür den alten raus.

    Dateien

    • austauschen.zip

      (19,93 kB, 49 Mal heruntergeladen, zuletzt: )

    Habe gerade mal in die DSDT geschaut, die erfreulich schlank und ohne Fehler daher kommt. Dabei ist mir aufgefallen (habe mit AMD nix zu tun, weiß es nicht), dass die PCI-Busse abseits von "PCI0" nicht unbedingt so heißen, wie von Apple erwartet.



    Vielleicht helfen hier Patches:


    S0D1 zu PC01

    53304431

    50433031


    S0D2 zu PC02

    53304432

    50433032


    S0D3 ZU PC03

    53304433

    50433033


    Es sind mir noch weitere Devices aufgefallen, die bei sämtlichen Intel-Systemen anders heißen.

    Ich schaue mir das heute Abend genauer an, könnte die DSDT überarbeiten, dann benötigt es diese Patch nicht mehr. Ob es läuft? Keine Ahnung. :)

    Wenn die Platte korrekt formatiert ist (GUID, HFS+ oder APFS), auf der ESP (EFI System Partition) dein EFI-Ordner liegt, so wie es auch vom Stick klappt, dann wird bei UEFI _UND_ Auswahl im BIOS der richtigen Platte – _ACHTUNG_ hier taucht die Platte unter Umständen zweimal auf (CSM) – die Platte muss natürlich auch per UEFI angesprochen werden, _DANN_ sollte alles bestens laufen.

    kavenzmann

    Im BIOS muss die Funktion "Above 4G Decoding" auf "On" stehen.

    Ansonsten hänge ich nochmal das hier an, um zu verstehen, wo die beiden Grafikkarten neben deinen anderen Karten hingehören (wir hatten uns damals ja etwas bei gedacht mit Slot5):



    Slot5 und Slot7 scheinen richtig zu sein, bekommen beide 16Lanes, Slot2 bekommt 4Lanes vom PCH, Slot1 4Lanes.



    Was hast du denn man da für ein Blödsinn zusammen gebaut

    Kein Blödsinn. Schau dir das Diagramm an. Ist etwas komplexer das Board. Thunderbolt muss zwingend in Slot2.

    kavenzmann

    Klingt nach einem Plan. :)


    Nach hochfahren in IORegistryExplorer schauen, wo diese zweite dran hängt, dann deine SSDT für die Grafikkarte um die zweite Karte erweitern. Also kompletten Baum kopieren, einfügen und Pfad ändern. Hier dann GFX0 in GFX1 ändern.

    Wenn jedoch der MacPro kommt, vermute ich wirds Apple im Treiber für die GPU Karten nachrüsten - außer das werden speziellem nicht handelsübliche Karten sondern baulich technisch (bis auf die GPU selbst) Apple Eigengewächse.

    Bei der Afterburner Karte für FCP ja schon klar, bei den GPUs hoffe ichs nicht.

    Natürlich sind das Eigenbauten von Apple. Ich habe noch keine von AMD gesehen, bei der passiv gekühlt mit riesigem Kühlkörper 2(!) Vega II GPUs auf eine Karte sitzen (AMD Radeon Pro Vega II Duo). Heißt also:


    Two Vega II GPUs, each with 64 compute units and 4096 stream processors

    64GB of HBM2 memory (32GB per GPU), each with 1TB/s memory bandwidth

    Up to 28.4 teraflops single precision or 56.8 teraflops half precision

    Onboard Infinity Fabric Link connection connects the two Vega II GPUs at up to 84GB/s

    Four Thunderbolt 3 ports and one HDMI 2.0 port on card


    Dieses Monster ist an zwei PCIe3.0 Slots (hintereinander in einer Linie) angebracht. Einmal x16, einmal x8 für die onboard Thunderbolt3.

    Davon können zwei(!) Monster in den MacPro eingesetzt werden, und es bleiben immer noch weitere Slots frei.

    Man bekommt also maximal bei zwei Dualkarten: 256 Compute Units, 16384 Stream Prozessors und 128GB VRAM.


    Du kannst allerdings den MacPro auch mit der pillepalle Einzelgrafikkarte (AMD Radeon Pro 580X) ordern, diese rauswerfen und eigene reinstopfen …

    Ja, das ist ein Unterschied. Die vier Lanes bleiben ja bestehen, es ist ein PCIe 3.0 4Lanes Interface. Aber so wie es ausschaut "Gen1", nicht Gen2 oder Gen3. Zumindest so eingebunden. Aus Ermangelung: Wie seht es denn mit der gleichen Hardware unter Windows aus? Ich denke ja, dass die Hardware in Ordnung sein wird, und dass macOS das nicht richtig interpretiert. Kann man unter Windows etwas auslesen, was uns unter macOS weiterhilft? Oder liegt das Problem doch viel tiefer?


    Ich hatte jetzt im BIOS ebenfalls alles von "Auto" auf "Gen3" (8GT/s) diesbezüglich gestellt, keine Änderung.


    mhaeuser

    Könntest du da vielleicht etwas Licht ins Dunkel bringen? Wann wird ausgehandelt, ob ein Gerät Gen1, Gen2 oder Gen3 ist (2.5, 5 oder 8GT/s)? Kann man da "Properties" setzen, was bedeuten da "IOPCIExpress- SlotStatus/SlotCapabilities/LinkStatus/LinkCapabilities)? Mit den "Geräten" ist es ja nicht so einfach, mitunter sind da etliche "Bridges" noch davor, die auch ihre Eigenschaften besitzen. Lässt sich da eingreifen?