Beiträge von mitchde

    Jup, und auch M1(ohne Max!) > M2 schon ein Unterschied...

    Wobei so ne NVIDIA 4090 ... schon noch ne deutliche Schippe drauf legt .. aber auch an Watt ;)

    "Unsere schnellste" RX 7900 XTX kommt leider da nimmer ran..

    Aber Apples .. wenn mal irgendwann endlich fertig .. MacPro 2023 / 2024 M3MaXX schon, hoffe ich.


    Topaz Video AI v3.1.10
    System Information
    OS: Windows v11.2009
    CPU: 13th Gen Intel(R) Core(TM) i9-13900K 31.747 GB
    GPU: NVIDIA GeForce RTX 4090 23.59 GB
    Processing Settings: device: 0 vram: 1 instances: 1
    Input Resolution: 1920x1080
    Benchmark Results
    Artemis 1X: 28.6 fps 2X: 10.16 fps 4X: 2.98 fps
    Proteus 1X: 21.52 fps 2X: 9.42 fps 4X: 2.93 fps
    Gaia 1X: 14.39 fps 2X: 8.91 fps 4X: 4.17 fps
    4X Slowmo Apollo: 23.6 fps Chronos: 27.11 fps Chronos Fast: 31.4 fps

    Hi Leute,


    nun mein Projekt Alder Lake voran gebracht.

    Komme vom i7-7700er - übersprang paar CPU Gens ;)

    Das GA-B660M DSH3 DDR4 + i5-12400F

    32 GB RAM DDR4 3200


    Bisher bin ich sehr zufrieden. Nutze erstmal den Boxed CPU Kühler da meine AIO WaKü noch bissle von der Halterung umgebaut werden muss.

    Habe die USB Mappings eines anderen Users genommen (werde die noch minimal anpassen).

    Das CPUFried kext mitsamt Dataprovider für die 12400F hab eich auch von einem anderen User übernommen.


    Unten, in Signatur sehr ihr den neuen CPU Passmark Wert.

    Dies war der "alte" - wobei das schneller RAM sowie viel mehr CPU Cache auch dazu betragen.


    GB 6:



    PCIE 4 :)




    EFI:

    EFI_OC090_GAB660M_DS3H.zip

    Ich werde demnächst auf 12. Gen wechseln - werde den 12400F nehmen. Der ist , mangels E-Cores, für OS X wie ein 10 Gen. CPU. Heist nicht dass 12,13 Gen mit OS X net geht - aber ich denke OS X kann nicht das Optimale aus P- und E-Cores wie Win 11 herausholen weil es die E-Cores wahrscheinlich wie P-Cores behandelt- mangels WIssen / Kernel IQ zu E-Cores. Klar bleiben diese 12er / 13er CPUs den 10ern, 11ern natürlich auch unter OS X überlegen - auch in Effizenz.

    Mainbaord habe ich schon, wird ein Gigabyte B660m-DS3H (DDR4).

    Als Ausgangslage für mein OC nehme ich dieses Info / EFI:

    https://github.com/zilchulant/Hac_12thgen - Prima: Der User hat schon nach USB Mapping geschaut , dokumentiert und die USBMap.kext schon erstellt. Spar Nerven und Zeit!!

    (Tipp: Auf Github findet man inzwischen einige Infos/EFIs zu 660/690er MB!)

    Wenn fertig werde ich natürlich einen eigenen Thread Build für das MB Gigabyte B660m-DS3H /12400F machen.

    Das wirst du wohl so machen müssen :)


    Lese ich daraus das dein Ventura nicht starten möchte ?

    Dann währe deine EFI hilfreich [wech]

    Nein, alles geht.

    Ich nutze iMac18,3 mit iGPU setting als compute device (keine Bildschirm Ausgabe) plus RX 5600XT. Löpt einwandfrei.

    Da ich eine App habe die , anders als zB. Davinci Resolve keine Einstellungen hat um auszuwählen welche GPU genutzt werden soll - sie nimmt die iGPU - wollte ich der mal die iGPU temporär "wegnehmen" sodass die app nur die RX 5600 XT hat.

    Wollte probeweise mal die igpu deaktivieren , geht mit WEG boot parameter -wegswitch gpu oder -wegnoigpu über OC OHNE zuerst das config.plist zu ändern.


    PS:

    Danke für die Info mit den Apple Hotkeys - zumindest -v , den verbose Mode, könnte man per CMD+V auf schnellem Wege mit OC erreichen.

    Leider gibts wohl keine Eingabemöglichkeit für andere boot args wie von WEG oder sonstigen LILU plugins.

    Hi,

    stehe gerade etwas auf dem Schlauch.

    Möchte nur bei Bedarf boot parameter (zusätzlich zu der default in IC config.plist) mitgeben.

    zB. -v (verbose) oder -wegswitchgpu / -wegnoigpu


    Wenn ich OC boote sehe ich nur die Volumes und unten zwei Icons - eins führt zu reboot, das andere Rechner aus. Ein Icon wo ich (zusätzliche) bootparameter eingeben kann.

    Wo(/ wo komme ich auf die Eingabemöglichkeit für bootparameter?

    Bei Clover ging das easy...

    PS: Als workaround - falls das OC echt nicht unterstützt :( - würde ich mir USB OC Bootstick machen müssen und dort die boot args die ich möchte fest eintragen. Und dann vom USB Stick booten-

    Danke

    Jup, Mac Mini evtl. auch gut.

    zB. aus Ebay Kleinanzeigen...



    Für 100-200€ einen Hack der einem maximal ausgebauten Mac gleichkommt? Vergiss es.

    Für meine Kisten (steht in meiner sig) Ging nix unter 2,5k, mit dem asus sage 10g und dem 10980xe waren es knapp 6k (hätte es zu dem Zeitpunkt schon m2 etc gegeben hätte ich eher da zugegriffen).

    Ergo für Performance und Leistung kannst du mit dem Budget nix reißen. Schon garkeine aktuelle Konfiguration.


    Yup, wobei meinte er evtl. auch den letzten Highend PowerPC G5 Mac . dessen Speed übertrifft man schon mit 200€ locker!!

    Und als Hobbiest reichen, gebraucht gekauft locker 300-400€ für ein iGPU System das auch genug Leistung hat. Mit GPU RX 570/580 dann halt 60-80€ mehr nötig.

    Tipp: In dieser niedrigen Preisklasse 100-200€ ist es gut sich auch ältere Komplettsysteme bei den Ebay Kleinanzeigen anzugucken! Denn ältere Mainbord Bundles mit 6./7. gen CPU / Mainboards mit 1xx / 2xx INtel Chipsatz (mit iGPU = spart Grafikkarte) kosten mit CPU und RAM oft das gleiche wie ein kompletter alter PC. Musst halt fragen welche CPU genau drin ist - oft schreiben das die Verkäufer bei so nem günstigen PC nicht genau rein.

    " Lenovo ThinkCentre M93p Tiny mini Hackintosh, mit glück bekommst du sowas Preisklasse 120€ in eBay"


    Da wird er mit "

    Er sollte halt den letzen besten "Mac" mit Intel clonen.

    Man liest auch öfter das Intel Xeon genommen werden ."

    jedoch schon ne deutlich schnelleres CPU Modell gemeint haben wie ne 4er Intel Version.

    Vermutlich also eher so ein , auch schon älteres, günstiges Mainbord mit 2xx oder 3xx INtel Chipsatz. Also 7.te oder 8.te CPU Generation. Wo es inzwischen scon einige Bundles bei ebay Kleinanzeigen gibt aus MB/CPU (teilweise sogar gleich mit 8 oder 16 GB RAM).


    Auch wäre gut wenn der Fragende noch schreiben würde ob so eine Bauform wie dieser Leveno , also Mini AllinObe BüroPC das richtige wäre und noch grob Preisrahmen.

    Denn kostengünstig ist echt sehr individuell.

    Hoffe im nächsten Highend MacPro lassen die die GPU Watt Zügel etwas los - so ein WorkstationDing darf doch gerne 150 Watt bei GPU allein verbrauchen - wenn Nvidia/AMDs Highends da auch 300++ Watt gerne überbieten. Wären 150 Watt auch noch super!!

    Im ImacProPro halt nur 60 Watt GPU alleine...

    Wieder Hammer 65 GB/s Transferspeed bei CPU GPU ... dat erreicht nie ne externe GPU... erst mit PCIe 6.0 - was noch erfunden werden muss...;)

    PS: Das ist das 10 fache der - ungewöhnlich langsamen Werte von DerTschnigs RX 580- und immer noch vielfach (2,5 fach ) der schnellsten PCI 4.0 Werte hier (22 GB/s). 4 - 5 fach unserer PCI 3.0 Werte mit 10-13 GB/s , Ausnahme DerTschnigs mit 6 GB/s.

    Auch diese Transferspeed macht sicher mit den Erstaunlichen Erfolg der M1 GPU aus - selbst wenn sie von den GFlops nicht alle GPUs wegblasen kann. In realer Welt beflügelt das deutliche mehr (vielfache!) an Transferspeed durchaus auch den Flow. Bei nur 20-30% Diff bei der Transferspeed würde man das in der Realität - im Gegensatz zu 20-30% schnellerem GPU/VRAM nicht spüren.

    PS: Je nachdem was an Bench / App die GPU belastet gibts mehr oder weniger oder sogar keine hohe Last / hohe Clks / Power / Temps. Geekbench Metal/OpenCL ist so ein Beispiel. Während das läuft gibts nur wenige, sehr kurze Volllast - bei Mem Clk sogar selten volle MHz.

    Anders bei Luxmark oder anderen Apps / Benches die die GPU mehr und vorallem etwas länger belasten wie Geekbench Metal.
    Wie Basemark GPU https://www.basemark.com/benchmarks/basemark-gpu/ oder oder das neue GPUScore Sacred Path  https://www.basemark.com/benchmarks/gpuscore/sacred-path


    Wenn solche Apps / Benches im Volllbild Modus laufen, seht ihr natürlich während dem Bench die Werte / Menüezeile nicht... macht aber nix, dann meine App merkt sich einige Maximalwerte bei Clk, Temp und auch VRAM used :)

    Einfach nach dem Bench auf die GPU Menue Zeile clicken, dann sehr ihr die Maximalwerte, selbst wenn sich nach dem Bench matürlich alle Werte wieder auf niedrigstem Niveau befinden.

    Hier das gut zu sehen nach Basemark GPU (Vollbild) - GPU und auch VRA; gut ausgelastet - weit mehr wie nach Geekbench - Basemark saugt sich schon paar GB VRAM sowie die GPU und VRAM CLK geht im Laufe des Benches auch mal aufs GANZE ;) !!!





    Auch nett ist, das man sieht ob der Lüfter funzt bzw. die Karten mit ZeroRPM = 0RPM unter xy Grad (meist um 50 Grad). Hatte mal bei meinem Powerplaytable dev properties irgendwas falsch - Karte lief schon - nur der Lüfter sprang gar nicht mehr an!!! Dauer Zerofan mit 0RPM :(!!! GPU Temp schnell bei 110 Grad unter Vollast und trottle..

    Einmal auch Crash der App (Topaz Video AI, in console log war was von gpu....) - dachte aber das läge an was anderes, Bug. Bis ich mal meine App dabei laufen lies... gruselig hohe GPU Temp Werte sowie 0RPM auf Dauer erkannt.

    Ohne meine App hätte ich das NICHT gemerkt! Ungut wenn der GPU Lüfter har nicht mehr hochdreht..

    Ne, FakeSMC & Co werden da noch weniger bringen - die lesen nur die GPU Temp aus! Dito Die neue Radeon Gadget (auch ne GPU Menue App, jedoch nur Temp) https://github.com/aluveitie/RadeonSensor


    Somit Treiber - je nach den neueren GPU Typen RX 5xxx / 6xxx noch etwas unfertig was diese Performance Werte (CLK, etc) außer GPU Temp direkt aus dem Ventura Treiber angeht. Bei Monterey etc funzten diese zumindest mit RX xxx einwandfrei.

    Bei mir ändern sich jedoch mit der RX 5600 XT alle Werte dauerhaft - nichts "friert" ein.


    Auch O Mhz bei den CLKs kann net sein - das sind mindestens immer ein paar hundert Mhz wenn GPU CLK oder VRAM CLK auf Idle (wenig / nix tun hat) runter sein. Aber auf 0 Mhz gehts real nie herunter ;)

    So, habe eine Ventura Version meiner App AMD GPU Menue geschrieben.

    Diese Menue App braucht KEINERLEI Virtual SMC Treiber oder Radeon.kexts... die Werte kommen alle direkt vom OS X Ventura AMD Treiber!


    So siehts aus!

    GPU dreht bei 2 parallelen Topaz Video AI Lindenstrassen- Tasks gut auf :)



    Läuft nur ab OS X Ventura und nur mit AMD dGPU. (getestet RX 5600XT, noch unklar ob auch RX 5xx Werte liefern)


    Zeigt folgendes in der Menüezeile an:

    GPU Load%, GPU CLK und VRAM CLK, GPU Temp, Gesamt Power (W), Fan Speed und benutzes VRAM (in MB).


    Klickt man auf diese GPU Menuezeile, werden die Max Werte von GPU Clk, MEmCLK Temp angezeigt.

    Man kann auch den Update Interval per Slider verändern - 2 Sec reicht meist.

    Auch das beenden der Menue App wird dort über Quit erledigt.


    DL:

    AMD GPU Menue Ventura 0.1.zip

    Happy Testing :)

    PS: Mit dem Tool sehr ihr endlich mal ob euere GPU beim GPU CLK und VRAM CLK auch voll hochtaktet bzw. evtl. nach längerer Hochlast (Temp/Power) beginnt herunterzutakten,

    Oder ob gar zb: die VRAM CLK irgendwo bei niedrigem Wert (unter 800 MHZ) dauerhaft hängen bleibt.