Beiträge von mitchde

    Der normale Turbo ist ja kein Problem.


    Wollte aber schon die 4,3Ghz x1 bzw. 4Ghz bei allen vier Kernen haben und runter auf 800 wie bei xcpm ;)


    Verstehe.
    Jedoch reichts es bei mir das im Bios eben so einzustellen, sprich mehr Kerne (wie normal nur einer) im Turbo laufen zu lassen. Wobei das wiederum ungut ist wenn die Kühlung nicht ausreicht bzw. das stresst die CPU schon wenn statt nur ein Core drei oder 4 im Turbo laufen. Da ich bei meiner K CPU den Multi hochgesetzt habe, mache ich das nicht mit zeitgleich zum OC noch mehr als 2 Kerne im Turbo laufen lassen. Dat wäre too much des guten :) OC und normaler Turbo (OCed aber halt nicht alle Kerne) passt bei mir. Clovers Auto CS/PS Generator liest das was im BIOS eingestellt ist brav aus und verwendet das dann so bei mir.

    Yupp, gaz anders siehts mit OpenCL beim NeatVideo Bench aus, mit einer Vega 11 FPS mit zwei 15 FPS. Wobei die CPUs (falls modern und 6 Cores+) kaum langsamer sind bzw. gegenüber RX 560 sogar schneller. Bei Luxmark dagegen haben auch 6 Core CPUs keine Chance gegen eine RX 560 :)
    PS: Luxmark ist ja ein "Abfallprodukt" des Luxrender - ein Plugin für Raytraycing mit BLENDER. Da wird auch fleißig weiter entwicklet - zur Zeit 2.0RC1 fürs LuxCoreRender Plugin. Leider noch nicht für OS X (als fertig compiliertes Modul, nur Source). https://luxcorerender.org/download/


    https://luxcorerender.org


    Obs mal einen neuen Luxmark (4.0 ?) gibt, der diese neue 2.0 LuxCoreEngine auch nutzt bleibt abzuwarten.
    Die Devs (welche OS X unterstützen) sind eher sauer, dass Apple bei OpenCL 1.2 stehen blieb (und wohl bleibt) wobei OpenCL glaube bei 2.1 ist (Win/Linux).

    Finder Icons ja schon. Glaube gemeint sind eher die Icons (Bedienfelder?) in den Apps bzw. die Texte in den Menüs, oder?
    Manche Apps bieten ja nei EInstellungen an die Icons / Menütextgröße einzustellen, aber da sind wenige. In Safarie kann man zumindest die Mindest textgröße einstellen, dass man den Seitentext noch mit 50 lesen kann.

    Stimmt natürlich, wenn deine GPU SMBIOS 17,1 braucht dann den CPU PM Part zu patchen ( xpm..plist 13,2 für 17,1 .nehmen). Aber wie gesagt, bei mir lief der Turbo einwandfrei ohne ssdt /ohne XPM Mode. Einzig ist der XPM Mode anscheinend stromsparender weil er aggerssiver runtertaktet wie der ältere PM über den .kext.


    So ganz verstehe ich nicht wieso du nicht gleich den zur IVY CPU passenden iMac 13,2 = Mac-FC02E91DDD3FA6A4 (oder 13,1) als SMBIOS nimmst und stattdessen 17,1 (was ja für neuere CPU gedacht ist). So wäre auch das, klart nötige überschreiben vom Plugin Mac-Mac-B809C3757DA9BB8D = iMac17,1 (einer von 3) mit dem für deine CPU (iX-3YYY, IVY) passenden FC02E91DDD3FA6A4 = 13,2 (13,1 passt auch) unnötig.


    Also ich nutze bei meiner IVY 3570K noch nicht den XPM kernel Mode fürs stepping sondern das über Apple AppleIntelCPUPowerManagement was zusammen mit Clovers P/C State Gen - auch mit OCed (200 MHz mehr durch Multi höher im Bios) + Turbo einwandfrei geht.
    Ich hatte das ganz auch mal mit dem ssdtgen und XPM probiert. Das Stepping hat damit auch einwandfrei funktioniert - nur hat sich gezeigt das XPM (kernel) gegenüber dem AppleIntelCPUPowerManagement aggressiver Strom spart, sprich die CPU schneller runtertaktet und weniger oft in den Turbo Mode ging / blieb. Am Laptop XPM sicher besser! Aber am Desktop lasse ich es beim AppleIntelCPUPowerManagement . Paar % mehr CPU Leistung. Kann sein, dass es mit neuerer CPU Gen. anders aussieht als bei der IVY.

    Ja, zuerst hörte meine 81000 Meldung mit "..." auf , um Platz für das spätere "...Photoeditor zu lassen. War klar das Ihr da schnell drauf kommt :) Aber mal Abseits schnöder Zahlenwerte etwas zum Rätseln zu haben, dachte ich wäre mal gut.


    Luxmark skaliert gut - denke 2 mal Verga ist mind. 1,75 mal eine Vega. Beim Neatvideo Bench waren es ja bei der Vega nur Faktor 1,4. Dazu muss man die nicht mal ausbauen sondern kann die im rechten Bereich durch ab- und anhaken deaktivieren oder aktivieren und dann um Menü über "Benchmark selected devices only" testen.

    Ja, das ist mit Sicherhit auch nötig. Der Verweis auf Apples "Treiber" zieht nicht so ganz, da Luxmark OpenCL A: viel besser mit Multi GPU skalieren und auch Win / OS X Werte nicht so verschieden sind. Andererseits ist OpenCL auf Win/Linux schon weiter in der Version - sprich kann Dinge die Apples OpencL noch nicht kann. Das muss dann jedoch schon im OpenCL Code geprüft werden und entsprechend der OpenCL Version (if Version 2. then ...) behandelt werden. Die bestehende OpenCL Version von Apple dürfte jedoch weitgehendst optimiert worden sein, weil seit mind 2 Jahren gleich.
    https://de.wikipedia.org/wiki/OpenCL
    Ein Trauerspiel - Apple hat maßgeblich OpenCL miterdacht und 2009 als erster 1.0 herausgebracht... Dann blieb Apple aber im Jahr 2012 bei 1.2, bis heute, stehen. https://support.apple.com/de-de/HT202823
    Die anderen brachten 2.0, 2014 2,1 und nun , Mai 2017, 2,2 heraus... Vom Wegbereiter Apple keine Spur mehr - obwohl OpenCL weit mehr Nutzen hat weil platformübergreifend (wie CUDA) im Gegensatz zu Metal. Metal kennen die meisten ja gar nicht bzw. Devs die platformübergreifend entwicklen sind mit OpenCL + CUDA schon gut bedient und ist auch erst am Anfang was GPU computing betrifft. Schade.


    Interessant wäre zu wissen von was für einem Unterschied der da redet. Deutlicher oder eben so 10-15%, was dann auch nicht so wesentlich besser wäre.
    Habe kein Multiboot System (Win bei mir VMWARE) - falls jemand Windows native hat wäre ein Vergleich dieses Benches Win/O SX auf gleichem Rechner natürlich interessant. EInerseits ob GPU only dann mal deutlich über CPU kommt bzw. eben die GPU FPS absolut Win / OS X.

    als die GTX 1050 rauskam, gab es etwa ein Jahr keine Unterstützung. Erst mit 10.12.4.
    Die GT1030 läuft auch.
    Ob das Spiel die akzeptiert, steht auf einem anderen Blatt.


    Das Spiel akzeptiert die 1030er schon - kennt es die GPU nicht prüft es VRAM Größe - und 2 GB sind dem Spiel recht.
    Was anderes ist wie sich das bei dem modernen Spiel spielen lässt. Bis 1600x1050 sicher noch Ok. Auch wichtig ist CPU und RAM, was bei dem Rechner mit i3 (2. Gen?) und 8 GB RAM eher schon knapp sein wird. Da ne teurere GPU zu kaufen machtw enig Sinn, weil auch CPU/RAM das ganze limitiert. Denke für diese Art Spiel (Aktion) wäre schon ein i5 (3. Gen) , 12 GB RAM und ne 1050er oder AMD 460/560er sinnvoll, sonst machts wg hängern (CPU, RAM; GPU) kaum Spass...

    Yupp, kann sein dass der OpenCL Coed noch für modernere GPUs optimiert werden muss. OpenCL ist halt keinesfalls so, dass ein Source Code automatisch optimal für lowend bis highend GPU optimal läuft. Leider... Das ist auch der Grund, warum es sehr aufwändig ist das ganze (stets!) an neuere GPU Modelle anzupassen. CUDA gibts schon länger und es gibt vorallem deutlich mehr Entwickler die das beherrschen (optimieren). Daher kommt hier teilweise mehr "Power auf der Straße an".
    Gibt zig Berichte / Tests aus der GPU computing Forschung, dass OpenCL/CUDA nur dann echt gut funzt wenn A) das was zu tun ist gut parallelisierbar ist und B) das wirklich aufwändig von Hand optimiert wird. Ansonsten sind CPUs, speziell mit sehr vielen Kernen sogar schneller wie CUDA/OpenCL.
    Zeigt sich auch Hier bei der Testbewertung am Ende des Tests: Wer eine 6+ Kern CPU hat sieht "Beste Leistung mit CPU only...", und nicht GPU oder CPU+GPU Kombi.


    EDIT: Test mit High Sierra (satt vorher Sierra, noch mein Allatgssystem) ergab fast gleiche Werte, 5.4 GPU alleine.
    DSM2: Bei seinen 2 AMD Karten ergibt sich gegenüber nur einer ein 15 zu 11. Insofern auch hier, anders wie beim Luxmark OpenCL, nicht optimale Skalierung bzw. Auslastung. Kann sein, dass der mit Sicherheit hoch komplexe Code dieses Filters auf CPUs einfach besser läuft - nicht jeder Code lässt sich halt gut parallelisieren bzw. ist so komplex (viele if then else), dass das die GPU eben nicht gut kann. Gibt viele Beispiele wo selbst hochoptimierter OpenCL Code, mangels parallelität und wg komplexität schlechter läuft wie auf modernen Muilticore CPUs.

    Nun das Spiel (evtl. von Feral) kennt halt nur die in Macs verbauten Grafikkarten, Feral hat nutzt dazu eine Datei (Textform) in der die ganzen GPUs aufgelistet sind und prüft das beim Spielstart.
    Unten im Bild diese Datei als Bsp im neuen SPiel F1 2017.
    Kennt das Spiel deine GPU nicht (weil nicht in der Datei) , wird zumindest geprüft ob das VRAM genug groß ist (wohl mind. 2 GB). Theoretisch kann man diese Datei editieren, sodass das Spiel laufen würde, doch eben nur schlecht spielbar. Da Ferals Mindestanforderungen eh eigentlich zu gering sind.
    Was für eine GPU hast du drin? Für neue Games ind FullHD bieten sich GPUs mit 4GB+ VRAM an. Auch 2 GB VRAM reichen aber meist auch aus - falls man preissensibel ist und eine gebrauchte kaufen möchte.
    Falls du diese Geforce 8600 drin hast - wahrscheinlich nur 512 oder 1 GB VRAM, brauchst du zum Spielen (selbst für viel ältere, einfachere Games) eh ne neuere Karte mit 2 GB VRAM. Ne GT 1030 2 GB VRAM geht durchaus als Einstieg, ist deutlich schneller wie GTX 650 bei deutlich weniger Watt.


    Ferals F1 2017 specifications.xml

    Nun, leider ist der Heaven Benchmark aus 2009 - sprich aus Zeiten Yosemite... letztes Update war 2013. Was bei diesem Bench auffällt- im Gegensatz zu (leider nur für Win) moderneren real Game benches ist, dass der extreme Unterschiede bei MIN und MAX FPS aufweist. Normal und gut sind schon 20-30% Diff min/max FPS bei solchen real game benches (längere Szene, wie es bei Games vorkommt). Aber hier oft Faktor 10+ zw. min/max. Insofern muss man da neben dem Endergebnis (Score und "Gesamt FPS") immer auch die Min/Max FPS mit einbeziehen.


    Den viel neueren aus 2017 , https://benchmark.unigine.com/superposition, gibts leider nur für Linux und Windows.

    Nun im Prinzip scheinen die AMDs ja seit der neuesten HS Version durchaus auch ohne WEG zu laufen.
    Doch! - es wird so sein, dass es auch davon abhängt welchen Port (DVI, DP, HDMI,...) man für den Videoausgang nutzt. Vermutlich gehen eben nicht alle bzw. das hängt wieder von der Anzahl der Ports und dem GPU BIOS ab.
    War ja schon vor WEG eines der Probleme - nicht alle Ports liesen sich nutzen.

    Ok, verstehe. Du meinst man nimmt dann einen Clover Ordner den man zb. von einem User hier (evtl. sogar passend zum MB/HW von config.plist und den kexten ) und kopiert das unter Windows auf einen frisch formatierten USB Stick FAT32?
    Aber dann passt doch das Apple OS X Install nicht drauf, weil mehr als 4 GB File, oder?

    Nun ich denke das wirds Problem nicht! lösen - und zusätzlich jede Menge Arbeit machen (Stunden!) ohne das du weiter kommst.
    Sehe ich es richtig, dass du in dem Hack keine GPU hast nur die HD2500er? Also ich habe diese Ivi GPU nie zum laufen gebracht. Ging wohl bis 10.8/9 gut, danach nicht mehr (100%tig). Insofern wirst du eh eine GPU brauchen wobei selbst ganz einfache gebraucht reichem um schneller wie die HD2500 zu sein (wenn die mal mit neueren OS X richtig laufen würde!).
    Von den kexten liegt du schon mal richtig - wobei manche LILU (die Mutter der entsprechenden LILU Plugins ) zwingend brauchen. Ohne LILU.kext können diese gar nicht arbeiten = keine Fuktion!


    Info dazu LILU - und welche Plugins LILU brauchen:
    https://github.com/vit9696/Lilu/blob/master/KnownPlugins.md


    https://github.com/vit9696/Lilu/blob/master/KnownPlugins.md