Pascal Performance jenseits von Games

  • Hallo Forum,


    nach mehreren Jahren mit einer Asus 660 Ti 3GB wollte ich eine etwas bessere Grafikperformance erreichen.
    Ich habe eine EVGA 1060 besorgt, mehr testweise in meine Zwei-Monitor Setup, Eizo 27 Zoll 2560x14440 und NEC 24 Zoll 1920x1200.
    Die Karte läuft mit 6GB, x16, neueste Nvidia-Treiber, Lilu und NvidiaGraphicsFixup in 13.1. Sieht alles also gut aus.


    Nur: Die Every-Day Grafikperformance hat sich kein Stück verbessert, eher etwas verschlechtert.


    z.B.
    Hardcore: In Lightroom Bilder entwickeln, zusätzlich HVEC Video laufen lassen, EyeTV oder VLC. Mit beiden Karten kommt das Video manchmal fast zum Stillstand, mit der 660 Ti bleibt Lightroom scheinbar etwas besser bedienbar..
    Oder C4D: Aufwändiges Projekt, Bewegung eines Elements. Mit beiden Karten Bildneuaufbau nach ca. 5 sec, kein Unterschied.
    Beim Scrollen in Firefox mit Hardwarebeschleunigung ist die 660 Ti etwas besser.
    PTGUI rendern 130 Megapixel Panorama mit Hardwarebeschleunigung, 11 Sekunden mit der 660 TI , 10 Sekunden mit der GTX 1060, quasi gleich.
    Benchmarks will ich hier nicht zeigen, das hat wenig Aussagekraft in dem Zusammenhang. Beide Karten erreichen aber in Cinebench 15 den gleichen OpenGL-Wert von ca. 130 , die 660 TI ist etwas besser. In Geekbench 4 ist die 1060 weit überlegen.


    Meine Fragen:
    Braucht man eine schnellere Karte, um bei der Arbeit jenseits von Spielen eine deutliche Verbesserung zu spüren, z.B. eine 1080 oder 1080 TI?
    Gibt es irgendwelche Parameter im System an denen man schrauben kann wg. Grafikperformance?
    Ist der NVIDIA-Treiber so schlecht?
    Gibt es irgendwelche Parameter in Clover, SSDT, Kexte o.ä., an denen man schrauben kann?


    Die 300 € Ausgabe macht ansonsten keinen Sinn, ich würde die Karte zurückgeben.

  • Wenn man Gebrauchtpreise einer GTX 660 und Neupreis einer GTX 1060 und entsprechende Leistung vergleicht, kommt die GTX 660 eindeutig besser weg.


    Cinebench-Werte von Grafikkarten sich nicht aussagekräftig hat hier @Brumbaer mal irgendwo erklärt, finde ich nicht.


    HEVC: die Kepler hat keinen Codec. Klarer Nachteil.
    Jetzt ist die Frage wie man den Codec in der Pascal nutzen kann. In Windows kein Problem, weiß ich aus Erfahrung.
    In Macos schwieriger.

    Intel - diverse geniale Hardware bis einschließlich Skylake, damals...

    AMD X6 1035T Silentmaxx TwinBlock - ASRock N68-S -8GB RAM - XFX HD 6450 Passiv - Etasis EFN-300

    AMD 7 3700X - Noctua NH-P1 - B550 Aorus Pro V2 - RX460 Passiv - Silentmaxx Fanless II 500 Platinum

    - - - - - - - - HOWTO: RYZENTOSH - - - - - - - -

  • Hallo Ralf,


    was die Performance jenseits von Spielen angeht scheint mir kein Benchmark wirklich aussagekräftig. Cuda Cores sind eine Marke, aber es gibt ja nur ein wenige Programme die das unterstützen. Cinebench OpenGL Werte im gleichen System haben vermutlich schon eine gewisse Aussagekraft beim Vergleich.


    Was ich erstaunlich finde, ist dass die 1060 gegen die 5 Jahre ältere 660 TI im Hackintosh eher abschmiert.


    Deshalb die Frage mal so: Gibt es eine Grafikkarte, die in allen Anwendungsbereichen Finder, Video, z.B. auch Photoshop, Lightroom usw. eine Beschleunigung erzeugt oder kaufen alle die teuren Karten nur um zu spielen?


    Außerdem: Kann man die Grafikperformance irgendwie optimieren, SSDT o.ä.?

  • Bei Cinebench (Grafikkarte) ist immer die Leistung der CPU ausschlaggebend.


    Bei deinem Hack kann was nicht in Ordnung sein. Vielleicht ist der Webdriver nicht aktiviert.


    Normal sollte die Pascal etwa dreimal so schnell sein, auch OpenGL:
    Benchmark die zweite

    Intel - diverse geniale Hardware bis einschließlich Skylake, damals...

    AMD X6 1035T Silentmaxx TwinBlock - ASRock N68-S -8GB RAM - XFX HD 6450 Passiv - Etasis EFN-300

    AMD 7 3700X - Noctua NH-P1 - B550 Aorus Pro V2 - RX460 Passiv - Silentmaxx Fanless II 500 Platinum

    - - - - - - - - HOWTO: RYZENTOSH - - - - - - - -

  • Hi Ralf,


    im NVIDiA Driver Manager wird Web Driver als aktiver Treiber angezeigt. Die Karte läuft mit x16.
    Lt. Systembericht/Erweiterungen aktiv GPU betreffend:
    Cuda, GeForceWeb, NVDAGP100HalWeb, NVDAResmanWeb
    Nicht aktiv merkwürdigerweise NVDAStartupWeb
    Ich vermute also schon dass die Web Treiber aktiv sind.


    Hier doch die Benchmarks:
    Benchmarks 660 Ti 3GB
    Geekbench 4.2, OpenCL 50900, Metal 63200, Cuda 70000, Cinebench 133


    Benchmarks 1060 6GB
    Geekbench 4.2, OpenCL 108900, Metal 123800, Cuda 136600, Cinebench 131


    Von den doppelten Geekbench Werten merkt man absolut nichts, nada. Geekbench scheinen nur für Spiele aussagekräftig.


    Der Cinebench gibt am besten das Every-Day Verhalten wieder (im selben System bewertet), die Karten nehmen sich nichts, wie gesagt läuft die 660 Ti insgesamt runder.
    Ich habe übrigens noch eine 1050 Ti, die einen Cinebench von 105 erreicht im selben System. Auch das entspricht in etwa den (teils gefühlten) Performance-Verhältnissen bei Every-Day.


    Gibt es denn eine Möglichkeit mehr aus der 1060 rauszukitzeln? Irgendwelche SSDT-Schrauben?

  • Nun ich will deine Erfahrungen was rund läuft nicht gerade entwerten, aber Cinebench Werte sind toll für die CPU Speed Test aber schlecht um OpenGL zu testen. Nicht ohne Grund bieten die die neuere CB nur für Windows an da Apple noch auf eine Uralt OpenGL Version setzt.
    Daher sind CB OpenGL Werte eher was zum Würfeln, egal ob AMDs 580 oder Nvidia 1060/70/80 - die Werte entsprechen nicht der wahren Möglichkeiten der Karten und bei fast allen Testern steht der Mund weit offen, weil nach dem Kartentausch sich die CB Werte sogar verschlechtert haben obwohl in allen anderen (besseren GPU Benches) die Werte mit der neueren, schnelleren Karte auch besser waren.

    Einmal editiert, zuletzt von mitchde ()

  • Vielleicht ist es natürlich einfach Zufall dass Cinebench bei meinem System so ziemlich genau die Verhältnisse zwischen 3 Grafikkarten wiedergibt - immer noch für die von mir aufgeführte Grafikbearbeitung, Video, Finder usw., also alles jenseits von Spielen und Cuda. Das ein Vergleich von System zu System keine Aussagekraft hat ist klar. Geekbench hat bei mir jedenfalls bei Real Life Performance keinerlei Aussagekraft.


    Das speziell die Arbeit mit Lightroom, das explizit auf GPU Unterstützung setzt, so uberhaupt nicht schneller läuft, eher träger - ständig Beachball was bei der 660 Ti die Ausnahme ist - ist schon sehr merkwürdig. Auch PTGUI ist ja kaum schneller.


    Die Pascal Treiber scheinen zumindest für die 1060 sehr schlecht zum System zu passen oder was anderes ist noch falsch.

  • Vielleicht ist es natürlich einfach Zufall dass Cinebench bei meinem System so ziemlich genau die Verhältnisse zwischen 3 Grafikkarten wiedergibt - immer noch für die von mir aufgeführte Grafikbearbeitung, Video, Finder usw., also alles jenseits von Spielen und Cuda. Das ein Vergleich von System zu System keine Aussagekraft hat ist klar. Geekbench hat bei mir jedenfalls bei Real Life Performance keinerlei Aussagekraft.


    Das speziell die Arbeit mit Lightroom, das explizit auf GPU Unterstützung setzt, so uberhaupt nicht schneller läuft, eher träger - ständig Beachball was bei der 660 Ti die Ausnahme ist - ist schon sehr merkwürdig. Auch PTGUI ist ja kaum schneller.


    Die Pascal Treiber scheinen zumindest für die 1060 sehr schlecht zum System zu passen oder was anderes ist noch falsch.

    Nun die Apps, wie von Adobe, welche die GPU nutzen werden dass natürlich über OpenCl, Metal oder Cuda machen. OpenGL bringt da nix.
    Wenden diese Apps die Gpu Schnittstelle nicht ganz fehlerfrei an kann das auch Leistung kosten. Neuere Gpus besitzen neuere und leicht anders anzusprechende Schnittstelle was dazu führen kann, dass ältere Gpus , die langsamer sind, nicht lamgsamer laufen wie neueste Gpus.
    Liegt insofern oft gar nicht an den Treibern von Apple, Nvidia sondern an den Apps die die gpu nutzen.
    Gerade bei Adobe Apps gibts häufiger nicht nur Speedprobleme mit neueren gpus sondern auch bugs in der Darstellung welche nicht vom Treiber sondern durch die App selbst hervorgerufen werden.
    Adobe testet natürlich, jedoch ist es halt so, dass die eher selten die App auch mit gpus testen welche es bei OS X eigentlich gar nicht gibt. Dazu gehören halt auch 'neuere" Nvidias = alles ab Maxwell :( - und neueste Amds.


    Gesendet von meinem SM-J320F mit Tapatalk

  • Das speziell die Arbeit mit Lightroom, das explizit auf GPU Unterstützung setzt,


    Naja, so viel wird im Lightroom ja nicht durch die GPU beschleunigt!


    HIERFÜR NUTZT LIGHTROOM 6 / CC GRAFIKKARTENBESCHLEUNIGUNG:nämlich nur für die Echtzeitdarstellung der meisten (Ausnahmen s.u.)Entwicklungseinstellungen im Entwickeln-Modul
    Und ja, das geht auch bei mir jetzt gefühlt flotter mit der neuen Grafikkarte. Aber ehrlich gesagt ist das schwer zu vergleichen, deswegen eben “gefühlt”. Ansich war die Performance in dem Bereich bei mir auch schon vorher okay. Ein Bewegen der Regler löst mit der GTX980 Änderungen am Bild so gut wie in Echtzeit aus. Allerdings nur, wenn Lightroom nicht im Hintergrund Bilder exportiert, HDR’s zusammensetzt oder ein Panorama berechnet! Dann nämlich, wird alles relativ zäh, da die Prozessoren voll ausgelastet sind.


    FOLGENDES PROFITIERT DERZEIT IN LIGHTROOM 6 / CC NICHT VON EINER SCHNELLEN GRAFIKKARTE:Die Bibliothek und alle anderen Module – außer Entwickeln
    Die Schnellentwicklung in der Bibliothek
    Der Export (!)
    Die HDR Funktion
    Die Panorama Funktion (hätte mich auch gewundert!)
    Der Korrektur-Pinsel und die Bereichsreparatur im Entwickeln-Modul (probiert es mal aus, der ist nun schnarchlahm, wenn die Grafikkartenbeschleunigung eingeschaltet ist)
    Der zweite Bildschirm, falls ihr Lightroom im Zweischirm-Betrieb fahrt


    So, da haben wir es. Die Grafikkarte beschleunigt also nur die direkte Auswirkung der Regler auf das Bild im Entwickeln Modul.


    Hast du mal geschaut, ob bei der 1060 die Grafikbeschleunigung in Lightroom aktiviert ist?


    iMacPro1,1: Fractal Define R6 - ASUS SAGE X299 - i9 10900X 3,7Ghz - 32 GB - Sapphire RX 5700 XT Pulse 8GB - NVMe SSD 960 EVO 1 TB - BCM943602CS Combo Karte - Sonnet Solo 10G AQC-107 - Titan Ridge TB3 - macOS 11.7 - OpenCore 084

    Proxmox: G5-Casemod - GA Z270-HD3P - i7 7700k 4,2Ghz - 16 GB - iGPU - GT 730 - NVMe SSD 1TB - VM1: Monterey - VM2: Windows 10 - VM3: Mannaro VM4: Unraid

    Mac Mini Studio: 32 GB - 512 GB SSD - CalDigit TS3 Plus Station - Terramaster D2 TB3 Raid

  • Hallo Sunraid,


    klar, Lightroom war noch nie richtig schnell - ich bin ein alter Lighroom-Hase, habe damit bestimmt. 200.000 Bilder entwickelt. Grafikbeschleunigung ist immer an, klar. Lange her, dass ich so viele Beachballs in Lightroom gesehen habe wie mit der 1060ger.


    Das gesamte Zusammenspiel zumindest dieser 1060 EVGA mit Treibern, System und natürlich der Anwendungs-Software bringt einfach die Leistung nicht auf die Straße. Das betriffet ja nicht nur Adobe Software, sondern auch andere Programme. Das liegt m.E. ziemlich sicher nicht an NVIDIA, sondern an Apple und dann auch an Adobe.


    Die Karten, die treiberlos im System laufen, 600 Serie, scheinen jedenfalls ihre Leistung zu 100% zu bringen. 10 Watte weniger Idle-Verbrauch war schön, rechnet sich aber nicht. Deshalb geht die 1060ger zurück. Danke für eure Beiträge.


    Vermutlich müsste es eine 1080 Ti sein um einen Unterschied zu merken, finde ich aber momentan deutlich zu teuer.


    Interessant: Bei Tony (darf man ja aus irgendwelchen Gründen hie nicht verlinken) gibt es unter dem Titel "My experience on AMD vs NVIDIA vs Intel" einen frischen Thread, wo Besitzer von 1070, 1060 und 1050 Ti Ähnliches beklagen und zu AMD wechseln. Deren NVIDIA-Karten laufen auch nicht rund.


    " Little glitches here and there and also Final Cut was a nightmare. Really slow UI, cannot render 3D text, just to name a few problems."


    AMD zu probieren scheint eine Option zu sein...


    Update: Ich habe jetzt eine Asus Dual RX580 8GB.
    Wow, was ein Unterschied. Eine NVIDIA 1060 und wahrscheinlich auch eine 1070 kann man dagegen vergessen.


    Lightroom: Schnell wie nie. Sogar ein HVEC Stream läuft nebenher ruckelfrei auf dem zweiten Monitor.
    PTGUI rendern: Der Hammer, 6 Sekunden gegenüber 11 Sekunden mit der 1060 6GB und meinem Testprojekt
    EyeTV ruckelt zum ersten Mal seit Wechsel zu DVBT2 nicht mehr
    After Effekts verblüffenderweise trotz fehlendem Cuda wird der Preview meines 1080ger Testprojekts ein gutes Stück schneller als mit der 1060ger erstellt, läuft in Echtzeit.
    Keinerlei Ruckeln mehr in Firefox. Auch VR Panoramen lassen sich absolut flüssig drehen. Es ist immer möglich, einen ruckelfreien Stream parallel auf dem zweiten Monitor abzuspielen, wow.
    Alles andere was ich getestet habe schnell und flüssig und problemlos.


    Vor allem dass das Adobe Zeug profitiert hatte ich nicht unbedingt erwartet. Cinebench und Geekbench der RX560 sind auch schneller als bei der 1060ger, das war klar, ist aber für den Alltagseinsatz uninteressant.


    Durch das neue RadeonDeInit = YES ist die Einbindung absolut problemlos, nur dieser Eintrag in Clover ist nötig. Die Apple Treiben sind einfach optimal.

  • Das wirkliche Problem sind die Webtreiber von NVIDIA aus welchem Grund auch immer...
    Das Zeug funktioniert irgendwie aber eben nicht wirklich und dabei mag ich nicht mal werten wer sich dafür den schwarzen Peter einstecken darf denn es kann sowohl sein das NVIDIA das einfach nicht mit Herzblut entwickelt wie es sein kann das Apple wichtige Specs nicht rausrückt. So oder so die Situation ist eher unbefriedigend...