Benchmark die zweite

  • Wo kommen sonst die 81000 her ?

  • @DSM2


    Dass die Image Validation, bei der selben GK übereinstimmt, mag so sein.


    Dass bei zwei aufeinanderfolgenden Einträgen das 5 Stellige Ergebnis in 4 Stellen übereinstimmt ist sehr unwahrscheinlich.


    Das Luxmark Ergebnis ist ziemlich genau die Summe der Einzelergebnisse. Das Hinzufügen einer dritten Veg64, sollte das Ergebnis nicht um genau 20000 erhöhen, sondern um 25000 bis 27000.


    Und, wenn dich das immer noch nicht stutzig macht, schau dir mal die rechte obere Ecke der 8 an.


  • Benchmark Porno 8o es geht ja nicht darum wer hier den längsten hat ;)


    Wer Benchmark Ergebnisse fälscht hat das alles völlig missverstanden.


    Ein stabiles System ist 1000mal mehr wert als der überdrehte Ferrari, der an der nächsten Ecke einen Kolbenfresser hat.

    XEON 14core 64RAM 2x Radeon VII Catalina

  • @Brumbaer: Hast natürlich recht, hatte nur kurz einen Blick drauf geworfen als ich unterwegs war! Davon abgesehen würde auch die Performance der dritten sinken...

  • Da muss noch was gehen ... wenigstens mit Photoeditor


    Da wurden seine Ironie und Humor leider nicht wahrgenommen... ich find's amüsant :thumbup:

     iPhone 4_4s_5_6s_X_PowerMac7,2 G5 (Mid 2003)_iMac10,1 (27" Late 2009) out of order_MacPro5,1 (Mid 2012)


  • Das "wenigstens mit Photoeditor" wurde nachgeschoben und war nicht in der Original Post enthalten.


    @DSM2
    Miss doch mal jede Karte einzeln und vergleiche die Summe mit dem Wert von deinem Paar. Wäre interessant zu sehen wie dicht die Werte beieinander liegen.

    Einmal editiert, zuletzt von Brumbaer ()

  • Ja, zuerst hörte meine 81000 Meldung mit "..." auf , um Platz für das spätere "...Photoeditor zu lassen. War klar das Ihr da schnell drauf kommt :) Aber mal Abseits schnöder Zahlenwerte etwas zum Rätseln zu haben, dachte ich wäre mal gut.


    Luxmark skaliert gut - denke 2 mal Verga ist mind. 1,75 mal eine Vega. Beim Neatvideo Bench waren es ja bei der Vega nur Faktor 1,4. Dazu muss man die nicht mal ausbauen sondern kann die im rechten Bereich durch ab- und anhaken deaktivieren oder aktivieren und dann um Menü über "Benchmark selected devices only" testen.

  • Skaliert ja besser als die Mathematik :D


    Edit: Na ja, die Werte sind ja immer etwas in Bewegung. Zumindest bei dieser Anwendung (und eine tatsächlich sinnvolle – LuxRender) wird perfekt skaliert, eine weitere baugleiche Grafikkarte verdoppelt die Performance.

    Bilder

    ASUS PRIME X299-DELUXE i9-9940X • DDR4 64GB • SSD 960 PRO 1TB • Thunderbolt3 Titan Ridge • 2x AMD Radeon RX Vega 64 • BMD Intensity Pro 4K

    ASUS WS X299 SAGE/10G i9-10980XE • DDR4 64GB • SSD 970 PRO 1TB • Thunderbolt3 Titan Ridge • 2x AMD Radeon VII • BMD DeckLink 4K Extreme 12G


    Ordnung ist die primitivste Form von Chaos. (Hans-Jürgen Quadbeck-Seeger)

    Einmal editiert, zuletzt von apfelnico ()

  • Das ist was ich meinte. Luxmark skaliert wie ein Weltmeister.
    Der Cinebench CPU Test zeigt auch warum. Das Rendering erfolgt auf Tiles, die weitesgehend unabhängig voneinander berechnet werden können. Je mehr Compute Units desto mehr Tiles gleichzeitig. Der Bottleneck ist im Wesentlichen, das sie sich den Speicher teilen.

  • Yupp, gaz anders siehts mit OpenCL beim NeatVideo Bench aus, mit einer Vega 11 FPS mit zwei 15 FPS. Wobei die CPUs (falls modern und 6 Cores+) kaum langsamer sind bzw. gegenüber RX 560 sogar schneller. Bei Luxmark dagegen haben auch 6 Core CPUs keine Chance gegen eine RX 560 :)
    PS: Luxmark ist ja ein "Abfallprodukt" des Luxrender - ein Plugin für Raytraycing mit BLENDER. Da wird auch fleißig weiter entwicklet - zur Zeit 2.0RC1 fürs LuxCoreRender Plugin. Leider noch nicht für OS X (als fertig compiliertes Modul, nur Source). https://luxcorerender.org/download/


    https://luxcorerender.org


    Obs mal einen neuen Luxmark (4.0 ?) gibt, der diese neue 2.0 LuxCoreEngine auch nutzt bleibt abzuwarten.
    Die Devs (welche OS X unterstützen) sind eher sauer, dass Apple bei OpenCL 1.2 stehen blieb (und wohl bleibt) wobei OpenCL glaube bei 2.1 ist (Win/Linux).

    3 Mal editiert, zuletzt von mitchde ()

  • Da ich die Werte noch nicht gefunden habe hier meine Werte von der HD 620 im Zenbook.





  • GeeXLab RhodiumLC Shader Bench:


    Hier meine RX 460, Sierra: 39-40 FPS, bei Fullscreen (habe nur 1680x1050 = 11 FPS), High Sierra: 40-41 FPS
    (Hinweis:
    Unter Windows erreicht eine AMD Vega 56 bei 1920×1080 43 FPS, bei 3840×2160 11 FPS)
    GPU hat hohe Last = viel zu tun = GPU TEMP (RadeonMonitor) legt kräftig zu.


    PS: App in DL (unten)
    SIerra: Das Shaderfenster scheint bei Sierra öfters mal keinen Fokus nach dem App Start zu bekommen. Einfach über GeeXlab Menue der App "About GeeXlab.:", das About Fenster schließen und .. das eigentliche App Fenster kommt dann.
    Bei High Sierra scheint es dieses Problem (App Fenster erscheint nicht) nicht zu geben!

    Dateien

    3 Mal editiert, zuletzt von mitchde ()

  • @anonymous writer
    Danke für die Werte.
    Die Iris Pro 650 befindet sich schon in der Liste, allerdings gab es damals beim Hotel Test einen fail. Ich werde deinen Hotel Wert hinzufügen.
    Der Heaven Test muss mit dem Preset Extreme durchgeführt werden, sonst sind die Werte nicht vergleichbar.

  • @anonymous writer
    Danke für die Werte.
    ....
    Der Heaven Test muss mit dem Preset Extreme durchgeführt werden, sonst sind die Werte nicht vergleichbar.


    Das geht leider dann nicht, wenn die Presets gleichzeitig auch eine höhere Auflösung einstellen als der Laptop / Decktop das kann. Die jeweilige Auflösung ist maßgeblich für die erzielbaren FPS Werte, neben Quality.

  • Hallo @Brumbaer,
    hier der Wert mit "Preset Extreme". Habe mich schon gewundert das der Wert so hoch ist. :)
    Es ist jedoch einen Intel HD Graphics 620. Wird von den Test als 650 angezeigt.


  • Dann mal hier mein Ryzen 2700x mit 3.69 GHz, wieso auch immer meiner nicht mit 3,7 GHz läuft (auch Windoof)