Posts by mitchde

    Nun, du hast wohl bisher eine MBR Install genutzt (statt UEFI). Dann passt das schon mal im ersten Bild. Diese RX Scripte Option braucht man nur wenn das Mainboard das NVRAM nicht richtig unterstützt, sprich verliert zwischen booten. Mein GA Z77 bruacht diese Scripts nicht.

    Falls später mal Mojave (oder du jetzt schon APFS Volumes hast= ansteht noch ApfsDriverLoader aktivieren.

    Tipp: Nach dem Install von Clover stets gut, wenn man VOR dem Neustart erstmal den UEFI Ordner prüft ob auch alle Treiber .efi drin sind die man braucht UND nicht manche neu (doppelt, weil anderer Name!) hinzugekommen sind.

    Mehrere Aptio...efi können echt Probleme machen, stets nur einen verwenden. Da es mehere Arten gibt, ähnlicher Namen aber eben doch verschieden kanns passieren das man plötzlich zwei solcher Treiber hat die das gleiche machen aber nur einer passt und sich die gegenseitig behindern.

    Last but not least: Clover upzudaten, ohne das es einen wirklichen Grund gibt (wie neues OS X was neuen Clover braucht wie dieses Jahr im Herbst/Winter 2019 ..., neueres MB, modernere CPU) macht eigentlich wenig Sinn. Einzig die kexte zu dupdaten (AppleALC, WEG, ...) kann mal nötig sein. Wenn man schon die Clover Version updaten will, würde ich zudem raten diese Version erstmal auf einem USB Stick zu installieren, die entsprechende comfig.plist und kexzte von der bisherigen Clover install dort hin zu kopieren und prüfen ob damit (vom USB Stick) das System noch startet. Wenn nämlich nicht, haste viel weniger Stress als wenn du dein Clover auf demm Startvolume installiert hast :)

    Nee, wenn der Windowserver (ist fürs Verwalten der FEnster und deren Inhalt verantwortlich) zuviel CPU Last erzeugt stimmt was nicht, was auch eine i7 mit 10 Kernen nicht wirklich verbessern würde.

    In der Regel wird bei solchen Zuständen auch was ins System-loh geschrieben, sprich da tauchen Meldungen auf wie stall / errors bezüglich Grafikkarte / Treibern wenn die Kommunilation zw. dem Server und der GPU hakt.

    In Konsole sollten dann vermehrt solche Meldungen auftauchen - am Anfang der Meldung steht was von windowserver oder gpu ....

    PS: Schreibe auch noch welches OS X zu einsetzt, High Sierra wg- Nvidia GPU vermute ich mal...

    Kommt bei der Wahl sicher auch darauf an ob du - was das merken / spüren von Speedunterschieden von ca. als 30% angeht - mit dem Rechner auch Geld verdienst oder rein Hobby. Beim ersteren Fall lohnen natürlich auch geringere Speedzuwächse.

    Als Hobbiest würde ich evtl. - gerade bei RX 580 8 GB - erstmal abwarten wie die Navi 10 GPU ( 7nm) als VEGA Nachfolger Vorstellung Ende Mai auf der Computex 2019 wird. Denke im Herbst gibts diese Karten dann. Highend Navi 20 (als Radeon V II Nachfolger kommt erst 2020+.

    Egal wie du dich entscheidest - im Sommer / Hernst doch Vega 64 oder die Neue Navi 10 - die Zeit spielt für dich was Preis/ Leistung angeht. Die Vegas werden bis dahin etwas günstiger werden, wohingegen deine RX 580 nicht mehr viel an Gebrauchtwert verlieren wird. Oder die bekommst für das Geld der Vega 64 (heute neu) eine Navi 10 die zum gleichen Preis die aber etwas weniger Strom braucht und ca. 10-15% schneller ist.

    Toms Hardware:

    AMD Radeon RX 3000: A New Era Of Radeon Graphics Cards


    According to the leak, the Radeon RX 3080, RX 3070 and RX 3060 will be the first graphics cards to compete with Nvidia's current GeForce RTX 20-series, and they'll come at pretty aggressive price points, too. The Radeon RX 3080 is said to be the rival to the existing GeForce RTX 2070, while the Radeon RX 3070 and RX 3060 would tackle the RTX 2060 and (presumed) GTX 1650 models, respectively.

    RX 3080 - RX 3070 - RX 3060

    Architecture (GPU)
    Navi 10 Navi 12
    Navi 12
    Memory Capacity
    8GB GDDR6 8GB GDDR6
    4GB GDDR6
    TDP
    150W
    120W 75W (no 6-pin)
    Pricing
    $249.99 $199.99 $129.99
    Competition RTX 2070 / GTX 1080 RTX 2060 / GTX 1070 GTX 1650 / GTX 1060

    The Radeon RX 3080 will supposedly employ AMD's Navi 10 silicon produced with TSMC's 7nm FinFET manufacturing process and come equipped with 8GB of GDDR6 memory and a modest 150W TDP (thermal design power) rating. Performance-wise, the Radeon RX 3080 is believed to be 15 percent faster than AMD's current Radeon RX Vega 64 graphics card. The Radeon RX 3080 is expected to carry a $249.99 (~£197.55) price tag.


    Für mich wäre wohl die Navi 12 ein potentieller Nachfolger meiner RX 560 ;)

    Finde es super, das AMD endlich im Bereich Watt/Speed was brauchbares hervorbringen wird. Bisher ja Nvidia da deutlich besser - was uns am Hack-Mac aber leider nix nutzt ;)

    Kommt denn überhaupt das BIOS Bild beim einschalten des PC? Das müsste ganz unabhänigig vom OS X Install kommen. Und wie gesagt, zuerst einmal Moni auf interne GPU umstecken nach CMOS Reset um nach URsachen zu gucken.

    Him Chris. ich werde meine Test IGPU (HD 4000) vs RX 460 , plus beide aktiv noch machen.

    Bei Toni ... folgenden Test gefunden:

    Testing the Radeon RX 580 4GB hardware encoding/decoding in Mac OS 10.14.5 beta 2.
    FCPX version 10.4.6, 4k video file TCL Supercars 4k Demo.mp4 HEVC size 1.33 GB, i5-8400, UHD 630

    Test 1: RX 580 allein: DGPU RX 580 enabled, IGPU disabled, SMBIOS iMacPro 1,1.

    HEVC -> H264 : 4:01

    H264 -> HEVC : 3:09

    Test 2 : iGPU allein: IGPU Intel UHD 630 enabled, DGPU disabled (unplugged), SMBIOS Mac mini 8,1.

    HEVC -> H264 : 3:53

    H264 -> HEVC : 7:04

    Test 3 : iGPU + RX 580 zusammen: DGPU RX 580 enabled, IGPU Intel UHD 630 enabled, DP cable in DGPU, SMBIOS iMac 19,2.

    HEVC -> H264 : 2:28

    H264 -> HEVC : 6:07


    Man sieht, dass - je nach Codec - iGPU enabled (neben RX 580) nicht immer schlecht ist!

    Bei enc. nach h264 Kombi aus iGPU+RX 580 deutlich schnellste Wahl.

    Nur bei enc. nach HEVC ist RX 580 alleine Beste Wahl bei diesem FCP Test.

    Bei Davinci usw. kanns natürlich wieder anders aussehen.



    Stimmt, h264 nutzt dann OSV (Intel iGPU) und HVEC AMD.

    Aber ohne die aktivierung der AMD für HVEC würde meine IVY CPU ja HVEC nicht mal mit der iGPU sondern nur CPU encodieren können- Insofern scon Fortschritt.

    Fraglich ist um wieviel die RX 460 die iGPU bei h264 überholen könnte.

    Hat das schon jemand mal gemessen iGPU vs RX xxx bei h264?



    Wie du schon sagtest, kann man nach den Anzeigen von Videoproc was nun wirklich zum encodieren genutzt wird NULL gehen.


    Hier Bsp HVEC Encoding auf AMD (Siehe Aktivitätsanzeige GPU) . AMD GPU Vollast und Videoproc zeigt INTEL=iGPU)+CPU an. iGPU aber durchgehend idle, AMD dagegen Vollalst...

    Insofern muss man egal welchen Test man macht, stets die IGPU / dGPU Last im Auge behalten um zu sehen ob zumindest das Encoding da läuft wo man denkt das es läuft :)

    Man sieht die richtige Konfig für Nutzung von AMD GPU bei Systemen mit CPUs welche noch kein HVEC können auch daran, dass dann HVEC grün ist. Rein OSV ist das HVEC bei solchen CPUs (IVY,..) dann rot und nur H264 grün.

    Bei mir, trotz iGPU aktiv, wird die AMD 460 sehr wohl zum von HVEC kodieren genutzt (mit dem entsprechenden .kext).

    PS: Bei Videoproc unbedingt diese Auto Copy Option ausschalten, wenns um Speed Tests / GPU Tests geht. Diese Option ist leider per default immer aktiv. Denn sonst encodiert VP gar nix sondern remuxt das Video nur, was wesentlich schneller geht wie das encodieren.

    Nur wenn sich der Videocodec im Quellvideo vom Zielvideo unterscheidet, zB. Quelle MPEG2 Ziel h264 muss VC encodieren, auch wenn Auto Copy an ist.

    Leichte Schwankungen haste auch beim Luxmark! Wenn du die Samples / Sek beim Bench verfolgst (bis 120 Sek) ändern die sich auch gegen Ende noch minimal. Das angezeigte Endergebnis ist ja auch nur ein Blitzlich auf den Durchschnittlichen Wert bei 120 Sek. Hauptunterschied somit nur das handling (Scene von Hand laden) und das ablesen - soweit nicht manche neuesten Karten wg Bugs im OpenCL Part da noch keine stabilen Werte liefern.


    Weil der Luxmark inzwischen veraltet ist und dessen altes Plugin auch nicht mehr zusammen mit Blender genutzt wird.

    Last but not least die Standard LUxmark Scene, Luxball, für heutige Karten viel zu simpel ist - braucht nur wenig VRAM. Wenn Luxmark - nach wie vor schon guter Bench! - dann Micropone oder Hotel Scene auswählen. Diese Scenen laufen erst ab 2 GB VRAM. :)

    Das ist wie Luxmark - auch bei Luxmark ändert sich der Samples / Sek in der ersten Minute noch spürbar! Der Samples / Sek ist der Durchschnitt seit Start des Benches. Klar gehen die am Anfang stark nach oben, weil vorher ja Null als Wert war. Aber nach spätestens 2 Minuten sind die Werte nahezu konstant. Zumindest bei meiner RX 460 ist das so. Das schwankt nur bei der 2. Stelle nach dem Komma, was nix ausmacht. Klar, wenn die VII da zwischen 8 und 11 M Samples pro Sekunde schwanken würde, stimmt was nicht, aber weniger mit der App sondern den OpenCL Treibern der neuen V II. Bei RX Karten dürfte nix groß schwanken.

    Der einzige Unterschied zum Luxmark ist, dass der Bench nicht von selbst nach 2 Minuten endet und den letzten Durcschnittswert anzeigt.

    PS: Das Rendern hört automatisch nach 3000 Passes auf - was bei langsamen Karte laang dauert - wer da einkaufen geht statt nach 1000 Passes den Wert anzulesen (welcher sich dann kaum mehr ändert) wird nach Rückkehr vom Einkauf (1 Std +) einen sehr niedrigen Wert ablesen, da ab 3000 Passes der angezeigte Durchschnittswert natürlich sinkt, weil das Rendern aufgehört hat und ab da (3001) 0 Samples / Sek den Durchschnitt natürlich mit der Zeit stark senken :)

    Insofern einfach nach ca. 1000 passes ablesen und gut ists - nie nach 3000 passes ablesen, weil dann der Wert mit der Zeit sinkt. :)

    Der ehemalige LuxRenderer ( wo es eine extra Luxmark App gab) wurde in den letzten 2 Jahren von Grund auf neu geschrieben und liegt nun als LuxcoreRenderer V2.1 als Standalone App (man lädt Scenen) oder als BLENDER Plugin vor.




    Eine extra LuxCoremark App gibt es nicht mehr.

    Jedoch eine Benchscene für die Version 2.1.

    Man muss jedoch selbst die M Samples/ Sekunde ablesen :) Wird unten in der App naben den Passes angezeigt.

    Mangels einer BenchApp drumrum wird aber kein Ergebnis angezeigt sondern das Rendern stoppt einfach nach 3000 Passes.

    Die 3000 Passes braucht ihr aber nicht abzuwarten - schon nach paar Minuten ( 1000+ Passes) ändert sich der M Samples/ Sekunde kaum mehr. Zudem würden 3000 Passes auf ner RX 460 sicher mehr als 15 Minuten dauern :)


    Was ihr braucht:

    Die Standalone App und den Benchmark 2.1 - beides gibts hier zum DL

    https://github.com/LuxCoreRend…-v2.1-mac64-opencl.tar.gz


    und die Benchscene 2.1:

    https://luxcorerender.org/download/


    Wie ihr das ganze startet:

    1. luxcoreiu starten

    2. Rendering / Load , dann im Ordner Luxcore2.1Benchmark/LuxcoreScene render.cfg auswählen

    3. Das Rendern startet nun....

    4. Die M / Samples / Sek unten ablesen, 1000 Passes reicht


    Bei meiner RX 460 / HS bringt die neue LuxCoreRender App die GPU, wie beim Luxmark damals VOLL unter Dauerlast (viel mehr wie Geekbench & co).




    Ergebnisse:


    AMD RX 460 Red Dragon 2 GB, patched CUs unter HS: 1,66 M Samples/ Sekunde. EDIT: Unter Mojave gleicher Wert...

    Genau.

    Aber nach LILU + WEG kopieren in Clovers kexte unbedingt die Clover Optionen für GPU wie ATIInject bzw. RADEONINIT wieder ausschalten. WEG und Clovers GPU Optionen nie gleichzeitig nutzen, zudem Clovers ATI / RADEON Optionen inzwischen durch WEG besser ersetzt.

    Da sieht man (barefeats), dass das Rendern mit GPUS deutlich schneller geht Da beschleunigt schon eine RX 460 das ganze gut. Ich hatte um die 28 Sekunden mit meiner RX 460 (HS). Der Export, hier nutzte batefeast den Compressor und h265 war der Speedvorteil GPU vs iGPU deutlich geringer als beim Rendern. Die RX 460/560 taucht da beim Export Test nicht auf, aber wenn die dortige RX 580 111 Sec bzw. EGPU 133 Sek gebraucht hat, wird die RX 460 da max. gleichschnell wie die HD630 (167 Sek) sein - evtl. sogar etwas langsamer.

    Insofern bissle kompliziert da das Rendern und der Export so unterschiedlich schnell beschleunigt werden, was den iGPU vs GPU Vergleich angeht.

    Zumindest beim Export machen moderne iGPUs einen echt guten Job. Erst ab RX 580 bekommt man da wohl spürbare (mehr als 25% Vorteil vs iGPU) Beschleunigung.

    Beim Rendern in FXP dagegen bringen schon RX 560 & Co mehrfache Speed.

    Sowas wäre in der Tat mal interessant, aber meist nicht in Zahlen messbar.

    Zumindest nicht die sicher vorhandene Speedunterschiede beim Schneiden, Scrollen der Zimeline usw.

    Messbar wäre das rendern inkl. export zB. einer zuvor heruntergelanden Filmvorschau (Trailer) den in HD (+ evtl. gleicher Trailer in UHD)

    Wenn hier jemand eine Idee hätte einen Link zu einem (gemeinsam) nutzbaren Quellvideo für Tests wäre prima. Die Dinger sind ja nie größer wie paar GB.


    PS: Das mit der AMD RX für Rendern wird wohl funzen, keine Ahnung pb auch der Export nach h264 damit auch funzt oder nur wenn QSV (GMA).

    Last but not least nutze ich zB. noch HS und nicht 10.14 - so richtig funktionieren (sprich auch keine fehlerhaften Exports) geht das glaube erst ab 10.14.4 oder gar 10.14.5 Beta.

    Speziell für die Unser hier, die wie ich ältere iGPU haben, welche h265 nicht unterstützt, ist natürlich das mit dem rendern / export über die RX xxx seeeehr interessant ! :)

    Da bei diesen CPUS ja h265 die CPU alleine macht, anderes wie die CPUS ab Gen 6 die auch h265 supporten.

    Meine Oldi HD 4000 ist 3,5 bis 4 mal schneller wie die CPU schon bei h264 Export (QSV vs CPU). Handbrake kann inzwischen auch QSV(Intel) nutze ich für den Vergleich. Denke bei h265 ( + neuere iGPUs) ist Unterschied noch etwas größer.

    PS: Bei den heutigen RX 560 (neu) bekommt man meist eine RX 560 D. Das ist im Prinzip die RX 460 , also auch "nur" 14 CUs statt 16 wie bei der älteren/ersten RX 560s. Paar % Unterschied gibts trotzdem, pro echter RX 560er, gegenüber einer RX 460 selbst wenn die 2 CUs mehr freigeschaltet hat da die RX 560 minimal höher getaktet ist.

    Aber das bleibt bei Speedbenshes unter 5% Unterschied - nicht wahrnehmbar.

    PS2: Bei den Datasheets / Angeboten wird im Win Bereich nicht von CUs gescprochen sondern Anzahl von SHADERN.

    Daher:

    Die RX 560 hat 16 CUs = 1024 Shader, die 560 D / 460 hat 14 CUs = 896 Shader.

    Diese Shaderzahlen tauchen auch fast immer bei den Angeboten (mindfactory ...) auf, sodass du damit sofort siehst ob RX 560 oder 560 D. Selbst wenns der Namen nicht zeigt.

    Meine Power Color Red Dragon RX 460 läuft auch prima. PS: Man kann 2 CU Units (OpenCL, Metal gpu compute relevant) bei den meisten RX 460 freischalten - per BIOS Edit unter Windows / SBR Polaris BIOS Editor - https://bitcointalk.org/index.php?topic=1882656.0 - einfach dessen Option SHader freischalten clicken, fertig :) + dananch flashen. Dann gleich schnell wie die RX 560, welche 14 CUs hat.

    PS: Das BIOS der Karte unter VMWARE editieren geht wohl- das zurück flashen auf die Karte natürlich nicht bzw. würde ich nie unter VMWARE machen, nur Win native!

    Generell macht XFX unter OS X, von deren BIOS her, Probleme (bootet teilweise nicht mal) , das gilt auch für deren RX 580.

    Insofern fällt im Prinzip nur XFX weg - für RX 4xx -RX 5xx Karten. Bei VEGA / VII mags anders aussehen.

    Das Problem betrifft wohl nicht alle - je nach Audio Chip tritt das auf.

    AppleALC (Lilu Plugin) fixt das dann mit der Zeit. Version 1.3.6 zb. für ALC 1220 Chip: Fix ALC1220 audio after sleep. Wenns andere Chipsätze auch betrifft kommt das dann bei 1.3.7 plus sicher auch noch.