Posts by TheWachowski

    Ich habe mal wieder eine technische Frage an meine Kollegen hier mit (nahezu) identischer Hardware.


    Aktuell gibt es das 32GB (2x16) Crucial Kit mit 3600MHz und CL16 für 139€. Da ich aktuell Corsair Vengeance 3000 CL15 fahre, juckt es mir ein wenig in den Fingern. Wenn ich mir aber die einzelnen Berechnungen zum Geschwindigkeitsvorteil ansehe, werde ich nur bedingt schlau daus. Meint Ihr dass dieses upgrade signifikant was bringen würde, oder kann man sich das Geld sparen?

    NERD

    Echt? Wo war ich denn giftig? Wenn das so rübergekommen sein sollte, tut mir das leid, war nicht so gemeint. Deshalb habe ich ja auch wiederholt "meine Meinung" geschrieben.


    Wolfe

    Ich auch nicht. Aber man liest es immer wieder. Als würde Apple irgendwelche Netze auswerfen, in denen sich der mündige user verheddert und dann auf ewig verdammt ist deren Hard- und Software zu verwenden. Alle die ich kenne, haben sich das Ökosystem ganz bewusst ausgesucht. Aber so ist es halt.


    Bob-Schmu

    Du musst aber auch alles ganz genau nehmen, oder? Das war doch nur (unter anderem eines von mehreren) Beispielen um Himmels Willen. Ich habe doch auch eine 6900XT auf einem PCIe3 Board. Aber das ist doch nicht was ich meine. Mein vorangegangener Rechner war ein i7 3770K. Mit was hätte ich den bitteschön noch aufrüsten sollen? Da ging kein schnellerer RAM (da neuer Standard), keine bessere GPU (da kein PCIe3) und auch keine andere CPU (da alter Sockel). Selbst die SSD hätte ich mit keiner NVME upgraden können, da damals nur M2 aktuell war und wie gesagt auch kein PCIe3.
    Dass jemand nach einem Jahr schon upgraded (wie ich es mit der GPU gemacht habe) ist ja eher die Ausnahme und kein wirklich praxisnahes Beispiel, da innerhalb so kurzer Zeit die Leistungssprünge nicht gegeben sind, die Aufwand und Preis rechtfertigen. Ich habe auch nur deshalb meine beiden VEGAS gegen die 6900XT getauscht, weil der Markt es aktuell hergibt, sich die High End zum UVP zu kaufen und die beiden alten zu Mondpreisen (habe für die eine knapp über und die andere knapp unter 700€ verkauft) abzustoßen. Sonst wäre das Preis-/Leistungsmäßig ein Witz gewesen.

    Jetzt äußere ich mich aber nicht mehr zu dem Thema. Noch einmal ganz freundlich, damit ich nicht wieder missverstanden werde (nur Spaß ;-) ) : Ich finde die MacBooks gut, ich fand schon die M1 Maschinen gut und ich mag den Kurs den Apple gerade beim Mac einschlägt. Andere müssen das nicht tun, aber die Verkäufe sprechen da ja eine recht eindeutige Sprache.

    Und genau deshalb hatte ich in Hinblick auf den schnellen Realease von "mutig" gesprochen. War abzusehen, dass nun, nachdem es MacBook Pros gibt, die nahezu alle Wünsche, die in den letzten Jahren an Apple herangetragen wurden erfüllen, diese wie geschnitten Brot weggehen. Ich freue mich für jeden, der zeitnahe einen bekommt. Besonders gespannt bin ich auf CMMChris Erafhrungsberichte, die waren bereits beim MacMini spannend zu lesen.


    Was das Thema Aufrüstbarkeit angeht:

    Ich kann jetzt nur für mich sprechen, aber ich baue nun schon seit vielen, vielen Jahren PCs. Außer meiner allerersten PII 300 Maschine waren alle Rechner selbstgebaut. Und natürlich klingt Aufrüstbarkeit irgendwie nachhaltiger, aber ich denke wirklich, dass das überschätzt wird. Wenn ich eine Kiste baue, dann immer so, dass sie dem aktuellen Maximum, oder ein wenig drunter entspricht. Damit fahre ich ein paar Jahre lang gut. Wenn sie dann irgendwann nicht mehr ausreicht, hilft auch Speicher aufrüsten nichts, die GPU braucht einen neueren PCIe Standard um sie ausnutzen zu können und schnellere CPUs sind auf einen anderen Sockel umgezogen.

    Müll entsteht aber trotzdem nicht, denn wirft Rechner ja nicht in den Müll. Jede meiner Maschinen ist anschließend in der Bucht gelandet oder weitergereicht worden an Freunde und Familie.

    Das ist zwar nur meine persönliche Meinung, aber ich denke die meisten Home-User kaufen einen Rechner von der Stange und verwenden den bis er gar nicht mehr funktioniert ohne ihn auch nur einmal aufzurüsten. Dann hat der seinen Dienst getan und man muss sich selbst beim Entsorgen kein schlechtes Gewissen mehr machen.

    Die Pros indes kaufen HighEnd, schreiben ab und ersetzen dann, während die alte Hardware in den Lagerverkauf oder über interne Plattformen an die Mitarbeiter geht.


    Und gerade Apple Hardware wird immer aufgrund ihrer fehlenden Aufrüstbarkeit und dem vielen Kleber gescholten, aber wenn man mal sieht wie wertstabil diese Teile sind und wie oft sie weiterverkauft werden, haben sie vmtl. über ihre komplette Lebensdauer gar keine so schlechte Bilanz.


    Mein aktueller Rechner ist aber wenn die Entwicklung so weitergeht (und nichts deutet darauf hin, dass Apples Hardware dem Wettbewerb nicht noch weiter enteilt) mein letzter Hack und auch mein letzter mit Dual Boot. Ich nutze kein Programm mehr, welches es nicht auch unter MacOS gibt, im Gegensatz zum Beginn meiner Hack-"Karriere" boote ich deutlich seltener Windows als MacOS und für jemanden, der sich ohnehin größtenteils im Apple Kosmos bewegt (iPhone, iPad, AppleTV, Apple Watch) ist die Integration der Dienste und das Zusammenspiel aller Teile sagenhaft. Das ist wie gesagt meine Meinung. Mit gefällts und ein anderer darf gerne von goldenen Käfigen reden oder weiterhin die Hoffnung aufrecht erhalten, dass andere hier mittelfristig noch den Anschluss halten.

    Dieses Mal haben sie die Notch zumindest mal korrekt demonstriert, nämlich dass sie kein Schnipsel, der in den Bildschirm hineinragt und diesen verkleinert, sondern dass es sich in Wirklichkeit links und rechts um Aussparungen handelt, die den Bildschirm von Infos befreien, die diesen sonst belegen, also z.B. die Menüleiste bei MacOS und die Empfangs- und Akkustandsanzeige beim iPhone. Hätte Steve das damals gezeigt, hätte anschließend keiner wegen der Notch gemeckert (naja, bis auf ein paar Unverbesserliche eben).


    Die Touch Bar ist leider ebenso eine Flopp geworden wie 3D-Touch. Nicht weil es eine schlechte Technik gewesen wäre, sondern weil es von Entwicklern nicht ausreichend genutzt wurde (bei 3D-Touch noch mehr als bei der Touch-Bar) und auch die Promotion dünn war. Und der größte Fehler war mit der Touch-Bar die Funktionsbuttons usw. zu ersetzen. Das hat wieder so schlechte PR erzeugt, die Du nicht mehr wettgemacht bekommst. Hätten sie sie einfach über den Buttons angebracht, wäre es ggf. anders gelaufen.


    Die Preise sind auf den ersten Blick happig, aber das Preis/Leistungsverhältnis ist, wenn sich die Leistungsdaten bestätigen, sehr gut. Pro ist wieder Pro und das eben auch ein Stück weit beim Preis. Ich für meinen Teil bin froh, dass der I/O Teil nun wieder mehr als passt und das Design gefällt mir auch sehr.


    Was mich aber ein wenig schockt ist, dass Apple sich bei all den gewaltigen Leistungsschüben (und wenn die sich bestätigen, sind sie gewaltig) trotzdem nicht zum Namen M2 hat hinreissen lassen. Was für Höllenmaschinen erwarten uns dann erst mit M2 und seinen größeren Ausbaustufen?

    Ich gehe mal davon aus, dass da noch mehr drin gewesen wäre. Der große iMac steht sicher schon länger fertig in der Ecke. Aber vmtl. könnten sie aufgrund der Chipknappheit am Ende gar nicht liefern. Fand die Ankündigung, dass die MacBooks schon ab nächster Woche verfügbar sind recht mutig.

    Na, gut. Wenn Du der Meinung bist, dass es eine ganz normale Diskussion ist, wenn man Worte in andere Postings hineindichtet, andere als Fanboys bezeichnet (soviel zum Respekt vor anderen Meinungen) und „Taschentücher“ anbietet, haben wir eine grundlegend unterschiedliche Ansicht, was eine zivilisierte Diskussion ist.
    Aber genug davon. Die Keynote geht los.

    Bob-Schmu

    Yo, schraub mal Dein Aggro ein wenig runter. Und wo bitteschön habe ich was von irgendwelchen Benchmarks geschrieben?


    Mich interessiert nur die real world performance und wie diese zustandekommt. Ob irgendein Benchmarkwert diese irgendwie wiederspiegelt, ist mir dabei völlig wumpe!


    Und es ist nun einmal Fakt, dass bereits der M1 bei optimierten Anwendungen zumindest die untere Mittelklasse der x86 CPUs von Intel und AMD schlägt und das aus dem Stand heraus. Betrachtet man nun parallel dazu die Entwicklung der Ax Chips aus iPhone und iPad und dass diese stets im Vergleich zur Konkurrenz einen größeren Leistungszuwachs von einer Generation zur nächsten erfahren haben, so dass sie heute selbst 1-2 Generationen neuere Androiden noch locker in die Tasche stecken, ist eine vergleichbare Entwicklung auch beim Mac nicht unwahrscheinlich.

    Wenn man sich die absoluten Zahlen ansieht, müssten die aktuell in Flagship Androiden verbauten SoCs (Taktung, Kerne) eigentlich schneller sein, aber wie Du schon selbst schriebst, wer auf alles und jeden Rücksicht nehmen muss, kann nicht das Optimum herausholen.


    Geht die Entwicklung also wie von mir gemutmaßt voran, kann es durchaus sein, dass die nächste oder übernächste Epyc und sogar XEON Generation (intel wacht ja aktuell gerade Stück für Stück aus dem Dornröschenschlaf auf) deutlich schneller ist als die heutige, nichtsdestotrotz läuft dieselbe Anwednung u.U. auf dem Mac dann schneller als auf den x86 Maschinen.

    Und wenn das zum selben oder gar einem geringeren Preis (nicht nur Hardware, sondern auch Stromvebrauch usw. miteingerechnet) passiert, kann ich durchaus den Begriff "platt machen" verwenden (auch wenn ich das in meinem ursprünglichen Posting gar nicht getan habe ;-) ) ohne gleich ein Fanboy zu sein.

    Ich habe sehr großes Vertrauen in Apple und ihre eigenen Chips (die, die hier fleißig mitlesen wissen, dass ich bereits vor dem Release der M1 Maschinen mehr auf deren Leistung vertraut habe als so manch anderer und dafür teilweise belächelt wurde) und denke, dass sie vmtl. bereits mit dem M2, spätestens aber dem M3 vor jedem i9 und Ryzen stehen werden und auch mittelfristig XEONs und EPYCs überflügeln oder zumindest mit diesen gleichziehen werden. Auch was die eigenen GPUs angeht zeigt die Leistungskurve, dass hier ebenfalls regelmäßig Steigerungen über denen der Konkurrenz erzielt werden.

    Dennoch kann ich mir nicht vorstellen, dass mittelfristig kein Support für Grafikkarten und/oder eGPUs eingebaut wird. Spätestens wenn ein selbstbefeuerter MacPro kommt, muss das meines Erachtens nach geliefert werden.


    Die Theorie mit Apple eigenen GPUs halte ich zwar für realistisch, dennoch wird es immer Lösungen geben, die das eine oder andere besser machen und PRO-User werden das daher auch mit Sicherheit fordern.


    Aber warten wir es ab. Wenn der M1x tatsächlich die kolportierten Leistungswerte liefert, will ich mir gar nicht ausmalen was der M2 am Ende kann. Und dann könnte das alles in der Tat keine Rolle mehr spielen und der Wettbewerb (zumindest vorübergehend) recht alt aussehen.

    5T33Z0

    Yo, das mit dem "Reparieren" ist jetzt Haarspalterei. Wenn wir von hochintegrierten eletronischen Geräten wie dem iPhone oder ähnlichem sprechen ist Reparieren=Austauschen, oder meinst Du wirklich, dass da irgendjemand auf dem Logicboard herumlötet? ;-)


    Ich möchte es auch gar nicht so darstellen als seien alle nicht-zertifizierten Werkstätten schlecht, aber Qualität ist nun einmal überall Mangelware, weil immer gespart wird, sei es nun an qualifizierten Mitarbeitern als auch an hochwertigen Teilen. Heutzutage eine gute Werkstatt zu finden ist schon nicht ganz einfach und ich habe ehrlich gesagt keine Lust ins Fettnäppfchen zu treten und mich dann mir irgendwem herumschlagen zu müssen. Dann gehe ich lieber dahin, wo ich weiß, dass es passt.


    Der wichtige Weg ist meines Erachtens nach bei Zertifizierungen eine Art Regelung einzuführen wie bei Patenten, also dass diese zu fairen Preisen zu erfolgen haben. Aber als Kunde möchte ich mich schon auf ein solches Zertifikat verlassen können.

    Ich verstehe auch immer noch nicht, warum ich mit einem 1600€ iPhone in irgendeine nicht zertifizierte Werkstatt laufen sollte um ein paar Euro zu sparen. Ist das so eine Nummer wie die 99Cent Wurst auf dem 800€ Weber Grill?


    Nicht falsch verstehen: hier geht es nicht darum zu sagen, dass man nur noch bei Apple selbst reparieren können soll. Natürlich muss es zertifizierte Werkstätten geben, die das auch günstiger machen. Aber das Zauberwort hier ist "zertifiziert". Ich will mein sündhaft teures Gerät oder Auto mit irgendeinem zweifelhaften Ersatzteil notdürftig zusammengezimmert haben und dann fällt es mir nach ein paar Tagen auseinander. Etwas dramatisiert, ich weiß, aber die Qualität von Werkstätten ist nun einmal nicht mehr das was es mal war. Da zahle ich gerne etwas mehr und weiß, dass da eine geforderte Norm hintendransteht.

    Weil es mir nach etlichen Versuchen endlich gelungen ist eine GPU zum UVP bei AMD zu kaufen (auch wenn ich eigentlich "nur" eine 6800XT haben wollte und am Ende eine 6900XT nehmen "musste" ;-) ) und bereits die erste meiner beiden VEGAs in der Bucht verkaufen konnte,

    Ich habe jetzt noch einmal sauber mit allen dreien durchgetestet und ich muss sagen: Benchmarks bleiben für mich irgendwie verwirrend.


    1. LuxMark: hier komme ich auf 57354 Punkte. Damit bin ich erst einmal zufrieden, besonders wenn man bedenkt, dass in den aktuellen Benchmarkcharts die erste 6900XT auf Platz 73 mit 57122 Punkten aufgeführt wird.
    2. Geekbench (Metal): auch hier können sich meine 175174 Punkte mehr als nur sehen lassen, stehe ich doch damit aktuell sogar auf Platz 1 der Geekbench Metal Charts
    3. Geekbench (OpenCL): hier sieht es nicht ganz so gut aus. 123041 Punkte sind hier das beste Ergebnis. Es schwank von Lauf zu Lauf, aber besser wird es nicht. Wenn ich hier den Geekbench OpenCL Charts Glauben schenken möchte, liegt eine 6900XT bei 165115 Punkten. Eine 6800XT bei 157268 und eine 6800er bei 127724.
    4. Zu guter Letzt der Raw Speed Test: das ist der einzige, der sich wirklich bei jedem Test konstant zeigt. Zwar habe ich hier keine Charts gefunden, aber meine 104FPS sind wie hier im Thread zu sehen bestenfalls mittelprächtig.

    Eine wirkliche Ahnung was ich nun von diesen Zahlen halten soll habe ich allerdings weiterhin nicht.

    Hat jemand von Euch eine 6900 XT in dieser config am Laufen? Ich darf mich ja glücklich schätzen seit kurzem eine zu haben, aber nun sehe ich, dass die Karte im Hackiy eines anderen users konstant zwischen 170 und 180 FPS im Raw Speed Test liefert, während bei mir immer nur um die 104 FPS rum kommen. Das Ganze wurmt mich um so mehr, als dass besagter user weder von dem bei uns fehlenden PCIe4 oder insgesamt mehr Lanes profitieren kann, da er sogar "nur" in i7 8700K System fährt und ich sicher gehen will, dass ich hier aufgrund irgendeines Fehlers irgendwo Leistung liegen lasse.


    Falls also jemand auch eine 6900 XT fährt, würde mich mal interessieren was Blackmagic bei Euch ausspuckt.

    fabiosun

    I know that benchmarks don't actually measure real world performance, but although the results may vary from run to run, even on the same system, we're only talking about slight differences. I asked for Geekbench results to check if my own figures differ significantly here too. Since your machine has far more PCIe lanes and uses PCIe4 thanks to the Threadripper CPU, it makes total sence that your results are a lot higher (what's interesting though is, that my Metal score is almost the same as yours).


    On the other hand Aluveitie system should at least benefit from the PCIe4 capabilities of his processor but still his RawSpeedTest results almost correspond to mine.


    Therefore I think we can neglect the Geekbench results, since the vary too much from run to run (but at least almost match at their peak). But RawSpeedTest seems to be much more reliable. Where I get about 104fps every time i try, toasta gets between 170 and 180 everytime he tries, although our rigs are only one generation apart, with mine beeing the newer one.


    So what does his system have, that mine and Aluveities systems don't?