Beiträge von guckux

    3 Jahre in Betrieb? Schon die Lamellen des Kühlers gecheckt, ob sie mit Staub/Dreck zugesetzt sind?

    Meinen Server putz ich idR 2x im Jahr durch, spätestens aber wenn ich den Lüfter höre (nein, das ist nur ein i5 6.Gen ;) - aber auch dort seh ich immer wieder das Zusetzen der Kühlerlamellen).

    Nunja, bei der Gegenüberstellung von M2-max und M3-max haben wir bei CPU-Berechnung bei h265 von weniger als 50% Steigerung und bei h264 von mehr als 100%?

    Das ist etwas, was mir "suspekt" ist... Da ist in meinen Augen keine "Analogie"vorhanden...

    Wenn ich M2-max zu M2-Ultra die Parallelen zieh, wie Du referenzierst, haben wir bei h264-CPU rund 213%% und bei h265-CPU 162%.


    Da wäre eine mögliche Schlußfolgerung, daß h265 sich nicht so dolle eignet Berechnungen für diesen Codec zu parallelisieren...?

    Herzlichsten Dank erstmal an alle "Wertelieferanten"!


    Auffallen tut mir aktuell, daß wir in der Tabelle, einen M2-pro (12c) haben, welcher bei h264 schneller ist als ein M2-max (ebenfalls 12c) ===> >10%!

    Der Sprung bei h264 von M2-max zu M3-max ist irritierend zu den anderen Werten (mit GPU und h265). Da sind keine "Parallelen zu erkennen"... (Die Steigerungen empfinde ich als nachvollziehbar von M2-max zu M3-max, außer bei h264 mehr als das Doppelte!?)


    Vielleicht hat jemand dafür Erklärungen? ;)

    Und nun der geistige Sprung zu meinen DatenRatenKompatibilitätsFragen:

    Macht es Sinn eines dieser teuren Thunderbolt 3 (oder 4) Docks zu kaufen weil nur dieser 4k/120hz schaffen und zudem auch eine 40 gbit Anbindung an die externe NVME bringen?

    Zur Monitorfrage kann ich leider nichts beitragen - die 40Gb Anbindung Deiner ext. NVME bekommst Du nur, wenn Du ein entsprechendes interface für Thunderbolt 3/4 hast. Über die "USB-Geschichten" bekommst Du nicht mehr als 10Gb.

    Was nicht heißt, daß es vielleicht einen Hub gibt, welcher via USB-C / TB3/4 angebunden wird, und tatsächlich USB3.2 Gen 2x2 Anschlüsse zur Verfügung stellt. Falls jemand so ein Teil kennt - wäre ich auch für eine Info dankbar ;)

    Zwischen bash und zsh gibt es nur wenige Änderungen, jedoch ohne Einstellung kann es schon zu Zugriffs-Rechte-Problemen kommen, wenn der aktuelle Benutzer diesbezüglich nicht

    Irgendwo muss diese App ja eine Beziehung haben, wenn noch immer angezeigt wird, dass sie in Verwendung ist, nvram oder in der App selbst gespeichert oder sonst wo.

    Sollte nicht...


    und manchmal braucht es nur nen Trigger:

    Code
    1. maulwurf@MBpro16 ~ % fuser -u ../../Applications/Safari.app/Contents/MacOS/Safari
    2. ../../Applications/Safari.app/Contents/MacOS/Safari: 1402(maulwurf) 1511(maulwurf)

    So findet man raus, welcher User da seine Finger im Spiel hat ;)

    Achja, bei macOS wohl so, daß ohne "-u" die PIDs gelistet werden - dann sieht man auch, welcher Prozess das gestartet hat...

    Das Einzige das beide gemein haben ist die Tatsache das deren CPU Kerne den ARM Befehlssatz verstehen und das war es dann auch schon.

    Und dies betrifft nur den "BASIS"-Befehlssatz, es wurde das Core-Prinzip lizenziert und Apple gehört zu den ARM-Lizenznehmern mit den weitreichendsten Lizenzabkommen, wie erwähnt sind die GPU und sonstige Core-Einheiten mit auf das Die gekommen, und ziemlich sicher haben sie aber auch den ARM-core um einiges erweitert und angepasst.

    Bedingt durch dergleichen, ist eine Abbildung auf einem anderem "Fork" sehr schwierig, dürfte vergleichbar sein mit einer FP64 Emulation auf einer CPU 32bit ohne FPU Einheit...

    Theoretisch möglich - aber wie mhaeuser erwähnt...

    guckux Was ist denn “einfaches Management”?

    Ich meinte damit den Aufwand hintendran, etwas "sicher" zu machen.

    Und hier ist macOS mit einem "einfachen" Management versehen, welches einen hohen Grad an Sicherheit bietet - so meine subjektive Meinung...


    Wenn ich dergleichen vorhaben würde, würde ich "eh" ein OpenBSD nehmen ;) Linux ist mir zu "verbreitet" - und die BSDler hatten gewisse Dinge in der Vergangenheit bereits professioneller gelöst.

    mhaeuser


    Hm, bei der Verschlüsselung habe ich nichts belegbares :D - ich weiß nur aus der Vergangenheit, daß in den 90igern für das task-management Linux und *BSD die Hardware des Intels genutzt hatten und somit ein limit von 8192 Prozessen hatten - das war den (Free-)BSDlern zuwenig und sie machten das in Software - keine limits mehr und einiges schneller/agiler (Walnut Creek lief dann zeitweise mit >12,000 FTP-Usern auf nem Dual Pentium Pro ;) )

    RAID ist ein weitere Technologie, welche Software-technisch ebenfalls nicht mehr hinter der Hardware "hinterherhinkt".

    Bei den MacBooks unterstelle ich mal, daß die Verschlüsselung über "Co-Protz" realisiert wird (TPM-Chip?) - durchaus vorstellbar für mich, daß es in diesem Falle schneller ist.


    SeLinux ist wahrlich recht komplex und nicht trivial im Management (ich habe es nie gelernt :D ).


    Beziehst du Dich mit Endnutzersicherheit auf das einfache Management? Ansonsten unterstelle ich, daß man ein UNIX durchaus mehr härten kann als das macOS in der Basis-Auslieferung - wenn man weiß wie und worauf man zu achten hat.

    Grundsätzlich möchte ich mich mhaeuser anschließen.

    Wenn Du wenig bis keine Probleme haben möchtest - nen MacBook Mx... Ausstattung je nach Portokasse, Leistung haben selbst die "kleinen".

    Wenn Du es selbst machen möchtest - Linux wie auch zB *BSD unterstützen auch cryptisierte filesysteme, Das sollte auch ohne Performance Verlust gehen.

    Bei Linux wichtig selinux auf enforce zu setzen, die Basis-Installation selbst ist meist schon recht gut. Oder auch OpenBSD...

    Den freien gemein ist, daß Du wissen solltest, was Du tust, tun musst und kannst. Das ist dann unter dem sportlichen Ehrgeiz "geil" aber nicht jedermann's Sache.


    Im Hinterkopf sollte man sich behalten, daß macOS mittlerweile einen höheren Marktanteil hat als vor "Jahren" und hier auch mehr in den Focus der Hacker rückt.


    - einer der Gründe, weshalb bei mir im Heim kein M$ mehr existent ist... ;)

    sudo rm -rf <target>


    Für sudo verwendest Du das gleiche PW wie beim login

    -rf steht für rekursiv und force - also ohne Nachfrage, ohne wenn und aber

    <target> ist die Datei oder das Verzeichnis


    falls sie danach immer noch nicht verschwindibus ist:

    sudo chflags -R 0 <target>


    Es gibt spezielle flags, welche man setzen kann um zB Dateien auch gegen root (sich selbst) zu schützen.

    -R rekursiv

    0 - um alle flags zurückzusetzen.


    und dann nochmal mit rm -rf :p

    Wow, Danke für Dein "performance-update".

    Das hätte ich nicht erwartet/gedacht, daß der M2pro da "so nah" mitspielen kann.


    Für die Zocker fehlt dann nur noch das Raytracing - da bin ich schonmal gespannt, was die nächste M-Generation mitbringt, das iPhone15pro/max hat in seinem neuem Bionic ja Hardware-Raytracing eingebaut.


    Mit solchen Mitteilungen wächst dann doch die Neugier auf die nächsten neuen Produkte! ;)

    Die hat Apple nicht nur in der Schublade, sondern bereits fertig. Der A17 Pro beinhaltet Raytracing Funktionalitäten und wenn man den Bildern Glauben schenken darf, sind diese sogar recht ordentlich. Ein M3 sollte diese daher vermutlich genauso, oder gar besser mitbringen.

    Recht hast Du:

    "Auf iPhone 15 Pro und iPhone 15 Pro Max liefert Capcom Hardware-basiertes Raytracing und nutzt auch die verbesserten GPU-Kerne im A17-SoC. "Resident Evil 4 Remake" ist ein frischer Aufguss von "Resident Evil 4" aus dem Jahr 2005."

    - Quelle-

    Guckux


    Manchem meiner Vorredner kann ich mich uneingeschränkt anschließen - wie zB daß jene, welche am lautesten kritisieren, zu denen gehören dürften, welche sich in den 90igern eine SGI Workstation mit Software für rund ne halbe million hingestellt haben (naja, nicht ganz, Workstation 40,000 Mark, Grafikkarte 80,000 und Software für >40,000 Mark). Das ist aber nichtmal ne Promille der "Gesamtkundschaft".

    Mir bekannt ist - möglicherweise einer der wichtigsten Gründe - daß Apple riesige Probleme hatte mit den intel-Protzes bei der Skylake Generation (und dürfte danach nicht besser geworden sein), als sie etwa soviele interne Bugs an intel reported haben, wie deren interne Entwicklungsabteilung. Dergleichen "frisst" massiv an Resourcen.

    Mit nvidia als Unternehmen hatten sie wohl auch Kooperationsprobleme, sonst wären in den letzten Jahren nicht vollständig auf AMD gewechselt - bei dem Gebaren von nvidia alleine mit der Presse (NDA und so) durchaus nachvollziehbar.

    Weitere Interpretation: Das ging denen soooo auf den Senkel, daß sie "von anderen abhängig machenden Müll" entsagen und alles "inHouse" produzieren.

    Das hat den Vorteil, daß man agiler agieren kann und Resourcen einspart (Gewinnmaximierung) und für sich Optimierung im Gesamtkonzept.


    Beispiel Laptop Bereich: Ich sehe immer mehr x86/amd64 basierende Laptops, welche verlötetes Ram haben, selten vielleicht mal dazu einen frei bestückbaren Speicherslot. Speicherausbau >32GB war schon immer rar, und wird immer rarer.


    Die Weiterentwicklung von Prozessoren wie auch Betriebssystem wird immer aufwendiger und komplexer und somit teurer. SUN/Oracle hat vor einiger Zeit bereits das Ende der SPARC-Prozessoren angekündigt, für Solaris gilt Anfang der 2030er das "Ende" (Oracle hat letztes Jahrzehnt bereits die Hälfte aller Entwickler in dem Bereich gekündigt). Bei HP sollte Anfang dieses Jahrtausend der Itanium ihren PA-Risc ablösen, dann kamen doch nachmal Nachfolger (letzter 2005) - weil Itanium nicht die Erwartungen erfüllt(e).


    Mich würde nicht wundern, wenn Apple bereits Enticklungspläne hinsichtlich Raytracing-Technologie in der Schublade hat - mit Sonoma wird bereits im Betriebssystem der "gaming mode" gepusht, AAA-Titel kommen vermehrt (Resident Evil 4 Remake, Stray, Death Stranding und Assasin Creed Mirage angekündigt).

    Die Ungeduld mancher hier - respektive auch die harsche Kritik an Apple, kann ich nicht nachvollziehen.


    Und nein, ich glaube nicht, daß der M3 einen großen performance Sprung machen wird, siehe vorgenannt, Enwicklungskosten etc... (nicht umsonst gehört der mainframe zu den teuersten, aber "fehlerfreiesten" Kisten ;) )

    onlyWork


    Die Prognose würde mich auch interessieren.

    Und was der MacPro mehr hat als der Studio? Ad hoc würde mir nur eines einfallen: schnellere Anbindung von viel großem Speicherplatz (und damit erschöpft es sich auch schon - selbst als ehemaliger Q950/PPC Fan und 10 Jahres Anwender desselbigen ;) )