Apple Event "Unleashed" am 18. Oktober

  • Komisch, dass keiner ausser Bob-Schmu IMHO annähernd technischen Use aus der Leistung zu ziehen scheint und daher die Sache objektiv so beschreibt wie sie ist.


    CMMChris sagt es genau wie es ist: es sind leistungsstarke effiziente Maschinen.


    Bisher habe ich noch keinen User getroffen der einen Mac Studio braucht oder einen macPro M braucht der sich wegen des Preises beschwert hat.


    Ich kann meine Predigten dazu gerne noch einmal wiederholen:


    Verarscht wird hier niemand, die Teile sind in einer Welt berechtigt in dem ein Projekt locker mal 5-Stellig aufwärts bewertet wird, wen juckt da der ach so teure Preis?


    Das ist dann notwendiges Werkzeug, das kostet halt.


    Klar ein Ryobi dreht auch rechts und links, aber der Tischler kommt nun mal mit der Makita oder Hilti, warum? Weil er es kann und braucht. Die werden doch auch nicht verarscht. Oder doch?


    80% der High-End Hacks sind es weil damit gespielt wird, nicht weil da content Creator vor sitzen die keine Kohle dafür ausgeben wollen.


    Dem Rest wird auch noch die Besinnung kommen, oder nicht, die Zeit ist da halt auch abgelaufen.


    Der Freelancer, der mal schnelle ne Mark machen muss muss sich umorientieren, das Studio kauft besagten oder halt ne Palette MacPro M und knallt die in die Bilanz. Fertig ist der Lack. Jucken tuts letztere kaum, solange das Ergebnis stimmt, monetär als auch technisch.

  • Ich kann mich meinen Vorrednern nur anschließen. Innerhalb des Apples Universums war der Schritt goldrichtig und was Effizienz angeht auch außerhalb.


    Was die Leistung angeht: bleiben wir auch da innerhalb des Apple Universums, sind die M Chips nahezu von Beginn an dem Rest weggezogen. Ich wage zu bezweifeln, dass man einen durchgehenden ProRes Workflow in FCP mit irgendeiner anderen Maschine als dem aktuellen M2 Pro/Ultra schneller hinbekäme, selbst wenn es einen aktuellen Intel Mac Pro gäbe, der GPUs unterstützt.

    Some men see things as they are and say 'why?', I dream things that never were and say 'why not?'

  • Alles verständlich.
    Mein erster Apple war ein Quadra.
    Wir bearbeiten zur Zeit 16K VR Filme und nutzen viel Maschine Learning zur Frame Interpolation und Postproduction.


    Die Apple Silicon Technologie ist wegweisend und ist vom Smartphone über das Tablet zum Laptop bis hin zum kompakten Desktop genial und in der Geschichte der Computer Entwicklung ein grosser Schritt.
    Der iMac M3 wird ein genialer Desktop.
    Energie Effizienz und Leistung hat bei den Laptops eine neue Ära eingeleitet.
    Ein System on a Chip kommt hier voll zum tragen.
    Meiner Meinung nach die besten Laptops.


    Bei einer Workstation wendet sich aber das Blatt.
    Hier geht es um die maximale Leistung. Energie Effizienz tritt in den Hintergrund.
    Und hier muss sich eine Workstation egal welches Betriebsystem oder Universum auch vergleichen lassen.


    Ich will es mal auf die Spitze Treiben:

    Es kann nicht sein das ein 8000 EUR Mac Pro auf einem maxed Out Laptop und einem leeren Gehäuse besteht. Während sich ein altes PC System mit 2 4090 einfach mal 3 mal so schnell ist und weniger kostet.


    Genau das habe ich beim neuen Mac Pros immer wieder in Frage gestellt. Wie soll das Rennen hier weiter gehen?

    M3 gegen 2 x 5090 oder 3 x 8900 XTX ?


    Wird es einen M3 extreme geben?

    XEON 14core 64RAM 2x Radeon VII Catalina

    2 Mal editiert, zuletzt von onlyWork ()

  • Das unterschreibe ich und setze noch eins drauf in dem ich behaupte, dass Apple hier einen Fehler gemacht hat.


    Klar, sie wollten die Transition endlich abschließen, nachdem sie bereits über den eigenen Zeitplan hinaus sind. Und "PRO" ist bei Apple nicht immer ein echtes Merkmal für spezielle Features. Aber gerade beim Mac hatten sie nach dem Trashcan doch einiges wieder gut zu machen und als der neue raus kam muss man klar sagen, dass sie das Best Of der bisherigen Mac Pros abgeliefert haben und das mit einer Leistung, die zu dem Zeitpunkt wirklich beeindruckend war.


    Nun haben wir plötzlich einen PRO, der nur Studio + PCIe ist und das dann auch noch ohne GPU support. Die Zielgruppe für dieses Gerät ist ohnehin schon klein, aber in dieser Konstellation...


    Sie hätten meines Erachten besser daran getan eine Intel Mac Pro Refresh zu bringen (oder gar auf Treadripper oder Epyc zu gehen), PCIe5, Radeon 7000Pro Support und weiter am Thema Compute Modules und weiteren Erweiterungsmöglichkeiten zu arbeiten, die einen Apple Silicon Pro mehr an das heranbringt, was man sich von solch einem Gerät erhofft.

    Himmel, selbst GPU Support für den jetzigen Mac Pro hätte die Kritik deutlich leiser werden lassen (und uns Hackintoshler noch mal glücklich gemacht).

    Langer Rede, kurzer Sinn:

    Meine Hoffnung war, dass Apple weiterhin Generationssprünge hinlegt, wie sie das in den letzten Jahren bei den A-Chips geschafft und den rest weit hinter sich gelassen haben. Aktuell scheint die Geschwindigkeit allerdings etwas abzuflauen, ob das nun an den abgewanderten Mitarbeitern liegt oder schlicht an physikalischen Grenzen...who knows. Schauen wir einfach mal ob sich der 3nm Sprung beim M3 stärker auswirkt als beim A17. Und GPU-technisch hat sich da ja schon ordentlich was getan.

    Some men see things as they are and say 'why?', I dream things that never were and say 'why not?'

  • Wie eine externe GPU und das integrierte Apple-Ram zusammenspielen sollen, ist mir nicht klar. Jede Forderung nach Fremdgrafikkarten für den Macintosh übersetzt sich doch in die Forderung, dass Apple seine M-Prozessoren doch bitte wieder durch intel-CPUs ersetzen möge.
    Ich mache es mir nun aber einfach und gehe davon aus, dass die Leute bei Apple sich etwas bei ihrer Arbeit gedacht haben könnten.

    Hacken ⛏️⛏️
    Haken ✔️

    .

    anscheinend: es sieht so aus als ob, und wird wohl stimmen

    scheinbar: es sieht so aus als ob, stimmt aber nicht

  • Habe Sie ja auch, wie maximieren wir unseren Gewinn.

    [hehee]

  • anonymous_writer Du meinst, dass alle Kunden von Apple Zombies sind, denen die Qualität der Ware egal ist? Ich glaube das nicht.

    Hacken ⛏️⛏️
    Haken ✔️

    .

    anscheinend: es sieht so aus als ob, und wird wohl stimmen

    scheinbar: es sieht so aus als ob, stimmt aber nicht

  • Wie? Apple Produkte sind nicht gut? Ist mir neu…


    Ich paralysiere mit Absicht so stark dieses Thema, denn auch die haben sicher eine Marktanalyse gemacht bevor die solch ein Produkt auf den Markt bringen.


    Preis Leistung ist doch je nach Segment total in Ordnung.


    Ich rechne nicht nur Hardware Specs, Benchmarks und sonstigen Käse mit ein.


    Gesamtpaket ist doch prima, alleine die Software…oder warum haben einige sich nen Hack gebaut? Spaß? Naja…nicht wirklich.


    Fehler sehe ich bei denen keinen, schau dir die Bilanz an, die ist phänomenal bei denen.


    PCIe trifft eine Zielgruppe, die nicht ohne auskommt und die ist JA klein, aber vorhanden und wenn die es brauchen bei einem Mac ist es wirklich besonders und besonders heißt meist teuer und auch besteht Bedarf daran.


    Die, die laut motzen, ich wiederhole mich, sind die, die das System nicht brauchen.


    Und wenn ein Linus oder sonstiger Viraler sowas auseinander nimmt, stimmt Generation YouTube fleißig ein…

  • Wie eine externe GPU und das integrierte Apple-Ram zusammenspielen sollen, ist mir nicht klar. Jede Forderung nach Fremdgrafikkarten für den Macintosh übersetzt sich doch in die Forderung, dass Apple seine M-Prozessoren doch bitte wieder durch intel-CPUs ersetzen möge.

    Wieso? Auch Intel und AMD Prozessoren haben interne GPUs, die sich ihren Platz mit dedizierten GPUs teilen können. SoCs sind natürlich ein wenig anders, aber letztlich sollte es für Apple kein Problem sein das Ganze so zu designen, dass man über eine Steckkarte eine zweite GPU dazusteckt, die Mx eigene mitarbeitet, wie bei AMD und Intel auch, oder aber die Grafikkerne auf dem SoC "gehen aus" und die CPU hat den ganzen Speicher für sich alleine. Natürlich ist im letzteren Fall nicht zu erwarten, dass hoch optimierte Task wie bereits genannter ProRes Workflow davon profiteren (eher langsamer werden), aber für viele andere Tasks könnte das durchaus was bringen.

    anonymous_writer
    Natürlich stellt keiner in Frage, dass die Entscheidungen eines profitorientierten Unternehmens, ganz gleich ob dieses nun Apple, Microsoft oder Tante Emmas Gemischtwaren heißt, in erster Linie profitorientiert getroffen werden. Für was anderes muss man zur Wohlfahrt.
    Dennoch gehört Apple immer noch zu den Unternehmen, bei denen diese Entscheidungen oftmals auch den Kunden in Form von Produkten zugute kommen, die anders nicht möglich währen. Aktuelle MacBooks sind konkurrenzlos in Performance pro Watt. Kein Rechner von der Größe eines Studios bringt diese Leistung auf den Tisch.
    Dass der Enthusiast Prosumer und die Gamer (wobei bei letzteren tut sich ja gerade mächtig was) aktuell nicht 100%ig bedient werden können (tatsächlich imho aber sogar mehr als zu Intel Zeiten; HighEnd mal ausgenommen) ist gemessen am Anteil der Kunden, die diesem Klientel entsprechen zu vernachlässigen.

    Some men see things as they are and say 'why?', I dream things that never were and say 'why not?'

  • TheWachowski Du könntest mal bei Apple anrufen, und denen das sagen. Die scheinen es nicht zu wissen.

    Hacken ⛏️⛏️
    Haken ✔️

    .

    anscheinend: es sieht so aus als ob, und wird wohl stimmen

    scheinbar: es sieht so aus als ob, stimmt aber nicht

  • Guckux


    Manchem meiner Vorredner kann ich mich uneingeschränkt anschließen - wie zB daß jene, welche am lautesten kritisieren, zu denen gehören dürften, welche sich in den 90igern eine SGI Workstation mit Software für rund ne halbe million hingestellt haben (naja, nicht ganz, Workstation 40,000 Mark, Grafikkarte 80,000 und Software für >40,000 Mark). Das ist aber nichtmal ne Promille der "Gesamtkundschaft".

    Mir bekannt ist - möglicherweise einer der wichtigsten Gründe - daß Apple riesige Probleme hatte mit den intel-Protzes bei der Skylake Generation (und dürfte danach nicht besser geworden sein), als sie etwa soviele interne Bugs an intel reported haben, wie deren interne Entwicklungsabteilung. Dergleichen "frisst" massiv an Resourcen.

    Mit nvidia als Unternehmen hatten sie wohl auch Kooperationsprobleme, sonst wären in den letzten Jahren nicht vollständig auf AMD gewechselt - bei dem Gebaren von nvidia alleine mit der Presse (NDA und so) durchaus nachvollziehbar.

    Weitere Interpretation: Das ging denen soooo auf den Senkel, daß sie "von anderen abhängig machenden Müll" entsagen und alles "inHouse" produzieren.

    Das hat den Vorteil, daß man agiler agieren kann und Resourcen einspart (Gewinnmaximierung) und für sich Optimierung im Gesamtkonzept.


    Beispiel Laptop Bereich: Ich sehe immer mehr x86/amd64 basierende Laptops, welche verlötetes Ram haben, selten vielleicht mal dazu einen frei bestückbaren Speicherslot. Speicherausbau >32GB war schon immer rar, und wird immer rarer.


    Die Weiterentwicklung von Prozessoren wie auch Betriebssystem wird immer aufwendiger und komplexer und somit teurer. SUN/Oracle hat vor einiger Zeit bereits das Ende der SPARC-Prozessoren angekündigt, für Solaris gilt Anfang der 2030er das "Ende" (Oracle hat letztes Jahrzehnt bereits die Hälfte aller Entwickler in dem Bereich gekündigt). Bei HP sollte Anfang dieses Jahrtausend der Itanium ihren PA-Risc ablösen, dann kamen doch nachmal Nachfolger (letzter 2005) - weil Itanium nicht die Erwartungen erfüllt(e).


    Mich würde nicht wundern, wenn Apple bereits Enticklungspläne hinsichtlich Raytracing-Technologie in der Schublade hat - mit Sonoma wird bereits im Betriebssystem der "gaming mode" gepusht, AAA-Titel kommen vermehrt (Resident Evil 4 Remake, Stray, Death Stranding und Assasin Creed Mirage angekündigt).

    Die Ungeduld mancher hier - respektive auch die harsche Kritik an Apple, kann ich nicht nachvollziehen.


    Und nein, ich glaube nicht, daß der M3 einen großen performance Sprung machen wird, siehe vorgenannt, Enwicklungskosten etc... (nicht umsonst gehört der mainframe zu den teuersten, aber "fehlerfreiesten" Kisten ;) )

    Bye

    Stefan


  • Mich würde nicht wundern, wenn Apple bereits Enticklungspläne hinsichtlich Raytracing-Technologie in der Schublade hat

    Die hat Apple nicht nur in der Schublade, sondern bereits fertig. Der A17 Pro beinhaltet Raytracing Funktionalitäten und wenn man den Bildern Glauben schenken darf, sind diese sogar recht ordentlich. Ein M3 sollte diese daher vermutlich genauso, oder gar besser mitbringen.

    Some men see things as they are and say 'why?', I dream things that never were and say 'why not?'

  • Apple hat in einem Interview klar gesagt, dass sie Support für externe GPU überlegt haben, aber schlussendlich die Idee verworfen weil es nicht zum Design der SoC und deren Zukunftsvision passt. Apple Silicon erzielt einen guten Teil seiner Effizienz aus dem Unified Memory. Ich vermute, sobald x86 Support eingestellt wird, das macOS, Treiber und Frameworks noch viel mehr auf das ausgerichtet werden und dann dGPU Support im Weg stehen würde.


    Für Apple einfacher jetzt dGPUs zu streichen als einzuführen und in 2 Jahren wieder rauszuwerfen. Apple wird sich wieder weiter weg vom Standard PC entwickeln und ihren ganz eigenen Weg gehen.

    • Apple Mac Studio | M1 Ultra | 64GB RAM | 1TB
    • PowerMac G5 | Dual 2GHz | 8GB RAM | GeForce 6800 Ultra DDL
    • AMD Ryzen 9 3950X | ASUS Strix X570-I Gaming | 64GB DDR4-3600 CL16 RAM | Corsair MP600 M.2 NVMe | Radeon RX 6900 XT | Phanteks Enthoo Evolv Shift | Custom Loop | MacOS 12 | OpenCore
      Ryzen MacPro | EFI | RadeonSensor | Aureal
  • Aluveitie und genau dieser Weg ist, so wie es gerade angeht…der Richtige meiner Meinung nach.


    Die X86 Plattform war eine nette Sache, aber Apple ist hauptsächlich Hardware Hersteller, mit gutem os, bzw. der guten Anpassung und custom Code vorhandener Systeme…


    Ich sehe als Zielführend das Ergebnis und da kann man sich, so finde ich, nicht beklagen.


    Eine Transition mit Fallback aka Rosetta 2, eine Zeitspanne um diese den Lifecycle eines vorhandenen Systems zu bewahren…


    …und am Ende ist macOS für einen Mac gemacht, ein Hackintosh war immer ein nettes Gimmick, aber so nie vorgesehen.


    Das beste Feature an einem Mac war und ist für mich, dass das System auf die Hardware designed ist und so wie’s kommt OOB rennt.


    Und das ist bei Professionellen halt auch ein großer Faktor.

  • Die Computer Industrie war in den 80er/Anfang 90er einiges vielfältiger. Es gab mehr als nur 2 relevante ISAs und Betriebsysteme. In den 90ern wurde dann alles durch das Wintel Monopol ausgelöscht. Von dem her bin ich froh, dass sich Apple davon wieder losgelöst hat und "anders denkt" als der Markt es erwartet.

    • Apple Mac Studio | M1 Ultra | 64GB RAM | 1TB
    • PowerMac G5 | Dual 2GHz | 8GB RAM | GeForce 6800 Ultra DDL
    • AMD Ryzen 9 3950X | ASUS Strix X570-I Gaming | 64GB DDR4-3600 CL16 RAM | Corsair MP600 M.2 NVMe | Radeon RX 6900 XT | Phanteks Enthoo Evolv Shift | Custom Loop | MacOS 12 | OpenCore
      Ryzen MacPro | EFI | RadeonSensor | Aureal
  • Die X86 Plattform war eine nette Sache, aber Apple ist hauptsächlich Hardware Hersteller, mit gutem os, bzw. der guten Anpassung und custom Code vorhandener Systeme…

    Und macht das besser als manche, sowohl soft- wie hardware-Hersteller. Ich sehe bei der Konkurrenz nur Baustellen...

    Lenovo Yoga S740 i9 / OpenCore

    GA-Z590 Vision D / i9-10900F / 32GB / Radeon VII / LG 34UM95-P
    GA-Z97N-WiFi / 4790K / RX580

  • Die hat Apple nicht nur in der Schublade, sondern bereits fertig. Der A17 Pro beinhaltet Raytracing Funktionalitäten und wenn man den Bildern Glauben schenken darf, sind diese sogar recht ordentlich. Ein M3 sollte diese daher vermutlich genauso, oder gar besser mitbringen.

    Recht hast Du:

    "Auf iPhone 15 Pro und iPhone 15 Pro Max liefert Capcom Hardware-basiertes Raytracing und nutzt auch die verbesserten GPU-Kerne im A17-SoC. "Resident Evil 4 Remake" ist ein frischer Aufguss von "Resident Evil 4" aus dem Jahr 2005."

    - Quelle-

    Bye

    Stefan


  • Flash braucht jeder warum macht Apple denn da dicht - Flash starb und das Internet funktioniert weiter und besser dank HTML5


    USB-C only geht ja garnicht, ich brauche ja Adapter - nun hat es jedes Gerät, bald ist USB-A tot


    Computer müssen aufrüstbar sein - stirbt auch bald


    CD ist schon lange tot, DVD und BluRay folgen


    Der Weg mit ARM wird der Selbe sein, Apple hat IMHO da frühe Dinge durch gedrückt, die sich später als wahr behauptet haben.


    Einen Klinenstecker braucht ja auch jedes mobile Device? -nicht!

  • Ja klar ist es für ein Unternehmen, das gewinnorientiert arbeitet (also nicht der Wohlfahrt verpflichtet ist) "gut", wenn nicht essentiell, unabhängig von Zulieferfirmen und deren Technologien (Intel, NVIDIA, AMD) zu sein, das macht interne Entwicklungsprozesse schneller und leichter durchführbar ...


    Und klar, bei den Laptops hat Apple es mit dem Umstieg auf die hauseigenen M Prozessoren richtig gemacht (Ich schiele auf mein M2 Pro laptop neben mir ...)


    Aber bezüglich der weiteren Entwicklung hat onlyWork einen wesentlichen Punkt angesprochen, bei dem ich auch gespannt bin wie es da im Vergleich mit den Apple-Produkten weitergeht (und eben nicht bezüglich Leistung/Energieeffizienz):

    16k VR Filme & Maschine Learning


    ... mal sehen ob und was diesbezüglich Apple da noch bringt, bzw. technisch mit den eigenen Chips überhaupt (so bald) bringen kann ...

    ...
    Wir bearbeiten zur Zeit 16K VR Filme und nutzen viel Maschine Learning zur Frame Interpolation und Postproduction.

    ...

    Bei einer Workstation wendet sich aber das Blatt.
    Hier geht es um die maximale Leistung. Energie Effizienz tritt in den Hintergrund.
    Und hier muss sich eine Workstation egal welches Betriebsystem oder Universum auch vergleichen lassen.

    Lg TimmTomm

    ____________________________________________________

    Sonoma - iMacPro1,1/ Asrock z370m Pro4 / i7 8700k / Asus Radeon VII /64 GB DDR4-3000 G.SKILL Aegis/ Broadcom Bcm943602cd 802.11ac WiFi Bluetooth / Zalman S2 / OpenCore 0.8.5

  • Die Hardware Beschleuniger könnten das Blatt wenden.

    Wir encodieren viel 8k Materiel in h264 und h265 und der direkte vergleich von einem Mac mini m2pro 16GB RAM mit einer 3090 im 16 kern PC zeigt:

    ffmpeg enkodiert auf dem Mac mini mit der Hardware Beschleunigung schneller als auf dem PC mit ffmpeg NVIDIA encoder.

    Es ist nicht viel, aber dafür das die 3090 genauso viel kostet wie ein Mac mini.

    Also wenn Apple einfach mehr Maschine Learning Cores in Ihre Pro Desktops packen würde, könnte das auch eine 4090 im Maschine Learning das Wasser reichen.

    XEON 14core 64RAM 2x Radeon VII Catalina

    Einmal editiert, zuletzt von onlyWork ()