Keine 128 Bit CPU?

  • Moin.


    Ich kann mich dunkel erinnern, dass es schon vor über 10 Jahren die Diskussion gab, dass "bald" die ersten 128 Bit CPUs vom Band laufen würden ...

    Rein technisch dürfte das heute wohl kein Problem mehr sein, vermute ich. Hat jemand Ahnung über sowas und könnte was dazu sagen, warum da nix passier?

    Nur so aus akademischem Interesse.

  • Dem schließe ich mich an.

    Der einzige Vorteil wäre, dass man viel mehr RAM benutzen könnte, aber davon sind wir noch sehr, sehr weit entfernt. Es werden nicht mal die vollen 64 Bit ausgenutzt und wieso sollte man dann 128 Bit benötigen?

  • es gibt auch keine Definition was Bitness genau referenzieren soll. Adressierung? Registerbreite? ALU? Datenbus?

    • Apple Mac Studio | M1 Ultra | 64GB RAM | 1TB
    • PowerMac G5 | Dual 2GHz | 8GB RAM | GeForce 6800 Ultra DDL
    • AMD Ryzen 9 3950X | ASUS Strix X570-I Gaming | 64GB DDR4-3600 CL16 RAM | Corsair MP600 M.2 NVMe | Radeon RX 6900 XT | Phanteks Enthoo Evolv Shift | Custom Loop | MacOS 12 | OpenCore
      Ryzen MacPro | EFI | RadeonSensor | Aureal
  • Bis sowas den Massenmarkt erreichen würde, haben sich Graphen-Prozessoren durchgesetzt. (hoffe ich)


    Auf Heise hab ich mal gelesen das man einen vollwertigen Graphen-Prozessor entwickelt hat; bestehend aus 50000 Transistoren.


    Das Ding konnte ganz normal Microcode laufen lassen.

    Hergestellt wurde es in ordinärer Wafer-Technik womit auch Siliziumchips hergestellt werden.


    Deswegen sag ich immer: Unser neuer Hacky ist schon alte schrottige Technik von vorgestern :D

  • VLIW Prozessoren haben oft sogar mehr als die 128 Bit. Transmetas Crusoe, der per Emulation auch x86 Code ausführen konnte, gab es mit 128 und IIRC auch 256 Bit. Das war kurz nach der Jahrtausendwende und hat sich im PC Markt offensichtlich nicht durchgesetzt.

  • Kein Wunder, dass Motorolas MC68000 sich (mit seinen 32 Bit intern) 1979 nicht auf dem Markt durchsetzen konnte ...

    An müßigen Diskussionen á la "hier ist kontextlos ein historisches Beispiel, das sich nicht auf die aktuelle Situation übertragen lässt, aber es ist zumindest gröbst ähnlich!" bin ich besonders interessiert, bitte mehr... eine richtige Antwort auf die eigentliche Frage wäre aber auch in Ordnung.

  • Je nach Definition haben unsere Prozessoren egal ob AMD oder Intel auch eine FPU die größer ist als 64Bit.

    AVX2 sind 256Bit, man kann damit 4 x 64Bit Zahlen oder 8 x 32 Bit Zahlen gleichzeitig berechnen.


    Bei Prozessoren wie dem Xeon Phi hat man sogar eine FPU die 512 Bit verarbeiten kann. Skylake-X schafft die 512 Bit leider nur, indem sie 2 x 256Bit Zusammenschalten.


    Edit: Falls es jemanden interessiert, den Unterschied zwischen AVX-512 auf dem Xeon Phi im Vergleich zu einem Skylake-X sieht man auch sehr schön in Benchmarks. Während bei dem Xeon Phi (Mic) die Laufzeit beim Wechsel von AVX2 zu AVX-512 um rund 50% reduziert wird, ist der unterschied in der Laufzeit beim Skylake-X innerhalb der Messtoleranz.

  • Egal ob 128, 256 oder 512, an der Hardware liegt es nicht, schaut man sich Apple Geschichte mal an, sie hatten ein IBM Power CPU der damals schon 64 Bit konnte, haben erst auf 64 Bit umgestellt als sie Intel CPU's verbaut hatten.

    Es liegt immer nur an der Software, so lange wie kein Bedarf besteht, wird sich nichts ändern.

    Das ist überall so, fängt bei Spiele an und hört bei Betriebssystemen auf.

  • The IBM System/370 could be considered the first rudimentary 128-bit computer, as it used 128-bit floating point registers

    https://windowsreport.com/windows-8-128-bit/

    Intel - diverse geniale Hardware bis einschließlich Skylake, damals...

    AMD X6 1035T Silentmaxx TwinBlock - ASRock N68-S -8GB RAM - XFX HD 6450 Passiv - Etasis EFN-300

    AMD 7 3700X - Noctua NH-P1 - B550 Aorus Pro V2 - RX460 Passiv - Silentmaxx Fanless II 500 Platinum

    - - - - - - - - HOWTO: RYZENTOSH - - - - - - - -

  • Bevor man auf 128-bit geht, sollten sich die Entwickler lieber Gedanken darüber machen, sich von der x86-Struktur zu trennen.

    Im Grunde arbeiten die heutigen x86-Prozessoren immer noch nach dem gleichen Prinzip aus dem Jahr 1978.

    Die Entwickler sollten es erst einmal gebacken kriegen, die schon vorhandenen Ressourcen zu nutzen.

    Viele Programme nutzen immer noch nur einen CPU-Kern. Das in einer Zeit, wo fast jeder "stinknormale" Desktop-Computer, Prozessoren mit mindestens 4 Kernen besitzt.

  • bluebyte

    Seit dem 8086 hat sich schon ordentlich was verändert, ich weiß nicht, ob irgendwas noch so ist wie früher (Aufschlüsselung in interne Befehle -> intern RISC, weniger "Hardwiring" -> Mikrocode, Integration diverser weiterer Komponenten -> (fast) Mikrocontroller im klassischen Sinn, spekulative Ausführung, Cache-Architektur, und und und).


    Schau einfach Mal auf ARM, die haben reguläre Befehlslängen usw., es gibt aber bis dato keine Hinweise, dass die ISA selbst die Effizienz steigert (niedriger Energieverbrauch kommt idR von primitiven Methoden zur spek. Ausf. oder Vorhersage). Bei genanntem Beispiel gibt's auch zwei Seiten... Reguläre Befehlslänge schont die Pipeline, irreguläre den Speicher. RISC schont den Decoder, CISC den Speicher. Speicher ist aktuell ein großer Flaschenhals, also muss man genaustens abwägen, was man optimiert.

  • Community Bot

    Hat das Label Erledigt hinzugefügt