Home Computer Hardware Site Map counter

Was ist aus RISC geworden?

In den Achtziger Jahren des letzten Jahrhunderts tauchte ein neuer Begriff in der Computerei auf: RISC. Die Abkürzung steht für Reduced Instruction Set Computer und der Ansatz stellte einen Gegenentwurf zu den Prozessoren die bisher verbreitet waren und deren Architektur nun CISC - Complex Instruction Set Computer bezeichnet wurde.

Auch wenn es die Abkürzungen erst seit den Achtzigern gab, gab es schon immer Rechner die einen sehr großen und leistungsfähigen Befehlssatz hatten und Rechner mit einem einfachen Befehlssatz. Das korrespondierte auch weitestgehend mit der Komplexität eines Rechners. Das heißt, ein Großrechner von IBM, war mehr ein CISC Computer und ein Minicomputer eher ein RISC Computer, einfach weil er viel preiswerter sein musste und nicht so viele Schaltkreise enthalten konnte. Er musste weniger komplex sein, was natürlich auch einen einfacheren Befehlsstart nach sich zog.

Doch es gab schon immer Ausnahmen so waren die Supercomputer von Seymour Cray typische RISC Rechner, obwohl sie zu den teuersten Rechnern gehörten. Die Abkürzung RISC bezieht sich ja auf den Befehlssatz und nicht auf die interne Komplexität des Computers, auch wenn diese meistens miteinander korrespondiert. Bei der Cray war der Befehlssatz auf das reduziert was sie leisten sollte - Zahlen vor allem in Feldern verarbeiten. Sie hatte keine Befehle um Texte zu bearbeiten, aber ein einziger Befehl konnte 64 Berechnungen in einem Register mit 64 Werten anstoßen. In diesem Artikel finden sie mehr darüber wie eine Cray 1 in das Schema RISC - CISC passt.

Auch die Entwicklung der Mikroprozessoren bis in die Achtziger vollzog sich nach dem CISC-Schema. Innerhalb einer Reihe von Prozessoren eines Herstellers, wie bei Intel 8080 - 8086 - 80286 - 80386 wie auch Motorola (6800 - 68000 - 68020) wurden die Prozessoren immer komplexer und enthielten immer mehr Befehle.

Als Antriebsfeder für die Entwicklung von RISC Architekturen in den Achtzigern galt eine Untersuchung die IBM in den Siebziger Jahren durchführte. Demnach führten Prozessoren von IBMs Großrechnern während 80 Prozent der Zeit nur 20 Prozent der Instruktionen aus. Diese Regel gibt es auch in anderen Bereichen und sie wird Pareto-Prinzip genannt. Für den IBM 801 wurde die angesprochene Untersuchung gemacht. Da für einen Einsatzzweck, dem Vermitteln von Telefongesprächen, die vorhandenen Prozessoren nicht schnell genug waren, aber die Aufgabe eigentlich nicht sehr aufwendig war, beschloss IBM einen Prozessor zu entwickeln, der nur die häufigsten benutzten Anweisungen hatte, diese aber schneller ausführen konnte. Heraus kam ein Prozessor, der im Mittel eine Instruktion pro Takt durchführen konnte, das war erheblich schneller als CISC bei denen Prozessoren mehrere Takte pro Instruktion benötigten. Der IBM 801 Prozessor wurde in verschiedenen IBM Geräten verwendet, später erschien der IBM RT auf Basis dieses Prozessors der bei einer Taktfrequenz von 5,88 MHz genauso schnell war wie ein IBM PC AT mit 12,5 MHz. Dieser setzte die CISC CPU 80286 ein.

Ich gehe hier auf dir Grundsätze von RISC und die Unterscheide von CISC nicht ein, weil es dazu schon einige Artikel auf meiner Website gibt. Man kann die Befehlssätze und ihre Effizienz vergleichen, die Architekturen, die Einflüsse auf den Compilerbau etc. Für das Aufkommen vieler RISC Prozessoren, vor allem von Firmen, die neu auf dem Markt waren zählte aber ein Argument: die Komplexität des Designs.

Will man immer mehr Transistoren auf einem Chip unterbringen, so muss jeder einzelne Transistor (analoges gilt für andere Elemente) immer kleiner werden. Die Fertigungstechnologie muss immer kleinere Strukturen hervorbringen. Die Kosten für eine Fabrik steigen mit immer kleineren Strukturen aber deutlich an. Heute kostet eine neue Fab mehrere Milliarden Dollar. Sie kann meist für zwei Struktur-Generationen genutzt werden. Das gleiche Problem der Kosten gilt natürlich auch für den Entwurf. Es werden immer mehr Personen gebraucht, um diesen fertigzustellen. Das alles sind Einstiegshürden für Start-Ups. Aber auch Hürden von Prozessorherstellern. Man sieht dies auch daran das es immer weniger Hersteller von Prozessoren gab. Firmen wie Zilog, Intersil, National Semiconductor hatten nach der 16-Bit Generation die Prozessorentwicklung aufgegeben. Ein RISC Prozessor hat aber in der Regel nicht nur einen einfacheren Befehlssatz, er ist auch einfacher aufgebaut. Das reduziert die Kosten für Entwicklung und Fertigung,

Paradebeispiel MIPS

Einer der frühen Entwürfe von RISC Prozessoren war die MIPS Architektur. Die Abkürzung steht nicht für Millionen Instruktionen pro Sekunde sondern für Microprocessor without interlocked pipeline stages. Jeder der mit Computern befasst sist würe aber annehmen das ein so benannter Prozessor sehr schnell ist, eben mehrere Millionen Instruktionen pro Sekunde leistet, was als er 1985 auf denn Markt kam viel war. Entworfen wurde er von John L. Hennessy ab 1981 an der Stanford-Universität. Das Konzept war so überzeugend, dass 1984 eine Ausgründung erfolgte und das Unternehmen MIPS gegründet wurde, das den Prozessor entwickelte. So hatte der Erstling auch die Versionsnummer 2000, nicht 1000, da das Konzept schon bei Standford verbessert wurde. Der MIPS R2000 Erstling ist ein sehr typischer und radikaler RISC Ansatz. Er und seien Nachfolger wurden in Silicon Graphics Workstations und Servern, aber auch in den Sonys Playstation 1 und 2 eingesetzt die durch ihre dadurch mögliche hohe Grafikleistung den Standard für Spielkonsolen ihrer Zeit setzte. Vergleicht man den Prozessor mit dem zeitgleich erschienen 32 Bit Prozessoren von Inel und Motorola so wird der Unterschied deutlich:


MIPS R2000

Intel 80386

Motorola MC 68020

Erschienen

1985

1985

1984

Architektur

32 Bit

32 Bit

32 Bit

Register 32 allgemeine Register 8 allgemeine Register 8 Daten, 8 Adressregister
nstruktionen 164

Transistoren

110.000

275.000

200.000

Technologie

2 Mikrometer

1,5 Mikrometer

1,5 Mikrometer

Takt (anfangs)

15 MHz

16 MHz

12,5 MHz

Dhrstones

10,4 bei 12,5 MHz

3,2 bei 16 MHz

2,7 bei 16,67 MHz

Der Dhrystone Benchmark ist ein in C geschriebener Benchmark der in den Achtzigern populär war und auf vielen Rechnern eingesetzt werden konnte, von dem es daher auch viele Ergebnisse gibt. Damals konnte man leider noch nicht Rechner durch plattformübergreifende Anwendungssuiten vergleichen. Der Benchmark umfasst nicht eine Problemstellung, sondern testet die Ausführzeit typsicher Befehle wie Sprünge, logische Operationen und Berechnungen. Der Dhrystone Wert gibt den Index relativ zu einer VAX 11/780 an, einem Superminicomputer der 1977 eingeführt und damals 500.000 DM teuer war. Nach diesem Benchmark ist der MIPS Prozessor, obwohl niedriger getaktet drei bis viermal schneller als die beiden CISC CPU von Intel und Motorola. Dabei hat er deutlich weniger Transistoren und konnte noch in der vorherigen Prozesstechnologie hergestellt werden. Das zeigt den Vorteil von RISC und war Grund das danach fast jeder Prozessorhersteller an einer RISC Architektur arbeitete.

MIPS Blütezeit

Der MIPS R2000 bereitete den weg für andere Prozessorarchitekturen. Das Konkurrenzprojekt bei der Berkeley Universität war Berkley RISC. Aus ihm entstand als kommerzielles Produkt die SPARC Architektur des Workstations Herstellers Sun, der dadurch die Motorola Linie in den Computern ersetzte und von AMD der AMD 29000 Prozessor. Berkeley RISC beeinflusste aber auch andere Designs wie den DEC Alphaprozessor. Wie AMD als Halbleiterhersteller zeigt, experimentierten auch etablierte Prozessorhersteller mit RISC. So entwickelte Motorola die 88000 RISC-Linie, Hewlett-Packard HP PA-RISC, Intel den I960 der vor allem als Controller in Druckern und Netzwerkkarten eingesetzt wurde.

Die heute bekannteste Architektur ARM (Acorn RISC Machines) brachte sogar mit dem Heimcomputer Archimedes einen PC auf Basis des ARM RISC Prozessors heraus. Dem war jedoch kein kommerzieller Erfolg beschieden.

Ab 1991 schlossen sich sogar die so verschiedenen Firmen Apple, Motorola und IBM zusammen um den Power PC zu entwickeln. Die Allianz sollte durch ihre Marktmacht den PowerPC Prozessor und seine Technologie durchsetzen: Mit Apple gab es einen Abnehmer, der PowerPC trieb die Macs über ein Jahrzehnt an. Motorola brachte ihr Know-How als Mikroprozessorhersteller ein, sowie die Fertigungskapazität und IBM brachte ebenfalls Know-How aus dem IBM 801 Projekt ein und würde den Prozessor in ihren größeren Rechnern einsetzen.

Und Heute?

Heute sind die vielen Architekturen Geschichte. Übrig geblieben sind nur die PowerPC und ARM-Architektur. Der PowerPC wird inzwischen nur noch von IBM in ihren Servern eingesetzt. Die ARM-Architektur ist dagegen ubiquitär und steckt in vielen Geräten mit Elektronik wie Smartphones, Tabletts, Fernseher, Router etc.

Es gibt dafür eine Reihe von Gründen. Ein Grund ist, dass jeder Prozessor weiter entwickelt wird. Neue Versionen werden nicht einfach nur in der Strukturbreite verringert und höher getaktet. Es ziehen neue Features ein, wie weitere Cacheebenen oder numerische Coprozessoren, es wird aber auch der Befehlssatz erweitert, damit mutiert jeder RISC Prozessor automatisch zum CISC Prozessor, gleichzeitig wird der Gewinn an Geschwindigkeit immer kleiner. Den Anfangsvorteil einer neuen Architektur verlieren Weiterentwicklungen, gleichzeitig steigt die Transistorzahl an und der Unterschied in den Fertigungskosten zu einer etablierten CISC Architektur sinkt.

Im Computerbereich war es die Dominanz von Intel die zu der Verdrängung anderer Architekturen führte. Der einzige PC Hersteller der einen anderen Prozessor als von Intel einsetzte, war Apple, deren Marktanteil selbst in Spitzenzeiten um die 10 Prozent lag. Doch dieser Markt hatte enorme Stückzahlen. Es steckten eben viel mehr Prozessoren in den PC und Notebooks, als in Workstations und Servern. Wie bei jedem Produkt sinken die Stückkosten mit den Stückzahlen. So konnten Intel und AMD ihre Prozessoren relativ preiswert produzieren obwohl sie komplexer als RISC-Prozessoren waren. Zudem dominierte den Markt Intel, auch wenn AMD zeitweise (mit dem Athlon und seit 2018 wieder mit den Ryzen) einen größeren Marktanteil hatte. Die Märkte darüber - von Workstations, über die mittlere Datentechnik, hin zu Servern und Großrechnern teilten sich dagegen viele Anbieter von RISC Prozessoren. Ihre Stückzahl war begrenzt, ebenso die Märkte die sie bedienen konnten,. Aber die Inspektionskosten stiegen mit jeder Strukturverringerung an.

TOP 500 ListeDoch der PC-Markt ist nur ein Teilbereich. RISC Prozessoren wurden lange in größeren Systemen eingesetzt. Für sie zählte nicht die Leistung des Prozessors, sondern die des Systems und auch dessen Kosten bei dem der Prozessor nur ein Teil ist. Das heute vom PC bis zu den schnellsten Rechnern der Welt, den TOP-500 die meisten auf der Intel x86-Architektur basieren, hat aber einen anderen Grund: Intel gelang es ihre Architektur mit RISC zu verheiraten. Seit dem Pentium Pro ist es so das der Befehlsdekoder die x86 Befehle nicht in Microcode umwandelt, der direkt ausgeführt werden kann, sondern er bildet aus einer x86 mehrere Mikroinstruktionen (µ-Ops).

Diese führt er einer RISC-Maschine zu. Die RISC Operationen haben den Vorteil das sie elementarer sind und leichter parallelisierbar sind. Parallele Ausführung ist heute der wichtigste Punkt um eine hohe Geschwindigkeit zu erreichen und sie ist weitestgehend unabhängig vom Befehlssatz. Daneben ergibt sich die Möglichkeit diese RISC Einheit zu verändern, ohne das es Auswirkungen auf den x86-Code hat. Diese Vorgehensweise wurde beim Pentium Pro eingeführt, der damals in der RISC Maschine 40 Register, 5 Ports und 6 Ausführungseinheiten hatte. Die 12-ten Generation der Core Mikroarchitektur (Alder Lake) setzt dagegen 322 interne Register, 12 Ports und 37 Ausführungseinheiten ein. So erreicht sie ein viel höheres Maß an Parallelität. Diese aufwendige Technik funktioniert seit dem Pentium Pro, auch wenn sie offensichtliche Nachteile hat. So sieht der Programmierer eben nicht 322 Register sondern 16 im 64-Bit-Modus und sogar nur acht im 32 Bit-Modus. Es ist Intel (aber auch AMD) gelungen damit die schnellsten RISC Prozessoren vom Performance-Thron zu stoßen. Eine enorme Leistung, bedenkt man das diese Anfang der Neunziger Jahre etwa dreimal schneller waren. So dominieren Prozessoren von Intel und AMD inzwischen auch die größeren Rechner bis hin zu den schnellsten Rechnern weltweit. Die Grafik links zeigt diesen Verdrängungstrend der ab 2004 stattfand.

Sonderfall ARM-Architektur

ARM ist zwar der einzige RISC-Prozessor der heute verblieben ist, aber sie ist auch die Plattform mit der größten Verbreitung. Wenn sie ein elektronisches Gerät besitzen, das nicht nur triviale Dinge erledigen muss (wie eine Waschmaschine oder eine Mikrowelle) dann ist die Chance groß, das darin ein ARM Prozessor steckt. Das ist der Fall in fast allen Handys, Tabletts, Smartwatches und anderen "Smart"-Geräten, Routern, Unterhaltungselektronik (Fernseher, Festplattenrecorder, Satellitenreceiver) etc. ARM hat nachdem es der eigene PC namens Archimedes nicht der kommerzielle Erfolg war, und es auch nicht genügend Abnehmer für die Prozessoren gab, sich darauf verlegt nicht CPUs selbst zu produzieren, sondern zu entwerfen. ARM bietet Prozessordesigns an. Diese gibt es in verschiedenen Leistungsklassen und sie sind konfigurierbar. Diese Designs werden lizenziert und ein Abnehmer kann sie selbst konfigurieren und Einheiten hinzunehmen die er z.B. in einem Smartphone, mit dem man telefoniert benötigt, aber nicht in einem Tablett mit dem man nicht telefoniert. Dies ist extrem kundenfreundlich und so verwundert es nicht, das sich ARM Prozessoren breit durchgesetzt haben, auch wenn sie selten als ARM Prozessor in den Produktbeschreibung auftauchen sondern Namen wie "Snapdragon" "Cortex" oder einfach nur eine Teilenummer haben. Eine x86 CPU ist dagegen monolithisch, heute verfügt sie z.b. über Befehle/Einheiten um Prüfsummen zu berechnen/Verschlüsselungen durchführen, für Fließkommaoperationen, Vektoroperationen und für die beschleunigte Videowiedergabe. Ein Prozessor in einem Router benötigt nur die Befehle für das Berechnen von Prüfsummen. Ein Prozessor in einem Tablett die Instruktionen für die Videowiedergabe und ein Prozessor in einem PC/Notebook vielleicht alle Features. Indem man genau die Teile in die CPU aufnehmen kann, die man benötigt, kann man nicht nur deren Leistung sondern auch die Herstellungskosten und den Stromverbrauch viel besser kontrollieren.

Ein weiterer Vorteil ist das es ARM Prozessoren in den unterschiedlichsten Leistungsklassen gibt. Heute aktuell ist die ARM9 Architektur, also die neunte Generation. Doch für ein bestimmtes Gerät reicht vielleicht auch ein Prozessor einige Klassen tiefer, weil die Ansprüche an die Leistung kleiner sind. Intel fertigt Prozessoren die einige Jahre alt sind. Wer mit einem Prozessor mit der Leistung eines Pentiums oder 386-ers auskommen würde, bekommt diese nicht mehr. Dagegen gibt es immer noch Firmen die ARM Prozessoren der vorherigen Generationen herstellen. Als die erste Version des Raspberry Pi 2013 erschien setzte sie einen ARM1176JZF-S Prozessor der sechsten Generation ein, der schon 2003 auf den Markt gekommen war. Das Gerät war langsam, da der Prozessor veraltet war, aber durch den geringen Preis - mit Netzteil und SD-Karte als Massenspeicher kostete der Rechner unter 50 Euro wurde es trotzdem ein Hit.

Vor allem für mobile Geräte von Vorteil ist das RISC-Prozessoren durch weniger Schaltelemente weniger Strom verbrauchen als die x86 Linie als typische CISC Prozessoren. Intels Versuche wenig Strom verbrauchende Designs zu entwickeln sind weitestgehend gescheitert. Es gelang nicht auf den niedrigen Stromverbrauch der ARM Geräte zu kommen, zumal diese schon seit einigen Jahren ein neues Konzept in Petto haben - das BIG-Little Konzept: Dabei gibt es auf einem CPU-Die zwei Arten von Prozessoren. Einen leistungsfähigen Kern, wenn viel Rechenleistung benötigt wird,. z. B. Für Spiele, für die einfachen Aufgaben wie Telefonieren oder Surfen übernimmt ein anderer Prozessor der erheblich weniger Leistung hat, aber sehr viel sparsamer mit dem Strom ist und so die Arbeitszeit mit einer Batterieladung verlängert.

Inzwischen werden auch ARM Prozessoren bei Apple eingesetzt, dabei handelt es sich um ein von Apple weiterentwickeltes Design von ARM. Ebenso gibt es erste Server mit ARM Prozessoren. In beiden Fällen ist es so, das die Spitzenleistung pro Kern unter dem eines aktuellen Intel- oder AMD-Prozessors liegt. Aber die Prozessoren haben mehr Kerne und sie verbrauchen weniger Strom, was bei Servern es ermöglicht mehr Kerne auf einer Platine zu integrieren und den Aufwand für die Kühlung zu reduzieren. In beiden Fällen erreicht man eine vergleichbare Rechenleistung mit der aktuellen Klasse von Intel einfach durch mehr Kerne.

Im PC-Bereich dürfte das Haupthindernis für einen größeren Marktanteil von ARM sein, das fast alle PC Windows als Betriebssystem einsetzen. Es gibt bisher aber keine Windows Version für ARM, genauer gesagt es gibt keine Windows 10 oder Windows 11 Version für ARM, denn Microsoft hat zwar im Laufe der Zeit zahlreiche Versionen von Windows für "mobile Devices" veröffentlicht, kaufte zeitweise sogar den Telekommunikationsriesen Nokia auf um eigene Smartphones mit Windows auf den Markt zu bringen, hatte damit aber keinen Erfolg. Heute ist Nokia wider selbstständig und die Handys werden mit Android ausgeliefert - einem Betriebssystem für ARM Prozessoren von Google.

Für Entwickler wichtig ist nicht nur das ARM einen anderen Code hat als die x86-Linie - dieses Problem kann man leicht durch Cross-Compilieren lösen. Dabei erzeugt der Compiler nicht Code für die Plattform auf der er läuft, sondern eine andere Architektur. Das ist seit langem Standard da Software für Smartphones und andere Geräte auf dem PC entwickelt wird und meist auch in einem Emulator getestet wird. Das Problem ist vielmehr, das jedes Betriebssystem eine andere Schnittstelle zu Anwendungsprogrammen (API) hat. Ein für Windows ausgelegtes Programm kann so auf einem Linux-Kern wie er meistens auf ARM Prozessoren zum Einsatz kommt, nicht funktionieren.

Würde Microsoft auch ein Windows für ARM-Geräte anbieten, so wäre dies sicher der Durchbruch in diesen Markt. Vielleicht nicht bei den teureren Geräten, aber den einfachen. Einen PC einfachster Bauart kann man kaum unter 300 Euro herstellen, dagegen kostet ein Raspberry Pi im Gehäuse mit Tastatur 99 Euro, viele Smartphones welche eine ausreichende Rechenleistung haben, aber nicht die Schnittstellen die man benötigt liegen auch deutlich unter dieser Grenze. Microsoft hat zwar mit Modellen in der Reihe Surface Go ein eigenes Gerät im Sortiment das auf ARM Prozessoren basiert, doch handelt es sich hier um eigene Prozessoren von Microsoft, eine Windows Version die man einfach auf einem anderen Gerät installieren kann gibt es nach wie vor nicht.

Links

http://www.roylongbottom.org.uk/mips.htm

Artikel geschrieben am 5.5.2022.

Zum Thema Computer ist auch von mir ein Buch erschienen. "Computergeschichte(n)" beinhaltet, das was der Titel aussagt: einzelne Episoden aus der Frühzeit des PC. Es sind Episoden aus den Lebensläufen von Ed Roberts, Bill Gates, Steve Jobs, Stephen Wozniak, Gary Kildall, Adam Osborne, Jack Tramiel und Chuck Peddle und wie sie den PC schufen.

Das Buch wird abgerundet durch eine kurze Erklärung der Computertechnik vor dem PC, sowie einer Zusammenfassung was danach geschah, als die Claims abgesteckt waren. Ich habe versucht ein Buch zu schreiben, dass sie dahingehend von anderen Büchern abhebt, dass es nicht nur Geschichte erzählt sondern auch erklärt warum bestimmte Produkte erfolgreich waren, also auf die Technik eingeht.

Die 2014 erschienene zweite Auflage wurde aktualisiert und leicht erweitert. Die umfangreichste Änderung ist ein 60 Seiten starkes Kapitel über Seymour Cray und die von ihm entworfenen Supercomputer. Bedingt durch Preissenkungen bei Neuauflagen ist es mit 19,90 Euro trotz gestiegenem Umfang um 5 Euro billiger als die erste Auflage. Es ist auch als e-Book für 10,99 Euro erschienen.

Mehr über das Buch auf dieser eigenen Seite.

Hier geht's zur Gesamtübersicht meiner Bücher mit direkten Links zum BOD-Buchshop. Die Bücher sind aber auch direkt im Buchhandel bestellbar (da ich über sehr spezielle Themen schreibe, wird man sie wohl kaum in der Auslage finden) und sie sind natürlich in den gängigen Online-Plattformen wie Amazon, Libri, Buecher.de erhältlich.


© des Textes: Bernd Leitenberger. Jede Veröffentlichung dieses Textes im Ganzen oder in Auszügen darf nur mit Zustimmung des Urhebers erfolgen.
Sitemap Kontakt Impressum / Datenschutz Neues Hier werben / advertisment here Buchshop Bücher vom Autor Top 99