Das Moorsche Gesetz
Sicher kennt der eine oder andere das Moor’sche Gesetz. 1965, als die integrierte Schaltung noch jung war, prognostizierte Gordon Moore, damals noch bei Fairchild, dass sich die Zahl der Transitsorfunktionen einer integrierten Schaltung alle 12 Monate verdoppeln würde.
Das war etwas optimistisch, denn wie immer wenn es einen technischen Durchbruch, gibt war die Zuwachsrate enorm hoch, später flachte sich das wieder ab und 1975, zehn Jahre später korriegierte er sich auf 24 Monate. In der Praxis ist zumindest bei Intel eine Verdopplung etwa alle 20 Monate eingetreten.
Wie lange wird dies noch so weitergehen? Es gibt zwei möglich Antworten. Das eine ist die technisch und wirtschaftlich mögliche Weiterentwicklung und die andere die physikalisch mögliche. So gibt es auch zwei Prognosen: Gordon Moore meinte 2007 es würde noch 10 bis 15 Jahre weitergehen, während Patt Gelsinger es bis 2029 als gültig ansieht. Ich denke das entspricht bei Gordon dem was wirtschaftlich umsetzbar ist und Gelsinger dem was überhaupt möglich ist.
Macht man eine Prognose von den derzeit aktuellen Strukturbreiten von 32 nm auf 2017, 2022 und 2029, indem man annimmt, es wird so weitergehen wie die Steigerung in den letzten 6 Jahren (90 nm), 11 Jahren (180 nm) und 18 Jahren (800 nm), dann entspricht das Strukturbreiten von 1,28, 5,7 und 11,4 nm.
Das ist jenseits dessen, was heute technisch möglich ist. Was derzeit angestrebt wird, ist die EUV Belichtung, die mit 13 nm Wellenlänge arbeitet, dabei ist es schon heute möglich Strukturen zu fertigen, die deutlich kleiner als die Wellenlänge sind. Allerdings rechnen alle damit, dass die EUV Fertigung die Herstellungskosten rapide ansteigen lässt. Für die niedrige Wellenlänge muss man hoch präzis geschliffene Spiegel einsetzen. Linsen sind nicht mehr einsetzbar. Die gesamte Fertigung muss im Vakuum erfolgen, weil die Strahlen absorbiert. Dazu braucht man Extrem-UV Laser, weil dies die einzige mögliche Strahlenquelle ist. Die haben einen geringen Wirkungsgrad.
Das zweite sind die physikalischen Grenzen. Wo die liegen, weiß ich nicht. Der Grund ist recht einfach: In der Natur gibt es nicht Silizium mit dünnen Oxidschichten oder Silizium mit dünnen Alumniumbahnen. Es gibt Silizium nur in oxidierter Form oder es ist auch stabil als Metall. Aber es gibt keine Mischform und keine Verbindung mit Aluminium. Das gilt auch für viele andere Elemente. Was es aber gibt, sind dünne Oxidschichten auf Metallen die sich am Luftsauerstoff ausbilden. Die Oxidschicht nimmt zu, bis sie das darunter liegende Metall vor Oxidation schützt. Bei Aluminium hat sie eine Dicke von 10 nm. Daher würde ich annehmen, dass isolierende Schichten in dieser Größenordnung liegen müssen. Das würde für die beiden ersten Werte von etwa 6 und 11 nm sprechen. Die Weiterentwicklung bis zu 1,28 nm würde voraussetzen, dass schon viel kleinere Schichten isolierend wirken.
Wovon beide Grenzen noch weit entfernt sind, sind atomare Dimensionen. Eine Si-Si Bindung hat eine Länge im Bereich von etwa 0,15 nm, also nochmals zehnmal kleiner. Ich denke in wenigen Jahren werden wir sehen ob Moore oder Gelsinger recht behalten. Ich würde keine Wetten abschließen, weil ich denke, im Halbleiterbereich Prognosen wie die Technologie in 5-20 Jahren aussieht recht schwer sind. Die 5 Jahresfrist erscheint mir noch als Prognosemöglichkeit basierend auf der derzeitigen Technologie möglich, aber 20 Jahre? Ob man basierend auf der Technologie in der der 486 entstand wohl die heutige Technologie und die Prozessoren hätte prognostizieren können?
Mein Tipp wäre wohl der Mittelweg, also das Ende 2017 mit Strukturbreiten von rund 5-6 nm.
wieviele nm sind 50.000 Silizium-Atome breit?
„Atome“ gibt es nur in der Gasphase, da beträgt der mittlere Radius der Elektronenhülle eines Atomes 0,21 nm.
Die Bindungslänge zwischen zwei Siliziumatomen in einem Silziummolekül beträgt 0,15 nm.
Aber wie breit 50.000 Atome sind ist genauso wenig beantwortbar wie die Länge von 50.000 Ameisen – die bleiben nämlich nicht in einer Linie stehen….
Hallo Bernd,
schöner Artikel.
Also bisher ist zwar die Struktutbreite immer weiter gesunken, und ich bin schon auf die 22nm Prozessoren gespannt.
Aber auch auf deren Leckströme.
Ist dies noch bei 5-6nm noch möglich?
Oft hört man auch, dass Germanium als Halbleiter bessere Eigenschaften hat, aber wie es sich letztendlich entwickelt kann man nur abwarten.
Im Gespräch sind sogar schon 11nm kleine Strukturen.
Es ist schon Wahnsinn, wie es sich entwickelt.
Ich denke noch zurück an damals, zu Zeiten des K6, wo man von 250nm auf 180nm beim Athlon wechselte.
Ich frage mich aber:
Wann steht die Technik beim Einsatz von Silizium?
Wie weit kann man mit Germanium gehen?
Was kommt danach?
Soweit ich weiß, wird derzeit Kupfer als Leiter verwendet. Kann man noch was anderes nehmen?
Aber ich frage mich auch:
Wann werden die derzeiten Leistungsmonster mit vier und mehr Kernen endlich anständig ausgenutzt?
Sollte man nicht zuerst an Softwareoptimierung denken, bevor man noch leistungsfähigere Dampfmaschinen entwickelt?
Aber das hat jetzt nicht mehr viel mit dem ursprünglichem Thema zu tun.
Wie dem auch sei, ich bin gespannt, was noch auf uns zu kommt, obwohl ich oft an die „gute alte Zeit“ denke. 🙂
Gruß
Stefan
Germanium ist wie Linux das Material der Zukunft – und das schon seit 50 Jahren!
Nein im Ernst. Germanium wurde vor Silizium als Halbleiter eingesetzt und Silizium hat es ersetzt. In bestimmten Bereichen vor allem der Hochfrequenztechnik wird Germanium, wie auch Galliumarsenid verwendet, da die Spannung zum Schalten geringer ist und Frequenzen von bis zu 10 GHz beim Schalten erreicht werden.
Es kann sein, dass man wieder auf Germanium/GaAs zurückkommt, wenn man beim Silizium am Ende ist. Doch dann nicht damit die Strukturbreiten kleiner werden, sondern die Taktfrequenzen höher.
Ich bezweifele aber ob dies wirtschaftlich sein wird. Denn die Prozesse sind andere und das Ausgangsmaterial ist auch recht teuer. Transistoren setzten sich z.B. erst auf breiter Front durch als Germanium durch Silizium als Ausgangsmaterial abgelöst wurde und die Dinger dann entscheidend billiger wurden. Es wird eine Lösung für Hochleistungschips sein, für die man entsprechend viel zu zahlen bereit ist.
@Bernd: kann man die Breite von 50000 Silizium-Atomen nicht einigermaßen sinnvoll angeben, indem man den Gitterparameter eines Silizium-Einkristalls zugrunde legt? Das wäre ja das, was in diesem Zusammenhang interessant ist.
Nur sind in einem Siliziumkristall alle Siliziumatome in Bindungen und deren Länge unterscheidet sich von der Breite eines Atoms gravierend. Ich wollte damit auf den sprachlichen Lapsus hinweisen. Wie lang eine Bindung ist steht ja oben im Text und ich glaube das mit 50.000 zu multiplizieren sollte jeder hinbekommen….
Ich werde mich bemühen, sorgfältiger zu lesen…
Mit Germanium sind zwar höhere Frequenzen möglich, dafür hat es einige Nachteile, die es für CPU-Chips völlig ungeeignet machen:
– Restströme um Größenordnungen höher als bei Silizium.
– Starke Temperaturabhängigkeit der Parameter.
– Deutlich niedrigere zulässige Höchsttemperatur.
Bei der zur Zeit üblichen Bauelementezahl pro CPU dürften dann schon die Leckströme das Teil zum Verglühen bringen. Bestenfalls dürften einige hundert Transistoren pro Chip möglich sein, und das wäre viel zu wenig.
Galliumarsenid wäre da schon eher denkbar. Allerdings hat damit schon Cray Schiffbruch erlitten, weil (zumindest beim damaligen Stand) die Chipfertigung nicht beherrschbar war.
Theoretisch gibt es auch noch andere Materialien, zum Beispiel Siliziumcarbid. Prinzipiell geeignet, aber bis jetzt ist noch nicht mal die Produktion von einzelnen Bauteilen serienreif. In absehbarer Zeit also noch nicht zu erwarten.
Dagegen hat Silizium einige Vorteile:
– durch einfaches oxydieren der Oberfläche bekommt man einen recht guten Isolator, der gleichzeitig die Oberfläche zuverlässig (und ungiftig!) versiegelt.
– ausgereifte Technologien für die Großproduktion.
Außerdem: Grenzen für die weitere Verkleinerung gibt es bei den anderen Materialien genau so wie beim Silizium.
Und schon heute könnten die CPUs deutlich schneller sein, die Geschwindigkeit wird vor allem durch die Wärmeentwicklung begrenzt. Übertaktungsversuche bei Kühlung mit flüssigem Stickstoff zeigen recht beeindruckende Werte. Leider ist diese Methode für den Dauerbetrieb ungeeignet, besonders im Heimbereich.
Mit noch weiterer Verkleinerung der Bauteile dürfte der Unterschied zwischen theoretisch möglicher und praktisch beherrschbarer Geschwindigkeit noch größer werden.
Siliziumcarbid?
Bist Du sicher? Die Kristallstruktur dessen ist so fest, dass daraus Bohrmeisel hergestellt werden…..
Siliziumcarbid ?!
extrem zah dient mehr als Untergrund für Chips schaltkreise
zur zeit experimentiert man in Belgien mit organischen Dünnschicht-Transistoren CPUs
leider haben diese das Problem das sie oxidieren. was Komplet neue Fertigung Methode benötigt.
http://www.heise.de/ct/meldung/ISSCC-Prozessor-und-Speicher-aus-organischen-Transistoren-1197483.html
Das extrem in theoretische bau große bei Computer Chips wahre Nano Technologie
ob wohl das nicht CPUs in üblichen sinn sind sonder Mechanische Computer !
nur das dieser aus einzelne Atome gebaut werden.
die Herstellung ist ungeklärt vielleicht durch Genmanipulierte Bakterien ?
SiC wird tatsächlich für Leistungshalbleiter eingesetzt. Zumindest SiC-Schottky-Dioden und SiC-JFETs sind erhältlich, insbesondere für hohe Spannungsfestigkeit. Bandabstand, Durchbruchfeldstärke und maximale Arbeitstemperatur sind deutlich höher als für Silizium. Die Elektronenbeweglichkeit ist allerdings deutlich niedriger, so dass SiC nichts für schnelle CPUs wäre. Zudem weisen SiC-Wafers eine höhere Defekt-Dichte auf, so dass die Ausbeute für grosse Chips schlecht wäre.
Hallo!
Es stellt sich doch hierbei eine ganz andere Frage: Wozu wird diese höhere Rechenleistung pro Prozessorchip gebraucht? Nehmen wir mal an, daß die Rechenleistung linear mit der Transistorenanzahl steigt, dann haben wir auf der selben DIE-Größe bei 8nm statt 32nm die 16-fache Rechenleistung.
ABER: Braucht das irgend ein Mensch? Wurde überhaupt jemals in den letzten 15 Jahren höhere Rechenleistung in höhere Intelligenz der Maschine umgesetzt?
Ich behaupte: Nein. Die Software wurde aufgeblähter, ballastreicher, grafisch animierter, bunter, 3d-beschleunigter. Es entstanden zahlreiche Laufzeitumgebungen wie Java, .net, flash…
Eine Laufzeitumgebung ist etwa so effizient wie ein 3km langer Bus, der eine 6km lange Strecke bewältigt. In die Hintertüt steigt jemand ein, fährt mit einem Auto innerhalb des Busses während der Fahrt bis zur Vordertür des Busses und steigt dann dort am Zielort aus beiden Fahrzeugen aus. Das Auto innerhalb des Busses kann nur auf dem speziellen Straßenbelag im Bus selber (=Laufzeitumgebung) fahren, ist völlig abhängig vom Bus. Den 3km langen Bus gibt es für verschiedene Straßen- und Schienensysteme.
Früher dachte man noch, man könne die höhere Rechenleistung eines Rechensystems unmittelbar in höhere Intelligenz umsetzen. Aus dieser Zeit stammt der Begriff „Elektronenhirn“.
In Wirklichkeit ist es aber so: Je höher die Rechenleistung, um so mehr Faulheit und Verschwendung bei Betriebssystem und Applikationen wird unterstützt.
Eine wirkliche künstliche Intelligenz gab es noch nie. Irgend eine Zutat fehlt dafür.
Wurde hier auch schon mal thematisiert:
http://www.bernd-leitenberger.de/blog/2009/03/13/ja-computer-werden-langsamer/
Zum Elektronenhirn: Inzwischen können Computer Menschen beim Spiel „Jeopady“ schlagen….