Halbleiterfertigung: Wie Intels einstiger Vorteil zum Nachteil wurde
Eigene Halbleiterwerke zu haben, kann ein Segen sein - oder ein Fluch. Nach AMD hat das auch Intel erkannt, die Weichen sind gestellt.

Intel ist einer der größten Halbleiterfertiger der Welt - und produziert quasi nur für sich selbst. "Only real men have fabs", das wusste schon AMDs CEO Jerry Sanders. Dieses Modell hat Intel für Jahrzehnte eine nahezu monopolartige Stellung in vielen Märkten gesichert. Doch das einst so erfolgreiche Prinzip erweist sich als Ärgernis, gar als ernsthaftes Problem für Intel.
- Halbleiterfertigung: Wie Intels einstiger Vorteil zum Nachteil wurde
- Netburst gescheitert, iPhone verpasst
- Tick Tock wurde immer langsamer
- Intel holt sich schlussendlich externe Hilfe
Kein anderer Hersteller hat eine so tiefe Integration geschaffen, um Design und Fertigung zu verknüpfen. Das geht mit einem immensen Investment einher: Um der Konkurrenz voraus zu sein, muss Intel multiple CPU-Architekturen parallel entwickeln und gleichzeitig die Produktion vorantreiben sowie Fabs (Semiconductor Fabrication Plant) finanzieren.
Die Entscheidung, sich auf Prozessoren und deren Fertigung zu konzentrieren, fiel früh: Intels Gründer und Chef Gordon Moore hatte den Fokus bereits in diese Richtung gelenkt. Andy Grove, der 1987 die CEO-Position übernahm, riet Moore dazu, das DRAM-Geschäft aufzugeben, da Intel gegen die anteilig vom japanischen Staat unterstützten Unternehmen nicht mehr bestehen konnte. Auch investierte Intel unter Grove in eigene Fabs, jede davon kostet mehrere Milliarden US-Dollar.
In den folgenden Jahren wuchs der Markt für Prozessoren rasant, woran dank der x86-Lizenz von Intel auch AMD einen Anteil hatte. Der Grund dafür war IBM, die strikt darauf pochten, für den 8086-Chip und dessen Pentium-Nachfolger mehr als einen einzelnen Lieferanten haben zu wollen. Bis Ende der 90er Jahre hatte Intel bereits den Pentium II und den Pentium III ausgeliefert, in nur drei Jahren eilte der Hersteller von 250 nm (Katmai) über 180 nm (Coppermine) zu 130 nm (Tualatin).
Doch während der Athlon zum Athlon XP und später dem Athlon 64 führte, ließ Intel nach dem Pentium III die P6-Architektur ruhen. Stattdessen sollte die Netburst-Technik mit enormen Taktraten von über 10 GHz die nähere Zukunft bestimmen - eine Sackgasse, in welche Intel sich durch die eigene Fertigung manövriert hatte.
Schon der Start verlief holprig, der Pentium 4 (Willamette) mit 180-nm-Fertigung und 1,5 GHz war chancenlos gegen den älteren Pentium III-S mit 1,4 GHz alias The King und machte auch gegen AMDs zweiten Athlon (Thunderbird) für den Sockel A keinen Stich.
In den Folgejahren jedoch nutzte Intel die eigene Fertigung voll aus, weshalb der Pentium 4 mit 130 nm (Northwood) bereits im November 2000 die 2-GHz-Hürde nahm und Ende 2002 mit dem Pentium 4 HT die 3-GHz-Mauer durchbrach.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Netburst gescheitert, iPhone verpasst |
Also das Chipletts fürn Desktop teurer als monolitische Designs sein soll, höre ich zum...
Es fällt schwer sich vorzustellen, dass auf den Fabs und dem zugehörigen Management bei...
Man muss ebend nicht nur gute Produkte haben, sondern auch liefern können. Und TSMC ist...
Herzlichen Dank für deinen Beitrag Prädikat: sehr lesenswert lg
Was sollte das mit IBM zu tun habe? Die haben damals nur wirtschaftlich/egoistisch in...
Kommentieren