vom hp85 (1981) zum Pentium 4 (2002)   und 2004   und …
G.H.

Home |  Beruf |  Computer |  Referenz |  Farbmetrik |  Umwelt |  QM-Leistung |  Programmieren |  CallCenter | 

so etwa sah die Rechenmaschine anfangs aus

07. April 1964:  IBM kündigte gleichzeitig  in 78 Städten auf der ganzen Welt das System /360 an, die laut IBM perfekte (erste) Computerfamilie.

19.12.1974: (© Angaben der Jäger des verlorenen Wissens) —— der erste Bausatz eines Altair 8800 der Firma MITS (Micro Instrumentation Telemetry Systems) ausgeliefert.

1976

Berechnung des Farbortes mit der elektrischen Rechenmaschine (Die Konstanten sind immer wieder neu einzutippen). Das Berechnen eines Farbortes mit manueller Spektrenauswertung und Berechnung an der mechanisch-elektrischen Rechenmaschine dauert dadurch schon mal einen Tag (also einen Arbeitstag = 8 Stunden).

1982

Farbmetrik: Farbortberechnung mit hp 85 am RFC16
hp 85: RAM von 16 kByte dazu RAM-Erweiterung 16 kByte und ein Matrix-ROM; Speichermedium: Bandlaufwerk, zusätzlich 8"-Floppy für Massenspeicher =1 MB (!)

der hp85 - war unser ganzer Stolz

Erkenntnisgewinn: entweder Rechenzeit oder Speicherkapazität (zur Farbrezeptierung: Gleichungssysteme mit 16 Unbekannten entweder mit dem Matrix-ROM (Parallelverarbeitung) oder über Nacht mit for-Schleifen lösen    ABER das gilt auch noch heute

1982

Software-Umfang: dem Hauptprogramm war [zum Üben] ein Tool “Biorhythmus” beigelegt - eine !!speicherfressende!! Umsetzung der Sinus-Kurve. Hilfe auf F1 gab es aber schon; und das Kassettenlaufwerk mit mechanisch stabilisierter Band-Kassette begann zu rattern ...

1982

Programmiersprache: BASIC: das einfache hp-BASIC eigne ich mir als erste Sprache an. Dadurch lernt man allerdings auch etwas Systematik in den Abläufen.

1987

Programmiersprache Fortran 77 kommt hinzu: der Gag hierbei: ein Laufwerk wechselweise für Betriebssystem oder Programmsprache und somit zum Testen des Quelltextes (Compilieren) müssen die Programmdiskette und die Fortrandisketten immer gewechselt werden. (5¼"-Disketten mit 180 kB oder waren es schon 360 kB —??)

1988

Q&A (Question und Answer) oder war es früher: die 16-bit-Technik macht es möglich, dass man (deutsche Fassung hieß: Fragen und Antworten) Fragen in fast normaler Sprache an die Datenbank stellen konnte. Falls man vorher dem Programm die Synonyme eingegeben hatte..

1989

Programmieren mit Turbo Pascal ist dann schon komfortabler und die Programmierung hat einen Debugger. Auch lassen sich Module erstellen, die das Programm übersichtlicher werden lassen.

der >grafikfähige< AC 7100

1989

AC 7100: nach den Computerspielen mit rollenden Buchstaben (als Markierung des 'MARIO' - - der erste grafikfähige Personalcomputer in meiner Verfügung (erstmals zwischen Betriebssystemen vermitteln)
für Datenbanken: ReDaBaS => DBase II, und danach III und IV

1990

XT-PC 286 - der Privat-PC:ein Highscreen ... DOS — Arbeitsspeicher: 1 MB und Frequenz 16 kHz
die Ausrüstung 14"-Bildschirm hat 600 x 480 Pixel, die Festplatte hat 40 MB

1992

Arbeiten im PC-Netzwerk (Novell) — der Server hat extra eine Festplatte mit 800 MB

1993

Software für OCR: der -vergebliche- Versuch damit handgeschriebene Wasserstandstabellen automatisiert einzulesen.

1992 und danach

Office-Programme: die MS-Gruppe: Word, Excel und Access    aber auch 1-2-3 Lotus, AmiPro und WordPerfect

1993

Windows 2.0 sprengt die Grenzen meines PC-AT (mit 286-Prozessor und 1 MB RAM)

1996

Wordmaschine: in einem Architekturbüro finde ich solch ein Gerät vor (wohl aus 1986: word-machine - 8bit-Gerät; Hersteller: unbekannt; baujahr: späte 80iger des 20. Jahrhunderts). Je Seite Text wird eine 8"-Diskette benötigt, aber zur Formatierung gibt es immerhin schon Befehle. Und es muss nicht per Hand mit sog. Punktbefehlen der "ctrl-Text" eingegeben werden -wie bei "Text-Prozessor".
Betriebssystem und Programm war fest eingebaut: Beim Start des Computers kam die Frage: vorhandenen Text üebrarbeiten, dann Diskette einlegen — oder neuen Text schreiben.

1995

Modem für Internet (Compuserve) und Fax-Betrieb

die Arbeitsspeicher werden immer größer;

1996

Internetrecherchen aus CompuServe heraus

1999

OOPS: um die Geschäftsprozesse eines CallCenters zu modellieren
— Software: "Corporate Modeler" —Programmierungen zur Datenbearbeitung mit Visual Basic; wegen des Export-/Import-Moduls zu MS Excel

2002

Festplatten: die 40-MB-HDD aus 1990 gibt den Geist etwa zur selben Zeit wie die ein Jahr alte 20-GB-HDD aus 2001 (und Ursache ist nicht nur das es eine HDD von Fujitsu war)
UND der 14"-Monitor aus 1990 (leider nur 600 x 480)   läuft und läuft und läuft ...

2004

Die Festplatte hat nun schon 80 GB (das ist 2000 mal soviel wie 1990) der hp85 hatte eine fixe Vorgabe, die Busgeschwindigkeit liegt statt bei 8 Mhz nun bei 2,5 Ghz (beim hp85 ??), der RAM hat das 256 fache gegen den 286-PC und fast 10.000fach gegen den hp85). Abgesehen das zur Speicherung ein 650-MB-CD-Brenner beiliegt und das Lesen auch von DVD erfolgen kann: eine Steigerung der Speicherdichte um den Faktor 2000; gegenüber dem band im hp85 undefiniert. Grafikkarte, Soundkarte, Netzwerkarte, Modem. alles 1990 oder gar beim hp85 völlig undenkbar.
Der 17”-Monitor war nur kurz im Einsatz aus Platzgründen erfolgt der Output visuell nun über einen TFT-Flachbildschirm. Die Eingabe erfolgt allerdings im wesentlichen noch manuell über das Keyboard. Versuche mit einer Spracheingabe (1997 war es wohl) bringen nicht die notwendige Sicherheit. Verschreiben kann man sich alelrdings auch, aber seltener. Rechtschreibprüfun ist heute überall dabei; dafür ist die schnellere Rechenzeit und die größere Speicherungsmöglichkeit für Software aufgenutzt.

Allerdings beansprucht die Software: angefangen beim Windows XP und der MS-Office-Software: ebenfalls das 10.000fache. Dafür setzt der Texteditor auch die Formatierung und gibt Hilfe. Und das Internet mit dem weltweiten Datenaustausch. 1980 unvorstellbar - wozu sollte dies auch nötig sein (??).

zitiert aus dem menschlichen Gehirn -> deshalb
die meisten Einzelheiten sind schon vergessen:
(1) die Rechentechnik entwickelt sich schnell
(2) Computer und Internet sind für mich Arbeitsmittel und da merkt man sich die kleinen Gags zu selten
  nach oben  
Moore's Gesetz

Gordon Moore ist 1965 Forschungsdirektor bei Fairchild Industries und später Mitgründer von INTEL.
1965 findet er die -nach ihm benannte- Gesetzmäßigkeit: die Anzahl der Transistoren (Schalteinheiten) je Quadratinch (Zoll²) pro "Prozessor"(=IC) verdoppelt sich in 18 Monaten (seit dem Beginn der Entwicklung von IC's). Moore vermutete nun, dass diese Entwicklung sich auch in der (1965 -!- absehbaren) Zukunft fortsetzen wird. UND die Tendenz besteht weiter, obwohl MOORE seine Überlegungen nur aus den Werten der Jahre 1962 - 1965 ableiten konnte. (damals sind nur etwa 100 Transistoren in einem Prozessor enthalten). Dennoch hält der Trend schon mehrere Jahrzehnte an
Die technologischen Probleme verändern die Ausführung der IC's und wurden bislang immer noch gelöst. Mit jeder neuen Technologie müssen die alten Ausrüstungen ständig ersetzt werden. Zurzeit wird der Einsatz von EUV (193 nm) nötig, um die feinen Strukturen noch realisieren zu können. Damit werden molekulare Bereiche erreicht und relativistische Effekte wirken. Die Abwärme des Rechenprozesses auf die Prozessorgröße bereitet Probleme.

Trend im Mittel der Jahre 1970 · 2000 ergibt
eine Steigerungsrate 1,41׫Transistoren/µP des Vorjahres.

  nach oben  

hierzu noch ein Zitat
VDI nachrichten, 16.2.2001
Super-Chips droht Hitzetod WERNER SCHULZ

Halbleiter: Künftige Prozessoren müssen Energie sparen

Mikroprozessoren mit der Hitzeentwicklung eines Kernkraftwerks – nach Moores Gesetz des Chip-Fortschritts eine durchaus realistische Vision. Auf der Chip-Konferenz ISSCC in San Francisco wurden jetzt Auswege aus der Energie-Krise diskutiert
... Die Größe der Prozessorchips expandiert nach Moore alle zwei Jahre um 14 %. Die interne Taktfrequenz hat die Gigahertz-Schwelle überschritten und steigt exponentiell – vom Intel 386 zum Pentium 4 um das 50-fache. Doch die externen Busfrequenzen kommen da, lediglich mit dem Faktor 10 gewachsen, nicht mit.
Noch dramatischer laut Gelsinger: die Extrapolation des Leistungsverbrauchs. Heute verbrät so ein schneller Chip an die 100 W. Um 2008 würde die Moore'sche Evolution wahre Monster mit 10 kW generieren. Das würde die thermische Dichte nuklearer Reaktoren übertreffen – absolut absurd. ... Der Ausweg, so Gelsinger: weg vom Allzweckprozessor, hin zu funktional definierten Logikblocks mit anwendungsspezifischer Verarbeitung im MIPS-Bereich sowie eine optimierte Software-Architektur im “Multi-thread”-Prinzip. ...

1965: Moores Vermutung

wurde Moores Gesetz

Heise: 19.04.2005 00:07

Die Jubiläumsausgabe von Electronics im Jahr 1965 blickte auf die Entwicklung der Elektronik zurück und wagte unter dem Motto "The experts look ahead" Prognosen für die Zukunft.

2001

Die Mikroprozessoren, populäre Messlatte für den Chip-Fortschritt, nahmen insgesamt auf der Konferenz nur geringen Raum ein: Intel zeigte einen skalierbaren 32-bit-Prozessor mit ARM-Befehlssatz. Leistung: 1,55 W. IBM erläuterte das Design des ”Power4“ (115 W) und den ersten 64-bitter der S/390-Serie. Sun Microsystems kam mit dem Dual-Prozessor MAJC 5200. Compaq demonstrierte den Klassiker “Alpha“ in der vierten 1,2-GHz-Version. Überraschend nahm Intel die zweite Generation seiner IA-64-Architektur (“McKinley“) aus dem Programm. Dafür brillierte Sony bei den integrierten Multimedia-Prozessoren mit einem 150-MHz-Grafikchip mit eingebettetem 256-Mbit-Dram. Er ist offenbar als Nachfolger für den Grafik-Synthesizer der PlayStation 2 vorgesehen. Wichtiger für das zukünftige drahtlose Internet waren die Präsentationen über die engräumige LAN-Vernetzung von PCs und Handys. Da ist der “Bluetooth“-Standard plötzlich heißes Thema. Tausende Zuhörer drängten sich, um eine Reihe neuer Einchip-Sender/Empfänger (“Transceiver“) zu begutachten: von Alcatel, Oki und Broadcom. Alles sind Chips in der heftig auf ihre Eignung im HF-Bereich diskutierten Si-CMOS-Technologie an Stelle des bislang favorisierten GaAs. Transceiver und De/Multiplexer für die optische Gigabit-Kommunikation , meist in SiGe-Technologie, erreichen jetzt 40 Gbit pro Sekunde. Ähnlich dicht gedrängt liefen die Präsentationen der “Systeme auf einem Chip“. Da brillierten Lucent mit seinem GSM 2+ Prozessor für EDGE und GPRS, Alcatel zeigte einen GSM Station Controller/Transceiver und Nokia einen neuen Multicarrier GMSK-Modulator. Ebenso prägnant der Fortschritt bei Sony und NEC auf dem Gebiet der CMOS-Bildsensoren mit eingebettetem Prozessor. Sie sollen die herkömmlichen CCD-Wandler ersetzen. Meist stammen sie noch aus universitären Forschungslabs.

Was mich als Chemiker und Farbmetriker interessiert:

Die Größe der µP-Strukturen liegen in der Größenordnung von wenigen Atomen (!)
  • 2001 — 130 nm (dafür ist eine Belichtung der Masken mit UV-Licht der Wellenlänge 248nm (das ist fernes UV) nötig.
  • 2003 —   90 nm
  • 2005 —   65 nm
  • 2007 —   45 nm
  • 2009 —   35 nm

Somit sind dann Strukturen von einigen Atomen erreicht. Nun so sieht der Plan aus, wenn sich Moore's Law weiterhin bewahrheitet und keine grundlegend neue Technologie eingeführt wird.

Moores Law verliert nicht an Bedeutung, nur unser Fokus ist heute stärker auf den Markt gerichtet. Im Hinblick auf die Halbleiterei dahinter ist die Komplexität eher gestiegen. Bis 2010 gibt es keine fundamentalen Hindernisse die Moores Law behindern könnten. Peter Bauer / im Vorstand der Infineon Technologies AG (sales&marketing), zitiert in VDI nachrichten 13/2003,4 (28. März 2003)

Nanoröhren-Transistoren: Neues Leben für Moore's Law

Forscher der University of Illinois haben neue Resultate auf dem Gebiet der Nanoröhren-Transistoren vorgestellt. Die mit den Fullerenen verwandten, nur wenige Nanometer dicken Röhrchen aus Kohlenstoff bilden bei spezieller "Wicklung" Halbleiter und verbinden Source- und Drain-Elektrode. Beim Anlegen einer Gate-Spannung kann nun das Tunneln eines einzelnen Elektrons gesteuert werden.heise.de: 21.05.2004 11:57

Zur Entwicklung der Strukturgrößen von Chips (Oktober 2003)

Anmerkung: für Kleinserien mit Strukturen von 22-nm-Chips auf 300mm-Wafern sind mittels direktschreibenden Elektronestrahl herstellbar. ABER: Kleinserien realisierbar wegen des Zeitfaktors. Aber Großserien dauern, dauern ... Trend der Kosten und der Technik der Chip-Herstellung

Für Großserien bleibt (vorerst) nur die Lithographie: bislang wird mit durchstrahlendem Licht sinkender Wellenlänge per Belichtung der Wafer mit chips-geformten Foto-Masken geformt. Da die Strukturen kleiner als die Wellenlängen sind (man benötigt eben intensive "Lichtquellen") muss die Maske optisch korrigiert sein. Ab 1993 waren die Chip-Strukturen kleiner als die verfügbaren Wellenlängen.>>TEUER!
Der erwartete Einsatz von nunmehr extrem-UV-Lichtquellen (lithographisch eingesetzt) erfordert aber (1) Vakuum und (2) reflektierende Optiken (=Spiegel) und damit wird es wieder teurer ...
Die Abbildung beschreibt die Diskrepanz: die Chip-Sturkturen werden immer kleiner (rot: Chip-Struktur in nm), die technisch einsetzbar gemachten Lichtquellen (und die zugehörige Technik) kommen nicht nach (grün: Wellenlänge in nm) und die Preise wachsen (blau: Preis je Chip in €)
nach VDI-n 41/03)



  nach oben  

2002

Heise-Newsletter vom 17.07.2001 16:36

Hewlett-Packard entwickelt molekularen Speicherchip (Update)
Hewlett Packard hat einen Chip entwickelt, der zur Datenspeicherung mit einem Zehntel des bisher nötigen Platzes auskommt. Der 64-Bit-WORM-Speicher soll nur einen Quadratmikrometer Fläche belegen, berichtet die Nachrichtenagentur Bloomberg. Demnach speichern die HP-Wissenschaftler die Daten mit Hilfe von je acht horizontal und vertikal geprägten Platindrähten, die nur 40 Nanometer breit sind. Zwischen den Drähten befinden sich unter anderem organische Moleküle, deren Leitfähigkeit sich bei Anlegen einer Spannung ändert. ... Schon seit einigen Jahren sichert sich HP Patente auf spezielle Verfahren wie Nano-Multiplexer, mit denen sich die mikroskopisch kleinen molekularen Schaltelemente wie etwa ”Rotaxan“-Schalter makroskopisch verdrahten lassen. ... zur Segmentierung von molekularen Nanochips. Damit sollen sich prinzipielle Probleme bei der Konstruktion von logischen Schaltungen aus Nanodrähten lösen lassen.
...(Molectronic-Progamm) eine Art Drucktechnik zur Strukturierung zum Einsatz kommt. Die Druckmasken entstehen durch Elektronenstrahl-Lithografie (EPL).
... noch sehr viele Detailprobleme bis zur Serienfertigung der Molekularspeicher zu lösen ... noch mindestens fünf Jahre dauern. (wst/c't)

IBM-Quantencomputer aus fünf Qubits

Heise    Molekulare Fotografie
Aus fünf Fluoratomen, die Teil eines Moleküls sind, bauten IBMs Forscher einen Quantencomputer. Jedes der Fluoratome dient als Hardware für ein Qubit, dem quantenmechanischen Analogon eines Bit. Um ein messbares Signal zu bekommen, schwimmen unzählige dieser Moleküle in einer Flüssigkeit. Das Herz des Quantencomputers sind die Kerne der fünf Atome. Sie werden mit kurzen Radiofrequenzpulsen angeregt und mit einer Methode ähnlich der eines Kernspintomographen messen die Forscher deren Reaktion. Das Molekül ist so beschaffen, dass die Atomkerne in einfacher Weise miteinander wechselwirken und so ein Quantenregister bilden.

Ein Qubit nimmt nicht nur den Zustand logisch 1 oder 0 an, sondern beide zusammen. Ein Register aus fünf Qubits vereint damit gleichzeitig alle möglichen Zustände in sich. Was für einen 5-Qubit-Quantencomputer eine einzige Rechenoperation ist, dafür braucht ein herkömmlicher Rechner mit einem 5-Bit-Register 32 Durchgänge. Das Beispiel, wenn auch sehr vereinfachend, demonstriert,welches Potenzial in einem Quantenrechner steckt.

Doch das Quantengebilde hat auch seine Schattenseiten. Das geisterhaft anmutende Zustandsgemenge eines Qubits bleibt – von Störungen von außen einmal abgesehen – nur solange erhalten, bis eine Messung erfolgt. Danach mutiert es zum schnöden Bit mit einer festen 1 oder 0. Damit die Rechenleistung des Quantencomputers deshalb nicht mit der Messung des Ergebnisses verpufft, müssen Algorithmen her, die ein gestelltes Problem so anpacken, dass ein einziges Ergebnis zum Schluss alle Lösungen enthält.

Die IBM-Forschungsgruppe um Isaac L. Chuang in San Jose hat hier Erstaunliches geleistet, denn sie konnten einen neuen Algorithmus in ihrem Quantencomputer implementieren. Dabei geht es darum, in einer mathematischen Funktion eine Periodizität zu finden. Was sehr theoretisch klingt, hat handfeste Anwendungen in der Kryptografie und kann bestehende Verschlüsselungsmethoden gefährden. Doch bis dahin wird wohl noch einige Zeit vergehen, denn erst, wenn die Zahl der Zustande zwanzig bis vierzig erreicht, wird der Quantencomputer vom Forschungs- zum Rechengerät. Wie und wann das realisiert werden soll, weiss derzeit niemand.

Ob der IBM-Computer "the world’s most advanced quantum computer ist", wie vollmundig verbreitet, darf übrigens bezweifelt werden. Schon im Juli veröffentlichte das renommierte Fachblatt Physical Review A einen Artikel, in dem ein Forschungskonsortium den ersten Quantencomputer aus fünf Qubits vorgestellt hatte, ebenfalls mit fünf Atomen in einem hausgemachten Molekül. Ein weiteres Experiment einer anderen Forschungsgruppe zeigte sogar acht Zustände in einem einzigen Atom.

Siehe dazu auch den Artikel in Telepolis: IBM meldet Durchbruch bei Quantencomputern. (jr/c't)

2003    Moores Gesetz gilt wohl noch

Nach Moore ist für das Jahr 2007 der Milliarden-Chip zu erwarten: 109 Transistoren in einem Chip.
Dazu wird dann die 35-nm-Technologie nötig sein, für eine typische Schaltung sind wohl 8.500 Mannstunden erforderlich – vorwiegend für Design und Tests, die Belichtungsmaske wird 1.000.000 $ kosten.
Was tun mit den großen Chips: (1) mehrere µP auf einem Chip, (2) rekonfigurierbare Chips

Dezember 2004

Moores Gesetz gilt nach wie vor: nach 18 Monaten hat sich die Anzahl der Transistoren auf einem CHIP verdoppelt
Anfangs waren die schnellen Mikroprozessoren (µP) das Entwicklungsziel. Und schneller meinte leistungsfähiger. Aber siehe Handys:
- die Chips sind heute schon so groß das Fotoapparat, endlos lange Adressbücher, dümmliche Klingeltöne Ե
Die exponentiell steigende Anzahl der Transisitoren: wozu nutzen?
Anwendungstechnisch und physikalisch sind die Grenzen erreicht. (Intel-CEO: Craig Barrett)

Intel ist nun mal Marktführer:

  • Hyperthreading: Parallelverarbeitung bis 2007 auf 70% der neuen Chips
  • LaGrande_Sicherheit: hardwarebasierte Sicherheit von Ressourcen und I/O (mittels XP-Nachfolger Longhorn realisiert (?))
  • Vanderpool-Virtualisierung: die soll zukünftig: Parttionierung in virtuellen Maschinen erlauben (Itanium ab 2005, für Xeon-/ Pentium-µP ab 2006 (wenn)
  • 64-bit-Speichermanagement: ist schon Realität erfordert aber (logischerweise) ein 64-bit-Betriebssystem: ähhh 64-Bit-Windows-XP für den Desktop.
  • Remote-Management-Technologie (AMT): Aministration des Systems (komplett) über das Netz (IP) administrieren.
Und den Stromverbrauch senken: Powermanagement: von 90W/CPU (2004) auf unter 60 W/ CPU, das sind weltweit 1.000.000.000 Dollar/ Jahr eingespart.


Zielstellungen:
  1. digitales HOME-Entertainment: Fernsehen, Radio, DVD-Filme, PC-Integration, Lüfter-on/off, Jalousien-hoch/runter ...
  2. digitales Büro: von der Spracheingabe bis zum automatichen Dokumetnen-Management und finanzamtsgerechten Archivieren, ...
  3. Unternehmensanwendungen: virtuelle Fabrik, RFID-Logisitik, ...
  4. mobile System: Handys rundum zum Zahlen, zum Überwachen und Überwacht-werden, Filmen immer und überall, das Foto ist dann nur noch ein Ausschnitt einer Präsentation in {x,y,z,t) bei t=tn; ... ; ...

Schöne neue Welt: Orwell lässt grüßen? Und was sollen die Taliban machen. Kann auch Bin-Laden diese Technik nutzen?? Naja bis jetzt ging die Welt immer noch nach vorn!!

Intel: Moores Gesetz gilt auch drahtlos

Meldung vom 25.02.2004 15:57 Intels Präsident und Chief Operating Officer Paul Otellini hat auf dem 3GSM World Congress die Strategie seines Unternehmens im Bereich der drahtlosen Kommunikation und Vernetzung umrissen. Dabei geht er von einer künftigen Koexistenz der Techniken WLAN, WiMAX und des Mobilfunks der dritten Generation aus. Dieses Miteinander ermögliche neue Anwendungen und Geschäftsmodelle.

Weiter meint Otellini, Moores Gesetz für exponentielle Entwicklungen in der Halbleitertechnologie werde sich auch auf den Markt für drahtlose Anwendungen auswirken. Indem mehr Funktionen auf engstem Raum versammelt werden, mache sich dies auch auf bei den Kosten für die Hersteller bermerkbar. Als Beispiel zeigte Otellini eine Referenzdesign für Handys, das für WLAN, GSM/GPRS und Bluetooth geeignet sein soll. Zudem soll es MP3-Musik abspielen und mit 1,3 Megapixel fotografieren können.

Hoffnungen setzt Intel auf den Worldwide Interoperability for Microwave Access (WiMAX), also auf drahtlose Breitband-Internetzugänge. Die Technik nach dem Standard 802.16a werde sich in den kommenden Jahren ähnlich ausbreiten wie WLAN bisher, glaubt Otellini. Geeignete Notebooks werde es 2006 geben und WiMAX-Telefone im Jahr darauf. Den ersten WiMAX-Chip will Intel noch in diesem Jahr vorzeigen. Außerdem kündigte er Prozessoren an -- Codename Hermon --, die für UMTS- und CDMA-Mobiltelefone gedacht sind.

immer kleinere CHIPS -> Probleme:

  • höhere Taktraten und längere Leiterbahnen erhöhen die Signallaufzeiten
  • vermehrte Leckströme beeinflussen die Stromaufnahme negativ
Und der Trend:
  • mobile Geräte: PDA mit Handy und Player
  • drahtlos verbunden
  • weltumspannend vernetzt

Einsatz der Chips:
  • —— drahtlose Verbindungen und Vernetzungen
  • Netztechnik
  • Konsumgüter
  • Speicher - Auto - Bildverarbeitung - Sicherheitstechnik

Elektronische Bauelemente

  • Halbleiter und Sensoren
  • Bildröhren und Displays
  • passive und elektromechanische Bauelemente
  • Leiterplatten und Schichtschaltungen
  nach oben  

Deutschlands erstes reines Computermuseum geplant

Heise-Meldung vom 05.08.2003 17:35

In Dortmund soll das erste Museum entstehen, das sich ausschließlich mit Computern befasst. Dafür existiert bereits eine Sammlung von 2500 Exponaten historischer Computer und Peripheriegeräte. Unter diesen Exponaten, die über 15 Jahre vor allem von Bernhard Tillmann -- bei anfänglicher Unterstützung durch Konrad Zuse -- zusammengetragen wurden, befinden sich auch Rechner der Gründergeneration von Konrad Zuse, IBM, Bull und Telefunken. Das 8Bit-Museum steuert etwa 550 Geräte bei. Tillmann hob im Gespräch mit heise online als Exponat aus der eigenen Sammlung den LGP-30 hervor. Er hofft, dass das Museum in drei Jahren seine Türen öffnen kann. Das Heinz Nixdorf Museumsforum, das sich als größtes Computermuseum der Welt bezeichnet, stellt neben Computern beispielsweise auch Schreibmaschinen aus.

Dortmund eigne sich als Standort, weil dort 1957 mit dem Unternehmen MBP (Mathematische Beratungs- und Programmierdienst GmbH) das erste europäische Software-Systemhaus gegründet worden sei, erklärte Tillmann. Heute ist Dortmund mit etwa 12.000 Beschäftigten einer der zentralen Standorte für die Softwareentwicklung in Deutschland. Der Fachbereich Informatik der Uni Dortmund sei mit etwa 3500 Studierenden der größte seiner Art in Deutschland. Das Arbeitsamt Dortmund habe als erstes in Deutschland zusammen mit MBP die Ausbildung zum Programmierer angeboten. Das Computermuseum will deshalb einen Blick auf die vielen Computerfirmen werfen, die in Deutschland seit den 50er Jahren entstanden und die wieder von der Bildfläche verschwunden sind, führte Tillmann weiter aus.

Am 22. Juni, den Geburtstag Konrad Zuses, haben Personen aus Politik, Wirtschaft und Wissenschaft den Verein "Deutsches Computermuseum" gegründet. Ziele seien Aufbau und die Förderung eines Museums, das museale Aufgaben, wissenschaftsbezogene Bildung und zeitgemäße Unterhaltung miteinander verbinden soll. In den Vorstand gewählt wurden als Vorsitzender Prof. Dr. Bernd Reusch, Mitbegründer der Informatik an der Universität Dortmund, Olaf Becker, Bernhard Tillmann und Dr. Norbert Jesse von der Firma Quinscape im Technologiepark der Uni. Eines der Gründungsmitglieder ist Prof. Dr.-Ing. Fritz-Rudolf Güntsch, laut Bernhard Tillman der Entwickler des ersten virtuellen Speichers. (anw/c't)

Neuer Weltrekord in der Quantenkryptographie

Heise: Meldung vom 05.06.2003 17:13

Wissenschaftler des Cambridge Research Laboratory von Toshiba haben erstmals eine quantenkryptographische Verbindung über eine Distanz von 100 Kilometern aufgebaut. Im Dezember 2002 hatten Wissenschaftler von Mitsubishi eine quantenkryptograpische Verbindung über 87 Kilometer realisiert.

Quantenkryptographische Systeme sind -- zumindest theoretisch -- absolut abhörsicher. Die Information wird in Photonen kodiert. Versucht ein Spion die Photonen abzufangen, muss er den quantenmechanischen Zustand des abgefangenen Photons messen und legt damit diesen Zustand fest. Mittels einer statistischen Analyse der empfangenen Photonen merken Sender und Empfänger sofort, ob jemand ihrer Übertragung gelauscht hat.

In der Praxis haben die Konstrukteure eines solchen Systems hauptsächlich mit zwei Schwierigkeiten zu kämpfen: Eigentlich darf der Sender immer nur ein Photon auf einmal senden. Schickt er einen ganzen Klumpen Photonen los, die alle dieselben Eigenschaften haben, kann ein Spion ein Photon aus dieser Lieferung abzweigen, ohne die Übertragung zu stören. Das Signal ist also idealerweise immer sehr schwach. Dazu kommt das Rauschen im Detektor und den Verstärkern, das der Quantum Bit Error Rate überlagert ist.

Die Wissenschaftler von Toshiba verwendeten phasenkodierte Laserpulse und extrem rauscharme, empfindliche Detektoren und konnten so über 100 km quantenkryptographische Schlüssel mit 15 Bit pro Sekunde austauschen. Technische Einzelheiten wollen die Wissenschaftler diese Woche auf einer Fachkonferenz in Baltimore vorstellen. (wst/c't)

Auf zu 65 Nanometer -- und noch kleineren Chip-Strukturen

Heise: Meldung vom 12.06.2003 14:57

Die Chip-Elite berichtet auf dem VLSI-Symposium in Kyoto von großen Fortschritten im Nanokosmos von 65 nm und darunter. Ob Intel, AMD Samsung, NEC, Toshiba, Motorola, Philips, Texas Instruments, IBM oder Infineon -- alle Halbleiterfirmen sind bei dem Treffen dabei, um von ihren Erfolgen in der Nano-Chip-Technologie zu berichten. Das Symposium über VLSI-Technologie geht am heutigen Donnerstag zu Ende, am Freitag schließt sich der zweite Teil über konkrete VLSI-Schaltungen an, etwa Clock-Generatoren, Datenkonverter oder drahtlose Übertrager. Intel hat etwa passend für 802.11a einen 5-GHz-Oszillator im Programm oder 10-GHz-Synthesizer.
Eines der meistgehörten Begriffe auf dem Symposium ist die so genannte Gate-Länge. Dies ist eine der wichtigsten Kenngrößen von Transistoren, ist sie doch reziprok zur erzielbaren Maximalfrequenz. Intel führte aus, dass der im letzten Herbst auf dem Intel Developer Forum vorgestellte Trigate-Transistor inzwischen bereits die Forschungs-Phase verlassen habe und sich in der konkreten Entwicklung befinde. In den Labs hätten die Transistoren derzeit eine Gate-Länge von nur 30 Nanometern, zur geplanten Produktionsreife im Jahr 2007 erhofft Intel die Gate-Länge noch auf 20 nm herunter zu bekommen.
Konkurrierend zu Intels Dreifachgattern setzen IBM und AMD auf so genannte FinFETs mit zwei Gates. Aber auch bei den klassischen Single-Gate-Transistoren sind noch viele Verbesserungen möglich. IBM zeigte, wie sich vertikale Transistoren für DRAMs auf 70 nm und darunter herabskalieren lassen. Und die AMD-Entwickler berichteten über ihre Erfolge mit den auf dem IEDM 2002 vorgestellten Nickel-Gates: zusammen mit "Fully depleted SOI" konnten sie damit die Performance der Prototypen um 30 Prozent steigern. Nickel als Gate-Material erhöht laut AMD die Leitfähigkeit des Gates und erlaubt ohne Performanceverlust dickere Gates und Isolationsschichten (Gate-oxids). Das verringert die gefürchteten Leckströme.
Auch Experimente mit “Strained Silicon”, so verriet Entwicklungsleiter Sander, verlaufen sehr erfolgreich, gut 20 bis 25 Prozent mehr Performance kann man damit erzielen. Hier zeigt offenbar die Zusammenarbeit mit IBM Früchte, denn IBM hatte als erste Firma Strained-Silicon-Technik vor etwa zwei Jahren eingeführt. In die Produktion von Prozessoren mit gestrecktem Silizium wird allerdings Intel vorangehen, und zwar bei den fürs zweite Halbjahr 2003 vorgesehenen Prescott- und Dothan-Prozessoren, die im neuen 90-nm-Prozess gefertigt werden. IBM hatte zur Silizium-Steckung eine Germanium-Schicht untergelegt, Intel will das ohne zusätzliche Schicht gelöst haben -- aber wie, weiß derzeit außer Intel noch niemand. Samsung ist mit einer Flut von Beiträgen auf dem Symposium vertreten, etwa zu neuen “Recess-Channel-Transistoren (RCAT)” für dynamische Speicher, die mit Gate-Längen von 75 nm für Samsungs aktuellen 88-Nanometer-Prozess ausgelegt sind. Zum Thema Speicher haben auch die meisten anderen Halbleiterhersteller weitere Schrumpfungsprozesse und Neuerungen zu vermelden, herausragend vielleicht die schon vorab gemeldeten MRAMs von IBM und Infineon.
Wie die Lithografie mit 65 nm (und 30 nm Gate-Längen) aussehen soll, berichten etwa NEC und Toshiba auf der Basis von ArF-Lasern, die mit Licht von 193 nm arbeiten. Intel hatte unlängst angekündigt, auf den ursprünglich geplanten Übergang auf 157-nm-Laser zu verzichten und gleich auf die kommende EUV-Lithografie zu setzen. Doch dazu sind noch eine Vielzahl von zum Teil erheblichen Problemen zu lösen -- wie c't in einem, ausführlichen Report zum aktuellen Stand der EUV-Lithografie in der kommenden Ausgabe 13/2003 (ab Montag, den 16. Juni, im Handel) berichtet. (as/c't)

Nanotechnology: What goes round

Meldung   nature 24 July 2003

The drive to miniaturization of commercial microelectromechanical systems has already reached the submillimetre to micrometre scale. The next step, a nanometre-scale electromechanical system, is now a reality in the laboratory. The latest advance has the simplicity — no external paraphernalia such as lasers or magnets — to suggest that practical devices are not far away. The new system is an ultra-small actuator 300 nm in length, with all components integrated on a silicon chip. A multiwalled carbon nanotube acts as its central shaft, and attached to it is a solid metal mirror or paddle that rotates in response to an applied voltage. The bearing-like action of nested carbon nanotubes allows the efficient transmission of the rotational motion. Unlike nanoscale bio-motors or bio-actuators, this synthetic device can operate in a vacuum and over wide frequency and temperature ranges. It has applicability to optical, mechanical, biological and chemical systems.

See this device in action in a movie, downloadable from the Supplementary Information for this paper.
Rotational actuators based on carbon nanotubes
A. M. FENNIMORE, T. D. YUZVINSKY, WEI-QIANG HAN, M. S. FUHRER, J. CUMINGS & A. ZETTL
Nature 424, 408–410 (2003); doi:10.1038/nature01823
| First Paragraph | Full Text (HTML / PDF) |

Durchbruch für die Silizium-Photonik

Meldung    heise 23.07.2003 10:23

Ein Verfahren, mit dem sich hochdichte Felder von Silizium-Nanokristallen sehr kostengünstig auf 4-Zoll-Wafern herstellen lassen, hat jetzt ein Team von Wissenschaftlern um Margit Zacharias am Max-Planck-Institut für Mikrostrukturphysik in Halle entwickelt. Mit solchen Nanokristallen oder Quantenpunkten lassen sich einige Nachteile von Silizium überwinden, die es bisher als Ausgangsmaterial für optoelektronische Bauelemente wie beispielsweise Leuchtdioden (LEDs) ungeeignet machten: Silizium ist ein indirekter Halbleiter und weist eine sehr ineffiziente Lichtemission bei Raumtemperatur auf. In Silizium-Quantenpunkten -- winzigen Nanokristallen mit Abmessungen zwischen zwei und fünf Nanometern -- hängt die Lichtemission dagegen nur noch von den durch die geometrischen Abmessungen festgelegten Energieniveaus ab.

Bislang war es allerdings äußerst schwierig, bei der Herstellung von Silizium-Quantenpunkten deren Größe, Dichte und Position hinreichend genau zu beeinflussen. Dies ist den Hallenser Wissenschaftlern mit ihrem inzwischen patentierten Verfahren gelungen. Sie schieden dazu zunächst eine thermisch nicht stabile Siliziumoxidverbindung als ultra-dünne Schicht von ein bis fünf Nanometern auf einem Träger ab. Eine anschließende thermische Behandlung führt in dieser Schicht zu einer Phasenseparation, bei der sich in Abhängigkeit von der Temperatur die Silizium-Quantenpunkte bilden, die in eine Matrix aus thermisch stabilem Siliziumdioxid eingebettet sind. Die Größe der Quantenpunkte lässt sich über die Dicke der aufgedampften Schicht steuern. (Richard Sietmann)

  nach oben  

IBM, Infineon und Chartered entwickeln 65-Nanometer-Technik

Heise-Meldung vom 07.08.2003 10:53

IBM, der deutsche Chiphersteller Infineon und der Auftragshersteller (Foundry) Chartered Semiconductor arbeiten zusammen an der Technik für 65-Nanometer-Chipfertigungsprozesse. Ergebnis der Zusammenarbeit soll eine Foundry-Technik sein, die sich von 90 nm bis hin zu künftigen 45-nm-Prozessen einsetzen lässt. Standort für das gemeinsame Projekt ist das IBM-Labor in Fishkill, New York, wo IBM und Chartered nach eigenen Angaben bereits erste 65-nm-Wafer als Prototypen hergestellt haben.

Welche finanziellen Vereinbarungen mit der Zusammenarbeit der drei Firmen verbunden sind, gaben die Partner nicht bekannt; optional kann der Vertrag aber auch gleich auf die Entwicklung von 45-Nanometer-Technik ausgedehnt werden. Nach der Vereinbarung hat jedes der beteiligten Unternehmen Zugriff auf die Entwicklungen, um sie in die eigene Herstellungsumgebung integrieren. Die Partner sichern zu, dass auch Dritthersteller Zugang zu den entwickelten Techniken bekommen sollen -- was nicht weiter verwundert, kostet die Entwicklung solcher Fertigungsprozesse doch Milliarden und steht in Konkurrenz mit den Vorhaben anderer Halbleiter-Firmen, die ebenfalls an Techniken für Strukturbreiten von 65 nm und weniger arbeiten. IBM hat zudem bereits eine Vereinbarung über 65-nm-Prozesse mit dem Chiphersteller AMD getroffen.

Zur Entwicklung von 65-Nanometer-Fertigungsprozessen in der Chipindustrie und den damit einhergehenden Problemen in der Lithografie siehe auch:

(jk/c't)

Dresdner Chip-Maskenfirma eröffnet

Heise.de vom 13.10.2003 20:06

Die drei beteilgten Firmen, von denen AMD und Infineon in Dresden auch Chipwerke betreiben, sowie die Leitung des AMTC, der EU-Kommissar für Forschung, Philippe Busquin, Edelgard Bulmahn, Bundesministerin für Bildung und Forschung, Georg Milbradt, Ministerpräsident des Freistaates Sachsen sowie der Dresdner Oberbürgermeister Ingolf Rossberg freuten sich über die Arbeitsplätze und das erste Produkt, eine 193-Nanometer-Halbtonmaske, wie sie zurzeit bei AMD und Infineon zum Einsatz kommt.

Das 360-Millionen-Euro-Projekt, das mit öffentlichen Fördermitteln und über einen Konsortialkredit von 11 Banken in Höhe von 185 Millionen Euro finanziert wurde, soll aber vor allem Fotomasken für zukünftige Prozesse mit noch kleineren Strukturen bis hinab zu 65 Nanometern entwickeln. Im Endausbau sollen dort einmal 130 Mitarbeiter arbeiten.

Das Bundesministerium für Bildung und Forschung (BMBF) legt in Zeiten der Diskussionen um Subventionsabbau gleich eine Studie des Deutschen Instituts für Wirtschaftsforschung (DIW) vor, wonach sich die "staatlichen Investitionen in den Elektronikbereich der Region Dresden" ausgezahlt haben. Demnach übersteigen die Rückflüsse durch Mehrwertsteuer sowie Lohn- und Einkommensteuern schon in diesem Jahr die bis Mitte 2002 geflossenen staatlichen Fördermittel in Höhe von 1,2 Milliarden Euro. Hochgerechnet bis zum Jahr 2010 seien Überschüsse von bis zu 6 Milliarden Euro zu erwarten.


Vor 40 Jahren (1964): der perfekte Computer

heise-newsticker:07.04.2004 09:47 -

Heute vor 40 Jahren kündigte IBM gleichzeitig in 78 Städten auf der ganzen Welt das System /360 an, die laut IBM perfekte Computerfamilie, symbolisiert durch den Vollkreis mit seinen 360 Grad. Mit sechs verschiedenen kompatiblen Modellen vom /360-30 bis /360-75 und über vierzig verschiedenen Peripheriegeräten läutete IBM das Ende der Pionierzeit der EDV ein.

Das System /360 entstand auf Vorschlag einer Arbeitsgruppe "Systems, Programming, Review, Engineering And Development" (SPREAD). SPREAD wurde 1960 beauftragt, die Grundlagen für einen Computer zu entwickeln, der die Industrie umkrempeln sollte. 1961 erschien der bahnbrechende SPREAD-Report. Er empfahl die Ablösung der existierenden IBM-Computer durch eine Produktfamilie mit austauschbarer Peripherie und mit Software, die auf allen Computern der Familie laufen konnte. IBM-Verkäufern, die gewohnt waren, dass jeder IBM-Computer andere Programme, Lochkartenleser usw. brauchte, erschien der Vorschlag als eine "vollkommen idiotische Idee von Akademikern", doch Thomas Watson Jr. stellte sich hinter den Vorschlag.

5 Milliarden Dollar wurden für das größte Entwicklungsprojekt der Industriegeschichte bereitgestellt, am Ende arbeiteten über 50.000 IBM-Mitarbeiter an der Entwicklung und Fertigung des System /360, für das eigene Fabriken etwa in Frankreich und Deutschland errichtet wurden: Mit dem System /360 begann die Fertigung von Computern am Fließband. Weitere Neuerungen waren das Byte, die 8-Bit-Struktur und der Hype: Das kleinste Modell der Familie, die /360-30 war 43-mal schneller als der IBM 650 und verfügte über 66-mal so viel Arbeitsspeicher. Also pries IBM das System mit der Werbung an, dass die CPI (Costs per Instruction) um den Faktor 40 gefallen sei. Tatsächlich kam der kleinste Rechner bei seiner Auslieferung im Jahre 1965 auf eine Monatsmiete von 7000 Dollar, während der IBM 650 im Jahre 1955 3500 Dollar Miete kostete.

Dass das System /360 überhaupt schon 1964 angekündigt und erst über ein Jahr später ausgeliefert wurde, lag daran, dass die kleine Firma Control Data Corporation (CDC) mit einem kleinen Team von 40 Leuten den CDC 6600 entwickelt hatte, der den großen Modellen der Systemfamilie /360 Konkurrenz machen sollte. Die weltweite Ankündigung von IBM sollte CDC Wind aus den Segeln nehmen und brachte Control Data tatsächlich an den Rand des Ruins. CDC verklagte IBM wegen der Ankündigung von Phantom-Computern, konnte den langwierigen Prozess aber erst 1973 mit einem Vergleich abschließen, bei dem IBM 100 Millionen Dollar zahlte. Zu diesem Zeitpunkt hatte das System /360 einen Marktanteil von annähernd 90 Prozent, war das System /370 in der Vorbereitung.

Zur Systemfamilie /360 gehörte unter anderem das Betriebssytem OS /360, an dem zunächst 150 Programmierer arbeiteten. Es erschien völlig verspätet im Jahre 1967 und sprengte das ursprüngliche Budget um den Faktor 4: Es kostete 50 Millionen Dollar. Eine Codezeile von OS /360 war somit 225 Dollar "wert", berichtete Fred Brooks, der Manager des Projekts auf der Bonner Konferenz der Software-Pioniere. Das Betriebssystem soll konstant 1000 Fehler gehabt haben: für 1000 beseitigte Fehler kamen mit jeder Release 1000 neue Fehler hinzu, schrieb einmal der Qualitätsmanager Ed Boehm.

20 Jahre nach der offiziellen Ankündigung war das System /360 dabei, in Vergessenheit zu geraten. Von den Schwierigkeiten, im Jahre 1982 eine /360-30 wieder in Betrieb zu nehmen, handelt ein Vortrag auf dem 5. Vintage Computer Festival, das am 1. und 2. Mai in München stattfindet. Auf einer Exkursion gibt es die Möglichkeit, den letzten Spross der unglücklichen CDC 6600 in Aktion zu erleben, die keine Chance gegen den perfekten Computer hatte. Die Geschichte der Sieger wird hier geschrieben. (Detlef Borchers)


Verzögerungen bei der 90-Nanometer-Chipfertigung

Offenbar gelingt der Halbleiter-Branche der Umstieg auf Fertigungsverfahren für feinere 90-Nanometer-Strukturen weit schlechter als geplant. Nachdem Intel wichtige Produkteinführungen mehrfach verschieben musste, ist nun auch IBM betroffen. heise.de: Meldung 25.04.2004 13:19

Personal Computer wird 30 Jahre alt

Im Heinz Nixdorf MuseumsForum ist der Altair 8800 Teil einer umfangreichen Präsentation der PC-Geschichte. [05.01.05]


Die Verdichtung geht weiter

Itanium ist nicht das Ende der Skala,

weiter geht es nun mit Montecito. Einführung Ende 2005 und Produktion ab 2006. 2005-02-10

2 Kerne     26 MB Cache     1.720.000.000 Transistoren

Moores Gesetz: "Noch zehn bis zwanzig Jahre"

heise.de: [13.04.2005 14:05]: Intel-Mitbegründer Gordon Moore gab der Silizium-Chiptechnologie 2003 noch zehn Jahre, so gibt der große alte Mann der Mikroelektronik 2005 wieder eine optimistischere Zukunft.

DRAM- und Flash-Speicherchips mit 90- und 70-Nanometer-Strukturen

Heise.de: Speicherchip-Hersteller Infineon, Nanya und Samsung kündigen neue Produkte mit verkleinerten Strukturen an. [2005-06-03]

Samsung produziert 1-GBit-SDRAMs mit 90-nm-Strukturen in Großserie

[2005-06-25]: Der südkoreanische Speicherchip-Weltmarktführer will die Stückzahlen dieser Bauteile bis zum Jahresende auf monatlich 1 Million Chips hochfahren.


Festplatten

2006 - CeBIT: Die derzeit kleinste Festplatte der Welt
0,85-Zoll-Laufwerk von Toshiba soll 2007 10 GByte bringen. Das Ein-Zoll-Laufwerk bietet bereits 12 GByte.
Festplatten fürs Handy!

Karten sind nach der Anpassung der Spezifikationen bis 32 GByte möglich. Im PC bieten die Festplatten bereits Kapazitäten von Hunderten Gigabyte.

Die Schockempfindlichkeit von Festplatten wird durch mechanische Lösungen gesenkt: beim STI.3 schützt diese vor 2000 g, das sind Stürze aus 1,5 bis 2 Meter Höhe.
Und bedenke: Festplatten mit all der mechanik sind preisgünstiger als Flashkarten.

  nach oben