Computer
Computer
computerbild, computerbase, computeruniverse, computer, computertomographie, computer bild speedtest, computer kaufen, computer bild spiele, computertisch, computerwerk.
 
 
 
 
Beschleunigte Mobile Seiten
Computer
Startseite

Großbritannien
Großbritannien
 
 
Gehen Sie zurück

Smartphone









Befreien die Animation VR
Spielen, um 3D-Bilder und 3D-Modelle zeigen!
VR Icon  
 
vlrPhone / vlrFilter
Sehr geringer verbrauch, strahlung und bitrate softphones projekt / Multifunktion Audio-Filter mit Fernbedienung!



 

Stadt Bilder, Reise Bilder, Safe Bilder

Howto - Wie Mache - Illustriert Antworten

 

Computer
Computer wurden auch (Groß-)Rechner genannt; ihre Ein- und Ausgabe der Daten war zunächst auf Zahlen beschränkt. Zwar verstehen sich moderne Computer

View Wikipedia Artikel

Dieser Artikel erläutert Grundlagen aller Computer. Zum Typus des derzeit meistverbreiteten Computers siehe Personal Computer. Versuchsmodell der Analytical Engine Zuse Z3, 1941 ENIAC, 1946 DEC PDP-7, 1965 IBM Blue Gene, 2007 Apple II, 1977 IBM-PC, 1981 Notebook (Laptop), 2000er Jahre

Ein Computer , auch Rechner oder Elektronische Datenverarbeitungsanlage, ist ein Gerät, das mittels programmierbarer Rechenvorschriften Daten verarbeitet.

Charles Babbage und Ada Lovelace gelten durch die von Babbage 1837 entworfene Rechenmaschine Analytical Engine als Vordenker des modernen universell programmierbaren Computers, während Konrad Zuse (Z3, 1941 und Z4, 1945), John Presper Eckert und John William Mauchly (ENIAC, 1946) die ersten funktionstüchtigen Geräte dieser Art bauten. Bei der Klassifizierung eines Geräts als universell programmierbarer Computer spielt die Turing-Vollständigkeit eine wesentliche Rolle, benannt nach dem englischen Mathematiker Alan Turing, der 1936 das logische Modell der Turingmaschine eingeführt hat.

Die frühen Computer wurden auch (Groß-)Rechner genannt; ihre Ein- und Ausgabe der Daten war zunächst auf Zahlen beschränkt. Zwar verstehen sich moderne Computer auf den Umgang mit weiteren Daten, beispielsweise mit Buchstaben und Tönen. Diese Daten werden jedoch innerhalb des Computers in Zahlen umgewandelt und als Zahlen verarbeitet, weshalb ein Computer auch heute eine Rechenmaschine ist.

Mit zunehmender Leistungsfähigkeit eröffneten sich neue Einsatzbereiche. Computer sind heute in allen Bereichen des täglichen Lebens vorzufinden, meistens in spezialisierten Varianten, die auf einen vorliegenden Anwendungszweck zugeschnitten sind. So dienen integrierte Kleinstcomputer (eingebettetes System) zur Steuerung von Alltagsgeräten wie Waschmaschinen und Videorekordern oder zur Münzprüfung in Warenautomaten; in modernen Automobilen dienen sie beispielsweise zur Anzeige von Fahrdaten und übernehmen in „Fahrassistenten“ diverse Manöver selbst.

Universelle Computer finden sich in Smartphones und Spielkonsolen. Personal Computer dienen der Informationsverarbeitung in Wirtschaft und Behörden sowie bei Privatpersonen; Supercomputer werden eingesetzt, um komplexe Vorgänge zu simulieren, z. B. in der Klimaforschung oder für medizinische Berechnungen.

Inhaltsverzeichnis
  • 1 Herkunft des Namens
    • 1.1 Menschen
    • 1.2 Ballistik
  • 2 Grundlagen
    • 2.1 Hardwarearchitektur
    • 2.2 Softwarearchitektur
  • 3 Geschichte
    • 3.1 Die Vorläufer des modernen Computers
      • 3.1.1 Zahlen als Grundlage der Computergeschichte
      • 3.1.2 Frühe Entwicklung von Rechenmaschinen und -hilfsmitteln
      • 3.1.3 Vom Beginn des 20. Jahrhunderts
    • 3.2 Entwicklung des modernen turingmächtigen Computers
      • 3.2.1 Bis zum Ende des Zweiten Weltkrieges
      • 3.2.2 Nachkriegszeit
      • 3.2.3 1950er
      • 3.2.4 1960er
      • 3.2.5 1970er
      • 3.2.6 1980er
      • 3.2.7 1990er
    • 3.3 Entwicklung im 21. Jahrhundert
  • 4 Zukunftsperspektiven
  • 5 Zeitleiste
  • 6 Weltweite Marktanteile der Computerhersteller
  • 7 Bekannte Computerhersteller
    • 7.1 Aktuelle Hersteller
    • 7.2 Bekannte ehemalige Computerhersteller
  • 8 Siehe auch
  • 9 Literatur
    • 9.1 Geschichte
  • 10 Weblinks
  • 11 Einzelnachweise

Herkunft des Namens Menschen

Der englische Begriff computer, abgeleitet vom Verb (to) compute (aus Lateinisch: computare „berechnen“), bezeichnete ursprünglich Menschen, die zumeist langwierige Berechnungen vornahmen, zum Beispiel für Astronomen im Mittelalter. In der Kirchengeschichte war mit der Hinrichtung Jesu eine Ablösung von der jüdischen und eine Hinwendung zur römischen Zeitrechnung verbunden. Die hieraus resultierenden Berechnungsschwierigkeiten des Osterdatums dauerten bis zum Mittelalter an und waren Gegenstand zahlreicher Publikationen, häufig betitelt mit "Computus Ecclesiasticus". Doch finden sich noch weitere Titel, z. B. von Sigismund Suevus 1574, die sich mit arithmetischen Fragestellungen auseinandersetzten. Der früheste Text, in dem das Wort Computer isoliert verwendet wird, stammt von 1613. In der New York Times tauchte das Wort erstmals am 2. Mai 1892 in einer Kleinanzeige der US-Marine mit dem Titel „A Computer Wanted“ (Ein Rechenspezialist gesucht) auf, wobei Kenntnisse in Algebra, Geometrie, Trigonometrie und Astronomie vorausgesetzt wurden.

Ballistik

An der Universität in Philadelphia wurden im Auftrag der Armee ballistische Tabellen berechnet – Fibeln für die Artillerie, die für Geschütze die Flugbahn der verschiedenen Geschosse verzeichneten. Die Rechnerei dafür erfolgte von Hand, die einzige Hilfe eine Tabelliermaschine, die zu multiplizieren und zu dividieren vermochte. Die Angestellten, die rechneten, hießen nach ihrer Tätigkeit – Computer, die Rechner .

Grundlagen

Grundsätzlich unterscheiden sich zwei Bauweisen: Ein Computer ist ein Digitalcomputer, wenn er mit digitalen Geräteeinheiten digitale Daten verarbeitet (also Zahlen und Textzeichen); er ist ein Analogcomputer, wenn er mit analogen Geräteeinheiten analoge Daten verarbeitet (also kontinuierlich verlaufende elektrische Messgrößen wie Spannung oder Strom).

Heute werden fast ausschließlich Digitalcomputer eingesetzt. Diese folgen gemeinsamen Grundprinzipien, mit denen ihre freie Programmierung ermöglicht wird. Bei einem Digitalcomputer werden dabei zwei grundsätzliche Bestandteile unterschieden: Die Hardware, die aus den elektronischen, physisch anfassbaren Teilen des Computers gebildet wird, sowie die Software, die die Programmierung des Computers beschreibt.

Ein Digitalcomputer besteht zunächst nur aus Hardware. Die Hardware stellt erstens einen so genannten Speicher bereit, in dem Daten portionsweise wie auf den nummerierten Seiten eines Buches gespeichert und jederzeit zur Verarbeitung oder Ausgabe abgerufen werden können. Zweitens verfügt das Rechenwerk der Hardware über grundlegende Bausteine für eine freie Programmierung, mit denen jede beliebige Verarbeitungslogik für Daten dargestellt werden kann: Diese Bausteine sind im Prinzip die Berechnung, der Vergleich und der bedingte Sprung. Ein Digitalcomputer kann beispielsweise zwei Zahlen addieren, das Ergebnis mit einer dritten Zahl vergleichen und dann abhängig vom Ergebnis entweder an der einen oder der anderen Stelle des Programms fortfahren. In der Informatik wird dieses Modell theoretisch durch die Turing-Maschine abgebildet; die Turing-Maschine stellt die grundsätzlichen Überlegungen zur Berechenbarkeit dar.

Erst durch eine Software wird der Digitalcomputer jedoch nützlich. Jede Software ist im Prinzip eine definierte, funktionale Anordnung der oben geschilderten Bausteine Berechnung, Vergleich und bedingter Sprung, wobei die Bausteine beliebig oft verwendet werden können. Diese Anordnung der Bausteine, die als Programm bezeichnet wird, wird in Form von Daten im Speicher des Computers abgelegt. Von dort kann sie von der Hardware ausgelesen und abgearbeitet werden. Dieses Funktionsprinzip der Digitalcomputer hat sich seit seinen Ursprüngen in der Mitte des 20. Jahrhunderts nicht wesentlich verändert, wenngleich die Details der Technologie erheblich verbessert wurden.

Analogrechner funktionieren nach einem anderen Prinzip. Bei ihnen ersetzen analoge Bauelemente (Verstärker, Kondensatoren) die Logikprogrammierung. Analogrechner wurden früher häufiger zur Simulation von Regelvorgängen eingesetzt (siehe: Regelungstechnik), sind heute aber fast vollständig von Digitalcomputern abgelöst worden. In einer Übergangszeit gab es auch Hybridrechner, die einen Analog- mit einem digitalen Computer kombinierten.

Mögliche Einsatzmöglichkeiten für Computer sind:

  • Mediengestaltung (Bild- und Textverarbeitung)
  • Verwaltungs- und Archivierungsanwendungen
  • Steuerung von Maschinen und Abläufen (Drucker, Produktion in der Industrie durch z. B. Roboter, eingebettete Systeme)
  • Berechnungen und Simulationen (z. B. BOINC)
  • Medienwiedergabe (Internet, Fernsehen, Videos, Unterhaltungsanwendungen wie Computerspiele, Lernsoftware)
  • Kommunikation (Chat, E-Mail, soziale Netzwerke)
Hardwarearchitektur

Das heute allgemein angewandte Prinzip, das nach seiner Beschreibung durch John von Neumann von 1946 als Von-Neumann-Architektur bezeichnet wird, definiert für einen Computer fünf Hauptkomponenten:

  • die Recheneinheit (arithmetisch-logische Einheit (ALU)),
  • die Steuereinheit,
  • die Buseinheit,
  • den Speicher sowie
  • die Eingabe- und Ausgabeeinheit(en).

In den heutigen Computern sind die ALU und die Steuereinheit meistens zu einem Baustein verschmolzen, der so genannten CPU (Central Processing Unit, zentraler Prozessor).

Der Speicher ist eine Anzahl von durchnummerierten „Zellen“; jede von ihnen kann ein kleines Stück Information aufnehmen. Diese Information wird als Binärzahl, also eine Abfolge von ja/nein-Informationen im Sinne von Einsen und Nullen, in der Speicherzelle abgelegt. Ein Charakteristikum der Von-Neumann-Architektur ist, dass diese Binärzahl (bspw.: 01000001, was der Dezimalzahl 65 entspricht) entweder ein Teil der Daten (also z. B. die Zahl 65 oder der Buchstabe A) oder ein Befehl für die CPU (oben erwähnter „bedingter Sprung“) sein kann.

Wesentlich in der Von-Neumann-Architektur ist, dass sich Programm und Daten einen Speicherbereich teilen (dabei belegen die Daten in aller Regel den unteren und die Programme den oberen Speicherbereich).

Demgegenüber stehen in der sog. Harvard-Architektur Daten und Programmen eigene (physikalisch getrennte) Speicherbereiche zur Verfügung, dadurch können Daten-Schreiboperationen keine Programme überschreiben.

In der Von-Neumann-Architektur ist die Steuereinheit dafür zuständig, zu wissen, was sich an welcher Stelle im Speicher befindet. Man kann sich das so vorstellen, dass die Steuereinheit einen „Zeiger“ auf eine bestimmte Speicherzelle hat, in der der nächste Befehl steht, den sie auszuführen hat. Sie liest diesen aus dem Speicher aus, erkennt zum Beispiel „65“, erkennt dies als „bedingter Sprung“. Dann geht sie zur nächsten Speicherzelle, weil sie wissen muss, wohin sie springen soll. Sie liest auch diesen Wert aus und interpretiert die Zahl als Nummer (so genannte Adresse) einer Speicherzelle. Dann setzt sie den Zeiger auf ebendiese Speicherzelle, um dort wiederum ihren nächsten Befehl auszulesen; der Sprung ist vollzogen. Wenn der Befehl zum Beispiel statt „bedingter Sprung“ lauten würde „Lies Wert“, dann würde sie nicht den Programmzeiger verändern, sondern aus der in der Folge angegebenen Adresse einfach den Inhalt auslesen, um ihn dann beispielsweise an die ALU weiterzuleiten.

Die ALU hat die Aufgabe, Werte aus Speicherzellen zu kombinieren. Sie bekommt die Werte von der Steuereinheit geliefert, verrechnet sie (addiert beispielsweise zwei Zahlen) und gibt den Wert an die Steuereinheit zurück, die den Wert dann für einen Vergleich verwenden oder in eine andere Speicherzelle schreiben kann.

Die Ein-/Ausgabeeinheiten schließlich sind dafür zuständig, die initialen Programme in die Speicherzellen einzugeben und dem Benutzer die Ergebnisse der Berechnung anzuzeigen.

Softwarearchitektur

Die Von-Neumann-Architektur ist gewissermaßen die unterste Ebene des Funktionsprinzips eines Computers oberhalb der elektrophysikalischen Vorgänge in den Leiterbahnen. Die ersten Computer wurden auch tatsächlich so programmiert, dass man die Nummern von Befehlen und von bestimmten Speicherzellen so, wie es das Programm erforderte, nacheinander in die einzelnen Speicherzellen schrieb. Um diesen Aufwand zu reduzieren, wurden Programmiersprachen entwickelt. Diese generieren die Zahlen innerhalb der Speicherzellen, die der Computer letztlich als Programm abarbeitet, aus Textbefehlen heraus automatisch, die auch für den Programmierer einen semantisch verständlichen Inhalt darstellen (z. B. GOTO für den „unbedingten Sprung“).

Später wurden bestimmte sich wiederholende Prozeduren in so genannten Bibliotheken zusammengefasst, um nicht jedes Mal das Rad neu erfinden zu müssen, z. B.: das Interpretieren einer gedrückten Tastaturtaste als Buchstabe „A“ und damit als Zahl „65“ (im ASCII-Code). Die Bibliotheken wurden in übergeordneten Bibliotheken gebündelt, welche Unterfunktionen zu komplexen Operationen verknüpfen (Beispiel: die Anzeige eines Buchstabens „A“, bestehend aus 20 einzelnen schwarzen und 50 einzelnen weißen Punkten auf dem Bildschirm, nachdem der Benutzer die Taste „A“ gedrückt hat).

In einem modernen Computer arbeiten sehr viele dieser Programmebenen über- bzw. untereinander. Komplexere Aufgaben werden in Unteraufgaben zerlegt, die von anderen Programmierern bereits bearbeitet wurden, die wiederum auf die Vorarbeit weiterer Programmierer aufbauen, deren Bibliotheken sie verwenden. Auf der untersten Ebene findet sich aber immer der so genannte Maschinencode – jene Abfolge von Zahlen, mit der der Computer auch tatsächlich gesteuert wird.

Geschichte Die Vorläufer des modernen Computers

Die Computertechnologie entwickelte sich im Vergleich zu anderen Elektrogeräten sehr schnell. Die Geschichte der Entwicklung des Computers reicht zurück bis in die Antike und ist damit wesentlich länger als die Geschichte der modernen Computertechnologien und mechanischen bzw. elektrischen Hilfsmitteln (Rechenmaschinen oder Hardware). Sie umfasst dabei auch die Entwicklung von Rechenmethoden, die etwa für einfache Schreibgeräte auf Papier und Tafeln entwickelt wurden. Im Folgenden wird entsprechend versucht, einen Überblick über diese Entwicklungen zu geben.

Zahlen als Grundlage der Computergeschichte

Das Konzept der Zahlen lässt sich auf keine konkreten Wurzeln zurückführen und hat sich wahrscheinlich mit den ersten Notwendigkeiten der Kommunikation zwischen zwei Individuen entwickelt. Man findet in allen bekannten Sprachen mindestens für die Zahlen eins und zwei Entsprechungen. Auch in der Kommunikation von vielen Tierarten (etwa verschiedener Primaten, aber auch Vögeln wie der Amsel) lässt sich die Möglichkeit der Unterscheidung unterschiedlicher Mengen von Gegenständen feststellen.

Die Weiterentwicklung dieser einfachen numerischen Systeme führte wahrscheinlich zur Entdeckung der ersten mathematischen Rechenoperation wie der Addition, der Subtraktion, der Multiplikation und der Division bzw. auch der Quadratzahlen und der Quadratwurzel. Diese Operationen wurden formalisiert (in Formeln dargestellt) und dadurch überprüfbar. Daraus entwickelten sich dann weiterführende Betrachtungen, etwa die von Euklid entwickelte Darstellung des größten gemeinsamen Teilers.

Im Mittelalter erreichte das Indische Zahlensystem über den arabischen Raum (deswegen fälschlicherweise als Arabisches Zahlensystem bekannt) Europa und erlaubte eine größere Systematisierung bei der Arbeit mit Zahlen. Die Möglichkeiten erlaubten die Darstellung von Zahlen, Ausdrücken und Formeln auf Papier und die Tabellierung von mathematischen Funktionen wie etwa der Quadratwurzeln bzw. des einfachen Logarithmus sowie der Trigonometrie. Zur Zeit der Arbeiten von Isaac Newton war Papier und Velin eine bedeutende Ressource für Rechenaufgaben und ist dies bis in die heutige Zeit geblieben, in der Forscher wie Enrico Fermi seitenweise Papier mit mathematischen Berechnungen füllten und Richard Feynman jeden mathematischen Schritt mit der Hand bis zur Lösung berechnete, obwohl es zu seiner Zeit bereits programmierbare Rechner gab.

Frühe Entwicklung von Rechenmaschinen und -hilfsmitteln Der Abakus

Das früheste Gerät, das in rudimentären Ansätzen mit einem heutigen Computer vergleichbar ist, ist der Abakus, eine mechanische Rechenhilfe, die vermutlich um 1100 v. Chr. im indochinesischen Kulturraum erfunden wurde. Der Abakus wurde bis ins 17. Jahrhundert benutzt und dann von den ersten Rechenmaschinen ersetzt. In einigen Regionen der Welt wird der Abakus noch immer als Rechenhilfe verwendet. Einem ähnlichen Zweck diente auch das Rechenbrett des Pythagoras.

Mechanismus von Antikythera

Bereits im 1. Jh. v. Chr. wurde mit dem Räderwerk von Antikythera die erste Rechenmaschine erfunden. Das Gerät diente vermutlich für astronomische Berechnungen und funktionierte mit einem Differentialgetriebe, einer erst im 13. Jahrhundert wiederentdeckten Technik.

Mit dem Untergang der Antike kam der technische Fortschritt in Mittel- und Westeuropa fast zum Stillstand und in den Zeiten der Völkerwanderung ging viel Wissen verloren oder wurde nur noch im oströmischen Reichsteil bewahrt (so beispielsweise auch das Räderwerk von Antikythera, das erst 1902 wiederentdeckt wurde). Die muslimischen Eroberer der oströmischen Provinzen und schließlich Ost-Roms (Konstantinopel) nutzten dieses Wissen und entwickelten es weiter. Durch die Kreuzzüge und spätere Handelskontakte zwischen Abend- und Morgenland sowie die muslimische Herrschaft auf der iberischen Halbinsel, sickerte antikes Wissen und die darauf aufbauenden arabischen Erkenntnisse langsam wieder nach West- und Mitteleuropa ein. Ab der Neuzeit begann sich der Motor des technischen Fortschritts wieder langsam zu drehen und beschleunigte fortan – und dies tut er bis heute.

Der Rechenschieber, eine der wichtigsten mechanischen Rechenhilfen für die Multiplikation und Division

1614 publizierte John Napier seine Logarithmentafel. Mitentdecker der Logarithmen ist Jost Bürgi. 1623 baute Wilhelm Schickard die erste Vier-Spezies-Maschine mit getrennten Werken für Addition/Subtraktion und Multipliklation/Division und damit den ersten mechanischen Rechner der Neuzeit, wodurch er bis heute zum „Vater der Computerära“ wurde. Seine Konstruktion basierte auf dem Zusammenspiel von Zahnrädern, die im Wesentlichen aus dem Bereich der Uhrmacherkunst stammten und dort genutzt wurden, wodurch seine Maschine den Namen „rechnende Uhr“ erhielt. Die Maschine war für Johannes Keplers astronomische Berechnungen bestimmt, verbrannte aber.

1642 folgte Blaise Pascal mit seiner Zweispezies-Rechenmaschine, der Pascaline. 1668 entwickelte Samuel Morland eine Rechenmaschine, die erstmals nicht dezimal addierte, sondern auf das englische Geldsystem abgestimmt war. 1673 baute Gottfried Wilhelm Leibniz seine erste Vierspezies-Maschine und erfand 1703 (erneut) das binäre Zahlensystem (Dualsystem), das später die Grundlage für die Digitalrechner und darauf aufbauend die digitale Revolution wurde.

Mechanischer Rechner von 1914

1805 nutzte Joseph-Marie Jacquard Lochkarten, um Webstühle zu steuern. 1820 baute Charles Xavier Thomas de Colmar das „Arithmometer“, den ersten Rechner, der in Massenproduktion hergestellt wurde und somit den Computer für Großunternehmen erschwinglich machte. Charles Babbage entwickelte von 1820 bis 1822 die Differenzmaschine (engl. Difference Engine) und 1837 die Analytical Engine, konnte sie aber aus Geldmangel nicht bauen. 1843 bauten Edvard und George Scheutz in Stockholm den ersten mechanischen Computer nach den Ideen von Babbage. Im gleichen Jahr entwickelte Ada Lovelace eine Methode zur Programmierung von Computern nach dem Babbage-System und schrieb damit das erste Computerprogramm. 1890 wurde die US-Volkszählung mit Hilfe des Lochkartensystems von Herman Hollerith durchgeführt. 1912 baute Torres y Quevedo eine Schachmaschine, die mit König und Turm einen König matt setzen konnte,– und somit den ersten Spielcomputer.

Mechanische Rechner wie die darauf folgenden Addierer, der Comptometer, der Monroe-Kalkulator, die Curta und der Addo-X wurden bis in die 1970er Jahre genutzt. Anders als Leibniz nutzten die meisten Rechner das Dezimalsystem, das technisch schwieriger umzusetzen war. Dies galt sowohl für die Rechner von Charles Babbage um 1800 wie auch für den ENIAC von 1945, den ersten vollelektronischen Universalrechner überhaupt.

Es wurden jedoch auch nichtmechanische Rechner gebaut, wie der Wasserintegrator.

Vom Beginn des 20. Jahrhunderts

1935 stellten IBM die IBM 601 vor, eine Lochkartenmaschine, die eine Multiplikation pro Sekunde durchführen konnte. Es wurden ca. 1500 Exemplare verkauft. 1937 meldete Konrad Zuse zwei Patente an, die bereits alle Elemente der so genannten Von-Neumann-Architektur beschreiben. Im selben Jahr baute John Atanasoff zusammen mit dem Doktoranden Clifford Berry einen der ersten Digitalrechner, den Atanasoff-Berry-Computer, und Alan Turing publizierte einen Artikel, der die Turing-Maschine, ein abstraktes Modell zur Definition des Algorithmusbegriffs, beschreibt.

1938 stellte Konrad Zuse die Zuse Z1 fertig, einen frei programmierbaren mechanischen Rechner, der allerdings aufgrund von Problemen mit der Fertigungspräzision nie voll funktionstüchtig war. Die Z1 verfügte bereits über Gleitkommarechnung. Sie wurde im Krieg zerstört und später nach Originalplänen neu gefertigt, die Teile wurden auf modernen Fräs- und Drehbänken hergestellt. Dieser Nachbau der Z1, welcher im Deutschen Technikmuseum in Berlin steht, ist mechanisch voll funktionsfähig und hat eine Rechengeschwindigkeit von 1 Hz, vollzieht also eine Rechenoperation pro Sekunde. Ebenfalls 1938 publizierte Claude Shannon einen Artikel darüber, wie man symbolische Logik mit Relais implementieren kann. (Lit.: Shannon 1938)

Während des Zweiten Weltkrieges gab Alan Turing die entscheidenden Hinweise zur Entzifferung der ENIGMA-Codes und baute dafür einen speziellen mechanischen Rechner, Turing-Bombe genannt.

Entwicklung des modernen turingmächtigen Computers Bis zum Ende des Zweiten Weltkrieges Nachbau der Zuse Z3 im Deutschen Museum in München

Ebenfalls im Krieg (1941) baute Konrad Zuse die erste funktionstüchtige programmgesteuerte binäre Rechenmaschine, bestehend aus einer großen Zahl von Relais, die Zuse Z3. Wie 1998 bewiesen werden konnte, war die Z3 turingmächtig und damit außerdem die erste Maschine, die – im Rahmen des verfügbaren Speicherplatzes – beliebige Algorithmen automatisch ausführen konnte. Aufgrund dieser Eigenschaften wird sie oft als erster funktionsfähiger Computer der Geschichte betrachtet. Die nächsten Digitalrechner waren der in den USA gebaute Atanasoff-Berry-Computer (Inbetriebnahme 1941) und die britische Colossus (1941). Sie dienten speziellen Aufgaben und waren nicht turingmächtig. Auch Maschinen auf analoger Basis wurden entwickelt.

Colossus Mark II

Auf das Jahr 1943 wird auch die angeblich von IBM-Chef Thomas J. Watson stammende Aussage „Ich glaube, es gibt einen weltweiten Bedarf an vielleicht fünf Computern.“ datiert. Im selben Jahr stellte Tommy Flowers mit seinem Team in Bletchley Park den ersten „Colossus“ fertig. 1944 erfolgte die Fertigstellung des ASCC (Automatic Sequence Controlled Computer, „Mark I“ durch Howard H. Aiken) und das Team um Reinold Weber stellte eine Entschlüsselungsmaschine für das Verschlüsselungsgerät M-209 der US-Streitkräfte fertig. Zuse hatte schließlich bis März 1945 seine am 21. Dezember 1943 bei einem Bombenangriff zerstörte Z3 durch die deutlich verbesserte Zuse Z4 ersetzt, den damals einzigen turingmächtigen Computer in Europa, der von 1950 bis 1955 als zentraler Rechner der ETH Zürich genutzt wurde.

Eigenschaften der ersten Computer Computer Land Inbetriebnahme Gleitkomma-
arithmetik Binär Elektronisch Programmierbar Turingmächtig Zuse Z3 Deutschland Mai 1941 Ja Ja Nein Ja, durch Lochstreifen Ja, ohne Praxisnutzen Atanasoff-Berry-Computer USA Sommer 1941 Nein Ja Ja Nein Nein Colossus UK 1943 Nein Ja Ja Teilweise, durch Neuverkabelung Nein Mark I USA 1944 Nein Nein Nein Ja, durch Lochstreifen Ja Zuse Z4 Deutschland März 1945 Ja Ja Nein Ja, durch Lochstreifen Ja ENIAC USA 1946 Nein Nein Ja Teilweise, durch Neuverkabelung Ja 1948 Nein Nein Ja Ja, durch eine Matrix aus Widerständen Ja Nachkriegszeit ENIAC auf einem Bild der US-Armee Der EDVAC Röhrenrechner Ural-1 aus der Sowjetunion

Das Ende des Zweiten Weltkriegs erlaubte es, dass Europäer und Amerikaner von ihren Fortschritten gegenseitig wieder Kenntnis erlangten. 1946 wurde der Electronical Numerical Integrator and Computer (ENIAC) unter der Leitung von John Eckert und John Mauchly entwickelt. ENIAC ist der erste vollelektronische digitale Universalrechner (Konrad Zuses Z3 verwendete 1941 noch Relais, war also nicht vollelektronisch). 1947 baute IBM den Selective Sequence Electronic Calculator (SSEC), einen Hybridcomputer mit Röhren und mechanischen Relais und die Association for Computing Machinery (ACM) wurde als erste wissenschaftliche Gesellschaft für Informatik gegründet. Im gleichen Jahr wurde auch der erste Transistor realisiert, der heute aus der modernen Technik nicht mehr weggedacht werden kann. Die maßgeblich an der Erfindung beteiligten William B. Shockley, John Bardeen und Walter Brattain erhielten 1956 den Nobelpreis für Physik. In die späten 1940er Jahre fällt auch der Bau des Electronic Discrete Variable Automatic Computer (EDVAC), der erstmals die Von-Neumann-Architektur implementierte.

1949 stellte Edmund C. Berkeley, Begründer der ACM, mit „Simon“ den ersten digitalen, programmierbaren Computer für den Heimgebrauch vor. Er bestand aus 50 Relais und wurde in Gestalt von Bauplänen vertrieben, von denen in den ersten zehn Jahren ihrer Verfügbarkeit über 400 Exemplare verkauft wurden. Im selben Jahr stellte Maurice Wilkes mit seinem Team in Cambridge den Electronic Delay Storage Automatic Calculator (EDSAC) vor; basierend auf John von Neumanns EDVAC ist es der erste Rechner, der vollständig speicherprogrammierbar war. Ebenfalls 1949 besichtigte Eduard Stiefel die in einem Pferdestall in Hopferau aufgestellte Zuse Z4 und finanzierte die gründliche Überholung der Maschine durch die Zuse KG, bevor sie an die ETH Zürich ausgeliefert wurde und dort in Betrieb ging.

1950er

In den 1950er Jahren setzte die Produktion kommerzieller (Serien-)Computer ein. Unter der Leitung von Prof. Alwin Walther wurde am Institut für Praktische Mathematik (IPM) der TH Darmstadt ab 1951 der DERA (Darmstädter Elektronischer Rechenautomat) erbaut. Remington Rand baute 1951 ihren ersten kommerziellen Röhrenrechner, den UNIVersal Automatic Computer I (UNIVAC I) und 1955 Bell Labs für die US Air Force mit dem TRansistorized Airborne DIgital Computer (TRADIC) den ersten Computer, der komplett mit Transistoren statt Röhren bestückt war; im gleichen Jahr begann Heinz Zemanek mit der Konstruktion des ersten auf europäischem Festland gebauten Transistorrechners, dem Mailüfterl, den er 1958 der Öffentlichkeit vorstellte. Ebenfalls 1955 baute die DDR mit der „OPtik-REchen-MAschine“ (OPREMA) ihren ersten Computer. 1956 nahm die ETH Zürich ihre ERMETH in Betrieb und IBM fertigte das erste Magnetplattensystem (Random Access Method of Accounting and Control (RAMAC)). Ab 1958 wurde die Electrologica X1 als volltransistorisierter Serienrechner gebaut. Noch im selben Jahr stellte die Polnische Akademie der Wissenschaften in Zusammenarbeit mit dem Laboratorium für mathematische Apparate unter der Leitung von Romuald Marczynski den ersten polnischen Digital Computer „XYZ“ vor. Vorgesehenes Einsatzgebiet war die Nuklearforschung. 1959 begann Siemens mit der Auslieferung des Siemens 2002, ihres ersten in Serie gefertigten und vollständig auf Basis von Transistoren hergestellten Computers.

1960er

1960 baute IBM den IBM 1401, einen transistorisierten Rechner mit Magnetbandsystem, und DECs (Digital Equipment Corporation) erster Minicomputer, die PDP-1 (Programmierbarer Datenprozessor) erscheint. 1962 lieferte die Telefunken AG die ersten TR 4 aus. 1964 baute DEC den Minicomputer PDP-8 für unter 20.000 Dollar.

1964 definierte IBM die erste Computerarchitektur S/360, womit Rechner verschiedener Leistungsklassen denselben Code ausführen können und bei Texas Instruments wird der erste „integrierte Schaltkreis“ (IC) entwickelt. 1965 stellte das Moskauer Institut für Präzisionsmechanik und Computertechnologie unter der Leitung seines Chefentwicklers Sergej Lebedjew mit dem BESM-6 den ersten exportfähigen Großcomputer der UdSSR vor. BESM-6 wurde ab 1967 mit Betriebssystem und Compiler ausgeliefert und bis 1987 gebaut. 1966 erschien dann auch noch mit D4a ein 33bit Auftischrechner der TU Dresden.

Nixdorf 820 von 1968.

1968 bewarb Hewlett-Packard (HP) den HP-9100A in der Science-Ausgabe vom 4. Oktober 1968 als „personal computer“, obgleich diese Bezeichnung nichts mit dem zu tun hat, was seit Mitte der 1970er Jahre bis heute unter einem Personal Computer verstanden wird. Die 1968 entstandene Nixdorf Computer AG erschloss zunächst in Deutschland und Europa, später auch in Nordamerika, einen neuen Computermarkt: die Mittlere Datentechnik bzw. die dezentrale elektronische Datenverarbeitung. Massenhersteller wie IBM setzten weiterhin auf Großrechner und zentralisierte Datenverarbeitung, wobei Großrechner für kleine und mittlere Unternehmen schlicht zu teuer waren und die Großhersteller den Markt der Mittleren Datentechnik nicht bedienen konnten. Nixdorf stieß in diese Marktnische mit dem modular aufgebauten Nixdorf 820 vor, brachte dadurch den Computer direkt an den Arbeitsplatz und ermöglichte kleinen und mittleren Betrieben die Nutzung der elektronischen Datenverarbeitung zu einem erschwinglichen Preis. Im Dezember 1968 stellten Douglas C. Engelbart und William English vom Stanford Research Institute (SRI) die erste Computermaus vor, mangels sinnvoller Einsatzmöglichkeit (es gab noch keine grafischen Benutzeroberflächen) interessierte dies jedoch kaum jemanden. 1969 werden die ersten Computer per Internet verbunden.

1970er

Mit der Erfindung des serienmäßig produzierbaren Mikroprozessors wurden die Computer immer kleiner, leistungsfähiger und preisgünstiger. Doch noch wurde das Potential der Computer verkannt. So sagte noch 1977 Ken Olson, Präsident und Gründer von DEC: „Es gibt keinen Grund, warum jemand einen Computer zu Hause haben wollte.“

Intel 8008, Vorläufer des Intel 8080

1971 war es Intel, die mit dem 4004 den ersten in Serie gefertigten Mikroprozessor baute. Er bestand aus 2250 Transistoren. 1971 lieferte Telefunken den TR 440 an das Deutsche Rechenzentrum Darmstadt sowie an die Universitäten Bochum und München. 1972 ging der Illiac IV, ein Supercomputer mit Array-Prozessoren, in Betrieb. 1973 erschien mit Xerox Alto der erste Computer mit Maus, graphischer Benutzeroberfläche (GUI) und eingebauter Ethernet-Karte; und die französische Firma R2E begann mit der Auslieferung des Micral. 1974 stellte HP mit dem HP-65 den ersten programmierbaren Taschenrechner vor und Motorola baute den 6800-Prozessor, währenddessen Intel den 8080-Prozessor fertigte. 1975 begann MITS mit der Auslieferung des Altair 8800. 1975 stellte IBM mit der IBM 5100 den ersten tragbaren Computer vor. Eine Wortlänge von 8 Bit und die Einengung der (schon existierenden) Bezeichnung Byte auf dieses Maß wurden in dieser Zeit geläufig.

1975 Maestro I (ursprünglich Programm-Entwicklungs-Terminal-System PET) von Softlab war weltweit die erste Integrierte Entwicklungsumgebung für Software. Maestro I wurde weltweit 22.000 Mal installiert, davon 6.000 Mal in der Bundesrepublik Deutschland. Maestro I war in den 1970er und 1980er Jahren führend auf diesem Gebiet.

Zilog Z80

1976 entwickelte Zilog den Z80-Prozessor und Apple Computer stellte den Apple I vor, den weltweit ersten Personal Computer, gefolgt 1977 vom Commodore PET und dem Tandy TRS 80. Der ebenfalls im Jahr 1977 veröffentlichte Apple II gilt bislang als letzter in Serie hergestellter Computer, der von einer einzelnen Person, Steve Wozniak, entworfen wurde. 1978 erschien die VAX-11/780 von DEC, eine Maschine speziell für virtuelle Speicheradressierung. Im gleichen Jahr stellte Intel den 8086 vor, ein 16-Bit-Mikroprozessor; er ist der Urvater der noch heute gebräuchlichen x86-Prozessor-Familie. 1979 schließlich startete Atari den Verkauf seiner Rechnermodelle 400 und 800. Revolutionär war bei diesen, dass mehrere ASIC-Chips den Hauptprozessor entlasteten.

1980er C64 mit 5¼″-Diskette und Laufwerk

Die 1980er waren die Blütezeit der Heimcomputer, zunächst mit 8-Bit-Mikroprozessoren und einem Arbeitsspeicher bis 64 KiB (Commodore VC20, C64, Sinclair ZX80/81, Sinclair ZX Spectrum, Schneider/Amstrad CPC 464/664, Atari XL/XE-Reihe), später auch leistungsfähigere Modelle mit 16-Bit- (Texas Instruments TI-99/4A) oder 16/32-Bit-Mikroprozessoren (z. B. Amiga, Atari ST).

Das Unternehmen IBM stellte 1981 den IBM-PC vor, legte die Grundkonstruktion offen und schuf einen informellen Industriestandard; sie definierten damit die bis heute aktuelle Geräteklasse der „IBM-PC-kompatiblen Computer“. Dank zahlreicher preiswerter Nachbauten und Forführungen wurde diese Geräteklasse zu einer der erfolgreichsten Plattformen für den Personal Computer; die heute marktüblichen PCs mit Windows-Betriebssystem und x86-Prozessoren beruhen auf der stetigen Weiterentwicklung des damaligen Entwurfs von IBM.

1982 brachte Intel den 80286-Prozessor auf den Markt und Sun Microsystems entwickelte die Sun-1 Workstation. Nach dem ersten Büro-Computer mit Maus, Lisa, der 1983 auf den Markt kam, wurde 1984 der Apple Macintosh gebaut und setzte neue Maßstäbe für Benutzerfreundlichkeit. Die Sowjetunion konterte mit ihrem „Kronos 1“, einer Bastelarbeit des Rechenzentrums in Akademgorodok. Im Januar 1985 stellte Atari den ST-Computer auf der Consumer Electronics Show (CES) in Las Vegas vor. Im Juli produzierte Commodore den ersten Amiga-Heimcomputer. In Sibirien wurde der „Kronos 2“ vorgestellt, der dann als „Kronos 2.6“ für vier Jahre in Serie ging. 1986 brachte Intel den 80386-Prozessor auf den Markt, 1989 den 80486. Ebenfalls 1986 präsentierte Motorola den 68030-Prozessor. Im gleichen Jahr stellte Acorn den ARM2-Prozessor fertig und setze ihn im Folgejahr in Acorn-Archimedes-Rechnern ein. 1988 stellte NeXT mit Steve Jobs, Mitgründer von Apple, den gleichnamigen Computer vor.

Die Computer-Fernvernetzung, deutsch „DFÜ“ (Datenfernübertragung), über das Usenet wurde an Universitäten und in diversen Firmen immer stärker benutzt. Auch Privatleute strebten nun eine Vernetzung ihrer Computer an; Mitte der 1980er Jahre entstanden Mailboxnetze, zusätzlich zum FidoNet das Z-Netz und das MausNet.

1990er Pentium

Die 1990er sind das Jahrzehnt des Internets und des World Wide Web. (Siehe auch Geschichte des Internets, Chronologie des Internets) 1991 spezifizierte das AIM-Konsortium (Apple, IBM, Motorola) die PowerPC-Plattform. 1992 stellte DEC die ersten Systeme mit dem 64-Bit-Alpha-Prozessor vor. 1993 brachte Intel den Pentium-Prozessor auf den Markt, 1995 den Pentium Pro. 1994 stellte Leonard Adleman mit dem TT-100 den ersten Prototyp eines DNA-Computers vor, im Jahr darauf Be Incorporated die BeBox. 1999 baute Intel den Supercomputer ASCI Red mit 9.472 Prozessoren und AMD stellte mit dem Athlon den Nachfolger der K6-Prozessorfamilie vor.

Entwicklung im 21. Jahrhundert

Zu Beginn des 21. Jahrhunderts sind Computer sowohl in beruflichen wie privaten Bereichen allgegenwärtig und allgemein akzeptiert. Während die Leistungsfähigkeit in klassischen Anwendungsbereichen weiter gesteigert wird, werden digitale Rechner unter anderem in die Telekommunikation und Bildbearbeitung integriert. 2001 baute IBM den Supercomputer ASCI White, und 2002 ging der NEC Earth Simulator in Betrieb. 2003 lieferte Apple den PowerMac G5 aus, den ersten Computer mit 64-Bit-Prozessoren für den Massenmarkt. AMD zog mit dem Opteron und dem Athlon 64 nach.

2005 produzierten AMD und Intel erste Dual-Core-Prozessoren, 2006 doppelte Intel mit den ersten Core-2-Quad-Prozessoren nach – AMD konnte erst 2007 erste Vierkernprozessoren vorstellen. Bis zum Jahr 2010 stellten mehrere Firmen auch Sechs- und Achtkernprozessoren vor. Entwicklungen wie Mehrkernprozessoren, Berechnung auf Grafikprozessoren (GPGPU) sowie der breite Einsatz von Tablet-Computern dominieren in den letzten Jahren (Stand 2012) das Geschehen.

Seit den 1980er Jahren stiegen die Taktfrequenzen von anfangs wenigen MHz bis zuletzt (Stand 2015) etwa 4 GHz. In den letzten Jahren konnte der Takt nur noch wenig gesteigert werden, stattdessen wurden Steigerungen der Rechenleistung eher durch mehr Prozessorkerne und vergrößerte Busbreiten erzielt. Auch wenn durch Übertaktung einzelne Prozessoren auf über 8 GHz betrieben werden konnten, sind diese Taktraten auch 2015 noch nicht in Serienprozessoren verfügbar. Außerdem werden zunehmend auch die in Computern verbauten Grafikprozessoren zur Erhöhung der Rechenleistung für spezielle Aufgaben genutzt (z. B. per OpenCL, siehe auch Streamprozessor und GPGPU).

Seit ca. 2005 spielen auch Umweltaspekte (wie z. B. Stromsparfunktionen von Prozessor und Chipsatz, verringerter Einsatz schädlicher Stoffe) – bei der Produktion, Beschaffung und Nutzung von Computern zunehmend eine Rolle (siehe auch Green IT).

Zukunftsperspektiven

Zukünftige Entwicklungen bestehen voraussichtlich aus der möglichen Nutzung biologischer Systeme (Biocomputer), weiteren Verknüpfungen zwischen biologischer und technischer Informationsverarbeitung, optischer Signalverarbeitung und neuen physikalischen Modellen (Quantencomputer). Auf der anderen Seite nimmt man langsam Abstand von nicht realisierten Trends der letzten 20 Jahre, Expertensysteme und künstliche Intelligenzen, die ein Bewusstsein entwickeln, sich selbst verbessern oder gar rekonstruieren, zu erforschen.

Für weitere Entwicklungen und Trends, von denen viele noch den Charakter von Schlagwörtern bzw. Hypes haben, siehe Autonomic Computing (= Rechnerautonomie), Grid Computing, Cloud Computing, Pervasive Computing, ubiquitäres Computing (= Rechnerallgegenwart) und Wearable Computing.

Die weltweite Websuche nach dem Begriff „Computer“ nimmt seit Beginn der Statistik 2004 stetig ab. In den 10 Jahren bis 2014 war diese Zugriffszahl auf ein Drittel gefallen.

Zeitleiste Weltweite Marktanteile der Computerhersteller Folgende Teile dieses Abschnitts scheinen seit 2012 nicht mehr aktuell zu sein: Tabelle .
Bitte hilf mit, die fehlenden Informationen zu recherchieren und einzufügen.

Wikipedia:WikiProjekt Ereignisse/Vergangenheit/2012

Verkaufszahlen und Marktanteile der Computerhersteller nach Angaben des Marktforschungsunternehmens Gartner Inc., basierend auf Verkaufszahlen von Desktop-Computer, Notebooks, Netbooks, aber ohne Tablet-Computer, an Endkonsumenten:

Rang Hersteller Land Verkaufszahlen 2011 Marktanteil 2011 Verkaufszahlen 2010 Marktanteil 2010 Verkaufszahlen 2009 Marktanteil 2009 1. Hewlett-Packard 60.554.726 17,2 % 62.741.274 17,9 % 58.942.530 19,1 % 2. Lenovo 45.703.863 13,0 % 38.180.444 10,9 % 24.735.404 8,0 % 3. Dell 42.864.759 12,1 % 42.119.272 12,0 % 37.353.774 12,1 % 4. Acer-Gruppe 39.415.381 11,2 % 48.758.542 13,9 % 39.783.933 12,9 % 5. Asus 20.768.465 5,9 % 18.902.723 5,4 % unter Sonstige unter Sonstige 6. Toshiba unter Sonstige unter Sonstige 19.011.752 5,4 % 15.499.805 5,0 % Sonstige Hersteller 143.499.792 40,6 % 128.862.141 34,5 % 132.026.226 42,9 % Insgesamt 352.806.984 100 % 350.900.332 100 % 308.341.673 100 % Bekannte Computerhersteller Aktuelle Hersteller
  • Taiwan Acer (mit Gateway, Packard Bell, eMachines)
  • Vereinigte Staaten Apple
  • Taiwan ASRock
  • Taiwan Asus
  • Taiwan BenQ
  • Deutschland Bluechip Computer
  • Taiwan Compal
  • Vereinigte Staaten Cray
  • Vereinigte Staaten Dell
  • Japan Fujitsu
  • Taiwan Gigabyte
  • China Volksrepublik Hasee
  • Indien HCL
  • Vereinigte Staaten HP Inc.
  • Vereinigte Staaten IBM
  • China Volksrepublik Lenovo
  • Kanada MDG Computers
  • Deutschland Medion
  • Taiwan MSI
  • Japan NEC Corporation
  • Italien Olivetti
  • Japan Panasonic
  • Brasilien Positivo
  • Taiwan Quanta Computer
  • Russland Rover Computers
  • Korea Sud Samsung
  • Japan Sony
  • Japan Toshiba
  • Vereinigte Staaten Unisys
  • Turkei Vestel
  • Vereinigte Staaten ViewSonic
  • Deutschland Wortmann
Bekannte ehemalige Computerhersteller
  • Vereinigtes Konigreich Acorn
  • Vereinigte Staaten Amdahl Corporation
  • Vereinigtes Konigreich Amstrad
  • Vereinigte Staaten Atari
  • Vereinigte Staaten Commodore International
  • Vereinigte Staaten Compaq
  • Vereinigte Staaten Control Data Corporation
  • Vereinigte Staaten Digital Equipment Corporation
  • Deutschland Dietz-Computer-Systeme
  • Deutschland Escom
  • Japan/Deutschland Fujitsu Siemens Computers
  • Osterreich Gericom
  • Vereinigte Staaten Kaypro
  • Deutschland Maxdata
  • Vereinigte Staaten NeXT
  • Norwegen Norsk Data
  • Deutschland Nixdorf Computer
  • Deutschland Schneider Computer Division
  • Vereinigtes Konigreich Sinclair Research
  • Deutschland Waibel
  • Deutschland Zuse KG
Siehe auch
  • Logische Maschine
  • Liste von Abkürzungen (Computer)
  • Liste der Röhrencomputer
  • Heinz Nixdorf MuseumsForum
  • Computermuseum der Fachhochschule Kiel
Literatur
  • Konrad Zuse: Der Computer – Mein Lebenswerk. Springer, Berlin 1993, ISBN 3-540-56292-3. 
  • Ron White: So funktionieren Computer. Ein visueller Streifzug durch den Computer & alles, was dazu gehört. Markt+Technik, München 2004, ISBN 3-8272-6714-5. 
Geschichte
  • Edmund Callis Berkeley: Giant Brains or Machines That Think. 7. Auflage. John Wiley & Sons 1949, New York 1963 (die erste populäre Darstellung der EDV, trotz des für moderne Ohren seltsam klingenden Titels sehr seriös und fundiert – relativ einfach antiquarisch und in fast allen Bibliotheken zu finden). 
  • B. V. Bowden (Hrsg.): Faster Than Thought. Pitman, New York 1953 (Nachdruck 1963, ISBN 0-273-31580-3) – eine frühe populäre Darstellung der EDV, gibt den Stand seiner Zeit verständlich und ausführlich wieder; nur mehr antiquarisch und in Bibliotheken zu finden
  • Michael Friedewald: Der Computer als Werkzeug und Medium. Die geistigen und technischen Wurzeln des Personalcomputers. GNT-Verlag, 2000, ISBN 3-928186-47-7. 
  • Simon Head: The New Ruthless Economy. Work and Power in the Digital Age. Oxford UP 2005, ISBN 0-19-517983-8 (der Einsatz des Computers in der Tradition des Taylorismus). 
  • Ute Hoffmann: Computerfrauen. Welchen Anteil hatten Frauen an der Computergeschichte und -arbeit? München 1987, ISBN 3-924346-30-5
  • Loading History. Computergeschichte(n) aus der Schweiz. Museum für Kommunikation, Bern 2001, ISBN 3-0340-0540-7, Ausstellungskatalog zu einer Sonderausstellung mit Schweizer Schwerpunkt, aber für sich alleine lesbar
  • HNF Heinz Nixdorf Forum Museumsführer. Paderborn 2000, ISBN 3-9805757-2-1 – Museumsführer des nach eigener Darstellung weltgrößten Computermuseums
  • Karl Weinhart: Informatik und Automatik. Führer durch die Ausstellungen. Deutsches Museum, München 1990, ISBN 3-924183-14-7 – Katalog zu den permanenten Ausstellungen des Deutschen Museums zum Thema; vor allem als ergänzende Literatur zum Ausstellungsbesuch empfohlen
  • H. R. Wieland: Computergeschichte(n) – nicht nur für Geeks: Von Antikythera zur Cloud. Galileo Computing, 2010, ISBN 978-3-8362-1527-5
  • Christian Wurster: Computers. Eine illustrierte Geschichte. Taschen, 2002, ISBN 3-8228-5729-7 (eine vom Text her leider nicht sehr exakte Geschichte der EDV mit einzelnen Fehlern, die aber durch die Gastbeiträge einzelner Persönlichkeiten der Computergeschichte und durch die zahlreichen Fotos ihren Wert hat). 
  • Anfre Reifenrath: Geschichte der Simulation, Humboldt Universität, Dissertation, Berlin 2000. Geschichte des Computers von den Anfängen bis zur Gegenwart unter besonderer Berücksichtigung des Themas der Visualisierung und Simulation durch den Computer.
  • Claude E. Shannon: A Symbolic Analysis of Relay and Switching Circuits. In: Transactions of the American Institute of Electrical Engineers, Volume 57. 1938 (Seite 713–723). 
Weblinks  Commons: Computer – Sammlung von Bildern, Videos und Audiodateien  Wiktionary: Computer – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen   Wikiquote: Computer – Zitate  Wikinews: Portal:Computer – in den Nachrichten  Wikibooks: Computergeschichte – Lern- und Lehrmaterialien
  • Literatur über Computer im Katalog der Deutschen Nationalbibliothek
  • Verzeichnis nahezu aller je gebauten Computertypen
  • Liste der 500 leistungsstärksten Computer (englisch)
  • The modern history of computing. In: Edward N. Zalta (Hrsg.): Stanford Encyclopedia of PhilosophyVorlage:SEP/Wartung/Parameter 1 und Parameter 2 und nicht Parameter 3
  • Computergeschichte.de
  • CRE193 Old School Computing Podcast über die Computertechnik der 1970er Jahre vor der Erfindung des Mikrocomputers
  • Zeitungsreportage (auf Seite 2): Geschichte von Konrad Zuse und seinem ersten Computer in Berlin-Kreuzberg im Berliner Abendblatt im Oktober 2010

Computermuseen

  • Oldenburger Computer-Museum
  • 8-Bit-Museum
  • Homecomputermuseum.de
  • technikum29: Museum für Rechnertechnik und Computer mit funktionsfähigen Exponaten
  • Reich illustriertes und kommentiertes Computermuseum (englisch)
Einzelnachweise
  1. ↑ Alan Turing: On Computable Numbers, with an Application to the Entscheidungsproblem. In: Proceedings of the London Mathematical Society. Bd. s2-42, Nr. 1, 1937, S. 230–265, doi:10.1112/plms/s2-42.1.230 (PDF). 
  2. ↑ Alan Turing: On Computable Numbers, with an Application to the Entscheidungsproblem. A Correction. In: Proceedings of the London Mathematical Society. Bd. s2-43, Nr. 1, 1938, S. 544–546, doi:10.1112/plms/s2-42.1.230 (PDF). 
  3. ↑ Das Oxford English Dictionary (Third ed.) von 2008 sagt im Artikel zum Wort “computer”: 1613 ‘R. B.’ Yong Mans Gleanings 1, I haue read the truest computer of Times, and the best Arithmetician that euer breathed, and he reduceth thy dayes into a short number.
  4. ↑ „Nautical Almanac Office“ im United States Naval Observatory
  5. ↑ Als Computer weiblich waren Süddeutsche Zeitung AUS HEFT 41/2015 TECHNIK
  6. ↑ heise.de Telepolis
  7. ↑ Steven Levy: Hackers: Heroes of the Computer Revolution. Doubleday 1984, ISBN 0-385-19195-2
  8. ↑ Boris Gröndahl: Hacker. Rotbuch 3000, ISBN 3-434-53506-3
  9. ↑ Steve Wozniak: "iWoz: Wie ich den Personal Computer erfand und Apple mitgründete.", Deutscher Taschenbuchverlag, Oktober 2008, ISBN 978-3-423-34507-1
  10. ↑ Der Traum vom einfachen Computer In: Der Tagesspiegel
  11. ↑ 30 Jahre IBM-PC: Siegeszug der Wenigkönner, Netzwelt von Spiegel-Online, spiegel.de, Autor: Frank Patalong, 12.08.2011, abgerufen am 21. August 2016
  12. ↑ Google Trends Statistik, zuletzt abgerufen am 23. Mai 2014
  13. ↑ gartner.com
  14. ↑ gartner.com
Normdaten (Sachbegriff): GND: 4070083-5 (AKS)


Fire TV Stick
Fire TV Stick
Fire TV Stick verbindet Ihren HD-Fernseher mit der Welt des Online-Entertainments. Mit einer riesigen Auswahl an Filmen und Serien, einer Sprachsuche, die tatsächlich funktioniert - mit der kostenlosen Fire TV Fernbedienungs-App oder der Amazon Fire TV-Sprachfernbedienung (separat erhältlich) - und unserer exklusiven ASAP-Funktion ist er ideal, um Netflix, Amazon Instant Video, ZDF Mediathek, günstige Verleih-Videos, Sportübertragungen live und on demand, Musik, Fotos, Spiele und vieles mehr zu genießen.

EUR 39,99



SanDisk Ultra Android microSDHC 32GB bis zu 80 MB/Sek, Class 10 Speicherkarte + SD-Adapter FFP
SanDisk Ultra Android microSDHC 32GB bis zu 80 MB/Sek, Class 10 Speicherkarte + SD-Adapter FFP
SanDisk Ultra Android microSDHC 32GB bis zu 80MB/Sek, Class 10 Speicherkarte + SD-Adapter FFP - Geeignet für heutige Anwendungen auf Android-Smartphones und Tablets - Kapazitäten von bis zu 128GB - Zuverlässig hohe Geschwindigkeiten für Videos in Full HD (1080p) und qualitativ hochwertige Fotos - Ultraschnelle Übertragungs geschwindigkeiten von bis zu 80MB/Sek; SanDisk Memory Zone zur besseren Übersicht und Verwaltung Ihrer Dateien auf Ihrem Telefon - Lieferumfang: SanDisk Ultra 32GB Android microSDHC Speicherkarte + SD-Adapter bis zu 80MB/Sek

EUR 11,99
-EUR 2,00(-14%)



AVM FRITZ!WLAN Repeater 310 (300 Mbit/s, WPS)
AVM FRITZ!WLAN Repeater 310 (300 Mbit/s, WPS)
FRITZ!WLAN REPEATER 310

EUR 29,00
-EUR 20,00(-41%)



HP 301 Multipack Original Druckerpatronen (1x Schwarz, 1x Farbe) für HP Deskjet, HP ENVY, HP Photosmart
HP 301 Multipack Original Druckerpatronen (1x Schwarz, 1x Farbe) für HP Deskjet, HP ENVY, HP Photosmart
HP N9J72AE Combo 2-Pack BK/Color No. 301

EUR 20,90
-EUR 6,09(-23%)



Anker 24W 2-Port USB Ladegerät mit PowerIQ Technologie für iPhone, iPad, Samsung Galaxy, Nexus, HTC, Motorola, LG und weitere (Schwarz)
Anker 24W 2-Port USB Ladegerät mit PowerIQ Technologie für iPhone, iPad, Samsung Galaxy, Nexus, HTC, Motorola, LG und weitere (Schwarz)
Anker 24W 2-Port USB WandladegerätZwei Geräte bei maximaler Geschwindigkeit ladenVon ANKER, Amerikas führender USB Lademarke- Schnelleres und sicheres Laden mit unserer fortgeschrittenen Technologie- 20 Millionen+ zufriedene KundenSchnelladetechnologieExklusiv bei Anker sorgt die Kombination von PowerIQ und VoltageBoost für die schnellstmögliche Ladung. Extra KraftvollMit dem führenden Höchstwert von 24W durch 2 Ports können Sie zum Beispiel zwei Tablets gleichzeitig bei voller Geschwindigkeit zu laden.Hohe EffizienzDas Ladegerät wurde mit dem hohen Energieeffizienzlevel (DOE 6) vom US Department of Energy ausgezeichnet.Super KompaktDas Anker 24W 2-Port USB Wandladegerät ist einer der kompaktesten Dual-Port USB Lader am Markt - ideal geeignet für unterwegs. MultiProtect SicherheitssystemÜberspannungsschutz, Temperaturregelung und weitere fortgeschrittene Sicherheitsvorkehrungen garantieren hohe Sicherheit für Sie und Ihre Geräte. Unser GarantieversprechenWir bei Anker glauben an unsere Produkte. Deswegen statten wir alle mit einer 18-monatigen Garantie aus und bieten freundlichen sowie raschen Kundenservice. Benutzungshinweise:• Verwenden Sie Ihr Originalkabel oder ein zertifiziertes Kabel eines Drittanbieters (z.B. MFi).• Kompatibel mit dem neuen 12" MacBook (2015), Apple und Android Smartphones, Tablets (inklusive des Nexus 7) und anderen USB-ladenden Geräten außer iPod Nano, iPod Classic, iPod Shuffle, HP TouchPad und Asus Tablets.Wir empfehlen das MacBook zu laden während dieses ausgeschaltet ist oder sich im Ruhemodus befindet (5-Stunden-Aufladezeit).

EUR 19,99
-EUR 9,00(-45%)



Toshiba Canvio Basics 1 TB externe Festplatte (6,4 cm (2,5 Zoll), USB 3.0) schwarz
Toshiba Canvio Basics 1 TB externe Festplatte (6,4 cm (2,5 Zoll), USB 3.0) schwarz
1000GB Toshiba StorE Canvio Basics Black (HDTB310EK3AA) Externe Festplatte

EUR 54,85


Twitter
 
Facebook
 
LinkedIn
 
 

 
 

Trends
Flirten

WhmSoft Moblog
Copyright (C) 2006-2017 WhmSoft
All Rights Reserved