Zum Inhalt springen

Computer

Aus Foxwiki

topic - Kurzbeschreibung

Beschreibung

Begriffsgeschichte

Rechner

Der deutsche Begriff Rechner ist abgeleitet vom Verb rechnen. Zur Etymologie siehe Rechnen#Etymologie.

Vorlage:Anker Computer

Das englische Substantiv Vorlage:Lang ist abgeleitet von dem englischen Verb Vorlage:Lang. Jenes ist abgeleitet von dem lateinischen Verb Vorlage:Lang, was zusammenrechnen bedeutet.

Der englische Begriff computer war ursprünglich eine Berufsbezeichnung für Hilfskräfte, die immer wiederkehrende Berechnungen (z. B. für die Astronomie, für die Geodäsie oder für die Ballistik) im Auftrag von Mathematikern ausführten und damit Tabellen wie z. B. eine Logarithmentafel füllten. Dieser Beruf wurde vorwiegend von Frauen ausgeübt.[1]

In der frühen Kirchengeschichte erfolgte eine Ablösung des jüdischen Kalenders durch den Julianischen Kalender. Die hieraus resultierenden Berechnungsschwierigkeiten des Osterdatums dauerten bis zum Mittelalter an und waren Gegenstand zahlreicher Publikationen, häufig betitelt mit Computus Ecclesiasticus. Doch finden sich noch weitere Titel, z. B. von Sigismund Suevus 1574, die sich mit arithmetischen Fragestellungen auseinandersetzen. Der früheste Text, in dem das Wort Computer isoliert verwendet wird, stammt von 1613.[2] Der englische Autor Richard Brathwaite schrieb:

Vorlage:Zitat

Die Bedeutung und der Kontext des Textes sind nicht eindeutig und lassen mehrere Interpretationen zu. Mit computer ist wohl ein sehr intelligenter Mann gemeint, allerdings kann im Mittelalter nur Gott die Lebenszeit des Menschen beeinflussen, so dass im zweiten Teil des Zitats auch Gott handeln könnte. The daies of Man are threescore and ten ist ein Zitat aus Vorlage:B, der in der Einheitsübersetzung mit „Der ewige Gott – der vergängliche Mensch“ überschrieben ist.[3]

In der Zeitung The New York Times tauchte das Wort erstmals am 2. Mai 1892 in einer Kleinanzeige der United States Navy mit dem Titel Vorlage:Lang auf, in der Kenntnisse in Algebra, Geometrie, Trigonometrie und Astronomie vorausgesetzt worden sind.[4]

An der University of Pennsylvania in Philadelphia wurden im Auftrag der United States Army ballistische Tabellen berechnet. Das Ergebnis waren Bücher für die Artillerie, die für unterschiedliche Geschütze Flugbahnen unterschiedlicher Geschosse vorhersagten. Diese Berechnungen erfolgten größtenteils von Hand. Die einzige Hilfe war eine Tabelliermaschine, die zu multiplizieren und zu dividieren vermochte. Die Angestellten, die dort rechneten, wurden „computer“ (im Sinne eines menschlichen Computers) genannt.[5][6] Erstmals wurde der Begriff 1946 bei der dort entwickelten elektronischen Rechenanlage Electronic Numerical Integrator and Computer (ENIAC) für ein technisches Gerät verwendet. Seit 1962 ist der Begriff in Deutschland belegt.[7]

Siehe auch

Dokumentation

RFC

Man-Pages

Info-Pages

Links

Einzelnachweise

  1. Das Oxford English Dictionary (Third ed.) von 2008 sagt in dem Artikel zu dem Lemma „computer“: Vorlage:"
  2. Referenzfehler: Es ist ein ungültiger <ref>-Tag vorhanden: Für die Referenz namens Computergeschichte wurde kein Text angegeben.
  3. Nautical Almanac Office of the United States Naval Observatory

Projekt

Weblinks

  1. https://de.wikipedia.org/wiki/Computer

Testfragen

Testfrage 1

Antwort1

Testfrage 2

Antwort2

Testfrage 3

Antwort3

Testfrage 4

Antwort4

Testfrage 5

Antwort5


Wikipedia

Dieser Artikel|erläutert Grundlagen aller Computer. Zum Typus des derzeit meistverbreiteten Computers siehe Personal Computer. Weiterleitungshinweis|Datenverarbeitungsanlage und Elektronische Datenverarbeitungsanlage|Allgemein zu Grundlagen der Datenverarbeitung bzw. elektronischen Datenverarbeitung siehe jeweils dort.


Versuchsmodell der Analytical Engine

Zuse Z3, 1941

ENIAC, 1946

DEC PDP-7, 1965

Apple II, 1977

IBM PC, 1981

Notebook (Laptop) MacBook, 2006

IBM Blue Gene, 2007

Summit, 2018

Ein Computer (englisch; deutsche Aussprache [[[:Vorlage:IPA]]]) oder Rechner ist ein Gerät, das mittels programmierbarer Rechenvorschriften Daten verarbeitet. Dementsprechend werden vereinzelt auch die abstrahierenden beziehungsweise veralteten, synonym gebrauchten Begriffe Rechenanlage, Datenverarbeitungsanlage oder elektronische Datenverarbeitungsanlage sowie Elektronengehirn verwendet.

Charles Babbage und Ada Lovelace (geborene Byron) gelten durch die von Babbage 1837 entworfene Rechenmaschine Analytical Engine als Vordenker des modernen universell programmierbaren Computers. Konrad Zuse (Z3, 1941 und Z4, 1945) in Berlin, John Presper Eckert und John William Mauchly (ENIAC, 1946) bauten die ersten funktionstüchtigen Geräte dieser Art. Bei der Klassifizierung eines Geräts als universell programmierbarer Computer spielt die Turing-Vollständigkeit eine wesentliche Rolle. Sie ist benannt nach dem englischen Mathematiker Alan Turing, der 1936 das logische Modell der Turingmaschine eingeführt hatte.[1][2]

Die frühen Computer wurden auch (Groß-)Rechner genannt; ihre Ein- und Ausgabe der Daten war zunächst auf Zahlen beschränkt. Zwar verstehen sich moderne Computer auf den Umgang mit weiteren Daten, beispielsweise mit Buchstaben und Tönen. Diese Daten werden jedoch innerhalb des Computers in Zahlen umgewandelt und als solche verarbeitet, weshalb ein Computer auch heute eine Rechenmaschine ist.

Mit zunehmender Leistungsfähigkeit eröffneten sich neue Einsatzbereiche. Computer sind heute in allen Bereichen des täglichen Lebens vorzufinden, meistens in spezialisierten Varianten, die auf einen vorliegenden Anwendungszweck zugeschnitten sind. So dienen integrierte Kleinstcomputer (eingebettetes System) zur Steuerung von Alltagsgeräten wie Waschmaschinen und Videorekordern oder zur Münzprüfung in Warenautomaten; in modernen Automobilen dienen sie beispielsweise zur Anzeige von Fahrdaten und steuern in „Fahrassistenten“ diverse Manöver selbst.

Universelle Computer finden sich in Smartphones und Spielkonsolen. Personal Computer (engl. für persönliche Computer, als Gegensatz zu von vielen genutzten Großrechnern) dienen der Informationsverarbeitung in Wirtschaft und Behörden sowie bei Privatpersonen; Supercomputer werden eingesetzt, um komplexe Vorgänge zu simulieren, z. B. in der Klimaforschung oder für medizinische Berechnungen.

Geschichte

Vorlage:Hauptartikel

Arten

Basierend auf Arbeitsweise des Computers

Basierend auf der Größe

Zukunftsperspektiven

Auch in wenig entwickelten Ländern immer wichtiger: Computerkurs in Osttimor

Zukünftige Entwicklungen bestehen voraussichtlich aus der möglichen Nutzung biologischer Systeme (Biocomputer), weiteren Verknüpfungen zwischen biologischer und technischer Informationsverarbeitung, optischer Signalverarbeitung und neuen physikalischen Modellen (Quantencomputer).

Ein Megatrend ist derzeit (2017) die Entwicklung künstlicher Intelligenz. Hier simuliert man die Vorgänge im menschlichen Gehirn und erschafft so selbstlernende Computer, die nicht mehr wie bislang programmiert werden, sondern mit Daten trainiert werden ähnlich einem Gehirn. Den Zeitpunkt, an dem künstliche Intelligenz die menschliche Intelligenz übertrifft, nennt man technologische Singularität. Künstliche Intelligenz wird heute (2017) bereits in vielen Anwendungen, auch alltäglichen, eingesetzt (s. Anwendungen der künstlichen Intelligenz). Hans Moravec bezifferte die Rechenleistung des Gehirns auf 100 Teraflops, Raymond Kurzweil auf 10.000 Teraflops. Diese Rechenleistung haben Supercomputer bereits deutlich überschritten. Zum Vergleich liegt eine Grafikkarte für 800 Euro (5/2016) bei einer Leistung von 10 Teraflops.[3] Vier Jahre später (Dezember 2020) besitzen bereits Videospielkonsolen für ca. 500 € vergleichbare Leistung.

Für weitere Entwicklungen und Trends, von denen viele noch den Charakter von Schlagwörtern bzw. Hypes haben, siehe Autonomic Computing (= Rechnerautonomie), Grid Computing, Cloud Computing, Pervasive Computing, ubiquitäres Computing (= Rechnerallgegenwart) und Wearable Computing.

Die weltweite Websuche nach dem Begriff „Computer“ nimmt seit Beginn der Statistik 2004 stetig ab. In den zehn Jahren bis 2014 war diese Zugriffszahl auf ein Drittel gefallen.[4]

Zeitleiste

Vorlage:Zeitleiste Computergeschichte

Weltweite Marktanteile der Computerhersteller

Vorlage:Veraltet

Verkaufszahlen und Marktanteile der Computerhersteller nach Angaben des Marktforschungsunternehmens Gartner Inc., basierend auf Verkaufszahlen von Desktop-Computer, Notebooks, Netbooks, aber ohne Tabletcomputer, an Endkonsumenten:[5][6][7]

Rang Hersteller Land Verkaufszahlen 2017 Marktanteil 2017 Verkaufszahlen 2011 Marktanteil 2011 Verkaufszahlen 2010 Marktanteil 2010 Verkaufszahlen 2009 Marktanteil 2009
1. Hewlett-Packard 55.179.000 21,0 % 60.554.726 17,2 % 62.741.274 17,9 % 58.942.530 19,1 %
2. Lenovo 54.669.000 20,8 % 45.703.863 13,0 % 38.180.444 10,9 % 24.735.404 8,0 %
3. Dell 39.793.000 15,1 % 42.864.759 12,1 % 42.119.272 12,0 % 37.353.774 12,1 %
4. Apple 18.963.000 7,2 % unter Sonstige unter Sonstige unter Sonstige unter Sonstige unter Sonstige unter Sonstige
5. Asus 17.952.000 6,8 % 20.768.465 5,9 % 18.902.723 5,4 % unter Sonstige unter Sonstige
6. Acer-Gruppe 17.087.000 6,5 % 39.415.381 11,2 % 48.758.542 13,9 % 39.783.933 12,9 %
Toshiba unter Sonstige unter Sonstige unter Sonstige unter Sonstige 19.011.752 5,4 % 15.499.805 5,0 %
Sonstige Hersteller 59.034.000 22,5 % 143.499.792 40,6 % 128.862.141 34,5 % 132.026.226 42,9 %
Insgesamt 262.676.000 100 % 352.806.984 100 % 350.900.332 100 % 308.341.673 100 %

Bekannte Computerhersteller

Aktuelle Hersteller

Bekannte ehemalige Computerhersteller