Computing – Wikipedia

before-content-x4

Wissenszweig

Computersimulation

Computersimulation, eine der wichtigsten Cross-Computing-Methoden.[1]

Computing ist jede zielorientierte Aktivität, die Computermaschinen erfordert, davon profitiert oder diese erstellt. Es umfasst das Studium algorithmischer Prozesse und die Entwicklung von Hardware und Software. Es hat wissenschaftliche, technische, mathematische, technologische und soziale Aspekte. Wichtige Computerbereiche sind Computertechnik, Informatik, Cybersicherheit, Datenwissenschaft, Informationssysteme, Informationstechnologie und Softwareentwicklung.[2]

Frühe Vakuumröhre Turing kompletter Computer
Der Rasberry Pi

Definitionen[edit]

Das ACM Computing Curricula 2005[5] und 2020[2] definiert “Computing” wie folgt:

“Im Allgemeinen können wir Computing als jede zielorientierte Aktivität definieren, die Computer erfordert, von ihnen profitiert oder sie erstellt. Daher umfasst Computing das Entwerfen und Erstellen von Hardware- und Softwaresystemen für eine Vielzahl von Zwecken: Verarbeiten, Strukturieren und Verwalten verschiedene Arten von Informationen, wissenschaftliche Studien mit Computern durchführen, Computersysteme intelligent verhalten, Kommunikations- und Unterhaltungsmedien erstellen und verwenden, Informationen finden und sammeln, die für einen bestimmten Zweck relevant sind usw. Die Liste ist praktisch endlos und die Möglichkeiten sind riesig . “

ACM definiert auch sieben Unterdisziplinen der Computing Feld:[2]

Jedoch, Computing Curricula 2005[5] erkennt auch an, dass die Bedeutung von “Computing” vom Kontext abhängt:

Computing hat auch andere Bedeutungen, die spezifischer sind, basierend auf dem Kontext, in dem der Begriff verwendet wird. Beispielsweise sieht ein Spezialist für Informationssysteme das Rechnen etwas anders als ein Softwareentwickler. Unabhängig vom Kontext kann es kompliziert und schwierig sein, gut zu rechnen. Weil die Gesellschaft Menschen braucht, die gut rechnen können, müssen wir das Rechnen nicht nur als Beruf, sondern auch als Disziplin betrachten.

Der Antikythera-Mechanismus

Der Begriff “Computing” wurde manchmal eng definiert, wie in einem ACM-Bericht von 1989 über Rechnen als Disziplin::[6]

Die Disziplin des Rechnens ist die systematische Untersuchung algorithmischer Prozesse, die Informationen beschreiben und transformieren: Theorie, Analyse, Design, Effizienz, Implementierung und Anwendung. Die grundlegende Frage, die jedem Computing zugrunde liegt, lautet: “Was kann (effizient) automatisiert werden?”

Der Begriff “Rechnen” ist auch gleichbedeutend mit Zählen und Berechnen. In früheren Zeiten wurde es in Bezug auf die Aktion verwendet, die von mechanischen Rechenmaschinen und zuvor von menschlichen Computern ausgeführt wurde.[7]

Geschichte[edit]

Die Geschichte des Rechnens ist länger als die Geschichte der Computerhardware und der modernen Computertechnologie und umfasst die Geschichte der Methoden für Stift und Papier oder für Kreide und Schiefer mit oder ohne Hilfe von Tabellen.

Computing ist eng mit der Darstellung von Zahlen verbunden. Aber lange bevor Abstraktionen mögen die Nummer Es gab mathematische Konzepte, die den Zwecken der Zivilisation dienten.[clarification needed] Diese Konzepte umfassen eine Eins-zu-Eins-Korrespondenz (die Grundlage der Zählung), den Vergleich mit einem Standard (der zur Messung verwendet wird) und die 3-4-5 rechtwinkliges Dreieck (ein Gerät zur Sicherstellung von a rechter Winkel).

Das früheste bekannte Werkzeug für die Berechnung war der Abakus, und es wurde angenommen, dass er um 2400 v. Chr. In Babylon erfunden wurde. Sein ursprünglicher Verwendungsstil waren Linien, die mit Kieselsteinen in Sand gezeichnet waren. Abaci, moderner gestaltet, wird heute noch als Berechnungswerkzeug verwendet. Dies war die erste bekannte Berechnungshilfe – 2000 Jahre vor den griechischen Methoden[citation needed].

Die erste Idee zur Verwendung digitaler Elektronik für Computer war das 1931 erschienene Papier “Die Verwendung von Thyratrons zur automatischen Hochgeschwindigkeitszählung physikalischer Phänomene” von CE Wynn-Williams.[8]Claude Shannons 1938 erschienene Arbeit “Eine symbolische Analyse von Relais und Schaltkreisen” führte dann die Idee ein, Elektronik für boolesche algebraische Operationen zu verwenden.

Das Konzept eines Feldeffekttransistors wurde 1925 von Julius Edgar Lilienfeld vorgeschlagen. John Bardeen und Walter Brattain bauten 1947 unter William Shockley bei Bell Labs den ersten Arbeitstransistor, den Punktkontakttransistor.[9][10] 1953 baute die Universität von Manchester den ersten Transistorcomputer, den Transistorcomputer.[11] Frühe Sperrschichttransistoren waren jedoch relativ sperrige Bauelemente, die in Massenproduktion schwer herzustellen waren, was sie auf eine Reihe spezialisierter Anwendungen beschränkte.[12] Der Metalloxid-Silizium-Feldeffekttransistor (MOSFET oder MOS-Transistor) wurde 1959 von Mohamed Atalla und Dawon Kahng in den Bell Labs erfunden.[13][14] Es war der erste wirklich kompakte Transistor, der für eine Vielzahl von Anwendungen miniaturisiert und in Serie hergestellt werden konnte.[12] Der MOSFET ermöglichte den Bau von integrierten Schaltkreischips mit hoher Dichte.[15][16] was zu der sogenannten Computerrevolution führt[17] oder Mikrocomputer Revolution.[18]

Computer[edit]

Ein Computer ist eine Maschine, die Daten gemäß einer Reihe von Anweisungen bearbeitet, die als Computerprogramm bezeichnet werden. Das Programm verfügt über eine ausführbare Form, mit der der Computer die Anweisungen direkt ausführen kann. Das gleiche Programm in seiner für Menschen lesbaren Quellcodeform ermöglicht es einem Programmierer, eine Abfolge von Schritten zu studieren und zu entwickeln, die als Algorithmus bekannt sind. Da die Anweisungen auf verschiedenen Computertypen ausgeführt werden können, wird ein einzelner Satz von Quellbefehlen je nach CPU-Typ in Maschinenbefehle konvertiert.

Der Ausführungsprozess führt die Anweisungen in einem Computerprogramm aus. Anweisungen drücken die vom Computer durchgeführten Berechnungen aus. Sie lösen Sequenzen einfacher Aktionen auf der ausführenden Maschine aus. Diese Aktionen erzeugen Effekte gemäß der Semantik der Anweisungen.

Computerhardware[edit]

Computerhardware umfasst die physischen Teile eines Computers, einschließlich Zentraleinheit, Speicher und Eingabe / Ausgabe. Wichtige Themen auf dem Gebiet der Computerhardware sind Computerlogik und Computerarchitektur.

Computer Software[edit]

Computersoftware oder einfach “Software” ist eine Sammlung von Computerprogrammen und zugehörigen Daten, die Anweisungen enthält, um einem Computer mitzuteilen, was zu tun ist und wie es zu tun ist. Software bezieht sich auf ein oder mehrere Computerprogramme und Daten, die für bestimmte Zwecke im Speicher des Computers gespeichert sind. Mit anderen Worten, Software ist eine Reihe von Programme, Prozeduren, Algorithmen und sein Dokumentation befasst sich mit dem Betrieb eines Datenverarbeitungssystems. Die Programmsoftware führt die Funktion des von ihr implementierten Programms aus, indem sie entweder Anweisungen direkt an die Computerhardware sendet oder als Eingabe für eine andere Software dient. Der Begriff wurde geprägt, um sich vom alten Begriff abzuheben Hardware- (dh physische Geräte). Software ist im Gegensatz zu Hardware nicht greifbar.[19] Software wird manchmal auch in einem engeren Sinne verwendet, dh nur Anwendungssoftware.

Systemsoftware[edit]

Systemsoftware oder Systemsoftware ist Computersoftware, die zum Bedienen und Steuern der Computerhardware und zum Bereitstellen einer Plattform zum Ausführen von Anwendungssoftware entwickelt wurde. Die Systemsoftware umfasst Betriebssysteme, Dienstprogramm-Software, Gerätetreiber, Fenstersysteme und Firmware. Häufig verwendete Entwicklungstools wie Compiler, Linker und Debugger[20] sind als Systemsoftware klassifiziert.

Anwendungssoftware[edit]

Anwendungssoftware, auch als “Anwendung” oder “App” bezeichnet, ist eine Computersoftware, die dem Benutzer bei der Ausführung bestimmter Aufgaben hilft. Beispiele hierfür sind Unternehmenssoftware, Buchhaltungssoftware, Office-Suiten, Grafiksoftware und Mediaplayer. Viele Anwendungsprogramme befassen sich hauptsächlich mit Dokumenten. Apps können mit dem Computer und seiner Systemsoftware gebündelt oder separat veröffentlicht werden. Einige Benutzer sind mit den mitgelieferten Apps zufrieden und müssen niemals zusätzliche Anwendungen installieren. Anwendungssoftware steht im Gegensatz zu Systemsoftware und Middleware, die die Funktionen eines Computers verwalten und integrieren, diese jedoch normalerweise nicht direkt bei der Ausführung von Aufgaben anwenden, die dem Benutzer zugute kommen. Die Systemsoftware dient der Anwendung, die wiederum dem Benutzer dient. Anwendungssoftware wendet die Leistung einer bestimmten Computerplattform oder Systemsoftware auf einen bestimmten Zweck an. Einige Apps wie Microsoft Office sind in Versionen für verschiedene Plattformen verfügbar. andere haben engere Anforderungen und werden daher beispielsweise als Geografie-Anwendung für Windows oder als Android-Anwendung für Bildung oder Linux-Spiele bezeichnet. Manchmal entsteht eine neue und beliebte Anwendung, die nur auf einer Plattform ausgeführt wird, was die Attraktivität dieser Plattform erhöht. Dies wird als Killeranwendung bezeichnet.

Computernetzwerk[edit]

Ein Computernetzwerk, oft einfach als Netzwerk bezeichnet, ist eine Sammlung von Hardwarekomponenten und Computern verbunden durch Kommunikationskanäle, die den Austausch von Ressourcen und Informationen ermöglichen.[21] Wenn mindestens ein Prozess in einem Gerät Daten an mindestens einen Prozess in einem Remote-Gerät senden / von diesem empfangen kann, werden die beiden Geräte als Netzwerk bezeichnet.

Netzwerke können nach einer Vielzahl von Merkmalen klassifiziert werden, wie dem Medium, das zum Transport der Daten verwendet wird, dem verwendeten Kommunikationsprotokoll, der Skalierung, der Topologie und dem organisatorischen Umfang.

Kommunikationsprotokolle definieren die Regeln und Datenformate für den Informationsaustausch in einem Computernetzwerk und bilden die Grundlage für die Netzwerkprogrammierung. Zu den bekannten Kommunikationsprotokollen gehören Ethernet, ein in lokalen Netzwerken allgegenwärtiger Hardware- und Link-Layer-Standard, und die Internet Protocol Suite, die eine Reihe von Protokollen für das Internetworking definiert, dh für die Datenkommunikation zwischen mehreren Netzwerken sowie für Host- Datenübertragung zum Host und anwendungsspezifische Datenübertragungsformate.

Computernetzwerke werden manchmal als Unterdisziplin der Elektrotechnik, Telekommunikation, Informatik, Informationstechnologie oder Computertechnik angesehen, da sie auf der theoretischen und praktischen Anwendung dieser Disziplinen beruhen.

Internet[edit]

Das Internet ist ein globales System miteinander verbundener Computernetzwerke, die die Standard-Internetprotokoll-Suite (TCP / IP) verwenden, um Milliarden von Benutzern zu bedienen, die aus Millionen von privaten, öffentlichen, akademischen, geschäftlichen und staatlichen Netzwerken von lokaler bis globaler Reichweite bestehen. die durch eine breite Palette von elektronischen, drahtlosen und optischen Netzwerktechnologien verbunden sind. Das Internet bietet eine breite Palette an Informationsressourcen und -diensten, z. B. die miteinander verknüpften Hypertextdokumente des World Wide Web und die Infrastruktur zur Unterstützung von E-Mails.

Computerprogrammierung[edit]

Computerprogrammierung ist im Allgemeinen der Prozess des Schreibens, Testens, Debuggens und Verwaltens des Quellcodes und der Dokumentation von Computerprogrammen. Dieser Quellcode ist in einer Programmiersprache geschrieben, die eine künstliche Sprache ist, die oft restriktiver oder anspruchsvoller als natürliche Sprachen ist, aber vom Computer leicht übersetzt werden kann. Der Zweck der Programmierung besteht darin, das gewünschte Verhalten (Anpassung) von der Maschine aus aufzurufen. Das Schreiben von qualitativ hochwertigem Quellcode erfordert die Kenntnis der Domäne der Anwendung und der Bereich der Informatik. Die Software von höchster Qualität wird daher von einem Team verschiedener Domain-Experten entwickelt, von denen jede ein Spezialist auf einem bestimmten Gebiet der Entwicklung ist. Aber der Begriff Programmierer kann für eine Reihe von Programmqualitäten gelten, vom Hacker über Open Source-Mitarbeiter bis hin zu Profis. Und ein einzelner Programmierer könnte den größten Teil oder die gesamte Computerprogrammierung ausführen, die erforderlich ist, um den Proof of Concept für den Start einer neuen “Killer” -Anwendung zu erstellen.

Computerprogrammierer[edit]

Ein Programmierer, Computerprogrammierer oder Codierer ist eine Person, die Computersoftware schreibt. Der Begriff Computerprogrammierer kann sich an einen Spezialisten auf einem Gebiet der Computerprogrammierung oder an einen Generalisten wenden, der Code für viele Arten von Software schreibt. Wer einen formalen Programmieransatz praktiziert oder bekennt, kann auch als Programmierer-Analyst bezeichnet werden. Den primären Titeln eines Programmierers (C, C ++, Java, Lisp, Python usw.) wird häufig der obige Titel vorangestellt, und denjenigen, die in einer Webumgebung arbeiten, wird ihren Titeln häufig ein Präfix vorangestellt Netz. Der Begriff Programmierer kann verwendet werden, um sich an einen Softwareentwickler, Softwareentwickler, Informatiker oder Softwareanalysten zu wenden. Angehörige dieser Berufe sind jedoch in der Regel[22] über die Programmierung hinaus andere Software-Engineering-Fähigkeiten besitzen.

Computerindustrie[edit]

Die Computerindustrie besteht aus allen Unternehmen, die an der Entwicklung von Computersoftware, dem Entwurf von Computerhardware und Computernetzwerkinfrastrukturen, der Herstellung von Computerkomponenten und der Bereitstellung von Informationstechnologiediensten einschließlich Systemadministration und -wartung beteiligt sind.

Softwareindustrie[edit]

Die Softwareindustrie umfasst Unternehmen, die sich mit der Entwicklung, Wartung und Veröffentlichung von Software befassen. Die Branche umfasst auch Softwaredienstleistungen wie Schulung, Dokumentation und Beratung.

Unterdisziplinen des Rechnens[edit]

Technische Informatik[edit]

Computertechnik ist eine Disziplin, die verschiedene Bereiche der Elektrotechnik und Informatik integriert, die für die Entwicklung von Computerhardware und -software erforderlich sind.[23] Computeringenieure haben normalerweise eine Ausbildung in Elektrotechnik (oder Elektrotechnik), Software-Design und Hardware-Software-Integration anstatt nur in Software-Engineering oder Elektronik. Computeringenieure sind an vielen Hardware- und Softwareaspekten des Rechnens beteiligt, vom Entwurf einzelner Mikroprozessoren, PCs und Supercomputer bis hin zum Schaltungsdesign. Dieses technische Gebiet konzentriert sich nicht nur auf das Design von Hardware innerhalb seiner eigenen Domäne, sondern auch auf die Wechselwirkungen zwischen Hardware und der Welt um sie herum.[24]

Softwareentwicklung[edit]

Software Engineering (SE) ist die Anwendung eines systematischen, disziplinierten und quantifizierbaren Ansatzes für das Design, die Entwicklung, den Betrieb und die Wartung von Software sowie die Untersuchung dieser Ansätze. das heißt, die Anwendung von Engineering auf Software.[25][26][27] Für Laien bedeutet dies, Erkenntnisse zu nutzen, um eine Lösung für ein Problem zu konzipieren, zu modellieren und zu skalieren. Der erste Hinweis auf den Begriff ist die NATO-Software-Engineering-Konferenz von 1968, die zum Nachdenken über die damals wahrgenommene “Software-Krise” anregen sollte.[28][29][30]Software-Entwicklung, ein häufig verwendeter und allgemeinerer Begriff, fasst das technische Paradigma nicht unbedingt zusammen. Die allgemein anerkannten Konzepte des Software-Engineerings als technische Disziplin wurden im Leitfaden zum Wissensbestand des Software-Engineerings (SWEBOK) festgelegt. Das SWEBOK ist zu einer international anerkannten Norm ISO / IEC TR 19759: 2015 geworden.[31]

Computerwissenschaften[edit]

Informatik oder Informatik (abgekürzt CS oder Comp Sci) ist der wissenschaftliche und praktische Ansatz für die Berechnung und ihre Anwendungen. Ein Informatiker ist spezialisiert auf die Theorie der Berechnung und den Entwurf von Computersystemen.[32]

Seine Teilbereiche lassen sich in praktische Techniken für die Implementierung und Anwendung in Computersystemen und rein theoretischen Bereichen unterteilen. Einige, wie die rechnerische Komplexitätstheorie, die grundlegende Eigenschaften von Rechenproblemen untersucht, sind sehr abstrakt, während andere, wie beispielsweise die Computergrafik, reale Anwendungen hervorheben. Wieder andere konzentrieren sich auf die Herausforderungen bei der Implementierung von Berechnungen. Beispielsweise untersucht die Programmiersprachtheorie Ansätze zur Beschreibung von Berechnungen, während das Studium der Computerprogrammierung selbst verschiedene Aspekte der Verwendung von Programmiersprachen und komplexen Systemen untersucht und die Mensch-Computer-Interaktion sich auf die Herausforderungen konzentriert, Computer und Berechnungen nützlich und nutzbar zu machen und universell zugänglich für Menschen.

Onlinesicherheit[edit]

Datenwissenschaft[edit]

Informationssysteme[edit]

“Informationssysteme (IS)” ist die Untersuchung komplementärer Netzwerke von Hardware und Software (siehe Informationstechnologie), mit denen Personen und Organisationen Daten sammeln, filtern, verarbeiten, erstellen und verteilen.[33][34][35][36][37] Die ACMs Karriere machen Website sagt

“Eine Mehrheit des IS [degree] Programme befinden sich an Business Schools; Sie können jedoch unterschiedliche Namen haben, z. B. Verwaltungsinformationssysteme, Computerinformationssysteme oder Geschäftsinformationssysteme. Alle IS-Abschlüsse kombinieren Business- und Computerthemen, aber der Schwerpunkt zwischen technischen und organisatorischen Fragen variiert zwischen den Programmen. Zum Beispiel unterscheiden sich Programme erheblich in der Menge der erforderlichen Programmierung. “[38]

Die Studie verbindet Wirtschaft und Informatik mit den theoretischen Grundlagen von Information und Berechnung, um verschiedene Geschäftsmodelle und verwandte algorithmische Prozesse innerhalb einer Informatikdisziplin zu untersuchen.[39][40][41][42][43][44][45][46][47][48]

Das Gebiet der Computerinformationssysteme (CIS) untersucht Computer und algorithmische Prozesse, einschließlich ihrer Prinzipien, ihres Software- und Hardware-Designs, ihrer Anwendungen und ihrer Auswirkungen auf die Gesellschaft[49][50][51] während IS Funktionalität über Design betont.[52]

Informationstechnologie[edit]

Informationstechnologie (IT) ist die Anwendung von Computern und Telekommunikationsgeräten zum Speichern, Abrufen, Übertragen und Bearbeiten von Daten.[53] oft im Kontext eines Unternehmens oder eines anderen Unternehmens.[54] Der Begriff wird häufig als Synonym für Computer und Computernetzwerke verwendet, umfasst jedoch auch andere Informationsverteilungstechnologien wie Fernsehen und Telefone. Mit der Informationstechnologie sind verschiedene Branchen verbunden, darunter Computerhardware, -software, -elektronik, -halbleiter, Internet, Telekommunikationsausrüstung, E-Commerce und Computerdienste.[55][56]

Forschung und neue Technologien[edit]

DNA-basiertes Computing und Quantencomputing sind Bereiche aktiver Forschung in Hardware und Software (wie die Entwicklung von Quantenalgorithmen). Die potenzielle Infrastruktur für zukünftige Technologien umfasst DNA-Origami für die Fotolithografie[57] und Quantenantennen zum Übertragen von Informationen zwischen Ionenfallen.[58] Bis 2011 hatten Forscher 14 Qubits verwickelt.[59][60] Schnelle digitale Schaltungen (einschließlich solcher, die auf Josephson-Übergängen und der schnellen Einzelfluss-Quantentechnologie basieren) werden mit der Entdeckung nanoskaliger Supraleiter nahezu realisierbar.[61]

Faseroptische und photonische (optische) Geräte, die bereits zum Transport von Daten über große Entfernungen verwendet wurden, werden von Rechenzentren neben CPU- und Halbleiterspeicherkomponenten eingesetzt. Dies ermöglicht die Trennung von RAM von CPU durch optische Verbindungen.[62] IBM hat eine integrierte Schaltung mit elektronischer und optischer Informationsverarbeitung in einem Chip geschaffen. Dies wird als “CMOS-integrierte Nanophotonik” oder (CINP) bezeichnet.[63] Ein Vorteil von optischen Verbindungen besteht darin, dass Motherboards, für die früher eine bestimmte Art von System auf einem Chip (SoC) erforderlich war, jetzt dedizierte Speicher- und Netzwerkcontroller von den Motherboards entfernen und die Controller auf das Rack verteilen können. Dies ermöglicht die Standardisierung von Backplane-Verbindungen und Motherboards für mehrere Arten von SoCs, wodurch zeitnahere Upgrades von CPUs ermöglicht werden.[64]

Ein weiteres Forschungsgebiet ist die Spintronik. Spintronics kann Rechenleistung und Speicher ohne Wärmestau bereitstellen.[65] Einige Forschungen werden an Hybridchips durchgeführt, die Photonik und Spintronik kombinieren.[66][67] Es gibt auch Forschungen zur Kombination von Plasmonik, Photonik und Elektronik.[68]

Cloud Computing[edit]

Cloud Computing ist ein Modell, das die Verwendung von Computerressourcen wie Servern oder Anwendungen ermöglicht, ohne dass eine große Interaktion zwischen dem Eigentümer dieser Ressourcen und dem Benutzer, der sie verwendet, erforderlich ist. Es wird in der Regel als Service angeboten. Dies macht es zu einem weiteren Beispiel für Software als Service, Plattformen als Service und Infrastruktur als Service, abhängig von der angebotenen Funktionalität. Zu den Hauptmerkmalen gehören On-Demand-Zugriff, breiter Netzwerkzugriff und die Fähigkeit zur schnellen Skalierung.[69] Damit können einzelne Benutzer oder kleine Unternehmen von Skaleneffekten profitieren.

Ein Bereich von Interesse in diesem Bereich ist das Potenzial zur Unterstützung der Energieeffizienz. Das Zulassen von Tausenden von Berechnungsinstanzen auf einer einzelnen Maschine anstelle von Tausenden von einzelnen Maschinen könnte helfen, Energie zu sparen. Dies könnte auch den Übergang zu mehr erneuerbarer Energie erleichtern, da es ausreichen würde, eine Serverfarm mit einer Reihe von Sonnenkollektoren oder Windkraftanlagen zu versorgen, anstatt Millionen von Menschen zu Hause.[70]

Bei der zentralen Datenverarbeitung stellt das Feld mehrere Herausforderungen dar, insbesondere in Bezug auf Sicherheit und Datenschutz. Die derzeitige Gesetzgebung schützt Benutzer nicht ausreichend vor Unternehmen, die ihre Daten auf den Servern des Unternehmens falsch handhaben. Dies deutet auf das Potenzial für weitere gesetzliche Regelungen für Cloud-Computing- und Technologieunternehmen hin.[71]

Quanten-Computing[edit]

Quantencomputer sind ein Forschungsgebiet, das die Disziplinen Informatik, Informationstheorie und Quantenphysik zusammenbringt. Die Idee, dass Information ein grundlegender Bestandteil der Physik ist, ist relativ neu, aber es scheint eine starke Verbindung zwischen Informationstheorie und Quantenmechanik zu bestehen.[72] Während traditionelles Computing mit einem binären System aus Einsen und Nullen arbeitet, verwendet Quantencomputing Qubits. Qubits können sich überlagern, was bedeutet, dass sie sich gleichzeitig in beiden Zuständen befinden, eins und null. Dies bedeutet, dass das Qubit nicht irgendwo zwischen 1 und 0 liegt, aber der Wert des Qubits ändert sich tatsächlich, je nachdem, wann Sie es messen. Dieses Merkmal von Qubits wird als Quantenverschränkung bezeichnet und ist die Kernidee des Quantencomputers. Es ermöglicht Quantencomputern, die Gleichungen im großen Maßstab zu erstellen, für die sie verwendet werden.[73] Quantencomputer werden häufig für wissenschaftliche Forschungen verwendet, bei denen ein normaler Computer nicht über genügend Rechenleistung verfügt, um die erforderlichen Berechnungen durchzuführen. Ein gutes Beispiel wäre die molekulare Modellierung. Große Moleküle sind für moderne Computer viel zu komplex, um zu berechnen, was mit ihnen während einer Reaktion passiert, aber die Leistung von Quantencomputern könnte die Türen für ein besseres Verständnis dieser Moleküle öffnen.

Siehe auch[edit]

Verweise[edit]

  1. ^ “Computing Classification System”. dl.acm.org.
  2. ^ ein b c “Computing Curriculum 2020” (PDF).
  3. ^ Cellan-Jones, Rory (5. Mai 2011). “Ein 15-Pfund-Computer, der junge Programmierer inspiriert”. BBC News.
  4. ^ Price, Peter (3. Juni 2011). “Kann ein 15-Pfund-Computer die Programmierlücke schließen?”. BBC Click. Abgerufen 2. Juli 2011.
  5. ^ ein b Die Gemeinsame Task Force für die Berechnung von Lehrplänen 2005. “Computing Curricula 2005: Der Übersichtsbericht” (PDF). Archiviert von das Original (PDF) am 21.10.2014.
  6. ^ Peter J. Denning; et al. (Januar 1989). “Computing als Disziplin” (PDF). Mitteilungen der ACM. Verband für Rechenmaschinen. 32: 9–23. doi:10.1145 / 63238.63239. S2CID 723103. Archiviert von das Original (PDF) am 28.09.2011. Abgerufen 2012-11-30.
  7. ^ “Die Geschichte des Rechnens”. mason.gmu.edu. Abgerufen 2019-04-12.
  8. ^ Wynn-Williams, CE (2. Juli 1931), “Die Verwendung von Thyratrons zur automatischen Hochgeschwindigkeitszählung physikalischer Phänomene”, Verfahren der Royal Society A., 132 (819): 295–310, Bibcode:1931RSPSA.132..295W, doi:10.1098 / rspa.1931.0102
  9. ^ Lee, Thomas H. (2003). Der Entwurf von integrierten CMOS-Hochfrequenzschaltungen (PDF). Cambridge University Press. ISBN 9781139643771.
  10. ^ Puers, Robert; Baldi, Livio; Voorde, Marcel Van de; Nooten, Sebastiaan E. van (2017). Nanoelektronik: Materialien, Geräte, Anwendungen, 2 Bände. John Wiley & Sons. p. 14. ISBN 9783527340538.
  11. ^ Lavington, Simon (1998), Eine Geschichte von Manchester Computers (2. Aufl.), Swindon: The British Computer Society, S. 34–35
  12. ^ ein b Moskowitz, Sanford L. (2016). Advanced Materials Innovation: Management globaler Technologie im 21. Jahrhundert. John Wiley & Sons. S. 165–167. ISBN 9780470508923.
  13. ^ “1960 – Demonstration eines Metalloxidhalbleitertransistors (MOS)”. Die Silicon Engine. Computergeschichtliches Museum.
  14. ^ Lojek, Bo (2007). Geschichte der Halbleitertechnik. Springer Science & Business Media. S. 321–3. ISBN 9783540342588.
  15. ^ “Wer hat den Transistor erfunden?”. Computergeschichtliches Museum. 4. Dezember 2013. Abgerufen 20. Juli 2019.
  16. ^ Hittinger, William C. (1973). “Metalloxid-Halbleitertechnologie”. Wissenschaftlicher Amerikaner. 229 (2): 48–59. Bibcode:1973SciAm.229b..48H. doi:10.1038 / Scientificamerican0873-48. ISSN 0036-8733. JSTOR 24923169.
  17. ^ Fossum, Jerry G.; Trivedi, Vishal P. (2013). Grundlagen von Ultradünnkörper-MOSFETs und FinFETs. Cambridge University Press. p. vii. ISBN 9781107434493.
  18. ^ Malmstadt, Howard V.; Enke, Christie G.; Crouch, Stanley R. (1994). Die richtigen Verbindungen herstellen: Mikrocomputer und elektronische Instrumente. American Chemical Society. p. 389. ISBN 9780841228610. Die relative Einfachheit und der geringe Leistungsbedarf von MOSFETs haben die heutige Revolution der Mikrocomputer gefördert.
  19. ^ “Wordreference.com: WordNet 2.0”. Princeton University, Princeton, NJ. Abgerufen 2007-08-19.
  20. ^ Rouse, Margaret (März 2019). “Systemsoftware”. WhatIs.com. TechTarget.
  21. ^ “Computernetzwerkdefinition”. Archiviert von das Original am 21.01.2012. Abgerufen 2011-11-12.
  22. ^ “5 Fähigkeiten, die Entwickler über das Schreiben von Code hinaus benötigen”. 23. Januar 2019.
  23. ^ IEEE Computer Society; ACM (12. Dezember 2004). Computer Engineering 2004: Curriculum Guidelines für Bachelor-Studiengänge in Computer Engineering (PDF). p. iii. Abgerufen 2012-12-17. Computersystemtechnik wird traditionell als eine Kombination aus Elektrotechnik (EE) und Informatik (CS) angesehen.
  24. ^ Trinity College Dublin. “Was ist Computersystemtechnik?”. Abgerufen 2006-04-21.“Computeringenieure müssen nicht nur verstehen, wie Computersysteme selbst funktionieren, sondern auch, wie sie sich in das Gesamtbild integrieren. Betrachten Sie das Auto. Ein modernes Auto enthält viele separate Computersysteme zur Steuerung von Dingen wie Motorsteuerung, Bremsen und Airbags Um ein solches Auto entwerfen und implementieren zu können, benötigt der Computeringenieur ein breites theoretisches Verständnis all dieser verschiedenen Subsysteme und ihrer Interaktion.
  25. ^ Abran, Alain; Moore, James W.; Bourque, Pierre; Dupuis, Robert; Tripp, Leonard L. (2004). Leitfaden zum Wissensbestand der Softwareentwicklung. IEEE. p. 1. ISBN 978-0-7695-2330-9.
  26. ^ ACM (2006). “Computing Degrees & Careers”. ACM. Archiviert von das Original am 17.06.2011. Abgerufen 2010-11-23.
  27. ^ Laplante, Phillip (2007). Was jeder Ingenieur über Software Engineering wissen sollte. Boca Raton: CRC. ISBN 978-0-8493-7228-5. Abgerufen 2011-01-21.
  28. ^ Sommerville, Ian (2008). Softwareentwicklung (7 ed.). Pearson Ausbildung. p. 26. ISBN 978-81-7758-530-8. Abgerufen 10. Januar 2013.
  29. ^ Peter, Naur; Randell, Brian (7. bis 11. Oktober 1968). Software Engineering: Bericht einer vom NATO-Wissenschaftskomitee gesponserten Konferenz (PDF). Garmisch, Deutschland: Abteilung für wissenschaftliche Angelegenheiten, NATO. Abgerufen 2008-12-26.
  30. ^ Randell, Brian (10. August 2001). “Die NATO-Software-Engineering-Berichte von 1968/69”. Brian Randells Universitäts-Homepage. Die Schule der Informatik, Newcastle University. Abgerufen 2008-10-11. Die Idee für die erste NATO-Software-Engineering-Konferenz und insbesondere die, den damals praktisch unbekannten Begriff “Software-Engineering” als (absichtlich provokativen) Titel zu übernehmen, stammt meines Erachtens ursprünglich von Professor Fritz Bauer.
  31. ^ “Software Engineering – Leitfaden zum Wissensbestand der Softwareentwicklung (SWEBOK)”. Internationale Standardisierungsorganisation. ISO / IEC TR 19759: 2015. Abgerufen 21. Mai 2019.
  32. ^ “WordNet-Suche – 3.1”. Wordnetweb.princeton.edu. Abgerufen 2012-05-14.
  33. ^ “Definition der Anwendungslandschaft”. Software Engineering für Wirtschaftsinformationssysteme (sebis). 21. Januar 2009. Archiviert von das Original am 5. März 2011. Abgerufen 14. Januar 2011.
  34. ^ Archibald, JA (Mai 1975). “Informatikunterricht für Hauptfächer anderer Disziplinen”. Gemeinsame Computerkonferenzen von AFIPS: 903–906. Die Informatik erstreckt sich über mehrere verwandte Disziplinen und teilt mit diesen Disziplinen bestimmte Unterdisziplinen, die traditionell ausschließlich in den konventionelleren Disziplinen angesiedelt sind
  35. ^ Denning, Peter (Juli 1999). “COMPUTER SCIENCE: DIE DISZIPLIN”. Encyclopaedia of Computer Science (Ausgabe 2000). Der Bereich der Informatik: Obwohl sich die Informatik sowohl mit von Menschen gemachten als auch mit natürlichen Informationsprozessen befasst, waren die Hauptanstrengungen in der Disziplin auf von Menschen gemachte Prozesse gerichtet, insbesondere auf Informationsverarbeitungssysteme und -maschinen
  36. ^ Coy, Wolfgang (Juni 2004). “Zwischen den Disziplinen”. ACM SIGCSE Bulletin. 36 (2): 7–10. doi:10.1145 / 1024338.1024340. ISSN 0097-8418. S2CID 10389644. Die Informatik kann im Kern dieser Prozesse stehen. Die eigentliche Frage ist nicht, disziplinarische Grenzen mit ihren methodischen Unterschieden zu ignorieren, sondern die Disziplinen für die Zusammenarbeit zu öffnen. Wir müssen lernen, Brücken zu bauen, nicht in der Kluft zwischen den Disziplinen zu beginnen
  37. ^ Jessup, Leonard M.; Valacich, Joseph S. (2008). Informationssysteme heute (3. Aufl.). Pearson Publishing. S. -, 416.
  38. ^ “Computing Degrees & Careers” Informationssysteme “. Verband für Rechenmaschinen. Archiviert von das Original am 6. Juli 2018. Abgerufen 6. Juli 2018.
  39. ^ Hoganson, Ken (Dezember 2001). “Alternative Lehrplanmodelle zur Integration von Informatik- und Informationssystemanalysen, Empfehlungen, Fallstricken, Chancen, Akkreditierungen und Trends”. Journal of Computing Sciences in Colleges. 17 (2): 313–325. ISSN 1937-4771. Informationssysteme entstanden aus der Notwendigkeit heraus, die Lücke zwischen Unternehmensführung und Informatik zu schließen …
  40. ^ Davis, Timothy; Geist, Robert; Matzko, Sarah; Westall, James (März 2004). “τ’εχνη: Ein erster Schritt”. Technisches Symposium zum Informatikunterricht: 125–129. ISBN 1-58113-798-2. 1999 richtete die Clemson University ein (Graduierten-) Studienprogramm ein, das die Künste und Wissenschaften verbindet … Alle Studenten des Programms müssen sowohl in den Künsten als auch in den Informatikarbeiten auf Hochschulniveau abgeschlossen sein
  41. ^ Hoganson, Ken (Dezember 2001). “Alternative Lehrplanmodelle zur Integration von Informatik- und Informationssystemanalysen, Empfehlungen, Fallstricken, Chancen, Akkreditierungen und Trends”. Journal of Computing Sciences in Colleges. 17 (2): 313–325. ISSN 1937-4771. Das Gebiet der Informationssysteme als eigenständige Disziplin ist relativ neu und unterliegt einem ständigen Wandel, während sich die Technologie weiterentwickelt und das Gebiet reift
  42. ^ Khazanchi, Deepak; Björn Erik Munkvold (Sommer 2000). “Ist das Informationssystem eine Wissenschaft? Eine Untersuchung der Natur der Disziplin der Informationssysteme”. ACM SIGMIS Datenbank. 31 (3): 24–42. doi:10.1145 / 381823.381834. ISSN 0095-0033. S2CID 52847480. Daraus haben wir geschlossen, dass IS eine Wissenschaft ist, dh eine wissenschaftliche Disziplin im Gegensatz zu angeblich nichtwissenschaftlichen Bereichen
  43. ^ Denning, Peter (Juni 2007). “Ein Interview mit Peter Denning über die großen Prinzipien des Rechnens”. Allgegenwart. 2007 (1 Juni. Menschen aus anderen Bereichen sagen, dass sie Informationsprozesse in ihren tiefsten Strukturen entdeckt haben und dass die Zusammenarbeit mit dem Computer für sie von wesentlicher Bedeutung ist.
  44. ^ “Informatik ist das Studium der Information”. New Jersey Institute of Technology: Gutenberg Informationstechnologien. Archiviert von das Original am 29. Mai 2009.
  45. ^ Institut für Informatik, College of Saint Benedict. “Informatik ist das Studium der Berechnung”. Saint John’s University. Archiviert von das Original am 03.02.2007. Abgerufen 2013-06-24.
  46. ^ “Informatik ist das Studium aller Aspekte von Computersystemen, von den theoretischen Grundlagen bis zu den sehr praktischen Aspekten der Verwaltung großer Softwareprojekte.”. Massey Universität. Archiviert von das Original am 19.06.2006.
  47. ^ Kelly, Sue; Gibson, Nicola; Holland, Christopher; Light, Ben (Juli 1999). “Schwerpunktthema auf Legacy-Informationssystemen und Business Process Engineering: eine Geschäftsperspektive von Legacy-Informationssystemen”. Mitteilungen des AIS. 2 (7): 1–27.
  48. ^ Pearson Custom Publishing und West Chester University (2009). Benutzerdefiniertes Programm für Computerinformationssysteme (CSC 110). Pearson Custom Publishing. p. 694.
  49. ^ Polack, Jennifer (Dezember 2009). “Planen einer CIS-Ausbildung innerhalb eines CS-Frameworks”. Journal of Computing Sciences in Colleges. 25 (2): 100–106. ISSN 1937-4771.
  50. ^ Hayes, Helen; Onkar Sharma (Februar 2003). “Ein Jahrzehnt Erfahrung mit einem gemeinsamen Programm für Informatik, Informationssysteme und Informationstechnologie im ersten Jahr”. Journal of Computing Sciences in Colleges. 18 (3): 217–227. ISSN 1937-4771. 1988 wurde ein Studiengang in Computerinformationssystemen (CIS) mit dem Ziel ins Leben gerufen, Studenten eine Option zu bieten, die weniger dazu neigten, Programmierer zu werden und mehr daran interessiert waren, das Entwerfen, Entwickeln und Implementieren von Informationssystemen und das Lösen von Geschäften zu lernen Probleme bei der Verwendung des Systemansatzes
  51. ^ CSTA-Ausschuss; Allen Tucker; et al. (2006). Ein Modellcurriculum für K-12-Informatik (Abschlussbericht). Association for Computing Machinery, Inc., S. 0, 2.
  52. ^ Freeman, Peter; Hart, David (August 2004). “Eine Wissenschaft des Designs für softwareintensive Systeme”. Mitteilungen der ACM. 47 (8): 19–21. doi:10.1145 / 1012037.1012054. ISSN 0001-0782. S2CID 14331332. Informatik und Ingenieurwesen benötigen einen intellektuell strengen, analytischen und lehrbaren Entwurfsprozess, um die Entwicklung von Systemen sicherzustellen, mit denen wir alle leben können … Obwohl die Verbindungen der anderen Komponenten zur Software und ihre Rolle beim Gesamtentwurf des Systems von entscheidender Bedeutung sind, sind die Kernüberlegung für ein softwareintensives System ist die Software selbst, und andere Ansätze zur Systematisierung des Designs haben das “Softwareproblem” noch nicht gelöst – was erst gelöst werden kann, wenn das Software-Design wissenschaftlich verstanden wird.
  53. ^
    Daintith, John, ed. (2009), “IT”, Ein Wörterbuch der Physik, Oxford University Press, ISBN 9780199233991abgerufen 1. August 2012(Abonnement erforderlich)
  54. ^ “Kostenloses Online-Wörterbuch für Computer (FOLDOC)”. Archiviert von das Original am 15. April 2013. Abgerufen 9. Februar 2013.
  55. ^
    Chandler, Daniel; Munday, Rod, “Informationstechnologie”, Ein Wörterbuch für Medien und Kommunikation (erste Ausgabe), Oxford University Pressabgerufen 1. August 2012(Abonnement erforderlich)
  56. ^ Zur späteren breiteren Anwendung des Begriffs IT kommentiert Keary: “In seiner ursprünglichen Anwendung war ‘Informationstechnologie’ angemessen, um die Konvergenz von Technologien mit Anwendungen im breiten Bereich der Datenspeicherung, des Abrufs, der Verarbeitung und der Verbreitung zu beschreiben. Dies ist nützlich.” Der Begriff “Begriff” wurde inzwischen in einen Begriff umgewandelt, der angeblich konkret verwendet wird, jedoch ohne die Definition zu verstärken. Dem Begriff “IT” fehlt die Substanz, wenn er auf den Namen einer Funktion, Disziplin oder Position angewendet wird. ” Anthony Ralston (2000). Enzyklopädie der Informatik. Nature Pub. Gruppe. ISBN 978-1-56159-248-7. Abgerufen 12. Mai 2013..
  57. ^ Kershner, Ryan J.; Bozano, Luisa D.; Micheel, Christine M.; Hung, Albert M.; Fornof, Ann R.; Cha, Jennifer N.; Rettner, Charles T.; Bersani, Marco; Frommer, Jane; Rothemund, Paul WK; Wallraff, Gregory M. (2009). “Platzierung und Orientierung einzelner DNA-Formen auf lithografisch strukturierten Oberflächen”. Natur Nanotechnologie. 4 (9): 557–561. Bibcode:2009NatNa … 4..557K. CiteSeerX 10.1.1.212.9767. doi:10.1038 / nnano.2009.220. PMID 19734926.ergänzende Informationen: DNA-Origami zur Photolithographie
  58. ^ Harlander, M. (2011). “Trapped-Ion-Antennen zur Übertragung von Quanteninformationen”. Natur. 471 (7337): 200–203. arXiv:1011.3639. Bibcode:2011Natur.471..200H. doi:10.1038 / nature09800. PMID 21346764. S2CID 4388493. Zusammenfassung zusammenlegen.
  59. ^ Monz, Thomas (2011). “14-Qubit-Verschränkung: Schöpfung und Kohärenz”. Briefe zur körperlichen Überprüfung. 106 (13): 130506. arXiv:1009,6126. Bibcode:2011PhRvL.106m0506M. doi:10.1103 / PhysRevLett.106.130506. PMID 21517367. S2CID 8155660.
  60. ^ “Weltrekord: Berechnungen mit 14 Quantenbits”.
  61. ^ Saw-Wai Hla et al., Natur Nanotechnologie 31. März 2010 “Der kleinste Supraleiter der Welt entdeckt” Archiviert 28.05.2010 an der Wayback-Maschine. Es wurde gezeigt, dass vier Paare bestimmter Moleküle einen nanoskaligen Supraleiter mit einer Abmessung von 0,87 Nanometern bilden. Zugriffsdatum 31.03.2010
  62. ^ Tom Simonite, “Rechnen mit Lichtgeschwindigkeit”, Technologieüberprüfung Mittwoch, 4. August 2010 MIT
  63. ^ Sebastian Anthony (10. Dezember 2012), “IBM stellt den ersten kommerziell realisierbaren nanophotonischen Siliziumchip her”, Zugriffsdatum = 2012-12-10
  64. ^ Open Compute: Hat das Rechenzentrum eine offene Zukunft? Zugriffsdatum = 2013-08-11
  65. ^ “Elektronik in Schwung bringen”. 08.08.2007. Abgerufen 2020-11-23.
  66. ^ “Spintronik mit Photonik verschmelzen” (PDF). Archiviert von das Original (PDF) am 06.09.2019. Abgerufen 2019-09-06.
  67. ^ Lalieu, MLM; Lavrijsen, R.; Koopmans, B. (10.01.2019). “Integration des rein optischen Schaltens in die Spintronik”. Naturkommunikation. 10 (1): 110. arXiv:1809.02347. Bibcode:2019NatCo..10..110L. doi:10.1038 / s41467-018-08062-4. ISSN 2041-1723. PMC 6328538. PMID 30631067.
  68. ^ Farmakidis, Nikolaos; Jungblut, Nathan; Li, Xuan; Tan, James; Swett, Jacob L.; Cheng, Zengguang; Wright, C. David; Pernice, Wolfram HP; Bhaskaran, Harish (01.11.2019). “Plasmonische Nanogap-verbesserte Phasenwechselvorrichtungen mit doppelter elektrisch-optischer Funktionalität”. Fortschritte in der Wissenschaft. 5 (11): eaaw2687. arXiv:1811.07651. Bibcode:2019SciA …. 5.2687F. doi:10.1126 / sciadv.aaw2687. ISSN 2375-2548. PMC 6884412. PMID 31819898.
  69. ^ “Die NIST-Definition von Cloud Computing” (PDF). US-Handelsministerium. September 2011.
  70. ^ Berl, A.; Gelenbe, E.; Girolamo, M. Di; Giuliani, G.; Meer, H. De; Dang, MQ; Pentikousis, K. (September 2010). “Energieeffizientes Cloud Computing”. Das Computerjournal. 53 (7): 1045–1051. doi:10.1093 / comjnl / bxp080. ISSN 1460-2067.
  71. ^ Kaufman, LM (Juli 2009). “Datensicherheit in der Welt des Cloud Computing”. IEEE-Sicherheitsdatenschutz. 7 (4): 61–64. doi:10.1109 / MSP.2009.87. ISSN 1558-4046. S2CID 16233643.
  72. ^ Steane, Andrew (1998-02-01). “Quanten-Computing”. Berichte über Fortschritte in der Physik. 61 (2): 117–173. arXiv:quant-ph / 9708022. Bibcode:1998RPPh … 61..117S. doi:10.1088 / 0034-4885 / 61/2/002. ISSN 0034-4885. S2CID 119473861.
  73. ^ Horodecki, Ryszard; Horodecki, Paweł; Horodecki, Michał; Horodecki, Karol (2009-06-17). “Quantenverschränkung”. Rezensionen der modernen Physik. 81 (2): 865–942. arXiv:quant-ph / 0702225. Bibcode:2009RvMP … 81..865H. doi:10.1103 / RevModPhys.81.865. S2CID 59577352.

Externe Links[edit]


after-content-x4