[{"@context":"http:\/\/schema.org\/","@type":"BlogPosting","@id":"https:\/\/wiki.edu.vn\/wiki21\/2020\/12\/30\/computerarchitektur-wikipedia\/#BlogPosting","mainEntityOfPage":"https:\/\/wiki.edu.vn\/wiki21\/2020\/12\/30\/computerarchitektur-wikipedia\/","headline":"Computerarchitektur – Wikipedia","name":"Computerarchitektur – Wikipedia","description":"before-content-x4 Satz von Regeln und Methoden, die die Funktionalit\u00e4t, Organisation und Implementierung von Computersystemen beschreiben Blockdiagramm eines Basiscomputers mit Einprozessor-CPU.","datePublished":"2020-12-30","dateModified":"2020-12-30","author":{"@type":"Person","@id":"https:\/\/wiki.edu.vn\/wiki21\/author\/lordneo\/#Person","name":"lordneo","url":"https:\/\/wiki.edu.vn\/wiki21\/author\/lordneo\/","image":{"@type":"ImageObject","@id":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","height":96,"width":96}},"publisher":{"@type":"Organization","name":"Enzyklop\u00e4die","logo":{"@type":"ImageObject","@id":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","url":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","width":600,"height":60}},"image":{"@type":"ImageObject","@id":"https:\/\/upload.wikimedia.org\/wikipedia\/commons\/thumb\/d\/d8\/ABasicComputer.gif\/481px-ABasicComputer.gif","url":"https:\/\/upload.wikimedia.org\/wikipedia\/commons\/thumb\/d\/d8\/ABasicComputer.gif\/481px-ABasicComputer.gif","height":"371","width":"481"},"url":"https:\/\/wiki.edu.vn\/wiki21\/2020\/12\/30\/computerarchitektur-wikipedia\/","wordCount":6104,"articleBody":" (adsbygoogle = window.adsbygoogle || []).push({});before-content-x4Satz von Regeln und Methoden, die die Funktionalit\u00e4t, Organisation und Implementierung von Computersystemen beschreiben Blockdiagramm eines Basiscomputers mit Einprozessor-CPU. Schwarze Linien zeigen den Datenfluss an, w\u00e4hrend rote Linien den Kontrollfluss anzeigen. Pfeile geben die Str\u00f6mungsrichtung an. (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4In der Computertechnik, Rechnerarchitektur ist eine Reihe von Regeln und Methoden, die die Funktionalit\u00e4t, Organisation und Implementierung von Computersystemen beschreiben. Einige Definitionen der Architektur definieren sie als Beschreibung der F\u00e4higkeiten und des Programmiermodells eines Computers, jedoch nicht als eine bestimmte Implementierung.[1] In anderen Definitionen umfasst die Computerarchitektur das Design von Befehlssatzarchitekturen, das Design von Mikroarchitekturen, das Logikdesign und die Implementierung.[2]Table of Contents (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4Geschichte[edit]Unterkategorien[edit]Definition[edit]Befehlssatzarchitektur[edit]Computerorganisation[edit]Implementierung[edit]Designziele[edit]Performance[edit]Energie-Effizienz[edit]Verschiebungen in der Marktnachfrage[edit]Siehe auch[edit]Verweise[edit]Quellen[edit]Externe Links[edit]Geschichte[edit]Die erste dokumentierte Computerarchitektur befand sich in der Korrespondenz zwischen Charles Babbage und Ada Lovelace und beschrieb die analytische Engine. Beim Bau des Computers Z1 im Jahr 1936 beschrieb Konrad Zuse in zwei Patentanmeldungen f\u00fcr seine zuk\u00fcnftigen Projekte, dass Maschinenanweisungen in demselben Speicher gespeichert werden k\u00f6nnten, der f\u00fcr Daten verwendet wird, dh im Konzept des gespeicherten Programms.[3][4] Zwei weitere fr\u00fche und wichtige Beispiele sind:Der Begriff \u201eArchitektur\u201c in der Computerliteratur l\u00e4sst sich auf die Arbeit von Lyle R. Johnson und Frederick P. Brooks Jr. zur\u00fcckf\u00fchren, die 1959 Mitglieder der Abteilung Machine Organization im Hauptforschungszentrum von IBM waren. Johnson hatte die Gelegenheit, eine eigene zu schreiben Forschungskommunikation \u00fcber den Stretch, einen von IBM entwickelten Supercomputer f\u00fcr das Los Alamos National Laboratory (zu der Zeit als Los Alamos Scientific Laboratory bekannt). Um den Detaillierungsgrad f\u00fcr die Er\u00f6rterung des luxuri\u00f6s verzierten Computers zu beschreiben, stellte er fest, dass seine Beschreibung von Formaten, Befehlstypen, Hardwareparametern und Geschwindigkeitsverbesserungen auf der Ebene der \u201eSystemarchitektur\u201c lag, ein Begriff, der n\u00fctzlicher schien als \u201eMaschinenorganisation\u201c \u201d.[7]Anschlie\u00dfend schlug Brooks, ein Stretch-Designer, Kapitel 2 eines Buches mit dem Titel auf Planen eines Computersystems: Projektdehnung mit der Aussage: “Computerarchitektur ist wie andere Architektur die Kunst, die Bed\u00fcrfnisse des Benutzers einer Struktur zu bestimmen und diese dann unter wirtschaftlichen und technologischen Bedingungen so effektiv wie m\u00f6glich zu gestalten.”[8]Brooks half bei der Entwicklung der IBM System \/ 360-Computerreihe (jetzt IBM zSeries), bei der \u201eArchitektur\u201c zu einem Substantiv wurde, das \u201edas definiert, was der Benutzer wissen muss\u201c.[9] Sp\u00e4ter verwendeten Computerbenutzer den Begriff auf viel weniger explizite Weise.[10] (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4Die fr\u00fchesten Computerarchitekturen wurden auf Papier entworfen und dann direkt in die endg\u00fcltige Hardwareform eingebaut.[11]Sp\u00e4ter wurden Prototypen der Computerarchitektur physisch in Form eines Transistor-Transistor-Logik-Computers (TTL) gebaut – wie die Prototypen des 6800 und des PA-RISC -, getestet und optimiert, bevor die endg\u00fcltige Hardwareform festgelegt wurde. Ab den 1990er Jahren werden neue Computerarchitekturen in der Regel in einer anderen Computerarchitektur in einem Computerarchitektur-Simulator “erstellt”, getestet und optimiert. oder in einem FPGA als weicher Mikroprozessor; oder beides – bevor Sie sich zum endg\u00fcltigen Hardwareformular verpflichten.[12]Unterkategorien[edit]Die Disziplin der Computerarchitektur hat drei Hauptunterkategorien:[13]Es gibt andere Technologien in der Computerarchitektur. Die folgenden Technologien werden in gr\u00f6\u00dferen Unternehmen wie Intel eingesetzt und wurden im Jahr 2002 gesch\u00e4tzt[13] 1% der gesamten Computerarchitektur ausmachen:Makroarchitektur: Architekturebenen abstrakter als MikroarchitekturAssembly Instruction Set Architektur: Ein intelligenter Assembler kann eine abstrakte Assemblersprache, die einer Gruppe von Maschinen gemeinsam ist, f\u00fcr verschiedene Implementierungen in eine leicht unterschiedliche Maschinensprache konvertieren.Vom Programmierer sichtbare Makroarchitektur: \u00dcbergeordnete Sprachtools wie Compiler k\u00f6nnen eine konsistente Schnittstelle definieren oder Vertr\u00e4ge mit Programmierern abschlie\u00dfen, die diese verwenden, um Unterschiede zwischen zugrunde liegenden ISA-, UISA- und Mikroarchitekturen zu abstrahieren. Beispielsweise definieren die C-, C ++ – oder Java-Standards verschiedene vom Programmierer sichtbare Makroarchitekturen.Mikrocode: microcode ist eine Software, die Anweisungen f\u00fcr die Ausf\u00fchrung auf einem Chip \u00fcbersetzt. Es wirkt wie ein Wrapper um die Hardware und pr\u00e4sentiert eine bevorzugte Version der Befehlssatzschnittstelle der Hardware. Diese Befehls\u00fcbersetzungsfunktion bietet Chipdesignern flexible Optionen: ZB 1. Eine neue verbesserte Version des Chips kann Mikrocode verwenden, um genau den gleichen Befehlssatz wie die alte Chipversion zu pr\u00e4sentieren, sodass alle Software, die auf diesen Befehlssatz abzielt, auf dem neuen Chip ohne ausgef\u00fchrt wird \u00c4nderungen brauchen. Beispiel: 2. Der Mikrocode kann eine Vielzahl von Befehlss\u00e4tzen f\u00fcr denselben zugrunde liegenden Chip darstellen, sodass eine gr\u00f6\u00dfere Auswahl an Software ausgef\u00fchrt werden kann.UISA: User Instruction Set Architecture bezieht sich auf eine von drei Teilmengen der RISC CPU-Anweisungen bereitgestellt von PowerPC RISC-Prozessoren. Die UISA-Teilmenge sind die RISC-Anweisungen, die f\u00fcr Anwendungsentwickler von Interesse sind. Die anderen beiden Untergruppen sind VEA-Anweisungen (Virtual Environment Architecture), die von Entwicklern von Virtualisierungssystemen verwendet werden, und OEA (Operating Environment Architecture), die von Entwicklern von Betriebssystemen verwendet werden.[15]Pin-Architektur: Die Hardwarefunktionen, die ein Mikroprozessor f\u00fcr eine Hardwareplattform bereitstellen sollte, z. B. die x86-Pins A20M, FERR \/ IGNNE oder FLUSH. Au\u00dferdem Nachrichten, die der Prozessor ausgeben soll, damit externe Caches ung\u00fcltig gemacht (geleert) werden k\u00f6nnen. Pin-Architekturfunktionen sind flexibler als ISA-Funktionen, da sich externe Hardware an neue Codierungen anpassen oder von einem Pin zu einer Nachricht wechseln kann. Der Begriff “Architektur” passt, da die Funktionen f\u00fcr kompatible Systeme bereitgestellt werden m\u00fcssen, auch wenn sich die detaillierte Methode \u00e4ndert.Definition[edit]Die Computerarchitektur befasst sich mit dem Gleichgewicht zwischen Leistung, Effizienz, Kosten und Zuverl\u00e4ssigkeit eines Computersystems. Der Fall der Befehlssatzarchitektur kann verwendet werden, um das Gleichgewicht dieser konkurrierenden Faktoren zu veranschaulichen. Mit komplexeren Befehlss\u00e4tzen k\u00f6nnen Programmierer platzsparendere Programme schreiben, da ein einzelner Befehl eine Abstraktion auf h\u00f6herer Ebene codieren kann (z. B. den x86-Schleifenbefehl).[16] L\u00e4ngere und komplexere Anweisungen ben\u00f6tigen jedoch l\u00e4nger f\u00fcr die Dekodierung des Prozessors und k\u00f6nnen kosteng\u00fcnstiger in der effektiven Implementierung sein. Die erh\u00f6hte Komplexit\u00e4t eines gro\u00dfen Befehlssatzes schafft auch mehr Raum f\u00fcr Unzuverl\u00e4ssigkeit, wenn Befehle auf unerwartete Weise interagieren.Die Implementierung umfasst das Design, die Verpackung, die Stromversorgung und die K\u00fchlung integrierter Schaltkreise. Die Optimierung des Designs erfordert Kenntnisse \u00fcber Compiler, Betriebssysteme, Logikdesign und Verpackung.[17]Befehlssatzarchitektur[edit]Eine Befehlssatzarchitektur (ISA) ist die Schnittstelle zwischen der Software und der Hardware des Computers und kann auch als Ansicht des Programmierers auf die Maschine angesehen werden. Computer verstehen keine Programmiersprachen auf hoher Ebene wie Java, C ++ oder die meisten verwendeten Programmiersprachen. Ein Prozessor versteht nur Anweisungen, die auf numerische Weise codiert sind, normalerweise als Bin\u00e4rzahlen. Softwaretools wie Compiler \u00fcbersetzen diese Hochsprachen in Anweisungen, die der Prozessor verstehen kann.Neben Anweisungen definiert der ISA Elemente im Computer, die einem Programm zur Verf\u00fcgung stehen, z. B. Datentypen, Register, Adressierungsmodi und Speicher. Anweisungen suchen diese verf\u00fcgbaren Elemente mit Registerindizes (oder Namen) und Speicheradressierungsmodi.Die ISA eines Computers wird normalerweise in einer kleinen Bedienungsanleitung beschrieben, in der beschrieben wird, wie die Anweisungen codiert werden. Es kann auch kurze (vage) mnemonische Namen f\u00fcr die Anweisungen definieren. Die Namen k\u00f6nnen von einem Softwareentwicklungstool namens Assembler erkannt werden. Ein Assembler ist ein Computerprogramm, das eine f\u00fcr Menschen lesbare Form der ISA in eine f\u00fcr Computer lesbare Form \u00fcbersetzt. Disassembler sind ebenfalls weit verbreitet, normalerweise in Debuggern und Softwareprogrammen, um Fehlfunktionen in bin\u00e4ren Computerprogrammen zu isolieren und zu korrigieren.ISAs unterscheiden sich in Qualit\u00e4t und Vollst\u00e4ndigkeit. Ein guter ISA geht Kompromisse zwischen dem Komfort des Programmierers (wie einfach der Code zu verstehen ist), der Gr\u00f6\u00dfe des Codes (wie viel Code f\u00fcr eine bestimmte Aktion erforderlich ist) und den Kosten des Computers f\u00fcr die Interpretation der Anweisungen ein (mehr Komplexit\u00e4t bedeutet mehr Hardware) Dekodieren und Ausf\u00fchren der Anweisungen) und Geschwindigkeit des Computers (bei komplexerer Dekodierungshardware dauert die Dekodierungszeit l\u00e4nger). Die Speicherorganisation definiert, wie Anweisungen mit dem Speicher interagieren und wie der Speicher mit sich selbst interagiert.W\u00e4hrend der Entwurfsemulation k\u00f6nnen Emulatoren Programme ausf\u00fchren, die in einem vorgeschlagenen Befehlssatz geschrieben sind. Moderne Emulatoren k\u00f6nnen Gr\u00f6\u00dfe, Kosten und Geschwindigkeit messen, um festzustellen, ob eine bestimmte ISA ihre Ziele erreicht.Computerorganisation[edit]Die Computerorganisation hilft bei der Optimierung leistungsbasierter Produkte. Zum Beispiel m\u00fcssen Softwareentwickler die Verarbeitungsleistung von Prozessoren kennen. M\u00f6glicherweise m\u00fcssen sie die Software optimieren, um die h\u00f6chste Leistung zum niedrigsten Preis zu erzielen. Dies kann eine recht detaillierte Analyse der Computerorganisation erfordern. Beispielsweise m\u00fcssen die Designer bei einer SD-Karte die Karte m\u00f6glicherweise so anordnen, dass die meisten Daten auf schnellstm\u00f6gliche Weise verarbeitet werden k\u00f6nnen.Die Computerorganisation hilft auch bei der Planung der Auswahl eines Prozessors f\u00fcr ein bestimmtes Projekt. Multimedia-Projekte ben\u00f6tigen m\u00f6glicherweise einen sehr schnellen Datenzugriff, w\u00e4hrend virtuelle Maschinen schnelle Interrupts ben\u00f6tigen. Manchmal ben\u00f6tigen bestimmte Aufgaben auch zus\u00e4tzliche Komponenten. Beispielsweise ben\u00f6tigt ein Computer, auf dem eine virtuelle Maschine ausgef\u00fchrt werden kann, virtuelle Speicherhardware, damit der Speicher verschiedener virtueller Computer getrennt gehalten werden kann. Die Organisation und Funktionen des Computers wirken sich auch auf den Stromverbrauch und die Prozessorkosten aus.Implementierung[edit]Sobald ein Befehlssatz und eine Mikroarchitektur entworfen wurden, muss eine praktische Maschine entwickelt werden. Dieser Entwurfsprozess wird als bezeichnet Implementierung. Die Implementierung wird normalerweise nicht als architektonisches Design betrachtet, sondern als Hardware-Design-Engineering. Die Implementierung kann weiter in mehrere Schritte unterteilt werden:Logikimplementierung entwirft die erforderlichen Schaltungen auf Logikgatterebene.Schaltungsimplementierung Entw\u00fcrfe auf Transistorebene von Grundelementen (z. B. Gattern, Multiplexern, Latches) sowie von einigen gr\u00f6\u00dferen Bl\u00f6cken (ALUs, Caches usw.), die auf der Ebene des Logikgatters oder sogar auf der physikalischen Ebene implementiert werden k\u00f6nnen, wenn die Design verlangt danach.Physische Implementierung zeichnet physikalische Schaltkreise. Die verschiedenen Schaltungskomponenten werden in einem Chip-Grundriss oder auf einer Platine platziert und die sie verbindenden Dr\u00e4hte werden erstellt.Entwurfsvalidierung Testet den Computer als Ganzes, um festzustellen, ob er in allen Situationen und zu allen Zeiten funktioniert. Sobald der Entwurfsvalidierungsprozess beginnt, wird der Entwurf auf Logikebene unter Verwendung von Logikemulatoren getestet. Dies ist jedoch normalerweise zu langsam, um einen realistischen Test durchzuf\u00fchren. Nach Korrekturen basierend auf dem ersten Test werden Prototypen mithilfe von FPGAs (Field-Programmable Gate-Arrays) erstellt. Die meisten Hobbyprojekte h\u00f6ren zu diesem Zeitpunkt auf. Der letzte Schritt besteht darin, integrierte Prototypschaltungen zu testen, f\u00fcr die m\u00f6glicherweise mehrere Neukonstruktionen erforderlich sind.Bei CPUs ist der gesamte Implementierungsprozess unterschiedlich organisiert und wird h\u00e4ufig als CPU-Design bezeichnet.Designziele[edit]Die genaue Form eines Computersystems h\u00e4ngt von den Einschr\u00e4nkungen und Zielen ab. Computerarchitekturen tauschen normalerweise Standards, Leistung gegen Leistung, Kosten, Speicherkapazit\u00e4t, Latenz (Latenz ist die Zeit, die Informationen von einem Knoten ben\u00f6tigen, um zur Quelle zu gelangen) und Durchsatz ab. Manchmal sind auch andere \u00dcberlegungen wie Merkmale, Gr\u00f6\u00dfe, Gewicht, Zuverl\u00e4ssigkeit und Erweiterbarkeit Faktoren.Das gebr\u00e4uchlichste Schema f\u00fchrt eine eingehende Leistungsanalyse durch und ermittelt, wie der Stromverbrauch niedrig gehalten werden kann, w\u00e4hrend eine angemessene Leistung aufrechterhalten wird.Performance[edit]Die moderne Computerleistung wird h\u00e4ufig in Anweisungen pro Zyklus (IPC) beschrieben, die die Effizienz der Architektur bei jeder Taktfrequenz messen. Eine schnellere IPC-Rate bedeutet, dass der Computer schneller ist. \u00c4ltere Computer hatten IPC-Zahlen von nur 0,1, w\u00e4hrend moderne Prozessoren leicht nahe 1 erreichen. Superskalare Prozessoren k\u00f6nnen drei bis f\u00fcnf IPC erreichen, indem sie mehrere Befehle pro Taktzyklus ausf\u00fchren.[citation needed]Das Z\u00e4hlen von maschinensprachlichen Anweisungen w\u00e4re irref\u00fchrend, da sie in verschiedenen ISAs unterschiedlich viel Arbeit leisten k\u00f6nnen. Die “Anweisung” in den Standardmessungen ist keine Z\u00e4hlung der maschinensprachlichen Anweisungen der ISA, sondern eine Ma\u00dfeinheit, die normalerweise auf der Geschwindigkeit der VAX-Computerarchitektur basiert.Viele Leute haben die Geschwindigkeit eines Computers an der Taktrate gemessen (normalerweise in MHz oder GHz). Dies bezieht sich auf die Zyklen pro Sekunde des Haupttakts der CPU. Diese Metrik ist jedoch etwas irref\u00fchrend, da eine Maschine mit einer h\u00f6heren Taktrate m\u00f6glicherweise nicht unbedingt eine h\u00f6here Leistung aufweist. Infolgedessen haben sich die Hersteller als Ma\u00df f\u00fcr die Leistung von der Taktrate entfernt.Andere Faktoren beeinflussen die Geschwindigkeit, wie z. B. die Mischung aus Funktionseinheiten, Busgeschwindigkeiten, verf\u00fcgbarem Speicher sowie Art und Reihenfolge der Anweisungen in den Programmen.Es gibt zwei Haupttypen von Geschwindigkeit: Latenz und Durchsatz. Die Latenz ist die Zeit zwischen dem Start eines Prozesses und seinem Abschluss. Der Durchsatz ist der Arbeitsaufwand pro Zeiteinheit. Die Interrupt-Latenz ist die garantierte maximale Reaktionszeit des Systems auf ein elektronisches Ereignis (z. B. wenn das Festplattenlaufwerk einige Daten nicht mehr verschiebt).Die Leistung wird durch eine Vielzahl von Entwurfsoptionen beeinflusst. Beispielsweise verschlechtert das Pipelining eines Prozessors normalerweise die Latenz, verbessert jedoch den Durchsatz. Computer, die Maschinen steuern, ben\u00f6tigen normalerweise geringe Interrupt-Latenzen. Diese Computer arbeiten in einer Echtzeitumgebung und schlagen fehl, wenn ein Vorgang nicht in einer bestimmten Zeit abgeschlossen wird. Beispielsweise m\u00fcssen computergesteuerte Antiblockierbremsen innerhalb eines vorhersehbaren und begrenzten Zeitraums nach dem Erkennen des Bremspedals mit dem Bremsen beginnen, da sonst die Bremse ausf\u00e4llt.Das Benchmarking ber\u00fccksichtigt all diese Faktoren, indem es die Zeit misst, die ein Computer ben\u00f6tigt, um eine Reihe von Testprogrammen auszuf\u00fchren. Obwohl Benchmarking St\u00e4rken zeigt, sollte es nicht so sein, wie Sie einen Computer ausw\u00e4hlen. Oft teilen sich die gemessenen Maschinen nach verschiedenen Ma\u00dfen auf. Beispielsweise kann ein System wissenschaftliche Anwendungen schnell verarbeiten, w\u00e4hrend ein anderes Videospiele reibungsloser wiedergibt. Dar\u00fcber hinaus k\u00f6nnen Designer ihre Produkte durch Hardware oder Software gezielt einsetzen und ihnen spezielle Funktionen hinzuf\u00fcgen, die eine schnelle Ausf\u00fchrung eines bestimmten Benchmarks erm\u00f6glichen, jedoch keine \u00e4hnlichen Vorteile wie allgemeine Aufgaben bieten.Energie-Effizienz[edit]Die Energieeffizienz ist eine weitere wichtige Messung in modernen Computern. Eine h\u00f6here Energieeffizienz kann oft gegen niedrigere Geschwindigkeit oder h\u00f6here Kosten eingetauscht werden. Die typische Messung in Bezug auf den Stromverbrauch in der Computerarchitektur ist MIPS \/ W (Millionen von Anweisungen pro Sekunde pro Watt).Moderne Schaltungen ben\u00f6tigen weniger Energie pro Transistor, wenn die Anzahl der Transistoren pro Chip zunimmt.[18] Dies liegt daran, dass jeder Transistor, der in einen neuen Chip eingesetzt wird, eine eigene Stromversorgung ben\u00f6tigt und neue Wege zur Stromversorgung ben\u00f6tigt werden. Die Anzahl der Transistoren pro Chip beginnt jedoch langsamer zuzunehmen. Daher wird die Energieeffizienz immer wichtiger, wenn nicht sogar wichtiger als der Einbau von immer mehr Transistoren in einen einzelnen Chip. Neuere Prozessorkonstruktionen haben diesen Schwerpunkt gezeigt, da sie sich mehr auf die Energieeffizienz konzentrieren, als so viele Transistoren wie m\u00f6glich in einen einzelnen Chip zu packen.[19] In der Welt der eingebetteten Computer ist die Energieeffizienz neben Durchsatz und Latenz seit langem ein wichtiges Ziel.Verschiebungen in der Marktnachfrage[edit]Der Anstieg der Taktfrequenz ist in den letzten Jahren im Vergleich zu Verbesserungen bei der Leistungsreduzierung langsamer gewachsen. Dies wurde durch das Ende des Moore’schen Gesetzes und die Forderung nach einer l\u00e4ngeren Akkulaufzeit und einer Verringerung der Gr\u00f6\u00dfe f\u00fcr mobile Technologien vorangetrieben. Diese \u00c4nderung des Fokus von h\u00f6heren Taktraten auf Stromverbrauch und Miniaturisierung kann durch die signifikante Reduzierung des Stromverbrauchs um bis zu 50% gezeigt werden, die Intel bei der Ver\u00f6ffentlichung der Haswell-Mikroarchitektur gemeldet hat. Dort senkten sie ihren Stromverbrauchs-Benchmark von 30 auf 40 Watt auf 10 bis 20 Watt.[20] Vergleicht man dies mit der Erh\u00f6hung der Verarbeitungsgeschwindigkeit von 3 GHz auf 4 GHz (2002 bis 2006)[21] Es ist ersichtlich, dass sich der Fokus in Forschung und Entwicklung von der Taktfrequenz wegbewegt und dazu f\u00fchrt, weniger Strom zu verbrauchen und weniger Platz zu beanspruchen.Siehe auch[edit]Verweise[edit]^ Clements, Alan. Prinzipien der Computerhardware (Vierte Ausgabe). p. 1. Architektur beschreibt die interne Organisation eines Computers auf abstrakte Weise; Das hei\u00dft, es definiert die F\u00e4higkeiten des Computers und seines Programmiermodells. Sie k\u00f6nnen zwei Computer haben, die auf unterschiedliche Weise mit unterschiedlichen Technologien, aber mit derselben Architektur konstruiert wurden.^ Hennessy, John; Patterson, David. Computerarchitektur: Ein quantitativer Ansatz (F\u00fcnfte Ausgabe). p. 11. Diese Aufgabe hat viele Aspekte, einschlie\u00dflich Befehlssatzdesign, funktionale Organisation, Logikdesign und Implementierung.^ Williams, FC; Kilburn, T. (25. September 1948), “Elektronische digitale Computer”, Natur, 162 (4117): 487, Bibcode:1948Natur.162..487W, doi:10.1038 \/ 162487a0, S2CID 4110351, archiviert von das Original am 6. April 2009abgerufen 2009-04-10^ Susanne Faber, “Konrad Zuses Bemuehungen um die Patentanmeldung der Z3”, 2000^ Neumann, John (1945). Erster Entwurf eines Berichts \u00fcber die EDVAC. p. 9.^ Wiedergabe in BJ Copeland (Hrsg.), “Alan Turings Automatic Computing Engine”, Oxford University Press, 2005, S. 369-454.^ Johnson, Lyle (1960). “Eine Beschreibung der Dehnung” (PDF). p. 1. Abgerufen 7. Oktober 2017.^ Buchholz, Werner (1962). Planen eines Computersystems. p. 5.^ “System 360, von Computern zu Computersystemen”. IBM100. Abgerufen 11. Mai 2017.^ Hellige, Hans Dieter (2004). “Die Genese von Wissenschaftskonzeptionen der Computerarchitektur: Vom” Organsystem “zum Schichtmodell des Designraums”. Geschichten der Informatik: Visionen, Paradigmen, Leitmotive. S. 411\u2013472.^ ACE unterzog sich in einem Jahr sieben Papierentw\u00fcrfen, bevor 1948 ein Prototyp initiiert wurde. [B. J. Copeland (Ed.), “Alan Turing’s Automatic Computing Engine”, OUP, 2005, p. 57]^ Schmalz, MS “Organisation von Computersystemen”. UF CISE. Abgerufen 11. Mai 2017.^ ein b John L. Hennessy und David A. Patterson. Computerarchitektur: Ein quantitativer Ansatz (Dritte Ausgabe). Morgan Kaufmann Verlag.^ Laplante, Phillip A. (2001). W\u00f6rterbuch der Informatik, Ingenieurwissenschaften und Technologie. CRC Dr\u00fccken Sie. S. 94\u201395. ISBN 0-8493-2691-5.^ Frey, Brad (24.02.2005). “PowerPC Architecture Book, Version 2.02”. IBM Corporation.^ Null, Linda (2019). Die Grundlagen der Computerorganisation und -architektur (5. Aufl.). Burlington, MA: Jones & Bartlett lernen. p. 280. ISBN 9781284123036.^ Martin, Milo. “Was ist Computerarchitektur?” (PDF). UPENN. Abgerufen 11. Mai 2017.^ “Integrierte Schaltungen und Herstellung” (PDF). Abgerufen 8. Mai 2017.^ “Exynos 9 Series (8895)”. Samsung. Abgerufen 8. Mai 2017.^ “Messen der Prozessorleistung TDP gegen ACP” (PDF). Intel. April 2011. Abgerufen 5. Mai 2017.^ “Geschichte der Prozessorleistung” (PDF). cs.columbia.edu. 24. April 2012. Abgerufen 5. Mai 2017.Quellen[edit]John L. Hennessy und David Patterson (2006). Computerarchitektur: Ein quantitativer Ansatz (Vierte Ausgabe). Morgan Kaufmann. ISBN 978-0-12-370490-0.Barton, Robert S., “Functional Design of Computers”, Mitteilungen der ACM 4 (9): 405 (1961).Barton, Robert S., “Ein neuer Ansatz f\u00fcr das funktionale Design eines digitalen Computers”, Tagungsband der Western Joint Computer ConferenceMai 1961, S. 393\u2013396. \u00dcber das Design des Burroughs B5000-Computers.Bell, C. Gordon; und Newell, Allen (1971). “Computerstrukturen: Lesungen und Beispiele”, McGraw-Hill.Blaauw, GA, und Brooks, FP, Jr., “Die Struktur von System \/ 360, Teil I – \u00dcberblick \u00fcber die logische Struktur”, IBM Systems Journalvol. 3, nein. 2, S. 119\u2013135, 1964.Tanenbaum, Andrew S. (1979). Strukturierte Computerorganisation. Englewood Cliffs, New Jersey: Prentice-Hall. ISBN 0-13-148521-0.Externe Links[edit] (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4"},{"@context":"http:\/\/schema.org\/","@type":"BreadcrumbList","itemListElement":[{"@type":"ListItem","position":1,"item":{"@id":"https:\/\/wiki.edu.vn\/wiki21\/#breadcrumbitem","name":"Enzyklop\u00e4die"}},{"@type":"ListItem","position":2,"item":{"@id":"https:\/\/wiki.edu.vn\/wiki21\/2020\/12\/30\/computerarchitektur-wikipedia\/#breadcrumbitem","name":"Computerarchitektur – Wikipedia"}}]}]