[{"@context":"http:\/\/schema.org\/","@type":"BlogPosting","@id":"https:\/\/wiki.edu.vn\/wiki16\/2021\/01\/27\/digitale-elektronik-wikipedia\/#BlogPosting","mainEntityOfPage":"https:\/\/wiki.edu.vn\/wiki16\/2021\/01\/27\/digitale-elektronik-wikipedia\/","headline":"Digitale Elektronik – Wikipedia","name":"Digitale Elektronik – Wikipedia","description":"before-content-x4 Elektronische Schaltungen, die digitale Signale verwenden Ein digitales Signal hat zwei oder mehr unterscheidbare Wellenformen, in diesem Beispiel Hochspannung","datePublished":"2021-01-27","dateModified":"2021-01-27","author":{"@type":"Person","@id":"https:\/\/wiki.edu.vn\/wiki16\/author\/lordneo\/#Person","name":"lordneo","url":"https:\/\/wiki.edu.vn\/wiki16\/author\/lordneo\/","image":{"@type":"ImageObject","@id":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","height":96,"width":96}},"publisher":{"@type":"Organization","name":"Enzyklop\u00e4die","logo":{"@type":"ImageObject","@id":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","url":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","width":600,"height":60}},"image":{"@type":"ImageObject","@id":"https:\/\/upload.wikimedia.org\/wikipedia\/commons\/thumb\/4\/47\/Imagen_4.png\/200px-Imagen_4.png","url":"https:\/\/upload.wikimedia.org\/wikipedia\/commons\/thumb\/4\/47\/Imagen_4.png\/200px-Imagen_4.png","height":"121","width":"200"},"url":"https:\/\/wiki.edu.vn\/wiki16\/2021\/01\/27\/digitale-elektronik-wikipedia\/","wordCount":13665,"articleBody":" (adsbygoogle = window.adsbygoogle || []).push({});before-content-x4Elektronische Schaltungen, die digitale Signale verwendenEin digitales Signal hat zwei oder mehr unterscheidbare Wellenformen, in diesem Beispiel Hochspannung und niedrige Spannungen, von denen jede auf eine Ziffer abgebildet werden kann. Digitale Elektronik ist ein Bereich der Elektronik, in dem digitale Signale untersucht und Ger\u00e4te entwickelt werden, die sie verwenden oder erzeugen. Dies steht im Gegensatz zu analoger Elektronik und analogen Signalen.Digitale elektronische Schaltungen bestehen normalerweise aus gro\u00dfen Baugruppen von Logikgattern, die h\u00e4ufig in integrierten Schaltungen verpackt sind. Komplexe Ger\u00e4te k\u00f6nnen einfache elektronische Darstellungen von Booleschen Logikfunktionen aufweisen.[1]Table of Contents Geschichte[edit]Digitale Revolution und digitales Zeitalter[edit]Eigenschaften[edit]Konstruktion[edit]Darstellung[edit]Synchrone Systeme[edit]Asynchrone Systeme[edit]Transfersysteme registrieren[edit]Computerdesign[edit]Rechnerarchitektur[edit]Designprobleme in digitalen Schaltkreisen[edit]Automatisierte Designtools[edit]Design f\u00fcr Testbarkeit[edit]Kompromisse[edit]Kosten[edit]Verl\u00e4sslichkeit[edit]Ausschw\u00e4rmen[edit]Geschwindigkeit[edit]Logikfamilien[edit]K\u00fcrzliche Entwicklungen[edit]Siehe auch[edit]Verweise[edit]Weiterf\u00fchrende Literatur[edit]Externe Links[edit]Geschichte[edit]Das Bin\u00e4rzahlensystem wurde von Gottfried Wilhelm Leibniz (ver\u00f6ffentlicht 1705) verfeinert und er stellte auch fest, dass durch die Verwendung des Bin\u00e4rsystems die Prinzipien der Arithmetik und Logik verbunden werden k\u00f6nnen. Die digitale Logik, wie wir sie kennen, war Mitte des 19. Jahrhunderts das Gehirnkind von George Boole. In einem Brief von 1886 beschrieb Charles Sanders Peirce, wie logische Operationen von elektrischen Schaltkreisen ausgef\u00fchrt werden k\u00f6nnten.[2] Schlie\u00dflich ersetzten Vakuumr\u00f6hren die Relais f\u00fcr logische Operationen. Lee De Forest’s Modifikation des Fleming-Ventils im Jahr 1907 kann als UND-Gatter verwendet werden. Ludwig Wittgenstein f\u00fchrte eine Version der 16-zeiligen Wahrheitstabelle als Satz 5.101 von ein Tractatus Logico-Philosophicus (1921). Walther Bothe, Erfinder der Zufallsschaltung, erhielt 1954 den Nobelpreis f\u00fcr Physik f\u00fcr das erste moderne elektronische UND-Gatter im Jahr 1924.Mechanische analoge Computer tauchten im ersten Jahrhundert auf und wurden sp\u00e4ter im Mittelalter f\u00fcr astronomische Berechnungen verwendet. Im Zweiten Weltkrieg wurden mechanische analoge Computer f\u00fcr spezielle milit\u00e4rische Anwendungen wie die Berechnung des Torpedoziels verwendet. In dieser Zeit wurden die ersten elektronischen Digitalcomputer entwickelt. Urspr\u00fcnglich hatten sie die Gr\u00f6\u00dfe eines gro\u00dfen Raums und verbrauchten so viel Strom wie mehrere hundert moderne PCs.[3]Der Z3 war ein elektromechanischer Computer, der von Konrad Zuse entworfen wurde. Es wurde 1941 fertiggestellt und war der weltweit erste funktionierende programmierbare vollautomatische Digitalcomputer.[4] Sein Betrieb wurde durch die Erfindung der Vakuumr\u00f6hre im Jahr 1904 durch John Ambrose Fleming erleichtert.Zur gleichen Zeit, als die digitale Berechnung analoge, rein elektronische Schaltungselemente ersetzte, ersetzten sie bald ihre mechanischen und elektromechanischen \u00c4quivalente. John Bardeen und Walter Brattain erfanden 1947 den Punktkontakttransistor bei Bell Labs, gefolgt von William Shockley, der 1948 den Bipolartransistor bei Bell Labs erfand.[5][6] An der Universit\u00e4t von Manchester entwarf und baute ein Team unter der Leitung von Tom Kilburn eine Maschine mit den neu entwickelten Transistoren anstelle von Vakuumr\u00f6hren.[7] Ihr erster Transistorcomputer und der erste der Welt waren 1953 in Betrieb, und eine zweite Version wurde dort im April 1955 fertiggestellt. Ab 1955 ersetzten Transistoren Vakuumr\u00f6hren in Computerdesigns, wodurch die “zweite Generation” von Computern entstand. Im Vergleich zu Vakuumr\u00f6hren waren Transistoren kleiner, zuverl\u00e4ssiger, hatten eine unbegrenzte Lebensdauer und ben\u00f6tigten weniger Strom als Vakuumr\u00f6hren. Dadurch wurde weniger W\u00e4rme abgegeben und es wurden viel dichtere Schaltkreiskonzentrationen von bis zu Zehntausenden auf relativ kompaktem Raum erm\u00f6glicht.W\u00e4hrend seiner Arbeit bei Texas Instruments im Juli 1958 zeichnete Jack Kilby seine ersten Ideen bez\u00fcglich der integrierten Schaltung (IC) auf und demonstrierte erfolgreich die erste integrierte Arbeit am 12. September 1958.[8] Kilbys Chip bestand aus Germanium. Im folgenden Jahr erfand Robert Noyce von Fairchild Semiconductor die integrierte Siliziumschaltung. Die Grundlage f\u00fcr Noyces Silizium-IC war der planare Prozess, der Anfang 1959 von Jean Hoerni entwickelt wurde, der seinerseits auf Mohamed Atallas 1957 entwickelter Siliziumoberfl\u00e4chenpassivierungsmethode aufbaute.[9] Diese neue Technik, die integrierte Schaltung, erm\u00f6glichte die schnelle und kosteng\u00fcnstige Herstellung komplexer Schaltungen, indem ein Satz elektronischer Schaltungen auf einer kleinen Platte (“Chip”) aus Halbleitermaterial, normalerweise Silizium, angeordnet war.Digitale Revolution und digitales Zeitalter[edit]Der Metalloxid-Halbleiter-Feldeffekttransistor (MOSFET), auch als MOS-Transistor bekannt, wurde 1959 von Mohamed Atalla und Dawon Kahng in den Bell Labs erfunden.[10][11][12] Zu den Vorteilen des MOSFET geh\u00f6ren eine hohe Skalierbarkeit,[13] Bezahlbarkeit,[14] geringer Stromverbrauch und hohe Transistordichte.[15] Seine schnelle elektronische Ein- und Ausschaltgeschwindigkeit macht es auch ideal f\u00fcr die Erzeugung von Impulsfolgen.[16] die Basis f\u00fcr elektronische digitale Signale,[17][18] im Gegensatz zu BJTs, die langsamer analoge Signale erzeugen, die Sinuswellen \u00e4hneln.[16] Zusammen mit der MOS-Large-Scale-Integration (LSI) machen diese Faktoren den MOSFET zu einem wichtigen Schaltger\u00e4t f\u00fcr digitale Schaltungen.[19] Der MOSFET revolutionierte die Elektronikindustrie,[20][21] und ist das am h\u00e4ufigsten verwendete Halbleiterbauelement.[11][22] MOSFETs sind die Grundbausteine \u200b\u200bder digitalen Elektronik w\u00e4hrend der digitalen Revolution des sp\u00e4ten 20. bis fr\u00fchen 21. Jahrhunderts.[12][23][24] Dies ebnete den Weg f\u00fcr das digitale Zeitalter des fr\u00fchen 21. Jahrhunderts.[12]In den fr\u00fchen Tagen der integrierten Schaltkreise war jeder Chip auf nur wenige Transistoren beschr\u00e4nkt, und der geringe Integrationsgrad bedeutete, dass der Entwurfsprozess relativ einfach war. Auch die Produktionsausbeuten waren f\u00fcr heutige Verh\u00e4ltnisse recht niedrig. Die breite Akzeptanz des MOSFET-Transistors in den fr\u00fchen 1970er Jahren f\u00fchrte zu den ersten LSI-Chips (Large Scale Integration) mit mehr als 10.000 Transistoren auf einem einzigen Chip.[25] Nach der weit verbreiteten Einf\u00fchrung von CMOS, einer Art MOSFET-Logik, konnten in den 1980er Jahren mit fortschreitender Technologie Millionen und dann Milliarden von MOSFETs auf einem Chip platziert werden.[26] Gute Entw\u00fcrfe erforderten eine gr\u00fcndliche Planung, was zu neuen Entwurfsmethoden f\u00fchrte. Die Anzahl der Transistoren sowohl einzelner Ger\u00e4te als auch der Gesamtproduktion stieg auf beispiellose H\u00f6hen. Die Gesamtmenge der bis 2018 produzierten Transistoren wurde auf sch\u00e4tzungsweise gesch\u00e4tzt 1.3\u00d71022 (13 Sextillion).[27]Die drahtlose Revolution, die Einf\u00fchrung und Verbreitung von drahtlosen Netzwerken, begann in den 1990er Jahren und wurde durch die breite Einf\u00fchrung von MOSFET-basierten HF-Leistungsverst\u00e4rkern (Leistungs-MOSFET und LDMOS) und HF-Schaltungen (RF-CMOS) erm\u00f6glicht.[28][29][30] Drahtlose Netzwerke erm\u00f6glichten die \u00f6ffentliche digitale \u00dcbertragung ohne Kabel, was in den 1990er bis 2000er Jahren zu digitalem Fernsehen (digitales Fernsehen), GPS, Satellitenradio, drahtlosem Internet und Mobiltelefonen f\u00fchrte.Diskrete Cosinustransformation (DCT), eine Datenkomprimierungstechnik, die erstmals 1972 von Nasir Ahmed vorgeschlagen wurde.[31] erm\u00f6glichte praktische digitale Medien\u00fcbertragung,[32][33][34] mit Bildkomprimierungsformaten wie JPEG (1992), Videokodierungsformaten wie H.26x (ab 1988) und MPEG (ab 1993);[35]Audiokodierungsstandards wie Dolby Digital (1991)[36][37] und MP3 (1994),[35] und digitale TV-Standards wie Video-on-Demand (VOD)[32] und HD-Fernsehen (HDTV).[38]Das Internetvideo wurde von YouTube popul\u00e4r gemacht, einer Online-Videoplattform, die 2005 von Chad Hurley, Jawed Karim und Steve Chen gegr\u00fcndet wurde und das Video-Streaming von benutzergenerierten MPEG-4 AVC (H.264) -Inhalten von \u00fcberall im World Wide Web erm\u00f6glichte .[39]Eigenschaften[edit]Ein Vorteil digitaler Schaltungen gegen\u00fcber analogen Schaltungen besteht darin, dass digital dargestellte Signale ohne durch Rauschen verursachte Verschlechterung \u00fcbertragen werden k\u00f6nnen.[40] Beispielsweise kann ein kontinuierliches Audiosignal, das als Folge von Einsen und Nullen \u00fcbertragen wird, fehlerfrei rekonstruiert werden, vorausgesetzt, das bei der \u00dcbertragung aufgenommene Rauschen reicht nicht aus, um die Identifizierung der Einsen und Nullen zu verhindern.In einem digitalen System kann eine genauere Darstellung eines Signals erhalten werden, indem mehr Bin\u00e4rziffern verwendet werden, um es darzustellen. W\u00e4hrend dies mehr digitale Schaltungen erfordert, um die Signale zu verarbeiten, wird jede Ziffer von derselben Art von Hardware verarbeitet, was zu einem leicht skalierbaren System f\u00fchrt. In einem analogen System erfordert eine zus\u00e4tzliche Aufl\u00f6sung grundlegende Verbesserungen der Linearit\u00e4t und der Rauschcharakteristik jedes Schritts der Signalkette.Mit computergesteuerten digitalen Systemen m\u00fcssen neue Funktionen durch Software-Revision und ohne Hardware-\u00c4nderungen hinzugef\u00fcgt werden. Dies kann h\u00e4ufig au\u00dferhalb des Werks durch Aktualisierung der Produktsoftware erfolgen. So k\u00f6nnen die Designfehler des Produkts korrigiert werden, nachdem das Produkt in den H\u00e4nden eines Kunden liegt.Die Speicherung von Informationen kann in digitalen Systemen einfacher sein als in analogen. Die St\u00f6rfestigkeit digitaler Systeme erm\u00f6glicht das Speichern und Abrufen von Daten ohne Verschlechterung. In einem analogen System verschlechtern Alterungs- und Verschlei\u00dfger\u00e4usche die gespeicherten Informationen. In einem digitalen System k\u00f6nnen die Informationen perfekt wiederhergestellt werden, solange das Gesamtrauschen unter einem bestimmten Wert liegt. Selbst wenn ein st\u00e4rkeres Rauschen vorliegt, erm\u00f6glicht die Verwendung von Redundanz die Wiederherstellung der Originaldaten, sofern nicht zu viele Fehler auftreten.In einigen F\u00e4llen verbrauchen digitale Schaltkreise mehr Energie als analoge Schaltkreise, um dieselben Aufgaben zu erf\u00fcllen, wodurch mehr W\u00e4rme erzeugt wird, was die Komplexit\u00e4t der Schaltkreise erh\u00f6ht, beispielsweise die Einbeziehung von K\u00fchlk\u00f6rpern. In tragbaren oder batteriebetriebenen Systemen kann dies die Verwendung digitaler Systeme einschr\u00e4nken. Beispielsweise verwenden batteriebetriebene Mobiltelefone h\u00e4ufig ein analoges Front-End mit geringem Stromverbrauch, um die Funksignale von der Basisstation zu verst\u00e4rken und abzustimmen. Eine Basisstation verf\u00fcgt jedoch \u00fcber Netzstrom und kann stromhungrige, aber sehr flexible Software-Funkger\u00e4te verwenden. Solche Basisstationen k\u00f6nnen leicht neu programmiert werden, um die in neuen Mobilfunkstandards verwendeten Signale zu verarbeiten.Viele n\u00fctzliche digitale Systeme m\u00fcssen von kontinuierlichen analogen Signalen in diskrete digitale Signale \u00fcbersetzt werden. Dies f\u00fchrt zu Quantisierungsfehlern. Der Quantisierungsfehler kann reduziert werden, wenn das System gen\u00fcgend digitale Daten speichert, um das Signal mit dem gew\u00fcnschten Genauigkeitsgrad darzustellen. Das Nyquist-Shannon-Abtasttheorem liefert eine wichtige Richtlinie dar\u00fcber, wie viele digitale Daten ben\u00f6tigt werden, um ein bestimmtes analoges Signal genau darzustellen.In einigen Systemen kann sich die Bedeutung gro\u00dfer Bl\u00f6cke verwandter Daten vollst\u00e4ndig \u00e4ndern, wenn ein einzelnes digitales Datenelement verloren geht oder falsch interpretiert wird. Beispielsweise verursacht ein Einzelbitfehler in Audiodaten, die direkt als lineare Pulscodemodulation gespeichert sind, im schlimmsten Fall einen einzelnen Klick. Stattdessen verwenden viele Benutzer die Audiokomprimierung, um Speicherplatz und Downloadzeit zu sparen, obwohl ein einzelner Bitfehler zu einer gr\u00f6\u00dferen St\u00f6rung f\u00fchren kann.Aufgrund des Klippeneffekts kann es f\u00fcr Benutzer schwierig sein zu erkennen, ob ein bestimmtes System am Rande eines Ausfalls steht oder ob es vor einem Ausfall viel mehr Rauschen tolerieren kann. Die digitale Fragilit\u00e4t kann verringert werden, indem ein digitales System auf Robustheit ausgelegt wird. Beispielsweise kann ein Parit\u00e4tsbit oder eine andere Fehlerverwaltungsmethode in den Signalpfad eingef\u00fcgt werden. Diese Schemata helfen dem System, Fehler zu erkennen und diese dann entweder zu korrigieren oder eine erneute \u00dcbertragung der Daten anzufordern.Konstruktion[edit] Eine digitale Schaltung besteht typischerweise aus kleinen elektronischen Schaltungen, die als Logikgatter bezeichnet werden und zur Erzeugung einer kombinatorischen Logik verwendet werden k\u00f6nnen. Jedes Logikgatter ist so ausgelegt, dass es eine Funktion der Booleschen Logik ausf\u00fchrt, wenn es auf Logiksignale einwirkt. Ein Logikgatter wird im Allgemeinen aus einem oder mehreren elektrisch gesteuerten Schaltern erzeugt, \u00fcblicherweise Transistoren, aber thermionische Ventile haben in der Vergangenheit Verwendung gefunden. Der Ausgang eines Logikgatters kann wiederum mehr Logikgatter steuern oder in diese einspeisen.Eine andere Form der digitalen Schaltung besteht aus Nachschlagetabellen (viele werden als “programmierbare Logikger\u00e4te” verkauft, obwohl andere Arten von PLDs existieren). Nachschlagetabellen k\u00f6nnen dieselben Funktionen wie Maschinen ausf\u00fchren, die auf Logikgattern basieren, k\u00f6nnen jedoch leicht neu programmiert werden, ohne die Verkabelung zu \u00e4ndern. Dies bedeutet, dass ein Konstrukteur h\u00e4ufig Konstruktionsfehler reparieren kann, ohne die Anordnung der Dr\u00e4hte zu \u00e4ndern. Daher sind bei Produkten mit geringem Volumen programmierbare Logikbausteine \u200b\u200bh\u00e4ufig die bevorzugte L\u00f6sung. Sie werden normalerweise von Ingenieuren unter Verwendung elektronischer Konstruktionsautomatisierungssoftware entworfen.Integrierte Schaltungen bestehen aus mehreren Transistoren auf einem Siliziumchip und sind der kosteng\u00fcnstigste Weg, um eine gro\u00dfe Anzahl miteinander verbundener Logikgatter herzustellen. Integrierte Schaltkreise sind normalerweise auf einer Leiterplatte miteinander verbunden, die elektrische Komponenten enth\u00e4lt und diese mit Kupferspuren miteinander verbindet.Ingenieure verwenden viele Methoden, um die Logikredundanz zu minimieren, um die Schaltungskomplexit\u00e4t zu verringern. Eine reduzierte Komplexit\u00e4t reduziert die Anzahl der Komponenten und potenzielle Fehler und reduziert daher typischerweise die Kosten. Die logische Redundanz kann durch verschiedene bekannte Techniken wie bin\u00e4re Entscheidungsdiagramme, Boolesche Algebra, Karnaugh-Karten, den Quine-McCluskey-Algorithmus und die heuristische Computermethode beseitigt werden. Diese Operationen werden typischerweise in einem computergest\u00fctzten Entwurfssystem ausgef\u00fchrt.Eingebettete Systeme mit Mikrocontrollern und speicherprogrammierbaren Steuerungen werden h\u00e4ufig verwendet, um digitale Logik f\u00fcr komplexe Systeme zu implementieren, die keine optimale Leistung erfordern. Diese Systeme werden normalerweise von Softwareentwicklern oder Elektrikern mithilfe der Kontaktplanlogik programmiert.Darstellung[edit]Darstellungen sind entscheidend f\u00fcr das Design digitaler Schaltungen durch einen Ingenieur. Bei der Auswahl von Darstellungen ber\u00fccksichtigen Ingenieure Typen digitaler Systeme.Die klassische Art, eine digitale Schaltung darzustellen, besteht in einem \u00e4quivalenten Satz von Logikgattern. Jedes Logiksymbol wird durch eine andere Form dargestellt. Der eigentliche Satz von Formen wurde 1984 unter dem IEEE \/ ANSI-Standard 91-1984 eingef\u00fchrt und wird heute von Herstellern integrierter Schaltkreise allgemein verwendet.[41] Eine andere M\u00f6glichkeit besteht darin, ein \u00e4quivalentes System elektronischer Schalter (normalerweise Transistoren) aufzubauen. Dies kann als Wahrheitstabelle dargestellt werden.Die meisten digitalen Systeme unterteilen sich in kombinatorische und sequentielle Systeme. Ein kombinatorisches System liefert immer die gleiche Ausgabe, wenn die gleichen Eingaben gegeben werden. Ein sequentielles System ist ein kombinatorisches System, bei dem einige der Ausg\u00e4nge als Eing\u00e4nge zur\u00fcckgef\u00fchrt werden. Dadurch f\u00fchrt die digitale Maschine eine Leistung aus Reihenfolge von Operationen. Das einfachste sequentielle System ist wahrscheinlich ein Flip-Flop, ein Mechanismus, der eine Bin\u00e4rziffer oder ein “Bit” darstellt. Sequentielle Systeme werden h\u00e4ufig als Zustandsmaschinen ausgelegt. Auf diese Weise k\u00f6nnen Ingenieure das Bruttoverhalten eines Systems entwerfen und sogar in einer Simulation testen, ohne alle Details der Logikfunktionen zu ber\u00fccksichtigen.Sequentielle Systeme unterteilen sich in zwei weitere Unterkategorien. “Synchrone” sequentielle Systeme \u00e4ndern auf einmal ihren Zustand, wenn ein Taktsignal seinen Zustand \u00e4ndert. “Asynchrone” sequentielle Systeme geben \u00c4nderungen weiter, wenn sich Eingaben \u00e4ndern. Synchrone sequentielle Systeme bestehen aus gut charakterisierten asynchronen Schaltungen wie Flip-Flops, die sich nur \u00e4ndern, wenn sich der Takt \u00e4ndert, und die sorgf\u00e4ltig entworfene Zeitabst\u00e4nde haben.F\u00fcr die Logiksimulation haben digitale Schaltungsdarstellungen digitale Dateiformate, die von Computerprogrammen verarbeitet werden k\u00f6nnen.Synchrone Systeme[edit] Ein 4-Bit-Ringz\u00e4hler mit Flip-Flops vom Typ D ist ein Beispiel f\u00fcr synchrone Logik. Jedes Ger\u00e4t ist mit dem Taktsignal verbunden und wird gemeinsam aktualisiert.Der \u00fcbliche Weg, eine synchrone sequentielle Zustandsmaschine zu implementieren, besteht darin, sie in ein St\u00fcck kombinatorischer Logik und einen Satz von Flipflops zu unterteilen, die als a bezeichnet werden Staatsregister. Das Zustandsregister repr\u00e4sentiert den Zustand als Bin\u00e4rzahl. Die kombinatorische Logik erzeugt die bin\u00e4re Darstellung f\u00fcr den n\u00e4chsten Zustand. Bei jedem Taktzyklus erfasst das Zustandsregister die R\u00fcckkopplung, die aus dem vorherigen Zustand der Kombinationslogik erzeugt wurde, und gibt sie als unver\u00e4nderliche Eingabe an den Kombinationsteil der Zustandsmaschine zur\u00fcck. Die Taktrate wird durch die zeitaufw\u00e4ndigste Logikberechnung in der kombinatorischen Logik begrenzt.Asynchrone Systeme[edit]Die meiste digitale Logik ist synchron, da es einfacher ist, ein synchrones Design zu erstellen und zu \u00fcberpr\u00fcfen. Asynchrone Logik hat jedoch den Vorteil, dass ihre Geschwindigkeit nicht durch einen beliebigen Takt eingeschr\u00e4nkt wird. Stattdessen l\u00e4uft es mit der maximalen Geschwindigkeit seiner Logikgatter.[a] Der Aufbau eines asynchronen Systems mit schnelleren Teilen beschleunigt die Schaltung.Trotzdem m\u00fcssen die meisten Systeme externe nicht synchronisierte Signale in ihre synchronen Logikschaltungen aufnehmen. Diese Schnittstelle ist von Natur aus asynchron und muss als solche analysiert werden. Beispiele f\u00fcr weit verbreitete asynchrone Schaltungen umfassen Synchronisier-Flip-Flops, Switch-Debouncer und Arbiter.Asynchrone Logikkomponenten k\u00f6nnen schwierig zu entwerfen sein, da alle m\u00f6glichen Zust\u00e4nde in allen m\u00f6glichen Zeitabl\u00e4ufen ber\u00fccksichtigt werden m\u00fcssen. Die \u00fcbliche Methode besteht darin, eine Tabelle mit der minimalen und maximalen Zeit zu erstellen, in der jeder dieser Zust\u00e4nde existieren kann, und dann die Schaltung anzupassen, um die Anzahl solcher Zust\u00e4nde zu minimieren. Der Konstrukteur muss die Schaltung zwingen, regelm\u00e4\u00dfig darauf zu warten, dass alle ihre Teile in einen kompatiblen Zustand \u00fcbergehen (dies wird als “Selbst-Resynchronisation” bezeichnet). Ohne sorgf\u00e4ltiges Design ist es leicht, versehentlich eine asynchrone Logik zu erzeugen, die instabil ist, dh echte Elektronik f\u00fchrt aufgrund der kumulierten Verz\u00f6gerungen, die durch kleine Abweichungen der Werte der elektronischen Komponenten verursacht werden, zu unvorhersehbaren Ergebnissen.Transfersysteme registrieren[edit] Beispiel einer einfachen Schaltung mit einem Umschaltausgang. Der Wechselrichter bildet die Kombinationslogik in dieser Schaltung, und das Register h\u00e4lt den Zustand.Viele digitale Systeme sind Datenflussmaschinen. Diese werden normalerweise unter Verwendung einer synchronen Register\u00fcbertragungslogik unter Verwendung von Hardwarebeschreibungssprachen wie VHDL oder Verilog entworfen.In der Register\u00fcbertragungslogik werden Bin\u00e4rzahlen in Gruppen von Flipflops gespeichert, die als Register bezeichnet werden. Eine sequentielle Zustandsmaschine steuert, wann jedes Register neue Daten von seiner Eingabe akzeptiert. Die Ausg\u00e4nge jedes Registers sind ein B\u00fcndel von Dr\u00e4hten, die als a bezeichnet werden Bus das tr\u00e4gt diese Zahl zu anderen Berechnungen. Eine Berechnung ist einfach ein St\u00fcck kombinatorischer Logik. Jede Berechnung hat auch einen Ausgangsbus, und diese k\u00f6nnen mit den Eing\u00e4ngen mehrerer Register verbunden werden. Manchmal hat ein Register einen Multiplexer an seinem Eingang, so dass es eine Nummer von einem von mehreren Bussen speichern kann.[b]Asynchrone Register\u00fcbertragungssysteme (wie Computer) haben eine allgemeine L\u00f6sung. In den 1980er Jahren entdeckten einige Forscher, dass fast alle synchronen Register\u00fcbertragungsmaschinen mithilfe der First-In-First-Out-Synchronisationslogik in asynchrone Designs konvertiert werden konnten. In diesem Schema wird die digitale Maschine als ein Satz von Datenfl\u00fcssen charakterisiert. In jedem Schritt des Flusses bestimmt eine Synchronisationsschaltung, wann die Ausg\u00e4nge dieses Schritts g\u00fcltig sind, und weist die n\u00e4chste Stufe an, wann diese Ausg\u00e4nge verwendet werden sollen.[citation needed]Computerdesign[edit] Die allgemeinste Register\u00fcbertragungslogikmaschine ist ein Computer. Dies ist im Grunde ein automatischer bin\u00e4rer Abakus. Die Steuereinheit eines Computers ist normalerweise als Mikroprogramm ausgelegt, das von einem Mikrosequenzer ausgef\u00fchrt wird. Ein Mikroprogramm \u00e4hnelt einer Player-Piano-Rolle. Jeder Tabelleneintrag des Mikroprogramms befiehlt den Status jedes Bits, das den Computer steuert. Der Sequenzer z\u00e4hlt dann und der Z\u00e4hler adressiert den Speicher oder die kombinatorische Logikmaschine, die das Mikroprogramm enth\u00e4lt. Die Bits aus dem Mikroprogramm steuern die arithmetische Logikeinheit, den Speicher und andere Teile des Computers, einschlie\u00dflich des Mikrosequenzers selbst. Auf diese Weise wird die komplexe Aufgabe des Entwurfs der Steuerungen eines Computers auf eine einfachere Aufgabe des Programmierens einer Sammlung viel einfacherer Logikmaschinen reduziert.Fast alle Computer sind synchron. Es wurden jedoch auch zahlreiche echte asynchrone Computer gebaut. Ein Beispiel ist der Aspida DLX-Kern.[43] Ein weiterer wurde von ARM Holdings angeboten. Geschwindigkeitsvorteile sind nicht eingetreten, da moderne Computerdesigns bereits mit der Geschwindigkeit ihrer langsamsten Komponente, normalerweise des Speichers, ausgef\u00fchrt werden. Diese verbrauchen etwas weniger Strom, da kein Taktverteilungsnetz ben\u00f6tigt wird. Ein unerwarteter Vorteil besteht darin, dass asynchrone Computer kein spektral reines Funkrauschen erzeugen und daher in einigen Basisstationscontrollern von Mobiltelefonen verwendet werden. Sie k\u00f6nnen in kryptografischen Anwendungen sicherer sein, da ihre elektrischen und Funkemissionen schwieriger zu dekodieren sind.[44]Rechnerarchitektur[edit]Computerarchitektur ist eine spezialisierte technische Aktivit\u00e4t, die versucht, die Register, die Berechnungslogik, die Busse und andere Teile des Computers f\u00fcr einen bestimmten Zweck optimal anzuordnen. Computerarchitekten haben viel Einfallsreichtum in das Computerdesign gesteckt, um die Kosten zu senken und die Geschwindigkeit und Immunit\u00e4t gegen Programmierfehler von Computern zu erh\u00f6hen. Ein zunehmend h\u00e4ufiges Ziel ist es, den Stromverbrauch eines batteriebetriebenen Computersystems wie eines Mobiltelefons zu reduzieren. Viele Computerarchitekten absolvieren eine erweiterte Ausbildung zum Mikroprogrammierer.Designprobleme in digitalen Schaltkreisen[edit]Digitale Schaltungen bestehen aus analogen Komponenten. Das Design muss sicherstellen, dass die analoge Natur der Komponenten das gew\u00fcnschte digitale Verhalten nicht dominiert. Digitale Systeme m\u00fcssen Rausch- und Zeitabst\u00e4nde, parasit\u00e4re Induktivit\u00e4ten und Kapazit\u00e4ten sowie Filterstromanschl\u00fcsse verwalten.Schlechte Designs haben zeitweise Probleme wie “St\u00f6rungen”, verschwindend schnelle Impulse, die eine Logik ausl\u00f6sen k\u00f6nnen, andere jedoch nicht, “Runt-Impulse”, die keine g\u00fcltigen “Schwellen” -Spannungen erreichen, oder unerwartete (“nicht decodierte”) Kombinationen von Logikzust\u00e4nden.Wenn getaktete digitale Systeme mit analogen Systemen oder Systemen, die von einer anderen Uhr angesteuert werden, verbunden sind, kann das digitale System au\u00dferdem einer Metastabilit\u00e4t unterliegen, wenn eine \u00c4nderung des Eingangs die R\u00fcstzeit f\u00fcr einen digitalen Eingangs-Latch verletzt. Diese Situation l\u00f6st sich von selbst auf, dauert jedoch eine zuf\u00e4llige Zeit und kann, solange sie anh\u00e4lt, dazu f\u00fchren, dass ung\u00fcltige Signale f\u00fcr kurze Zeit im digitalen System \u00fcbertragen werden.Da digitale Schaltungen aus analogen Komponenten bestehen, berechnen digitale Schaltungen langsamer als analoge Schaltungen mit geringer Genauigkeit, die einen \u00e4hnlichen Platz- und Leistungsbedarf haben. Die digitale Schaltung berechnet jedoch aufgrund ihrer hohen St\u00f6rfestigkeit wiederholbarer. Andererseits ben\u00f6tigen analoge Schaltungen im hochpr\u00e4zisen Bereich (zum Beispiel wenn 14 oder mehr Genauigkeitsbits ben\u00f6tigt werden) viel mehr Leistung und Fl\u00e4che als digitale \u00c4quivalente.Automatisierte Designtools[edit]Um kostspieligen Engineering-Aufwand zu sparen, wurde ein Gro\u00dfteil des Aufwands f\u00fcr das Entwerfen gro\u00dfer Logikmaschinen automatisiert. Die Computerprogramme werden als “Electronic Design Automation Tools” oder einfach als “EDA” bezeichnet.Einfache Beschreibungen der Logik im Stil einer Wahrheitstabelle werden h\u00e4ufig mit EDA optimiert, das automatisch reduzierte Systeme von Logikgattern oder kleinere Nachschlagetabellen erzeugt, die immer noch die gew\u00fcnschten Ausgaben erzeugen. Das h\u00e4ufigste Beispiel f\u00fcr diese Art von Software ist der heuristische Logik-Minimierer von Espresso.Die meisten praktischen Algorithmen zur Optimierung gro\u00dfer Logiksysteme verwenden algebraische Manipulationen oder bin\u00e4re Entscheidungsdiagramme, und es gibt vielversprechende Experimente mit genetischen Algorithmen und Annealing-Optimierungen.Um kostspielige Engineering-Prozesse zu automatisieren, k\u00f6nnen einige EDA Zustandstabellen verwenden, die Zustandsmaschinen beschreiben, und automatisch eine Wahrheitstabelle oder eine Funktionstabelle f\u00fcr die Kombinationslogik einer Zustandsmaschine erstellen. Die Zustandstabelle ist ein Text, der jeden Zustand zusammen mit den Bedingungen auflistet, die die \u00dcberg\u00e4nge zwischen ihnen und den zugeh\u00f6rigen Ausgangssignalen steuern.Es ist \u00fcblich, dass die Funktionstabellen solcher computergenerierten Zustandsmaschinen mit einer Logikminimierungssoftware wie Minilog optimiert werden.Reale Logiksysteme werden h\u00e4ufig als eine Reihe von Teilprojekten entworfen, die mithilfe eines “Werkzeugflusses” kombiniert werden. Der Toolflow ist normalerweise ein “Skript”, eine vereinfachte Computersprache, mit der die Software-Design-Tools in der richtigen Reihenfolge aufgerufen werden k\u00f6nnen.Werkzeugfl\u00fcsse f\u00fcr gro\u00dfe Logiksysteme wie Mikroprozessoren k\u00f6nnen Tausende von Befehlen lang sein und die Arbeit von Hunderten von Ingenieuren kombinieren.Das Schreiben und Debuggen von Toolflows ist eine etablierte technische Spezialit\u00e4t in Unternehmen, die digitale Designs herstellen. Der Werkzeugfluss endet normalerweise in einer detaillierten Computerdatei oder einer Reihe von Dateien, die beschreiben, wie die Logik physisch erstellt wird. Oft besteht es aus Anweisungen zum Zeichnen der Transistoren und Dr\u00e4hte auf einer integrierten Schaltung oder einer Leiterplatte.Teile der Werkzeugfl\u00fcsse werden “debuggt”, indem die Ausgaben der simulierten Logik mit den erwarteten Eingaben verglichen werden. Die Testtools verwenden Computerdateien mit einer Reihe von Ein- und Ausg\u00e4ngen und zeigen Diskrepanzen zwischen dem simulierten Verhalten und dem erwarteten Verhalten auf.Sobald die Eingabedaten f\u00fcr korrekt gehalten werden, muss das Design selbst noch auf Richtigkeit \u00fcberpr\u00fcft werden. Einige Werkzeugfl\u00fcsse \u00fcberpr\u00fcfen Konstruktionen, indem sie zuerst eine Konstruktion erstellen und dann die Konstruktion scannen, um kompatible Eingabedaten f\u00fcr den Werkzeugfluss zu erstellen. Wenn die gescannten Daten mit den Eingabedaten \u00fcbereinstimmen, hat der Werkzeugfluss wahrscheinlich keine Fehler verursacht.Die Funktionsverifizierungsdaten werden \u00fcblicherweise als “Testvektoren” bezeichnet. Die Funktionstestvektoren k\u00f6nnen beibehalten und im Werk verwendet werden, um zu testen, ob die neu konstruierte Logik ordnungsgem\u00e4\u00df funktioniert. Funktionstestmuster entdecken jedoch keine h\u00e4ufigen Herstellungsfehler. Produktionstests werden h\u00e4ufig von Softwaretools entwickelt, die als “Testmustergeneratoren” bezeichnet werden. Diese erzeugen Testvektoren, indem sie die Struktur der Logik untersuchen und systematisch Tests f\u00fcr bestimmte Fehler erzeugen. Auf diese Weise kann sich die Fehlerabdeckung nahezu 100% n\u00e4hern, vorausgesetzt, das Design ist ordnungsgem\u00e4\u00df testbar (siehe n\u00e4chster Abschnitt).Sobald ein Design existiert und verifiziert und testbar ist, muss es h\u00e4ufig verarbeitet werden, um auch herstellbar zu sein. Moderne integrierte Schaltungen weisen Merkmale auf, die kleiner als die Wellenl\u00e4nge des Lichts sind, das zum Belichten des Fotolacks verwendet wird. Die Herstellbarkeitssoftware f\u00fcgt den Belichtungsmasken Interferenzmuster hinzu, um Unterbrechungen zu vermeiden und den Kontrast der Masken zu verbessern.Design f\u00fcr Testbarkeit[edit]Es gibt mehrere Gr\u00fcnde, eine Logikschaltung zu testen. Bei der ersten Entwicklung der Schaltung muss \u00fcberpr\u00fcft werden, ob die Entwurfsschaltung die erforderlichen Funktions- und Zeitspezifikationen erf\u00fcllt. Wenn mehrere Kopien einer korrekt entworfenen Schaltung hergestellt werden, ist es wichtig, jede Kopie zu testen, um sicherzustellen, dass der Herstellungsprozess keine Fehler verursacht hat.[45]Eine gro\u00dfe Logikmaschine (beispielsweise mit mehr als hundert logischen Variablen) kann eine astronomische Anzahl m\u00f6glicher Zust\u00e4nde aufweisen. Offensichtlich ist es in der Fabrik unpraktisch, jeden Zustand zu testen, wenn das Testen jedes Zustands eine Mikrosekunde dauert, und es gibt mehr Zust\u00e4nde als die Anzahl der Mikrosekunden seit Beginn des Universums. Dieser l\u00e4cherlich klingende Fall ist typisch.Gro\u00dfe Logikmaschinen sind fast immer als Baugruppen kleinerer Logikmaschinen ausgelegt. Um Zeit zu sparen, werden die kleineren Submaschinen durch fest installierte “Design for Test” -Schaltungen isoliert und unabh\u00e4ngig getestet.Ein \u00fcbliches Testschema, das als “Scan-Design” bekannt ist, bewegt Testbits seriell (nacheinander) von externen Testger\u00e4ten durch ein oder mehrere serielle Schieberegister, die als “Scan-Ketten” bekannt sind. Serielle Scans haben nur ein oder zwei Dr\u00e4hte, um die Daten zu \u00fcbertragen, und minimieren die physische Gr\u00f6\u00dfe und die Kosten der selten verwendeten Testlogik.Nachdem alle Testdatenbits vorhanden sind, wird das Design so konfiguriert, dass es sich im “normalen Modus” befindet, und es werden ein oder mehrere Taktimpulse angelegt, um auf Fehler zu pr\u00fcfen (z. B. auf “niedrig” oder “hoch”) und den Test zu erfassen f\u00fchren zu Flip-Flops und \/ oder Latches in den Scan-Schieberegistern. Schlie\u00dflich wird das Testergebnis an die Blockgrenze verschoben und mit dem vorhergesagten Ergebnis “gute Maschine” verglichen.In einer Board-Test-Umgebung wurden serielle bis parallele Tests mit einem Standard namens “JTAG” (benannt nach der “Joint Test Action Group”, die ihn erstellt hat) formalisiert.Ein anderes allgemeines Testschema stellt einen Testmodus bereit, der einen Teil der Logikmaschine zwingt, in einen “Testzyklus” einzutreten. Der Testzyklus \u00fcbt normalerweise gro\u00dfe unabh\u00e4ngige Teile der Maschine aus.Kompromisse[edit]Mehrere Zahlen bestimmen die Praktikabilit\u00e4t eines Systems digitaler Logik: Kosten, Zuverl\u00e4ssigkeit, Fanout und Geschwindigkeit. Ingenieure untersuchten zahlreiche elektronische Ger\u00e4te, um eine g\u00fcnstige Kombination dieser Pers\u00f6nlichkeiten zu erhalten.Kosten[edit]Die Kosten eines Logikgatters sind entscheidend, vor allem, weil sehr viele Gatter zum Aufbau eines Computers oder eines anderen fortschrittlichen digitalen Systems ben\u00f6tigt werden und weil die Maschine umso leistungsf\u00e4higer und \/ oder reaktionsf\u00e4higer werden kann, je mehr Gatter verwendet werden k\u00f6nnen. Da der Gro\u00dfteil eines digitalen Computers einfach ein miteinander verbundenes Netzwerk von Logikgattern ist, korrelieren die Gesamtkosten f\u00fcr den Bau eines Computers stark mit dem Preis pro Logikgatter. In den 1930er Jahren wurden die fr\u00fchesten digitalen Logiksysteme aus Telefonrelais konstruiert, da diese kosteng\u00fcnstig und relativ zuverl\u00e4ssig waren. Danach verwendeten die Elektrotechniker immer die billigsten verf\u00fcgbaren elektronischen Schalter, die die Anforderungen noch erf\u00fcllen konnten.Die fr\u00fchesten integrierten Schaltkreise waren ein gl\u00fccklicher Zufall. Sie wurden nicht konstruiert, um Geld zu sparen, sondern um Gewicht zu sparen und um dem Apollo Guidance Computer die Steuerung eines Tr\u00e4gheitsleitsystems f\u00fcr ein Raumschiff zu erm\u00f6glichen. Die ersten Logikgatter mit integrierter Schaltung kosteten fast 50 US-Dollar (1960, als ein Ingenieur 10.000 US-Dollar pro Jahr verdiente). Sehr zur \u00dcberraschung vieler Beteiligter waren die Schaltungen zu dem Zeitpunkt, als sie in Massenproduktion hergestellt wurden, die kosteng\u00fcnstigste Methode zum Aufbau digitaler Logik. Verbesserungen dieser Technologie haben zu allen nachfolgenden Kostenverbesserungen gef\u00fchrt.Mit dem Aufkommen integrierter Schaltkreise war die Reduzierung der absoluten Anzahl der verwendeten Chips ein weiterer Weg, um Kosten zu sparen. Das Ziel eines Designers ist nicht nur, die einfachste Schaltung zu erstellen, sondern auch den Countdown der Komponenten niedrig zu halten. Manchmal f\u00fchrt dies zu komplizierteren Designs in Bezug auf die zugrunde liegende digitale Logik, reduziert jedoch die Anzahl der Komponenten, die Platinengr\u00f6\u00dfe und sogar den Stromverbrauch. Ein Hauptmotiv zur Reduzierung der Komponentenanzahl auf Leiterplatten besteht darin, die Herstellungsfehlerrate zu verringern und die Zuverl\u00e4ssigkeit zu erh\u00f6hen, da jede L\u00f6tverbindung potenziell schlecht ist, sodass die Fehler- und Ausfallraten tendenziell zusammen mit der Gesamtzahl der Komponentenstifte zunehmen.Beispielsweise sind in einigen Logikfamilien NAND-Gatter das am einfachsten zu bauende digitale Gatter. Alle anderen logischen Operationen k\u00f6nnen durch NAND-Gatter implementiert werden. Wenn eine Schaltung bereits ein einzelnes NAND-Gatter ben\u00f6tigt und ein einzelner Chip normalerweise vier NAND-Gatter tr\u00e4gt, k\u00f6nnten die verbleibenden Gatter verwendet werden, um andere logische Operationen wie logische und zu implementieren. Dies k\u00f6nnte die Notwendigkeit eines separaten Chips beseitigen, der diese verschiedenen Arten von Gates enth\u00e4lt.Verl\u00e4sslichkeit[edit]Die “Zuverl\u00e4ssigkeit” eines Logikgatters beschreibt seine mittlere Zeit zwischen Ausf\u00e4llen (MTBF). Digitale Maschinen haben oft Millionen von Logikgattern. Au\u00dferdem sind die meisten digitalen Maschinen “optimiert”, um ihre Kosten zu senken. Das Ergebnis ist, dass der Ausfall eines einzelnen Logikgatters h\u00e4ufig dazu f\u00fchrt, dass eine digitale Maschine nicht mehr funktioniert. Es ist m\u00f6glich, Maschinen zuverl\u00e4ssiger zu gestalten, indem redundante Logik verwendet wird, die nicht aufgrund des Ausfalls eines einzelnen Gates (oder sogar zweier, drei oder vier Gates) fehlerhaft funktioniert. Dies erfordert jedoch zwangsl\u00e4ufig die Verwendung weiterer Komponenten erh\u00f6ht die finanziellen Kosten und erh\u00f6ht normalerweise auch das Gewicht der Maschine und kann den Stromverbrauch erh\u00f6hen.Digitale Maschinen wurden zum ersten Mal n\u00fctzlich, als die MTBF f\u00fcr einen Schalter einige hundert Stunden \u00fcberschritt. Trotzdem hatten viele dieser Maschinen komplexe, gut einge\u00fcbte Reparaturverfahren und waren stundenlang nicht funktionsf\u00e4hig, weil ein Rohr durchgebrannt war oder eine Motte in einem Relais steckte. Moderne transistorisierte Logikgatter mit integrierter Schaltung haben MTBFs von mehr als 82 Milliarden Stunden (8,2 \u00b7 10)10 Std),[46] und brauchen sie, weil sie so viele Logikgatter haben.Ausschw\u00e4rmen[edit]Fanout beschreibt, wie viele Logikeing\u00e4nge von einem einzelnen Logikeingang gesteuert werden k\u00f6nnen, ohne die elektrischen Stromwerte der Gate-Ausg\u00e4nge zu \u00fcberschreiten.[47] Der minimale praktische Fanout betr\u00e4gt ungef\u00e4hr f\u00fcnf. Moderne elektronische Logikgatter, die CMOS-Transistoren f\u00fcr Schalter verwenden, haben Fanouts nahe f\u00fcnfzig und k\u00f6nnen manchmal viel h\u00f6her gehen.Geschwindigkeit[edit]Die “Schaltgeschwindigkeit” beschreibt, wie oft pro Sekunde ein Wechselrichter (eine elektronische Darstellung einer “logischen Nicht” -Funktion) von wahr zu falsch und zur\u00fcck wechseln kann. Eine schnellere Logik kann mehr Operationen in k\u00fcrzerer Zeit ausf\u00fchren. Die digitale Logik wurde zum ersten Mal n\u00fctzlich, wenn die Schaltgeschwindigkeit \u00fcber 50 Hz lag, da dies schneller war als ein Team von Menschen, die mechanische Taschenrechner bedienten. Moderne elektronische digitale Logik schaltet routinem\u00e4\u00dfig mit 5 GHz (5 \u00b7 10)9 Hz) und einige Laborsysteme schalten auf mehr als 1 THz (1 \u00b7 10)12 Hz)[citation needed].Logikfamilien[edit]Das Design begann mit Relais. Die Relaislogik war relativ kosteng\u00fcnstig und zuverl\u00e4ssig, aber langsam. Gelegentlich trat ein mechanischer Fehler auf. Die Fanouts betrugen typischerweise etwa 10, begrenzt durch den Widerstand der Spulen und Lichtbogenbildung an den Kontakten durch hohe Spannungen.Sp\u00e4ter wurden Vakuumr\u00f6hren verwendet. Diese waren sehr schnell, erzeugten jedoch W\u00e4rme und waren unzuverl\u00e4ssig, da die Filamente ausbrennen w\u00fcrden. Die Fanouts betrugen typischerweise 5 … 7, begrenzt durch die Erw\u00e4rmung durch den Strom der R\u00f6hren. In den 1950er Jahren wurden spezielle “Computerr\u00f6hren” mit Filamenten entwickelt, bei denen fl\u00fcchtige Elemente wie Silizium weggelassen wurden. Diese liefen hunderttausende Stunden.Die erste Halbleiterlogikfamilie war die Widerstands-Transistor-Logik. Dies war tausendmal zuverl\u00e4ssiger als R\u00f6hren, lief k\u00fchler und verbrauchte weniger Strom, hatte jedoch einen sehr geringen Fan-In von 3. Die Dioden-Transistor-Logik verbesserte den Fanout auf etwa 7 und reduzierte die Leistung. Einige DTL-Designs verwendeten zwei Netzteile mit abwechselnden Schichten von NPN- und PNP-Transistoren, um das Fanout zu erh\u00f6hen.Die Transistor-Transistor-Logik (TTL) war eine gro\u00dfe Verbesserung gegen\u00fcber diesen. In fr\u00fchen Ger\u00e4ten verbesserte sich das Fanout auf 10, und sp\u00e4tere Variationen erreichten zuverl\u00e4ssig 20. TTL war ebenfalls schnell, wobei einige Variationen Schaltzeiten von nur 20 ns erreichten. TTL wird in einigen Designs immer noch verwendet.Emittergekoppelte Logik ist sehr schnell, verbraucht aber viel Strom. Es wurde ausgiebig f\u00fcr Hochleistungscomputer verwendet, die aus vielen mittelgro\u00dfen Komponenten bestehen (wie z. B. dem Illiac IV).Bei weitem die heute am h\u00e4ufigsten verwendeten digitalen integrierten Schaltkreise verwenden CMOS-Logik, die schnell ist, eine hohe Schaltungsdichte und eine geringe Leistung pro Gate bietet. Dies wird auch in gro\u00dfen, schnellen Computern wie dem IBM System z verwendet.K\u00fcrzliche Entwicklungen[edit]Im Jahr 2009 entdeckten Forscher, dass Memristoren einen Booleschen Zustandsspeicher (\u00e4hnlich einem Flip-Flop, Implikation und logische Inversion) implementieren k\u00f6nnen, der mithilfe bekannter CMOS-Halbleiterprozesse eine vollst\u00e4ndige Logikfamilie mit sehr wenig Platz und Leistung bietet.[48]Die Entdeckung der Supraleitung hat die Entwicklung einer schnellen RSFQ-Schaltungstechnologie (Single Flux Quantum) erm\u00f6glicht, bei der Josephson-\u00dcberg\u00e4nge anstelle von Transistoren verwendet werden. In j\u00fcngster Zeit wird versucht, rein optische Computersysteme zu konstruieren, die digitale Informationen unter Verwendung nichtlinearer optischer Elemente verarbeiten k\u00f6nnen.Siehe auch[edit]^ Ein Beispiel f\u00fcr einen fr\u00fchen asynchronen Digitalcomputer war der 1951 von der Jacobs Instrument Company hergestellte Jaincomp-B1, der eine extrem hohe Taktrate erm\u00f6glichte und eine Leistung von einer 300-Subminiatur-R\u00f6hreneinheit in Desktop-Gr\u00f6\u00dfe lieferte, die mit der typischen konkurrierte raumgro\u00dfe Computer seiner Zeit.[42]^ Alternativ k\u00f6nnen die Ausg\u00e4nge mehrerer Elemente \u00fcber Puffer mit einem Bus verbunden werden, die den Ausgang aller Ger\u00e4te au\u00dfer einem ausschalten k\u00f6nnen.Verweise[edit]^ Null, Linda; Lobur, Julia (2006). Das Wesentliche der Computerorganisation und -architektur. Jones & Bartlett Verlag. p. 121. ISBN 978-0-7637-3769-6. Wir k\u00f6nnen Logikdiagramme (die wiederum zu digitalen Schaltkreisen f\u00fchren) f\u00fcr jeden booleschen Ausdruck erstellen …^ Peirce, CS, “Brief, Peirce an A. Marquand”, datiert 1886, Schriften von Charles S. Peirce5, 1993, S. 541\u20133. Google Vorschau. Siehe Burks, Arthur W., “Review: Charles S. Peirce, Die neuen Elemente der Mathematik“, Bulletin der American Mathematical Society v. 84, n. 5 (1978), S. 913\u201318, siehe 917. PDF Eprint.^ Im Jahr 1946 ben\u00f6tigte ENIAC gesch\u00e4tzte 174 kW. Im Vergleich dazu kann ein moderner Laptop etwa 30 W verbrauchen. fast sechstausendmal weniger. “Ungef\u00e4hrer Stromverbrauch f\u00fcr Desktop und Notebook”. Universit\u00e4t von Pennsylvania. Archiviert von das Original am 3. Juni 2009. Abgerufen 20. Juni 2009.^ “Ein Computerpionier, 50 Jahre sp\u00e4ter wiederentdeckt”. Die New York Times. 20. April 1994.^ Lee, Thomas H. (2003). Der Entwurf von integrierten CMOS-Hochfrequenzschaltungen (PDF). Cambridge University Press. ISBN 9781139643771.^ Puers, Robert; Baldi, Livio; Voorde, Marcel Van de; Nooten, Sebastiaan E. van (2017). Nanoelektronik: Materialien, Ger\u00e4te, Anwendungen, 2 B\u00e4nde. John Wiley & Sons. p. 14. ISBN 9783527340538.^ Lavington, Simon (1998), Eine Geschichte von Manchester Computers (2. Aufl.), Swindon: The British Computer Society, S. 34\u201335^ “Der Chip, den Jack gebaut hat”. Texas Instruments. 2008. Abgerufen 29. Mai 2008.^ Bassett, Ross Knox (2007). Zum digitalen Zeitalter: Forschungslabors, Start-up-Unternehmen und der Aufstieg der MOS-Technologie. Johns Hopkins University Press. p. 46. \u200b\u200bISBN 9780801886393.^ “1960 – Demonstration eines Metalloxidhalbleitertransistors (MOS)”. Die Silicon Engine. Computergeschichtliches Museum.^ ein b “Wer hat den Transistor erfunden?”. Computergeschichtliches Museum. 4. Dezember 2013. Abgerufen 20. Juli 2019.^ ein b c “Triumph des MOS-Transistors”. Youtube. Computergeschichtliches Museum. 6. August 2010. Abgerufen 21. Juli 2019.^ Motoyoshi, M. (2009). “Through-Silicon Via (TSV)”. Verfahren des IEEE. 97 (1): 43\u201348. doi:10.1109 \/ JPROC.2008.2007462. ISSN 0018-9219. S2CID 29105721.^ “Schildkr\u00f6te der Transistoren gewinnt das Rennen – CHM Revolution”. Computergeschichtliches Museum. Abgerufen 22. Juli 2019.^ “Transistoren halten Moores Gesetz am Leben”. EETimes. 12. Dezember 2018. Abgerufen 18. Juli 2019.^ ein b “Anwenden von MOSFETs auf heutige Leistungsschaltdesigns”. Elektronisches Design. 23. Mai 2016. Abgerufen 10. August 2019.^ B. SOMANATHAN NAIR (2002). Digitales Elektronik- und Logikdesign. PHI Learning Pvt. P. 289. ISBN 9788120319561. Digitale Signale sind Impulse mit fester Breite, die nur einen von zwei Amplitudenpegeln belegen.^ Joseph Migga Kizza (2005). Computernetzwerksicherheit. Springer Science & Business Media. ISBN 9780387204734.^ 2000 Gel\u00f6ste Probleme in der digitalen Elektronik. Tata McGraw-Hill Ausbildung. 2005. p. 151. ISBN 978-0-07-058831-8.^ Chan, Yi-Jen (1992). Untersuchungen von InAIAs \/ InGaAs- und GaInP \/ GaAs-Heterostruktur-FETs f\u00fcr Hochgeschwindigkeitsanwendungen. Universit\u00e4t von Michigan. p. 1. Der Si-MOSFET hat die Elektronikindustrie revolutioniert und wirkt sich in nahezu jeder erdenklichen Weise auf unser t\u00e4gliches Leben aus.^ Grant, Duncan Andrew; Gowar, John (1989). Leistungs-MOSFETS: Theorie und Anwendungen. Wiley. p. 1. ISBN 9780471828679. Der Metalloxid-Halbleiter-Feldeffekttransistor (MOSFET) ist das am h\u00e4ufigsten verwendete aktive Bauelement bei der Integration digitaler integrierter Schaltkreise (VLSI) in sehr gro\u00dfem Ma\u00dfstab. In den 1970er Jahren revolutionierten diese Komponenten die elektronische Signalverarbeitung, Steuerungssysteme und Computer.^ Golio, Mike; Golio, Janet (2018). Passive und aktive HF- und Mikrowellentechnologien. CRC Dr\u00fccken Sie. p. 18\u20132. ISBN 9781420006728.^ Raymer, Michael G. (2009). Das Silicon Web: Physik f\u00fcr das Internetzeitalter. CRC Dr\u00fccken Sie. p. 365. ISBN 9781439803127.^ Wong, Kit Po (2009). Elektrotechnik – Band II. EOLSS-Ver\u00f6ffentlichungen. p. 7. ISBN 9781905839780.^ Hittinger, William C. (1973). “Metalloxid-Halbleitertechnologie”. Wissenschaftlicher Amerikaner. 229 (2): 48\u201359. Bibcode:1973SciAm.229b..48H. doi:10.1038 \/ Scientificamerican0873-48. ISSN 0036-8733. JSTOR 24923169.^ Peter Clarke (14. Oktober 2005). “Intel tritt in die \u00c4ra der Milliarden-Transistor-Prozessoren ein”. EE Times.^ “13 Sextillion & Counting: Der lange und kurvenreiche Weg zum am h\u00e4ufigsten hergestellten menschlichen Artefakt in der Geschichte”. Computergeschichtliches Museum. 2. April 2018. Abgerufen 12. Oktober 2020.^ Golio, Mike; Golio, Janet (2018). Passive und aktive HF- und Mikrowellentechnologien. CRC Dr\u00fccken Sie. S. IX, I-1, 18-2. ISBN 9781420006728.^ Rappaport, TS (November 1991). “Die drahtlose Revolution”. IEEE Communications Magazine. 29 (11): 52\u201371. doi:10.1109 \/ 35.109666. S2CID 46573735.^ “Die drahtlose Revolution”. Der \u00d6konom. 21. Januar 1999. Abgerufen 12. September 2019.^ Ahmed, Nasir (Januar 1991). “Wie ich zur diskreten Kosinustransformation kam”. Digitale Signalverarbeitung. 1 (1): 4\u20135. doi:10.1016 \/ 1051-2004 (91) 90086-Z.^ ein b Lea, William (1994). Video on Demand: Forschungsbericht 94\/68. 9. Mai 1994: Bibliothek des Unterhauses. Archiviert von das Original am 20. September 2019. Abgerufen 20. September 2019.CS1-Wartung: Standort (Link)^ Frolov, Artem; Primechaev, S. (2006). “Abrufen komprimierter Dom\u00e4nenbilder basierend auf DCT-Verarbeitung”. Semantischer Gelehrter. S2CID 4553.^ Lee, Ruby Bei-Loh; Beck, John P.; Lamm, Joel; Severson, Kenneth E. (April 1995). “Echtzeit-Software-MPEG-Videodecoder auf multimedialen PA 7100LC-Prozessoren” (PDF). Hewlett-Packard Journal. 46 (2). ISSN 0018-1153.^ ein b Stankovi\u0107, Radomir S.; Astola, Jaakko T. (2012). “Erinnerungen an die fr\u00fchen Arbeiten in DCT: Interview mit KR Rao” (PDF). Nachdrucke aus den Anf\u00e4ngen der Informationswissenschaften. 60. Abgerufen 13. Oktober 2019.^ Luo, Fa-Long (2008). Mobile Multimedia Broadcasting Standards: Technologie und Praxis. Springer Science & Business Media. p. 590. ISBN 9780387782638.^ Britanak, V. (2011). “Zu Eigenschaften, Beziehungen und vereinfachter Implementierung von Filterb\u00e4nken in den Dolby Digital (Plus) AC-3-Audiocodierungsstandards”. IEEE-Transaktionen zur Audio-, Sprach- und Sprachverarbeitung. 19 (5): 1231\u20131241. doi:10.1109 \/ TASL.2010.2087755. S2CID 897622.^ Shishikui, Yoshiaki; Nakanishi, Hiroshi; Imaizumi, Hiroyuki (26. bis 28. Oktober 1993). “Ein HDTV-Codierungsschema unter Verwendung von DCT mit adaptiver Dimension”. Signalverarbeitung von HDTV: Vortr\u00e4ge des Internationalen Workshops zu HDTV ’93, Ottawa, Kanada. Elsevier: 611\u2013618. doi:10.1016 \/ B978-0-444-81844-7.50072-3. ISBN 9781483298511.^ Matthew, Crick (2016). Macht, \u00dcberwachung und Kultur in der digitalen Sph\u00e4re von YouTube \u2122. IGI Global. S. 36\u20137. ISBN 9781466698567.^ Paul Horowitz und Winfield Hill, Die Kunst der Elektronik 2. Aufl. Cambridge University Press, Cambridge, 1989 ISBN 0-521-37095-7 Seite 471^ Maini. AK (2007). Prinzipien, Ger\u00e4te und Anwendungen der digitalen Elektronik. Chichester, England: John Wiley & Sons Ltd.^ Pentagon-Symposium: Kommerziell erh\u00e4ltliche elektronische Digitalcomputer f\u00fcr allgemeine Zwecke zu moderaten Preisen, Washington, DC, 14. Mai 1952^ “ASODA Sync \/ Async DLX Core”. OpenCores.org. Abgerufen 5. September 2014.^ Clarke, Peter. “ARM bietet ersten taktlosen Prozessorkern”. eetimes.com. UBM Tech (Universal Business Media). Abgerufen 5. September 2014.^ Brown S & Vranesic Z. (2009). Grundlagen der digitalen Logik mit VHDL-Design. 3rd ed. New York, NY: Mc Graw Hill.^ MIL-HDBK-217F-Hinweis 2, Abschnitt 5.3, f\u00fcr kommerzielle CMOS-ICs mit 100.000 Gate und 0,8 Mikrometern bei 40 \u00b0 C; Die Ausfallraten im Jahr 2010 sind besser, da die Leitungsgr\u00f6\u00dfen auf 0,045 Mikrometer gesunken sind und weniger Off-Chip-Verbindungen pro Gate erforderlich sind.^ Kleitz, William. (2002). Grundlagen von Digital- und Mikroprozessoren: Theorie und Anwendung. 4. Aufl. Upper Saddler Reviver, New Jersey: Pearson \/ Prentice Hall^ Eero Lehtonen, Mika Laihom, “Stateful Implication Logic with Memristors”, Proceedings des Internationalen IEEE \/ ACM-Symposiums f\u00fcr nanoskalige Architekturen 2009 IEEE Computer Society Washington, DC, USA \u00a9 2009 Zugriff 2011-12-11Weiterf\u00fchrende Literatur[edit]Douglas Lewin, Logisches Design von SchaltkreisenNelson, 1974.RH Katz, Zeitgen\u00f6ssisches Logikdesign, The Benjamin \/ Cummings Publishing Company, 1994.PK Lala, Praktisches Design und Testen digitaler Logik, Prentice Hall, 1996.YK Chan und SY Lim, Fortschritte in der elektromagnetischen Forschung B, Vol. 1, 269\u2013290, 2008, “SAR-Signalerzeugung (Synthetic Aperture Radar), Fakult\u00e4t f\u00fcr Ingenieurwissenschaften und Technologie, Multimedia-Universit\u00e4t, Jalan Ayer Keroh Lama, Bukit Beruang, Melaka 75450, Malaysia.Externe Links[edit] (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4"},{"@context":"http:\/\/schema.org\/","@type":"BreadcrumbList","itemListElement":[{"@type":"ListItem","position":1,"item":{"@id":"https:\/\/wiki.edu.vn\/wiki16\/#breadcrumbitem","name":"Enzyklop\u00e4die"}},{"@type":"ListItem","position":2,"item":{"@id":"https:\/\/wiki.edu.vn\/wiki16\/2021\/01\/27\/digitale-elektronik-wikipedia\/#breadcrumbitem","name":"Digitale Elektronik – Wikipedia"}}]}]