Digitale Elektronik – Wikipedia

before-content-x4

Elektronische Schaltungen, die digitale Signale verwenden

Ein digitales Signal hat zwei oder mehr unterscheidbare Wellenformen, in diesem Beispiel Hochspannung und niedrige Spannungen, von denen jede auf eine Ziffer abgebildet werden kann.

Digitale Elektronik ist ein Bereich der Elektronik, in dem digitale Signale untersucht und Geräte entwickelt werden, die sie verwenden oder erzeugen. Dies steht im Gegensatz zu analoger Elektronik und analogen Signalen.

Digitale elektronische Schaltungen bestehen normalerweise aus großen Baugruppen von Logikgattern, die häufig in integrierten Schaltungen verpackt sind. Komplexe Geräte können einfache elektronische Darstellungen von Booleschen Logikfunktionen aufweisen.[1]

Geschichte[edit]

Das Binärzahlensystem wurde von Gottfried Wilhelm Leibniz (veröffentlicht 1705) verfeinert und er stellte auch fest, dass durch die Verwendung des Binärsystems die Prinzipien der Arithmetik und Logik verbunden werden können. Die digitale Logik, wie wir sie kennen, war Mitte des 19. Jahrhunderts das Gehirnkind von George Boole. In einem Brief von 1886 beschrieb Charles Sanders Peirce, wie logische Operationen von elektrischen Schaltkreisen ausgeführt werden könnten.[2] Schließlich ersetzten Vakuumröhren die Relais für logische Operationen. Lee De Forest’s Modifikation des Fleming-Ventils im Jahr 1907 kann als UND-Gatter verwendet werden. Ludwig Wittgenstein führte eine Version der 16-zeiligen Wahrheitstabelle als Satz 5.101 von ein Tractatus Logico-Philosophicus (1921). Walther Bothe, Erfinder der Zufallsschaltung, erhielt 1954 den Nobelpreis für Physik für das erste moderne elektronische UND-Gatter im Jahr 1924.

Mechanische analoge Computer tauchten im ersten Jahrhundert auf und wurden später im Mittelalter für astronomische Berechnungen verwendet. Im Zweiten Weltkrieg wurden mechanische analoge Computer für spezielle militärische Anwendungen wie die Berechnung des Torpedoziels verwendet. In dieser Zeit wurden die ersten elektronischen Digitalcomputer entwickelt. Ursprünglich hatten sie die Größe eines großen Raums und verbrauchten so viel Strom wie mehrere hundert moderne PCs.[3]

Der Z3 war ein elektromechanischer Computer, der von Konrad Zuse entworfen wurde. Es wurde 1941 fertiggestellt und war der weltweit erste funktionierende programmierbare vollautomatische Digitalcomputer.[4] Sein Betrieb wurde durch die Erfindung der Vakuumröhre im Jahr 1904 durch John Ambrose Fleming erleichtert.

Zur gleichen Zeit, als die digitale Berechnung analoge, rein elektronische Schaltungselemente ersetzte, ersetzten sie bald ihre mechanischen und elektromechanischen Äquivalente. John Bardeen und Walter Brattain erfanden 1947 den Punktkontakttransistor bei Bell Labs, gefolgt von William Shockley, der 1948 den Bipolartransistor bei Bell Labs erfand.[5][6]

An der Universität von Manchester entwarf und baute ein Team unter der Leitung von Tom Kilburn eine Maschine mit den neu entwickelten Transistoren anstelle von Vakuumröhren.[7] Ihr erster Transistorcomputer und der erste der Welt waren 1953 in Betrieb, und eine zweite Version wurde dort im April 1955 fertiggestellt. Ab 1955 ersetzten Transistoren Vakuumröhren in Computerdesigns, wodurch die “zweite Generation” von Computern entstand. Im Vergleich zu Vakuumröhren waren Transistoren kleiner, zuverlässiger, hatten eine unbegrenzte Lebensdauer und benötigten weniger Strom als Vakuumröhren. Dadurch wurde weniger Wärme abgegeben und es wurden viel dichtere Schaltkreiskonzentrationen von bis zu Zehntausenden auf relativ kompaktem Raum ermöglicht.

Während seiner Arbeit bei Texas Instruments im Juli 1958 zeichnete Jack Kilby seine ersten Ideen bezüglich der integrierten Schaltung (IC) auf und demonstrierte erfolgreich die erste integrierte Arbeit am 12. September 1958.[8] Kilbys Chip bestand aus Germanium. Im folgenden Jahr erfand Robert Noyce von Fairchild Semiconductor die integrierte Siliziumschaltung. Die Grundlage für Noyces Silizium-IC war der planare Prozess, der Anfang 1959 von Jean Hoerni entwickelt wurde, der seinerseits auf Mohamed Atallas 1957 entwickelter Siliziumoberflächenpassivierungsmethode aufbaute.[9] Diese neue Technik, die integrierte Schaltung, ermöglichte die schnelle und kostengünstige Herstellung komplexer Schaltungen, indem ein Satz elektronischer Schaltungen auf einer kleinen Platte (“Chip”) aus Halbleitermaterial, normalerweise Silizium, angeordnet war.

Digitale Revolution und digitales Zeitalter[edit]

Der Metalloxid-Halbleiter-Feldeffekttransistor (MOSFET), auch als MOS-Transistor bekannt, wurde 1959 von Mohamed Atalla und Dawon Kahng in den Bell Labs erfunden.[10][11][12] Zu den Vorteilen des MOSFET gehören eine hohe Skalierbarkeit,[13] Bezahlbarkeit,[14] geringer Stromverbrauch und hohe Transistordichte.[15] Seine schnelle elektronische Ein- und Ausschaltgeschwindigkeit macht es auch ideal für die Erzeugung von Impulsfolgen.[16] die Basis für elektronische digitale Signale,[17][18] im Gegensatz zu BJTs, die langsamer analoge Signale erzeugen, die Sinuswellen ähneln.[16] Zusammen mit der MOS-Large-Scale-Integration (LSI) machen diese Faktoren den MOSFET zu einem wichtigen Schaltgerät für digitale Schaltungen.[19] Der MOSFET revolutionierte die Elektronikindustrie,[20][21] und ist das am häufigsten verwendete Halbleiterbauelement.[11][22] MOSFETs sind die Grundbausteine ​​der digitalen Elektronik während der digitalen Revolution des späten 20. bis frühen 21. Jahrhunderts.[12][23][24] Dies ebnete den Weg für das digitale Zeitalter des frühen 21. Jahrhunderts.[12]

In den frühen Tagen der integrierten Schaltkreise war jeder Chip auf nur wenige Transistoren beschränkt, und der geringe Integrationsgrad bedeutete, dass der Entwurfsprozess relativ einfach war. Auch die Produktionsausbeuten waren für heutige Verhältnisse recht niedrig. Die breite Akzeptanz des MOSFET-Transistors in den frühen 1970er Jahren führte zu den ersten LSI-Chips (Large Scale Integration) mit mehr als 10.000 Transistoren auf einem einzigen Chip.[25] Nach der weit verbreiteten Einführung von CMOS, einer Art MOSFET-Logik, konnten in den 1980er Jahren mit fortschreitender Technologie Millionen und dann Milliarden von MOSFETs auf einem Chip platziert werden.[26] Gute Entwürfe erforderten eine gründliche Planung, was zu neuen Entwurfsmethoden führte. Die Anzahl der Transistoren sowohl einzelner Geräte als auch der Gesamtproduktion stieg auf beispiellose Höhen. Die Gesamtmenge der bis 2018 produzierten Transistoren wurde auf schätzungsweise geschätzt 1.3×1022 (13 Sextillion).[27]

Die drahtlose Revolution, die Einführung und Verbreitung von drahtlosen Netzwerken, begann in den 1990er Jahren und wurde durch die breite Einführung von MOSFET-basierten HF-Leistungsverstärkern (Leistungs-MOSFET und LDMOS) und HF-Schaltungen (RF-CMOS) ermöglicht.[28][29][30] Drahtlose Netzwerke ermöglichten die öffentliche digitale Übertragung ohne Kabel, was in den 1990er bis 2000er Jahren zu digitalem Fernsehen (digitales Fernsehen), GPS, Satellitenradio, drahtlosem Internet und Mobiltelefonen führte.

Diskrete Cosinustransformation (DCT), eine Datenkomprimierungstechnik, die erstmals 1972 von Nasir Ahmed vorgeschlagen wurde.[31] ermöglichte praktische digitale Medienübertragung,[32][33][34] mit Bildkomprimierungsformaten wie JPEG (1992), Videokodierungsformaten wie H.26x (ab 1988) und MPEG (ab 1993);[35]Audiokodierungsstandards wie Dolby Digital (1991)[36][37] und MP3 (1994),[35] und digitale TV-Standards wie Video-on-Demand (VOD)[32] und HD-Fernsehen (HDTV).[38]Das Internetvideo wurde von YouTube populär gemacht, einer Online-Videoplattform, die 2005 von Chad Hurley, Jawed Karim und Steve Chen gegründet wurde und das Video-Streaming von benutzergenerierten MPEG-4 AVC (H.264) -Inhalten von überall im World Wide Web ermöglichte .[39]

Eigenschaften[edit]

Ein Vorteil digitaler Schaltungen gegenüber analogen Schaltungen besteht darin, dass digital dargestellte Signale ohne durch Rauschen verursachte Verschlechterung übertragen werden können.[40] Beispielsweise kann ein kontinuierliches Audiosignal, das als Folge von Einsen und Nullen übertragen wird, fehlerfrei rekonstruiert werden, vorausgesetzt, das bei der Übertragung aufgenommene Rauschen reicht nicht aus, um die Identifizierung der Einsen und Nullen zu verhindern.

In einem digitalen System kann eine genauere Darstellung eines Signals erhalten werden, indem mehr Binärziffern verwendet werden, um es darzustellen. Während dies mehr digitale Schaltungen erfordert, um die Signale zu verarbeiten, wird jede Ziffer von derselben Art von Hardware verarbeitet, was zu einem leicht skalierbaren System führt. In einem analogen System erfordert eine zusätzliche Auflösung grundlegende Verbesserungen der Linearität und der Rauschcharakteristik jedes Schritts der Signalkette.

Mit computergesteuerten digitalen Systemen müssen neue Funktionen durch Software-Revision und ohne Hardware-Änderungen hinzugefügt werden. Dies kann häufig außerhalb des Werks durch Aktualisierung der Produktsoftware erfolgen. So können die Designfehler des Produkts korrigiert werden, nachdem das Produkt in den Händen eines Kunden liegt.

Die Speicherung von Informationen kann in digitalen Systemen einfacher sein als in analogen. Die Störfestigkeit digitaler Systeme ermöglicht das Speichern und Abrufen von Daten ohne Verschlechterung. In einem analogen System verschlechtern Alterungs- und Verschleißgeräusche die gespeicherten Informationen. In einem digitalen System können die Informationen perfekt wiederhergestellt werden, solange das Gesamtrauschen unter einem bestimmten Wert liegt. Selbst wenn ein stärkeres Rauschen vorliegt, ermöglicht die Verwendung von Redundanz die Wiederherstellung der Originaldaten, sofern nicht zu viele Fehler auftreten.

In einigen Fällen verbrauchen digitale Schaltkreise mehr Energie als analoge Schaltkreise, um dieselben Aufgaben zu erfüllen, wodurch mehr Wärme erzeugt wird, was die Komplexität der Schaltkreise erhöht, beispielsweise die Einbeziehung von Kühlkörpern. In tragbaren oder batteriebetriebenen Systemen kann dies die Verwendung digitaler Systeme einschränken. Beispielsweise verwenden batteriebetriebene Mobiltelefone häufig ein analoges Front-End mit geringem Stromverbrauch, um die Funksignale von der Basisstation zu verstärken und abzustimmen. Eine Basisstation verfügt jedoch über Netzstrom und kann stromhungrige, aber sehr flexible Software-Funkgeräte verwenden. Solche Basisstationen können leicht neu programmiert werden, um die in neuen Mobilfunkstandards verwendeten Signale zu verarbeiten.

Viele nützliche digitale Systeme müssen von kontinuierlichen analogen Signalen in diskrete digitale Signale übersetzt werden. Dies führt zu Quantisierungsfehlern. Der Quantisierungsfehler kann reduziert werden, wenn das System genügend digitale Daten speichert, um das Signal mit dem gewünschten Genauigkeitsgrad darzustellen. Das Nyquist-Shannon-Abtasttheorem liefert eine wichtige Richtlinie darüber, wie viele digitale Daten benötigt werden, um ein bestimmtes analoges Signal genau darzustellen.

In einigen Systemen kann sich die Bedeutung großer Blöcke verwandter Daten vollständig ändern, wenn ein einzelnes digitales Datenelement verloren geht oder falsch interpretiert wird. Beispielsweise verursacht ein Einzelbitfehler in Audiodaten, die direkt als lineare Pulscodemodulation gespeichert sind, im schlimmsten Fall einen einzelnen Klick. Stattdessen verwenden viele Benutzer die Audiokomprimierung, um Speicherplatz und Downloadzeit zu sparen, obwohl ein einzelner Bitfehler zu einer größeren Störung führen kann.

Aufgrund des Klippeneffekts kann es für Benutzer schwierig sein zu erkennen, ob ein bestimmtes System am Rande eines Ausfalls steht oder ob es vor einem Ausfall viel mehr Rauschen tolerieren kann. Die digitale Fragilität kann verringert werden, indem ein digitales System auf Robustheit ausgelegt wird. Beispielsweise kann ein Paritätsbit oder eine andere Fehlerverwaltungsmethode in den Signalpfad eingefügt werden. Diese Schemata helfen dem System, Fehler zu erkennen und diese dann entweder zu korrigieren oder eine erneute Übertragung der Daten anzufordern.

Konstruktion[edit]

Eine digitale Schaltung besteht typischerweise aus kleinen elektronischen Schaltungen, die als Logikgatter bezeichnet werden und zur Erzeugung einer kombinatorischen Logik verwendet werden können. Jedes Logikgatter ist so ausgelegt, dass es eine Funktion der Booleschen Logik ausführt, wenn es auf Logiksignale einwirkt. Ein Logikgatter wird im Allgemeinen aus einem oder mehreren elektrisch gesteuerten Schaltern erzeugt, üblicherweise Transistoren, aber thermionische Ventile haben in der Vergangenheit Verwendung gefunden. Der Ausgang eines Logikgatters kann wiederum mehr Logikgatter steuern oder in diese einspeisen.

Eine andere Form der digitalen Schaltung besteht aus Nachschlagetabellen (viele werden als “programmierbare Logikgeräte” verkauft, obwohl andere Arten von PLDs existieren). Nachschlagetabellen können dieselben Funktionen wie Maschinen ausführen, die auf Logikgattern basieren, können jedoch leicht neu programmiert werden, ohne die Verkabelung zu ändern. Dies bedeutet, dass ein Konstrukteur häufig Konstruktionsfehler reparieren kann, ohne die Anordnung der Drähte zu ändern. Daher sind bei Produkten mit geringem Volumen programmierbare Logikbausteine ​​häufig die bevorzugte Lösung. Sie werden normalerweise von Ingenieuren unter Verwendung elektronischer Konstruktionsautomatisierungssoftware entworfen.

Integrierte Schaltungen bestehen aus mehreren Transistoren auf einem Siliziumchip und sind der kostengünstigste Weg, um eine große Anzahl miteinander verbundener Logikgatter herzustellen. Integrierte Schaltkreise sind normalerweise auf einer Leiterplatte miteinander verbunden, die elektrische Komponenten enthält und diese mit Kupferspuren miteinander verbindet.

Ingenieure verwenden viele Methoden, um die Logikredundanz zu minimieren, um die Schaltungskomplexität zu verringern. Eine reduzierte Komplexität reduziert die Anzahl der Komponenten und potenzielle Fehler und reduziert daher typischerweise die Kosten. Die logische Redundanz kann durch verschiedene bekannte Techniken wie binäre Entscheidungsdiagramme, Boolesche Algebra, Karnaugh-Karten, den Quine-McCluskey-Algorithmus und die heuristische Computermethode beseitigt werden. Diese Operationen werden typischerweise in einem computergestützten Entwurfssystem ausgeführt.

Eingebettete Systeme mit Mikrocontrollern und speicherprogrammierbaren Steuerungen werden häufig verwendet, um digitale Logik für komplexe Systeme zu implementieren, die keine optimale Leistung erfordern. Diese Systeme werden normalerweise von Softwareentwicklern oder Elektrikern mithilfe der Kontaktplanlogik programmiert.

Darstellung[edit]

Darstellungen sind entscheidend für das Design digitaler Schaltungen durch einen Ingenieur. Bei der Auswahl von Darstellungen berücksichtigen Ingenieure Typen digitaler Systeme.

Die klassische Art, eine digitale Schaltung darzustellen, besteht in einem äquivalenten Satz von Logikgattern. Jedes Logiksymbol wird durch eine andere Form dargestellt. Der eigentliche Satz von Formen wurde 1984 unter dem IEEE / ANSI-Standard 91-1984 eingeführt und wird heute von Herstellern integrierter Schaltkreise allgemein verwendet.[41] Eine andere Möglichkeit besteht darin, ein äquivalentes System elektronischer Schalter (normalerweise Transistoren) aufzubauen. Dies kann als Wahrheitstabelle dargestellt werden.

Die meisten digitalen Systeme unterteilen sich in kombinatorische und sequentielle Systeme. Ein kombinatorisches System liefert immer die gleiche Ausgabe, wenn die gleichen Eingaben gegeben werden. Ein sequentielles System ist ein kombinatorisches System, bei dem einige der Ausgänge als Eingänge zurückgeführt werden. Dadurch führt die digitale Maschine eine Leistung aus Reihenfolge von Operationen. Das einfachste sequentielle System ist wahrscheinlich ein Flip-Flop, ein Mechanismus, der eine Binärziffer oder ein “Bit” darstellt. Sequentielle Systeme werden häufig als Zustandsmaschinen ausgelegt. Auf diese Weise können Ingenieure das Bruttoverhalten eines Systems entwerfen und sogar in einer Simulation testen, ohne alle Details der Logikfunktionen zu berücksichtigen.

Sequentielle Systeme unterteilen sich in zwei weitere Unterkategorien. “Synchrone” sequentielle Systeme ändern auf einmal ihren Zustand, wenn ein Taktsignal seinen Zustand ändert. “Asynchrone” sequentielle Systeme geben Änderungen weiter, wenn sich Eingaben ändern. Synchrone sequentielle Systeme bestehen aus gut charakterisierten asynchronen Schaltungen wie Flip-Flops, die sich nur ändern, wenn sich der Takt ändert, und die sorgfältig entworfene Zeitabstände haben.

Für die Logiksimulation haben digitale Schaltungsdarstellungen digitale Dateiformate, die von Computerprogrammen verarbeitet werden können.

Synchrone Systeme[edit]

Ein 4-Bit-Ringzähler mit Flip-Flops vom Typ D ist ein Beispiel für synchrone Logik. Jedes Gerät ist mit dem Taktsignal verbunden und wird gemeinsam aktualisiert.

Der übliche Weg, eine synchrone sequentielle Zustandsmaschine zu implementieren, besteht darin, sie in ein Stück kombinatorischer Logik und einen Satz von Flipflops zu unterteilen, die als a bezeichnet werden Staatsregister. Das Zustandsregister repräsentiert den Zustand als Binärzahl. Die kombinatorische Logik erzeugt die binäre Darstellung für den nächsten Zustand. Bei jedem Taktzyklus erfasst das Zustandsregister die Rückkopplung, die aus dem vorherigen Zustand der Kombinationslogik erzeugt wurde, und gibt sie als unveränderliche Eingabe an den Kombinationsteil der Zustandsmaschine zurück. Die Taktrate wird durch die zeitaufwändigste Logikberechnung in der kombinatorischen Logik begrenzt.

Asynchrone Systeme[edit]

Die meiste digitale Logik ist synchron, da es einfacher ist, ein synchrones Design zu erstellen und zu überprüfen. Asynchrone Logik hat jedoch den Vorteil, dass ihre Geschwindigkeit nicht durch einen beliebigen Takt eingeschränkt wird. Stattdessen läuft es mit der maximalen Geschwindigkeit seiner Logikgatter.[a] Der Aufbau eines asynchronen Systems mit schnelleren Teilen beschleunigt die Schaltung.

Trotzdem müssen die meisten Systeme externe nicht synchronisierte Signale in ihre synchronen Logikschaltungen aufnehmen. Diese Schnittstelle ist von Natur aus asynchron und muss als solche analysiert werden. Beispiele für weit verbreitete asynchrone Schaltungen umfassen Synchronisier-Flip-Flops, Switch-Debouncer und Arbiter.

Asynchrone Logikkomponenten können schwierig zu entwerfen sein, da alle möglichen Zustände in allen möglichen Zeitabläufen berücksichtigt werden müssen. Die übliche Methode besteht darin, eine Tabelle mit der minimalen und maximalen Zeit zu erstellen, in der jeder dieser Zustände existieren kann, und dann die Schaltung anzupassen, um die Anzahl solcher Zustände zu minimieren. Der Konstrukteur muss die Schaltung zwingen, regelmäßig darauf zu warten, dass alle ihre Teile in einen kompatiblen Zustand übergehen (dies wird als “Selbst-Resynchronisation” bezeichnet). Ohne sorgfältiges Design ist es leicht, versehentlich eine asynchrone Logik zu erzeugen, die instabil ist, dh echte Elektronik führt aufgrund der kumulierten Verzögerungen, die durch kleine Abweichungen der Werte der elektronischen Komponenten verursacht werden, zu unvorhersehbaren Ergebnissen.

Transfersysteme registrieren[edit]

Beispiel einer einfachen Schaltung mit einem Umschaltausgang. Der Wechselrichter bildet die Kombinationslogik in dieser Schaltung, und das Register hält den Zustand.

Viele digitale Systeme sind Datenflussmaschinen. Diese werden normalerweise unter Verwendung einer synchronen Registerübertragungslogik unter Verwendung von Hardwarebeschreibungssprachen wie VHDL oder Verilog entworfen.

In der Registerübertragungslogik werden Binärzahlen in Gruppen von Flipflops gespeichert, die als Register bezeichnet werden. Eine sequentielle Zustandsmaschine steuert, wann jedes Register neue Daten von seiner Eingabe akzeptiert. Die Ausgänge jedes Registers sind ein Bündel von Drähten, die als a bezeichnet werden Bus das trägt diese Zahl zu anderen Berechnungen. Eine Berechnung ist einfach ein Stück kombinatorischer Logik. Jede Berechnung hat auch einen Ausgangsbus, und diese können mit den Eingängen mehrerer Register verbunden werden. Manchmal hat ein Register einen Multiplexer an seinem Eingang, so dass es eine Nummer von einem von mehreren Bussen speichern kann.[b]

Asynchrone Registerübertragungssysteme (wie Computer) haben eine allgemeine Lösung. In den 1980er Jahren entdeckten einige Forscher, dass fast alle synchronen Registerübertragungsmaschinen mithilfe der First-In-First-Out-Synchronisationslogik in asynchrone Designs konvertiert werden konnten. In diesem Schema wird die digitale Maschine als ein Satz von Datenflüssen charakterisiert. In jedem Schritt des Flusses bestimmt eine Synchronisationsschaltung, wann die Ausgänge dieses Schritts gültig sind, und weist die nächste Stufe an, wann diese Ausgänge verwendet werden sollen.[citation needed]

Computerdesign[edit]

Die allgemeinste Registerübertragungslogikmaschine ist ein Computer. Dies ist im Grunde ein automatischer binärer Abakus. Die Steuereinheit eines Computers ist normalerweise als Mikroprogramm ausgelegt, das von einem Mikrosequenzer ausgeführt wird. Ein Mikroprogramm ähnelt einer Player-Piano-Rolle. Jeder Tabelleneintrag des Mikroprogramms befiehlt den Status jedes Bits, das den Computer steuert. Der Sequenzer zählt dann und der Zähler adressiert den Speicher oder die kombinatorische Logikmaschine, die das Mikroprogramm enthält. Die Bits aus dem Mikroprogramm steuern die arithmetische Logikeinheit, den Speicher und andere Teile des Computers, einschließlich des Mikrosequenzers selbst. Auf diese Weise wird die komplexe Aufgabe des Entwurfs der Steuerungen eines Computers auf eine einfachere Aufgabe des Programmierens einer Sammlung viel einfacherer Logikmaschinen reduziert.

Fast alle Computer sind synchron. Es wurden jedoch auch zahlreiche echte asynchrone Computer gebaut. Ein Beispiel ist der Aspida DLX-Kern.[43] Ein weiterer wurde von ARM Holdings angeboten. Geschwindigkeitsvorteile sind nicht eingetreten, da moderne Computerdesigns bereits mit der Geschwindigkeit ihrer langsamsten Komponente, normalerweise des Speichers, ausgeführt werden. Diese verbrauchen etwas weniger Strom, da kein Taktverteilungsnetz benötigt wird. Ein unerwarteter Vorteil besteht darin, dass asynchrone Computer kein spektral reines Funkrauschen erzeugen und daher in einigen Basisstationscontrollern von Mobiltelefonen verwendet werden. Sie können in kryptografischen Anwendungen sicherer sein, da ihre elektrischen und Funkemissionen schwieriger zu dekodieren sind.[44]

Rechnerarchitektur[edit]

Computerarchitektur ist eine spezialisierte technische Aktivität, die versucht, die Register, die Berechnungslogik, die Busse und andere Teile des Computers für einen bestimmten Zweck optimal anzuordnen. Computerarchitekten haben viel Einfallsreichtum in das Computerdesign gesteckt, um die Kosten zu senken und die Geschwindigkeit und Immunität gegen Programmierfehler von Computern zu erhöhen. Ein zunehmend häufiges Ziel ist es, den Stromverbrauch eines batteriebetriebenen Computersystems wie eines Mobiltelefons zu reduzieren. Viele Computerarchitekten absolvieren eine erweiterte Ausbildung zum Mikroprogrammierer.

Designprobleme in digitalen Schaltkreisen[edit]

Digitale Schaltungen bestehen aus analogen Komponenten. Das Design muss sicherstellen, dass die analoge Natur der Komponenten das gewünschte digitale Verhalten nicht dominiert. Digitale Systeme müssen Rausch- und Zeitabstände, parasitäre Induktivitäten und Kapazitäten sowie Filterstromanschlüsse verwalten.

Schlechte Designs haben zeitweise Probleme wie “Störungen”, verschwindend schnelle Impulse, die eine Logik auslösen können, andere jedoch nicht, “Runt-Impulse”, die keine gültigen “Schwellen” -Spannungen erreichen, oder unerwartete (“nicht decodierte”) Kombinationen von Logikzuständen.

Wenn getaktete digitale Systeme mit analogen Systemen oder Systemen, die von einer anderen Uhr angesteuert werden, verbunden sind, kann das digitale System außerdem einer Metastabilität unterliegen, wenn eine Änderung des Eingangs die Rüstzeit für einen digitalen Eingangs-Latch verletzt. Diese Situation löst sich von selbst auf, dauert jedoch eine zufällige Zeit und kann, solange sie anhält, dazu führen, dass ungültige Signale für kurze Zeit im digitalen System übertragen werden.

Da digitale Schaltungen aus analogen Komponenten bestehen, berechnen digitale Schaltungen langsamer als analoge Schaltungen mit geringer Genauigkeit, die einen ähnlichen Platz- und Leistungsbedarf haben. Die digitale Schaltung berechnet jedoch aufgrund ihrer hohen Störfestigkeit wiederholbarer. Andererseits benötigen analoge Schaltungen im hochpräzisen Bereich (zum Beispiel wenn 14 oder mehr Genauigkeitsbits benötigt werden) viel mehr Leistung und Fläche als digitale Äquivalente.

Automatisierte Designtools[edit]

Um kostspieligen Engineering-Aufwand zu sparen, wurde ein Großteil des Aufwands für das Entwerfen großer Logikmaschinen automatisiert. Die Computerprogramme werden als “Electronic Design Automation Tools” oder einfach als “EDA” bezeichnet.

Einfache Beschreibungen der Logik im Stil einer Wahrheitstabelle werden häufig mit EDA optimiert, das automatisch reduzierte Systeme von Logikgattern oder kleinere Nachschlagetabellen erzeugt, die immer noch die gewünschten Ausgaben erzeugen. Das häufigste Beispiel für diese Art von Software ist der heuristische Logik-Minimierer von Espresso.

Die meisten praktischen Algorithmen zur Optimierung großer Logiksysteme verwenden algebraische Manipulationen oder binäre Entscheidungsdiagramme, und es gibt vielversprechende Experimente mit genetischen Algorithmen und Annealing-Optimierungen.

Um kostspielige Engineering-Prozesse zu automatisieren, können einige EDA Zustandstabellen verwenden, die Zustandsmaschinen beschreiben, und automatisch eine Wahrheitstabelle oder eine Funktionstabelle für die Kombinationslogik einer Zustandsmaschine erstellen. Die Zustandstabelle ist ein Text, der jeden Zustand zusammen mit den Bedingungen auflistet, die die Übergänge zwischen ihnen und den zugehörigen Ausgangssignalen steuern.

Es ist üblich, dass die Funktionstabellen solcher computergenerierten Zustandsmaschinen mit einer Logikminimierungssoftware wie Minilog optimiert werden.

Reale Logiksysteme werden häufig als eine Reihe von Teilprojekten entworfen, die mithilfe eines “Werkzeugflusses” kombiniert werden. Der Toolflow ist normalerweise ein “Skript”, eine vereinfachte Computersprache, mit der die Software-Design-Tools in der richtigen Reihenfolge aufgerufen werden können.

Werkzeugflüsse für große Logiksysteme wie Mikroprozessoren können Tausende von Befehlen lang sein und die Arbeit von Hunderten von Ingenieuren kombinieren.

Das Schreiben und Debuggen von Toolflows ist eine etablierte technische Spezialität in Unternehmen, die digitale Designs herstellen. Der Werkzeugfluss endet normalerweise in einer detaillierten Computerdatei oder einer Reihe von Dateien, die beschreiben, wie die Logik physisch erstellt wird. Oft besteht es aus Anweisungen zum Zeichnen der Transistoren und Drähte auf einer integrierten Schaltung oder einer Leiterplatte.

Teile der Werkzeugflüsse werden “debuggt”, indem die Ausgaben der simulierten Logik mit den erwarteten Eingaben verglichen werden. Die Testtools verwenden Computerdateien mit einer Reihe von Ein- und Ausgängen und zeigen Diskrepanzen zwischen dem simulierten Verhalten und dem erwarteten Verhalten auf.

Sobald die Eingabedaten für korrekt gehalten werden, muss das Design selbst noch auf Richtigkeit überprüft werden. Einige Werkzeugflüsse überprüfen Konstruktionen, indem sie zuerst eine Konstruktion erstellen und dann die Konstruktion scannen, um kompatible Eingabedaten für den Werkzeugfluss zu erstellen. Wenn die gescannten Daten mit den Eingabedaten übereinstimmen, hat der Werkzeugfluss wahrscheinlich keine Fehler verursacht.

Die Funktionsverifizierungsdaten werden üblicherweise als “Testvektoren” bezeichnet. Die Funktionstestvektoren können beibehalten und im Werk verwendet werden, um zu testen, ob die neu konstruierte Logik ordnungsgemäß funktioniert. Funktionstestmuster entdecken jedoch keine häufigen Herstellungsfehler. Produktionstests werden häufig von Softwaretools entwickelt, die als “Testmustergeneratoren” bezeichnet werden. Diese erzeugen Testvektoren, indem sie die Struktur der Logik untersuchen und systematisch Tests für bestimmte Fehler erzeugen. Auf diese Weise kann sich die Fehlerabdeckung nahezu 100% nähern, vorausgesetzt, das Design ist ordnungsgemäß testbar (siehe nächster Abschnitt).

Sobald ein Design existiert und verifiziert und testbar ist, muss es häufig verarbeitet werden, um auch herstellbar zu sein. Moderne integrierte Schaltungen weisen Merkmale auf, die kleiner als die Wellenlänge des Lichts sind, das zum Belichten des Fotolacks verwendet wird. Die Herstellbarkeitssoftware fügt den Belichtungsmasken Interferenzmuster hinzu, um Unterbrechungen zu vermeiden und den Kontrast der Masken zu verbessern.

Design für Testbarkeit[edit]

Es gibt mehrere Gründe, eine Logikschaltung zu testen. Bei der ersten Entwicklung der Schaltung muss überprüft werden, ob die Entwurfsschaltung die erforderlichen Funktions- und Zeitspezifikationen erfüllt. Wenn mehrere Kopien einer korrekt entworfenen Schaltung hergestellt werden, ist es wichtig, jede Kopie zu testen, um sicherzustellen, dass der Herstellungsprozess keine Fehler verursacht hat.[45]

Eine große Logikmaschine (beispielsweise mit mehr als hundert logischen Variablen) kann eine astronomische Anzahl möglicher Zustände aufweisen. Offensichtlich ist es in der Fabrik unpraktisch, jeden Zustand zu testen, wenn das Testen jedes Zustands eine Mikrosekunde dauert, und es gibt mehr Zustände als die Anzahl der Mikrosekunden seit Beginn des Universums. Dieser lächerlich klingende Fall ist typisch.

Große Logikmaschinen sind fast immer als Baugruppen kleinerer Logikmaschinen ausgelegt. Um Zeit zu sparen, werden die kleineren Submaschinen durch fest installierte “Design for Test” -Schaltungen isoliert und unabhängig getestet.

Ein übliches Testschema, das als “Scan-Design” bekannt ist, bewegt Testbits seriell (nacheinander) von externen Testgeräten durch ein oder mehrere serielle Schieberegister, die als “Scan-Ketten” bekannt sind. Serielle Scans haben nur ein oder zwei Drähte, um die Daten zu übertragen, und minimieren die physische Größe und die Kosten der selten verwendeten Testlogik.

Nachdem alle Testdatenbits vorhanden sind, wird das Design so konfiguriert, dass es sich im “normalen Modus” befindet, und es werden ein oder mehrere Taktimpulse angelegt, um auf Fehler zu prüfen (z. B. auf “niedrig” oder “hoch”) und den Test zu erfassen führen zu Flip-Flops und / oder Latches in den Scan-Schieberegistern. Schließlich wird das Testergebnis an die Blockgrenze verschoben und mit dem vorhergesagten Ergebnis “gute Maschine” verglichen.

In einer Board-Test-Umgebung wurden serielle bis parallele Tests mit einem Standard namens “JTAG” (benannt nach der “Joint Test Action Group”, die ihn erstellt hat) formalisiert.

Ein anderes allgemeines Testschema stellt einen Testmodus bereit, der einen Teil der Logikmaschine zwingt, in einen “Testzyklus” einzutreten. Der Testzyklus übt normalerweise große unabhängige Teile der Maschine aus.

Kompromisse[edit]

Mehrere Zahlen bestimmen die Praktikabilität eines Systems digitaler Logik: Kosten, Zuverlässigkeit, Fanout und Geschwindigkeit. Ingenieure untersuchten zahlreiche elektronische Geräte, um eine günstige Kombination dieser Persönlichkeiten zu erhalten.

Kosten[edit]

Die Kosten eines Logikgatters sind entscheidend, vor allem, weil sehr viele Gatter zum Aufbau eines Computers oder eines anderen fortschrittlichen digitalen Systems benötigt werden und weil die Maschine umso leistungsfähiger und / oder reaktionsfähiger werden kann, je mehr Gatter verwendet werden können. Da der Großteil eines digitalen Computers einfach ein miteinander verbundenes Netzwerk von Logikgattern ist, korrelieren die Gesamtkosten für den Bau eines Computers stark mit dem Preis pro Logikgatter. In den 1930er Jahren wurden die frühesten digitalen Logiksysteme aus Telefonrelais konstruiert, da diese kostengünstig und relativ zuverlässig waren. Danach verwendeten die Elektrotechniker immer die billigsten verfügbaren elektronischen Schalter, die die Anforderungen noch erfüllen konnten.

Die frühesten integrierten Schaltkreise waren ein glücklicher Zufall. Sie wurden nicht konstruiert, um Geld zu sparen, sondern um Gewicht zu sparen und um dem Apollo Guidance Computer die Steuerung eines Trägheitsleitsystems für ein Raumschiff zu ermöglichen. Die ersten Logikgatter mit integrierter Schaltung kosteten fast 50 US-Dollar (1960, als ein Ingenieur 10.000 US-Dollar pro Jahr verdiente). Sehr zur Überraschung vieler Beteiligter waren die Schaltungen zu dem Zeitpunkt, als sie in Massenproduktion hergestellt wurden, die kostengünstigste Methode zum Aufbau digitaler Logik. Verbesserungen dieser Technologie haben zu allen nachfolgenden Kostenverbesserungen geführt.

Mit dem Aufkommen integrierter Schaltkreise war die Reduzierung der absoluten Anzahl der verwendeten Chips ein weiterer Weg, um Kosten zu sparen. Das Ziel eines Designers ist nicht nur, die einfachste Schaltung zu erstellen, sondern auch den Countdown der Komponenten niedrig zu halten. Manchmal führt dies zu komplizierteren Designs in Bezug auf die zugrunde liegende digitale Logik, reduziert jedoch die Anzahl der Komponenten, die Platinengröße und sogar den Stromverbrauch. Ein Hauptmotiv zur Reduzierung der Komponentenanzahl auf Leiterplatten besteht darin, die Herstellungsfehlerrate zu verringern und die Zuverlässigkeit zu erhöhen, da jede Lötverbindung potenziell schlecht ist, sodass die Fehler- und Ausfallraten tendenziell zusammen mit der Gesamtzahl der Komponentenstifte zunehmen.

Beispielsweise sind in einigen Logikfamilien NAND-Gatter das am einfachsten zu bauende digitale Gatter. Alle anderen logischen Operationen können durch NAND-Gatter implementiert werden. Wenn eine Schaltung bereits ein einzelnes NAND-Gatter benötigt und ein einzelner Chip normalerweise vier NAND-Gatter trägt, könnten die verbleibenden Gatter verwendet werden, um andere logische Operationen wie logische und zu implementieren. Dies könnte die Notwendigkeit eines separaten Chips beseitigen, der diese verschiedenen Arten von Gates enthält.

Verlässlichkeit[edit]

Die “Zuverlässigkeit” eines Logikgatters beschreibt seine mittlere Zeit zwischen Ausfällen (MTBF). Digitale Maschinen haben oft Millionen von Logikgattern. Außerdem sind die meisten digitalen Maschinen “optimiert”, um ihre Kosten zu senken. Das Ergebnis ist, dass der Ausfall eines einzelnen Logikgatters häufig dazu führt, dass eine digitale Maschine nicht mehr funktioniert. Es ist möglich, Maschinen zuverlässiger zu gestalten, indem redundante Logik verwendet wird, die nicht aufgrund des Ausfalls eines einzelnen Gates (oder sogar zweier, drei oder vier Gates) fehlerhaft funktioniert. Dies erfordert jedoch zwangsläufig die Verwendung weiterer Komponenten erhöht die finanziellen Kosten und erhöht normalerweise auch das Gewicht der Maschine und kann den Stromverbrauch erhöhen.

Digitale Maschinen wurden zum ersten Mal nützlich, als die MTBF für einen Schalter einige hundert Stunden überschritt. Trotzdem hatten viele dieser Maschinen komplexe, gut eingeübte Reparaturverfahren und waren stundenlang nicht funktionsfähig, weil ein Rohr durchgebrannt war oder eine Motte in einem Relais steckte. Moderne transistorisierte Logikgatter mit integrierter Schaltung haben MTBFs von mehr als 82 Milliarden Stunden (8,2 · 10)10 Std),[46] und brauchen sie, weil sie so viele Logikgatter haben.

Ausschwärmen[edit]

Fanout beschreibt, wie viele Logikeingänge von einem einzelnen Logikeingang gesteuert werden können, ohne die elektrischen Stromwerte der Gate-Ausgänge zu überschreiten.[47] Der minimale praktische Fanout beträgt ungefähr fünf. Moderne elektronische Logikgatter, die CMOS-Transistoren für Schalter verwenden, haben Fanouts nahe fünfzig und können manchmal viel höher gehen.

Geschwindigkeit[edit]

Die “Schaltgeschwindigkeit” beschreibt, wie oft pro Sekunde ein Wechselrichter (eine elektronische Darstellung einer “logischen Nicht” -Funktion) von wahr zu falsch und zurück wechseln kann. Eine schnellere Logik kann mehr Operationen in kürzerer Zeit ausführen. Die digitale Logik wurde zum ersten Mal nützlich, wenn die Schaltgeschwindigkeit über 50 Hz lag, da dies schneller war als ein Team von Menschen, die mechanische Taschenrechner bedienten. Moderne elektronische digitale Logik schaltet routinemäßig mit 5 GHz (5 · 10)9 Hz) und einige Laborsysteme schalten auf mehr als 1 THz (1 · 10)12 Hz)[citation needed].

Logikfamilien[edit]

Das Design begann mit Relais. Die Relaislogik war relativ kostengünstig und zuverlässig, aber langsam. Gelegentlich trat ein mechanischer Fehler auf. Die Fanouts betrugen typischerweise etwa 10, begrenzt durch den Widerstand der Spulen und Lichtbogenbildung an den Kontakten durch hohe Spannungen.

Später wurden Vakuumröhren verwendet. Diese waren sehr schnell, erzeugten jedoch Wärme und waren unzuverlässig, da die Filamente ausbrennen würden. Die Fanouts betrugen typischerweise 5 … 7, begrenzt durch die Erwärmung durch den Strom der Röhren. In den 1950er Jahren wurden spezielle “Computerröhren” mit Filamenten entwickelt, bei denen flüchtige Elemente wie Silizium weggelassen wurden. Diese liefen hunderttausende Stunden.

Die erste Halbleiterlogikfamilie war die Widerstands-Transistor-Logik. Dies war tausendmal zuverlässiger als Röhren, lief kühler und verbrauchte weniger Strom, hatte jedoch einen sehr geringen Fan-In von 3. Die Dioden-Transistor-Logik verbesserte den Fanout auf etwa 7 und reduzierte die Leistung. Einige DTL-Designs verwendeten zwei Netzteile mit abwechselnden Schichten von NPN- und PNP-Transistoren, um das Fanout zu erhöhen.

Die Transistor-Transistor-Logik (TTL) war eine große Verbesserung gegenüber diesen. In frühen Geräten verbesserte sich das Fanout auf 10, und spätere Variationen erreichten zuverlässig 20. TTL war ebenfalls schnell, wobei einige Variationen Schaltzeiten von nur 20 ns erreichten. TTL wird in einigen Designs immer noch verwendet.

Emittergekoppelte Logik ist sehr schnell, verbraucht aber viel Strom. Es wurde ausgiebig für Hochleistungscomputer verwendet, die aus vielen mittelgroßen Komponenten bestehen (wie z. B. dem Illiac IV).

Bei weitem die heute am häufigsten verwendeten digitalen integrierten Schaltkreise verwenden CMOS-Logik, die schnell ist, eine hohe Schaltungsdichte und eine geringe Leistung pro Gate bietet. Dies wird auch in großen, schnellen Computern wie dem IBM System z verwendet.

Kürzliche Entwicklungen[edit]

Im Jahr 2009 entdeckten Forscher, dass Memristoren einen Booleschen Zustandsspeicher (ähnlich einem Flip-Flop, Implikation und logische Inversion) implementieren können, der mithilfe bekannter CMOS-Halbleiterprozesse eine vollständige Logikfamilie mit sehr wenig Platz und Leistung bietet.[48]

Die Entdeckung der Supraleitung hat die Entwicklung einer schnellen RSFQ-Schaltungstechnologie (Single Flux Quantum) ermöglicht, bei der Josephson-Übergänge anstelle von Transistoren verwendet werden. In jüngster Zeit wird versucht, rein optische Computersysteme zu konstruieren, die digitale Informationen unter Verwendung nichtlinearer optischer Elemente verarbeiten können.

Siehe auch[edit]

  1. ^ Ein Beispiel für einen frühen asynchronen Digitalcomputer war der 1951 von der Jacobs Instrument Company hergestellte Jaincomp-B1, der eine extrem hohe Taktrate ermöglichte und eine Leistung von einer 300-Subminiatur-Röhreneinheit in Desktop-Größe lieferte, die mit der typischen konkurrierte raumgroße Computer seiner Zeit.[42]
  2. ^ Alternativ können die Ausgänge mehrerer Elemente über Puffer mit einem Bus verbunden werden, die den Ausgang aller Geräte außer einem ausschalten können.

Verweise[edit]

  1. ^ Null, Linda; Lobur, Julia (2006). Das Wesentliche der Computerorganisation und -architektur. Jones & Bartlett Verlag. p. 121. ISBN 978-0-7637-3769-6. Wir können Logikdiagramme (die wiederum zu digitalen Schaltkreisen führen) für jeden booleschen Ausdruck erstellen …
  2. ^ Peirce, CS, “Brief, Peirce an A. Marquand”, datiert 1886, Schriften von Charles S. Peirce5, 1993, S. 541–3. Google Vorschau. Siehe Burks, Arthur W., “Review: Charles S. Peirce, Die neuen Elemente der Mathematik“, Bulletin der American Mathematical Society v. 84, n. 5 (1978), S. 913–18, siehe 917. PDF Eprint.
  3. ^ Im Jahr 1946 benötigte ENIAC geschätzte 174 kW. Im Vergleich dazu kann ein moderner Laptop etwa 30 W verbrauchen. fast sechstausendmal weniger. “Ungefährer Stromverbrauch für Desktop und Notebook”. Universität von Pennsylvania. Archiviert von das Original am 3. Juni 2009. Abgerufen 20. Juni 2009.
  4. ^ “Ein Computerpionier, 50 Jahre später wiederentdeckt”. Die New York Times. 20. April 1994.
  5. ^ Lee, Thomas H. (2003). Der Entwurf von integrierten CMOS-Hochfrequenzschaltungen (PDF). Cambridge University Press. ISBN 9781139643771.
  6. ^ Puers, Robert; Baldi, Livio; Voorde, Marcel Van de; Nooten, Sebastiaan E. van (2017). Nanoelektronik: Materialien, Geräte, Anwendungen, 2 Bände. John Wiley & Sons. p. 14. ISBN 9783527340538.
  7. ^ Lavington, Simon (1998), Eine Geschichte von Manchester Computers (2. Aufl.), Swindon: The British Computer Society, S. 34–35
  8. ^ “Der Chip, den Jack gebaut hat”. Texas Instruments. 2008. Abgerufen 29. Mai 2008.
  9. ^ Bassett, Ross Knox (2007). Zum digitalen Zeitalter: Forschungslabors, Start-up-Unternehmen und der Aufstieg der MOS-Technologie. Johns Hopkins University Press. p. 46. ​​ISBN 9780801886393.
  10. ^ “1960 – Demonstration eines Metalloxidhalbleitertransistors (MOS)”. Die Silicon Engine. Computergeschichtliches Museum.
  11. ^ ein b “Wer hat den Transistor erfunden?”. Computergeschichtliches Museum. 4. Dezember 2013. Abgerufen 20. Juli 2019.
  12. ^ ein b c “Triumph des MOS-Transistors”. Youtube. Computergeschichtliches Museum. 6. August 2010. Abgerufen 21. Juli 2019.
  13. ^ Motoyoshi, M. (2009). “Through-Silicon Via (TSV)”. Verfahren des IEEE. 97 (1): 43–48. doi:10.1109 / JPROC.2008.2007462. ISSN 0018-9219. S2CID 29105721.
  14. ^ “Schildkröte der Transistoren gewinnt das Rennen – CHM Revolution”. Computergeschichtliches Museum. Abgerufen 22. Juli 2019.
  15. ^ “Transistoren halten Moores Gesetz am Leben”. EETimes. 12. Dezember 2018. Abgerufen 18. Juli 2019.
  16. ^ ein b “Anwenden von MOSFETs auf heutige Leistungsschaltdesigns”. Elektronisches Design. 23. Mai 2016. Abgerufen 10. August 2019.
  17. ^ B. SOMANATHAN NAIR (2002). Digitales Elektronik- und Logikdesign. PHI Learning Pvt. P. 289. ISBN 9788120319561. Digitale Signale sind Impulse mit fester Breite, die nur einen von zwei Amplitudenpegeln belegen.
  18. ^ Joseph Migga Kizza (2005). Computernetzwerksicherheit. Springer Science & Business Media. ISBN 9780387204734.
  19. ^ 2000 Gelöste Probleme in der digitalen Elektronik. Tata McGraw-Hill Ausbildung. 2005. p. 151. ISBN 978-0-07-058831-8.
  20. ^ Chan, Yi-Jen (1992). Untersuchungen von InAIAs / InGaAs- und GaInP / GaAs-Heterostruktur-FETs für Hochgeschwindigkeitsanwendungen. Universität von Michigan. p. 1. Der Si-MOSFET hat die Elektronikindustrie revolutioniert und wirkt sich in nahezu jeder erdenklichen Weise auf unser tägliches Leben aus.
  21. ^ Grant, Duncan Andrew; Gowar, John (1989). Leistungs-MOSFETS: Theorie und Anwendungen. Wiley. p. 1. ISBN 9780471828679. Der Metalloxid-Halbleiter-Feldeffekttransistor (MOSFET) ist das am häufigsten verwendete aktive Bauelement bei der Integration digitaler integrierter Schaltkreise (VLSI) in sehr großem Maßstab. In den 1970er Jahren revolutionierten diese Komponenten die elektronische Signalverarbeitung, Steuerungssysteme und Computer.
  22. ^ Golio, Mike; Golio, Janet (2018). Passive und aktive HF- und Mikrowellentechnologien. CRC Drücken Sie. p. 18–2. ISBN 9781420006728.
  23. ^ Raymer, Michael G. (2009). Das Silicon Web: Physik für das Internetzeitalter. CRC Drücken Sie. p. 365. ISBN 9781439803127.
  24. ^ Wong, Kit Po (2009). Elektrotechnik – Band II. EOLSS-Veröffentlichungen. p. 7. ISBN 9781905839780.
  25. ^ Hittinger, William C. (1973). “Metalloxid-Halbleitertechnologie”. Wissenschaftlicher Amerikaner. 229 (2): 48–59. Bibcode:1973SciAm.229b..48H. doi:10.1038 / Scientificamerican0873-48. ISSN 0036-8733. JSTOR 24923169.
  26. ^ Peter Clarke (14. Oktober 2005). “Intel tritt in die Ära der Milliarden-Transistor-Prozessoren ein”. EE Times.
  27. ^ “13 Sextillion & Counting: Der lange und kurvenreiche Weg zum am häufigsten hergestellten menschlichen Artefakt in der Geschichte”. Computergeschichtliches Museum. 2. April 2018. Abgerufen 12. Oktober 2020.
  28. ^ Golio, Mike; Golio, Janet (2018). Passive und aktive HF- und Mikrowellentechnologien. CRC Drücken Sie. S. IX, I-1, 18-2. ISBN 9781420006728.
  29. ^ Rappaport, TS (November 1991). “Die drahtlose Revolution”. IEEE Communications Magazine. 29 (11): 52–71. doi:10.1109 / 35.109666. S2CID 46573735.
  30. ^ “Die drahtlose Revolution”. Der Ökonom. 21. Januar 1999. Abgerufen 12. September 2019.
  31. ^ Ahmed, Nasir (Januar 1991). “Wie ich zur diskreten Kosinustransformation kam”. Digitale Signalverarbeitung. 1 (1): 4–5. doi:10.1016 / 1051-2004 (91) 90086-Z.
  32. ^ ein b Lea, William (1994). Video on Demand: Forschungsbericht 94/68. 9. Mai 1994: Bibliothek des Unterhauses. Archiviert von das Original am 20. September 2019. Abgerufen 20. September 2019.CS1-Wartung: Standort (Link)
  33. ^ Frolov, Artem; Primechaev, S. (2006). “Abrufen komprimierter Domänenbilder basierend auf DCT-Verarbeitung”. Semantischer Gelehrter. S2CID 4553.
  34. ^ Lee, Ruby Bei-Loh; Beck, John P.; Lamm, Joel; Severson, Kenneth E. (April 1995). “Echtzeit-Software-MPEG-Videodecoder auf multimedialen PA 7100LC-Prozessoren” (PDF). Hewlett-Packard Journal. 46 (2). ISSN 0018-1153.
  35. ^ ein b Stanković, Radomir S.; Astola, Jaakko T. (2012). “Erinnerungen an die frühen Arbeiten in DCT: Interview mit KR Rao” (PDF). Nachdrucke aus den Anfängen der Informationswissenschaften. 60. Abgerufen 13. Oktober 2019.
  36. ^ Luo, Fa-Long (2008). Mobile Multimedia Broadcasting Standards: Technologie und Praxis. Springer Science & Business Media. p. 590. ISBN 9780387782638.
  37. ^ Britanak, V. (2011). “Zu Eigenschaften, Beziehungen und vereinfachter Implementierung von Filterbänken in den Dolby Digital (Plus) AC-3-Audiocodierungsstandards”. IEEE-Transaktionen zur Audio-, Sprach- und Sprachverarbeitung. 19 (5): 1231–1241. doi:10.1109 / TASL.2010.2087755. S2CID 897622.
  38. ^ Shishikui, Yoshiaki; Nakanishi, Hiroshi; Imaizumi, Hiroyuki (26. bis 28. Oktober 1993). “Ein HDTV-Codierungsschema unter Verwendung von DCT mit adaptiver Dimension”. Signalverarbeitung von HDTV: Vorträge des Internationalen Workshops zu HDTV ’93, Ottawa, Kanada. Elsevier: 611–618. doi:10.1016 / B978-0-444-81844-7.50072-3. ISBN 9781483298511.
  39. ^ Matthew, Crick (2016). Macht, Überwachung und Kultur in der digitalen Sphäre von YouTube ™. IGI Global. S. 36–7. ISBN 9781466698567.
  40. ^ Paul Horowitz und Winfield Hill, Die Kunst der Elektronik 2. Aufl. Cambridge University Press, Cambridge, 1989 ISBN 0-521-37095-7 Seite 471
  41. ^ Maini. AK (2007). Prinzipien, Geräte und Anwendungen der digitalen Elektronik. Chichester, England: John Wiley & Sons Ltd.
  42. ^ Pentagon-Symposium: Kommerziell erhältliche elektronische Digitalcomputer für allgemeine Zwecke zu moderaten Preisen, Washington, DC, 14. Mai 1952
  43. ^ “ASODA Sync / Async DLX Core”. OpenCores.org. Abgerufen 5. September 2014.
  44. ^ Clarke, Peter. “ARM bietet ersten taktlosen Prozessorkern”. eetimes.com. UBM Tech (Universal Business Media). Abgerufen 5. September 2014.
  45. ^ Brown S & Vranesic Z. (2009). Grundlagen der digitalen Logik mit VHDL-Design. 3rd ed. New York, NY: Mc Graw Hill.
  46. ^ MIL-HDBK-217F-Hinweis 2, Abschnitt 5.3, für kommerzielle CMOS-ICs mit 100.000 Gate und 0,8 Mikrometern bei 40 ° C; Die Ausfallraten im Jahr 2010 sind besser, da die Leitungsgrößen auf 0,045 Mikrometer gesunken sind und weniger Off-Chip-Verbindungen pro Gate erforderlich sind.
  47. ^ Kleitz, William. (2002). Grundlagen von Digital- und Mikroprozessoren: Theorie und Anwendung. 4. Aufl. Upper Saddler Reviver, New Jersey: Pearson / Prentice Hall
  48. ^ Eero Lehtonen, Mika Laihom, “Stateful Implication Logic with Memristors”, Proceedings des Internationalen IEEE / ACM-Symposiums für nanoskalige Architekturen 2009 IEEE Computer Society Washington, DC, USA © 2009 Zugriff 2011-12-11

Weiterführende Literatur[edit]

  • Douglas Lewin, Logisches Design von SchaltkreisenNelson, 1974.
  • RH Katz, Zeitgenössisches Logikdesign, The Benjamin / Cummings Publishing Company, 1994.
  • PK Lala, Praktisches Design und Testen digitaler Logik, Prentice Hall, 1996.
  • YK Chan und SY Lim, Fortschritte in der elektromagnetischen Forschung B, Vol. 1, 269–290, 2008, “SAR-Signalerzeugung (Synthetic Aperture Radar), Fakultät für Ingenieurwissenschaften und Technologie, Multimedia-Universität, Jalan Ayer Keroh Lama, Bukit Beruang, Melaka 75450, Malaysia.

Externe Links[edit]


after-content-x4