Microprocesseur – Wikipedia

before-content-x4

Microprocesseur Intel I486DX2 (1992) : Le logement ouvert de l’ICS montre la tuile semi-conducteurs de 76 mm² avec 1,2 million de transistors. La zone rectangulaire centrale est le circuit électronique réel, sur les côtés desquels les lignes de connexion pour le câblage aux épingles du boîtier sont disposées. Différentes luminosité montrent des unités fonctionnelles telles que le calcul et le cache du processeur.

UN microprocesseur (depuis grec petit super , Allemand ‘Petit, serré’ ) est un processeur réalisé sous forme de circuit intégré (IC), qui peut être fabriqué sur une plaquette mince semi-conductrice (le) sur une mince demi-handlebar (la) à une échelle plus petite que les processeurs de technologie de tube antérieurs. Un processeur de tube avait généralement besoin d’une pièce entière avec plusieurs armoires de commande, tandis que Micro Processeur sur une seule planche ou même une seule puce.

after-content-x4

Un microprocesseur typique est un circuit intégré numérique basé sur un registre dans la technologie CMOS, c’est-à-dire basé sur des transistors complémentaires à effet de champ de conducteur d’oxyde de métal (MOSFET), qui traite les données binaires conformément aux instructions contenues dans sa RAM.

Le premier microprocesseur a été développé au début des années 1970 par la société Texas Instruments basée sur la technologie IC. Les exemples typiques de microprocesseurs sont les principaux processeurs (anglais unité de traitement centrale , CPU) ordinateur moderne, qui sont parfois assimilés au terme microprocesseur. En plus de ce groupe important, il existe de nombreux autres processeurs dans la technologie IC, par ex. B. Processeurs de réseau, graphique et sonore. Au cours de la miniaturisation progressive, il a été possible de mettre en œuvre une périphérie supplémentaire sur la puce en plus du microprocesseur. Le microcontrôleur ou le système sur puce (SOC) est né.

Le Zue Z3 est considéré comme la première calculatrice numérique fonctionnelle dans le monde et a été construite en 1941 par Konrad Zuse en collaboration avec Helmut Schreyer à Berlin. Le Z3 était composé de 600 relais pour le calcul et 1400 relais pour la mémoire. [d’abord] Cet ordinateur marque le début de l’époque, qui est souvent mentionné dans la littérature 0, la machine informatique basée sur la technologie de relais électromagnétique. [2] [3] En 1946, l’Eniac (intégrateur numérique électronique et ordinateur) a été développé sous la direction de John Eckert et John Mauchly et construit à la Moore School of Electrical Engineering de l’Université de Pennsylvanie. L’ENIAC avait 20 registres électroniques, 3 planches de fonction comme mémoire fixe et consistait en 18 000 tubes et 1 500 relais. [4] L’ENIAC est considéré comme le premier ordinateur universel numérique entièrement électronique. Avec ces machines informatiques, il ne peut y avoir de discours de processeurs individuels dans un sens ultérieur.

Le saut technologique du tube à la technologie du transistor avait un besoin d’espace inférieur, un développement de température plus faible, une vitesse de traitement plus élevée, un taux de défaillance inférieur et une consommation d’énergie inférieure de seulement quelques 100 watts. La fréquence de l’horloge a atteint environ 1 MHz. En raison de la réduction progressive des transistors, il a été rapidement possible d’accueillir de plus en plus de transistors sur les circuits intégrés (CI). Initialement, ce ne sont que des portes individuelles, une de plus en plus fréquemment, l’une a également intégré des registres entiers et des unités fonctionnelles telles que les additionnelles et les compteurs, enfin même enregistrer des bancs et des travaux arithmétiques sur une puce. Cette intégration croissante de plus en plus de fonctions de transistor et de porte sur une puce a rapidement conduit au microprocesseur.

Le microprocesseur a été breveté par les employés de la société américaine Texas Instruments (TI), qui a présenté le circuit TMS1000 en 1971. Cette évolution est considérée comme une étape importante pour entrer dans la 4e génération de la technologie informatique. [3] En plus d’un processeur principal, le TMS1000 contenait une grande rome à 1 kib, une RAM 64 × 4 bits et d’autres fonctions telles que le compteur et la minuterie ainsi que les interfaces pour l’entrée et la sortie. À ce moment-là, ceux-ci étaient généralement mis en œuvre dans des circuits individuels et le TMS1000 correspond donc à un microcontrôleur.

La même année que Ti, la société Intel, qui était également basée aux États-Unis, a présenté le “microprocesseur” (anglais unité de microprocesseur , MPU), qui est considéré comme le premier processeur principal (CPU) sur une puce, car TI n’a commercialisé le TMS1000 que comme produit indépendant de 1974. Avec seulement des registres de 4 bits de large et une fréquence d’horloge allant jusqu’à 740 kHz, le 4004 n’était pas très puissant. C’était toujours une percée par rapport aux CPU classiques, conception extrêmement compacte au microprocesseur. Le 4004 était à l’origine un développement de commandes pour le fabricant d’ordinateurs de table japonais. En 1969, Ted Hoff d’Intel, chef du département Recherche sur les applications , l’idée de réaliser le cœur de cette calculatrice de table sous la forme d’un composant programmable. En 1970, Federico Faggin s’est développé, dans le Département des études sur la structure du conducteur du col de l’isolateur de métal, une intégration de circuit basée sur des transistors avec une électrode de porte en silicium pour la mise en œuvre du 4004 et a fait le projet à ses débuts réussis en 1971. Il n’a pas été en fait prévu que le premier CPU à puce à l’encre universellement applicable du monde. Étant donné que BUSICOM était en difficulté financière à l’époque, Intel a été proposé d’acheter la conception 4004, après quoi Intel a commencé à commercialiser le 4004. Le 4004 est devenu le premier microprocesseur commercial au monde.

Un autre développement remarquable n’était connu qu’en 1998 après la libération de documents militaires. En conséquence, Garrett Airesearch (y compris avec les employés Steve Geller et Ray Holt) a déjà développé un chipset (à partir de plusieurs circuits intégrés, dont le processeur) à des fins militaires entre 1968 et 1970. [5] [6] [7] [8] Le chipset connu sous le nom de MP944 faisait partie de l’ordinateur Central Air Data (CADC), le système de commande de vol du nouveau F-14 Tomcat (US Navy).

Tout d’abord, c’étaient des circuits assez simples. En plus de la miniaturisation et des coûts d’économie, la microélectronique a apporté d’autres avantages tels que la vitesse, la faible consommation d’énergie, la fiabilité et plus tard également une complexité plus élevée. Cela a entraîné des microprocesseurs relativement bon marché au fil du temps, les processeurs coûteux des mini ordinateurs et parfois même la principale calculatrice. Vers la fin du 20e siècle, le microprocesseur s’est déplacé dans de nombreux appareils électroniques, en particulier en tant que processeur d’ordinateurs du personnel (PC). Le terme microprocesseur est également resté lorsque la taille de la structure des puces de microprocesseur a été encore réduite à quelques nanomètres (14 nm, en janvier 2015, Intel Broadwell Architecture).

En raison de la densité d’intégration pas si élevée, la largeur du mot était initialement limitée à 4 bits. En conséquence, la largeur du mot a été continuellement augmentée, principalement par étapes de doublement. Étant donné que les ressources étaient si chères au début, ils cherchaient des moyens de les adapter de manière optimale aux exigences respectives. Un épisode sur le chemin de ceci était des systèmes de lits bizarre, dans lesquels plusieurs processeurs de tranche de bits pouvaient être interconnectés dans un système de largeur de bits souhaitée et plus grande.

Pour implémenter un ordinateur complet, le microprocesseur doit toujours être élargi pour inclure les fonctions de stockage et d’entrée / sortie. Ceux-ci sont disponibles sous la forme d’autres puces. Quelques années seulement après l’introduction de microprocesseurs, le concept du microcontrôleur, qui combine ces fonctions sur une puce.

Selon la largeur du mot, le type de commande (CISC / RISC) ou simplement les fabricants, les processeurs sont divisés en différentes architectures de processeur.

Processeurs 8 bits remarquables [ Modifier | Modifier le texte source ]]

Le 4004 a été remplacé en 1972 par le 8008, le premier microprocesseur 8 bits au monde. Ce processeur était le précurseur de l’Intel 8080 extrêmement réussi (1974) et d’autres processeurs 8 bits d’Intel. Le Motorola 6800 concurrent était disponible à partir d’août 1974, la même année que le 8080. L’architecture du 6800 a été copiée et améliorée pour la technologie MOS 6502 en 1975, qui a conclu en popularité dans les années 1980 avec le Z80.

L’équipe de développement du 8080 a fondé The Zilog Company et a publié le Z80 en 1976, un développement ultérieur très amélioré et compatible par code. Cela a atteint la plus grande popularité de tous les processeurs 8 bits. Les Z80 et 6502 ont été développés en ce qui concerne les coûts totaux faibles. Le boîtier était significativement plus petit qu’avec des microprocesseurs comparables, qui devaient être utilisés pour les revendications et les circuits de bus qui avaient auparavant dû être mis à disposition dans une puce séparée (le Z80, par exemple, avait son propre générateur de rafraîchissement pour Dynamic Ram Memory Dram). Après tout, ce sont ces propriétés qui ont aidé le marché de l’ordinateur à domicile à percer au début des années 1980 et ont abouti à des machines disponibles pour 99 $.

Le SC / MP a été vendu par la National Semiconductor Corporation de Santa Clara au milieu des années 1970. Divers ordinateurs monomodes ont été réalisés comme des ordinateurs d’auto-construction et d’enseignement basés sur le SC / MP jusqu’en 1980 vers 1980.

Western Design Center (WDC) a présenté le CMOS 65C02 en 1982 et a concédé la conception à différentes sociétés. Ce processeur a été utilisé dans les stimulateurs cardiaques et les défibrillateurs, les voitures, les voitures ainsi que dans les appareils industriels et sur le marché de la consommation. WDC a ainsi préparé la voie à la technologie des microprocesseurs de licence; Ce modèle commercial a ensuite été repris par ARM et d’autres fabricants dans les années 1990.

Motorola Trunk tout le monde 8 bits en 1978 avec la présentation de la Motorola 6809, l’une des architectures 8 bits les plus puissantes et les plus propres et également l’une des logiques de microprocesseurs les plus complexes jamais produites. À cette époque, la micro-programmation a remplacé les logiques précédemment fixes – précisément parce que les exigences des conceptions pour un câblage ferme sont devenues trop complexes.

Un autre microprocesseur 8 bits était la Signetics 2650, qui a été au centre de l’intérêt général en raison de son architecture de commandement innovante et efficace.

Un microprocesseur pour les voyages spatiaux était le RCA1802 (alias CDP1802, RCA Cosmac; présenté en 1976), qui a été utilisé dans les espaces Voyager, Viking et Galileo. Le CDP1802 a été utilisé car il pouvait fonctionner avec très peu d’énergie et sa conception (silicone-sur-sapphire) offrait une protection beaucoup plus élevée contre le rayonnement cosmique et les décharges électrostatiques que tout autre processeur à ce moment. Le CP1802 a été le premier rayonnement durci ( radié ) Processeur décrit.

Processeurs 16 bits [ Modifier | Modifier le texte source ]]

Le premier microprocesseur à 16 bits à puce multiple était l’IMP-16 du semi-conducteur national, présenté en 1973. Une version 8 bits a suivi un an plus tard que IMP-8. En 1975, National Semiconductor a présenté le premier microprocesseur de 16 bits RYTHME Avant cela, une version NMOS a suivi plus tard (dans le 8900).

D’autres microprocesseurs à 16 bits à puce multiple étaient le TMS 9900 de Ti, qui était également compatible avec la série de modèles TI-990-MinImaut-MinImaut interne. La puce avait un grand boîtier à 64 broches, tandis que la plupart des processeurs 8 bits ont été utilisés dans un boîtier de trempette à 40 broches plus petit, plus petit et moins cher en plastique. Un successeur a été développé à partir du 9900, le TMS 9980, qui avait également un logement moins cher. Il devrait devenir concurrent de l’Intel 8080. Le TMS 9980 a été en mesure de copier 8 bits de données en même temps, mais n’a répondu qu’à 16 kib. Une troisième puce, le TMS 9995, a été nouvellement développée. Cette famille de processeurs a ensuite été élargie avec les 99105 et le 99110.

WDC a rendu son 65C02 16 bits compatible et a présenté ce processeur en 1984 sous le nom de CMOS 65816. Le 65816 représentait le noyau de l’Apple Iig et plus tard le Super Nintendo, qui en a fait l’un des modèles 16 bits les plus populaires.

Intel a poursuivi la stratégie pour ne pas imiter les mini-ordinateurs et a plutôt “augmenté” sa conception 8080 à 16 bits. Cela a abouti à l’Intel 8086, le premier membre de la famille X86, qui peut être trouvé dans la plupart des PC aujourd’hui.
Le 8086 et son “petit frère”, le 8088, a offert la possibilité de porter des logiciels à partir de la ligne 8080, qui a fait de la bonne affaire Intel. Le successeur du 8086 était le 80186, le 80286 et 1985 le processeur 32 bits 80386, qui étaient tous compatibles en arrière et renforçaient ainsi considérablement le marché du marché d’Intel.

Processeurs 32 bits [ Modifier | Modifier le texte source ]]

Le premier microprocesseur 32 bits dans un boîtier séparé était le Bellmac-32A de AT&T Bell Labs, à partir desquels les premières pièces étaient disponibles en 1980, et qui a été produite en masse en 1982. Après la ventilation de AT&T 1984, il a été renommé WE 32000 (nous pour Western Electric) et avait deux successeurs: le WE 32100 et WE 32200. Ces microprocesseurs ont été utilisés dans le mini tuteur suivant de l’AT&T: 3B2, 3B15, “COMPALION” et “Alexander”.

L’un des microprocesseurs 32 bits les plus remarquables est le MC68000 de Motorola, qui a été présenté en 1979. Il était également souvent appelé 68K et avait un registre 32 bits, mais a utilisé des lignes de bus internes de 16 bits de large et un bus de données externe tout aussi large pour réduire le nombre de broches requises. Motorola a généralement appelé ce processeur comme un processeur 16 bits, bien qu’il ait une architecture 32 bits. La combinaison d’une salle d’adresse mémoire rapide et grande (16 mégaoctets) et de faibles coûts en a fait le processeur le plus populaire de sa classe. La série Apple Lisa et la série Macintosh ont utilisé le 68K; Au milieu des années 1980, ce processeur a également été utilisé dans l’Atari St et le Commodore Amiga.

Le premier microprocesseur 32 bits d’Intel a été le IAPX 432 présenté en 1981. Bien qu’il ait une architecture avancée et orientée objet, il n’était pas un succès commercial, non le moins parce qu’il était en performance par rapport aux architectures concurrentes.

Le succès de Motorola avec le 68K a conduit à la présentation du MC68010, qui a soutenu la technique d’adresse de stockage virtuelle. Enfin, le MC68020 avait des bus internes et externes de 32 bits. Ce processeur était extrêmement populaire dans le supercalculateur UNIX, et de nombreuses petites entreprises ont produit des systèmes de bureau avec ce processeur. Le MC68030 a intégré le MMU dans la puce. La plupart des ordinateurs qui ne fonctionnaient pas sur DOS utilisent désormais une puce de la famille 68K. Ce succès persistant a conduit au MC68040, qui a également intégré le FPU dans la puce et a ainsi augmenté la vitesse des opérations arithmétiques. Un MC68050 prévu n’a pas atteint les améliorations souhaitées et n’a pas été produite, le MC68060 a été jeté à un segment de marché déjà saturé de conceptions de risques beaucoup plus rapides.

Le 68020 et ses successeurs étaient souvent utilisés dans les systèmes intégrés.

Pendant cette période (du début au milieu de 1980), le semi-conducteur national, comme Motorola, a fait un processeur 32 bits avec un épingle 16 bits, le NS 16032 (recommencé plus tard NS 32016). La version avec un bus également large de 32 bits était le NS 32032. Sur la base de ce microprocesseur au milieu des années 80, présentait sécurisé le premier ordinateur SMP.

D’autres systèmes ont utilisé le Zilog Z80000, mais il est arrivé trop tard sur le marché et a rapidement disparu à nouveau.

Processeurs 64 bits sur le bureau [ Modifier | Modifier le texte source ]]

Alors que les processeurs 64 bits sur divers marchés sont utilisés depuis le début des années 1990, ils n’ont été utilisés sur le marché des PC après 2000. En juillet 2003, Apple a présenté le Power Mac G5 à la conférence des développeurs (WWDC), le premier ordinateur de bureau 64 bits d’Apple. Avant cela, il y avait déjà eu des ordinateurs 64 bits de Sun et d’autres fabricants, qui sont généralement appelés postes de travail et non comme une calculatrice de bureau, même si aucune fonction technique ne justifie cette distinction.

À peu près simultanément avec l’introduction par AMD de la première architecture 64 bits x64 (ou “AMD64” ou x86-64, à IA-32 en arrière compatible) en septembre 2000, l’ère des architectures 64 bits a également commencé avec des ordinateurs x86. AMD a rapidement été suivie par Intel, qui avait auparavant fabriqué des processeurs IA-64 (Itanium et Itanium 2), qui ont échoué en raison du manque de compatibilité vers le bas sur le marché des consommateurs. Maintenant, Intel s’est tourné vers l’architecture AMD64 et produit le sien dans les processeurs Intel-64 compatibles AMD64 depuis le Pentium 4-Kern Prescott 2M (version: février 2005). Les deux processeurs X86 peuvent exécuter le logiciel 32 bits précédent ainsi que le nouveau logiciel 64 bits. Avec Windows XP et Linux 64 bits, le logiciel s’est maintenant tourné vers la nouvelle architecture et a utilisé le plein potentiel de ces processeurs. Si de nombreuses versions du système d’exploitation 32 bits ont été livrées préinstallées avec Windows Vista, la plupart des fabricants OEM sont passés à la version 64 bits de Windows 7, d’autant plus que la limite magique de 4 Go de Ram des systèmes 32 bits a été atteinte dans des ordinateurs disponibles dans le commerce vers 2010.

Dans les architectures PowerPC, le passage à 64 bits a déjà été fabriqué au début des années 1990 (en fait, l’architecture PowerPC a été conçue comme une architecture 64 bits dès le départ, avec une pièce 32 bits pour les processeurs 32 bits [9] ). Les tailles de registre et les bus internes ont été agrandies lors du passage à 64 bits, mais les unités informatiques arithmétiques et vectorielles travaillent avec 64 bits ou plus depuis plusieurs années (c’est également le cas avec IA-32). À IA-32 (32 bits-x86, i386 ou x86-32 ) est le changement à 64 bits (x64 ou x86-64 : AMD64 ou Intel 64) plus que l’augmentation de la largeur du registre, car le nombre de registres a également été augmenté, ce qui a modernisé l’architecture x86 dans son ensemble. Comme résultat mesurable, cela est montré, par exemple, que les programmes lors de l’utilisation seul Adresses de 32 bits de large sous 64 bits-x86 (x64-e.g. Sous Linux pour distinguer avec “x32”) presque toujours plus rapidement que dans le mode de fonctionnement natif de l’architecture x86 32 bits (IA-32, i386, x86-32 ) Avec seulement la moitié de nombreux registres, ou vice versa que les programmes 32 bits sur des architectures tels que PowerPC ou MIPS, qui ne bénéficient pas d’un nombre accru de registre en 64 bits par rapport à l’opération 32 bits, sont souvent au moins de la même manière et parfois même plus rapides que les mêmes programmes que la version 64 bits. [dix] [11]

Processeurs à risque [ Modifier | Modifier le texte source ]]

Intel-I860-Risc-microprocesseur

Au milieu des années 80 jusqu’au début des années 1990, de nombreux microprocesseurs RISC sont apparus (anglais Ensemble d’instructions réduit informatique ), qui ont été initialement utilisés dans des ordinateurs spécialisés et des postes de travail UNIX, mais ont été utilisés universellement dans une grande variété de domaines de responsabilité depuis lors; Les ordinateurs de bureau Intel Standard sont désormais des formes mixtes RISC-CISC.

La première architecture commerciale provenait de MIPS Technologies, le R2000 (le R1000 n’a pas été vendu). Le R3000 n’a rendu que l’architecture vraiment pratique, le R4000 a finalement représenté la première architecture 64 bits au monde. Des projets concurrents ont produit les systèmes IBM Power and Sun Sparc. Bientôt, chaque grand fabricant avait une conception des risques proposée, par exemple B. L’AT&T Crisp, AMD AM29000, Intel I860 et Intel I960, Motorola 88000, Dec Alpha et le HP PA-Risc.

La compétition a rapidement fait disparaître la plupart de ces architectures, avec IBMS Power et le PowerPC en dérivé (comme le Architecture de bureau sur le bureau) et Sun Sparc (uniquement dans les systèmes de Suns propres). MIPS propose toujours des systèmes SGI, mais l’architecture est généralement utilisée comme conception intégrée, par ex. B. dans les routeurs de Cisco.

D’autres prestataires se concentrent sur les marchés de niche, en particulier ARM Limited, qui a été décrit à partir d’ACORN en 1989. Acorn était un fabricant d’ordinateurs RISC qui ont été l’un des premiers à viser le marché de l’ordinateur domestique avec la série de modèles Acorn Archimede et Acorn RISC PC basé sur l’architecture des bras. ARM se concentre désormais sur les processeurs (voir aussi l’architecture ARM) pour les systèmes intégrés.

Un microprocesseur est un processeur dans lequel tous les composants du processeur sont unis sur une puce. Les microprocesseurs sont adaptés au domaine d’application respectif en raison de leurs différents domaines d’application. Par exemple, des versions spéciales pour l’aérospatiale doivent résister à des températures particulièrement élevées et une exposition aux radiations en fonctionnement continu, tandis que les processeurs mobiles doivent avoir un taux IPC élevé, de faibles courants de fuite et une faible consommation d’énergie. Ces besoins sont pris en compte de différentes manières et sages: une décision de conception fondamentale est prise avec la sélection de l’ensemble de commandes (CISC ou RISC), dont les implications sont expliquées plus en détail dans les éléments spéciaux respectifs. Ensuite, le microcode le plus efficace est développé, qui est adapté de manière optimale aux conditions aux limites telles que la taille du cache, la bande passante de mémoire et les latences ainsi que les unités fonctionnelles internes.

La conception logique du microprocesseur dans un langage de description du matériel est ensuite remise à un ordinateur haute performance qui “achemine” les pistes du conducteur, c’est-à-dire h. Liaison technologique ou Cartographie technologique ). Étant donné que ces problèmes de routage sont en fonction de la NP, seules des solutions d’approximation sont trouvées, ce qui peut toujours être considérablement amélioré en détail. Les masques sont créés à partir de ces calculs de rail, qui sont utilisés au moyen d’une photoolithographie pour l’exposition des plaquettes, qui sont ensuite gravées. La production du microprocesseur d’aujourd’hui comprend bien plus de 100 étapes individuelles, au cours de laquelle une erreur peut déjà rendre le processeur entier inutilisable.

Dans le contrôle final, les processeurs sont finalement classés en ce qui concerne leur résistance à l’horloge, par laquelle les propriétés physiques telles que les niveaux de signal sont vérifiées à différentes horloges en fonction d’un programme de test, qui est développé individuellement pour chaque processus. En particulier, l’attention est accordée au processeur pour empêcher les chemins de vitesse (erreurs à travers les retards de signal).

En général, on peut dire que l’effort de validation des processeurs modernes a accepté d’énormes dimensions et, malgré tous les efforts, toutes les situations d’erreur ne peuvent pas être vérifiées avant la livraison. Le dernier processeur x86, entièrement vérifié dans toutes les fonctions (et erreurs!), Était le 80286. Par conséquent, tous les fabricants fournissent des listes d’errata dans lesquelles les erreurs découvertes sont enregistrées. Par exemple, Intel a dû admettre le tristement célèbre bug FDIV dans les processeurs précoces du Pentium, qui peuvent être attribués à plusieurs entrées manquantes dans une table de recherche interne du FPU.

Au fil du temps, en raison de la technologie toujours meilleure, le nombre de commandes soutenues par le processeur a augmenté. Aujourd’hui, il y a principalement des processeurs 32 et 64 bits, par lesquels les systèmes d’exploitation les plus courants prennent en charge un maximum de 64, mais généralement seulement 32 bits. Cela montre que le logiciel est en retard dans le cas des processeurs du matériel. Les 386 développés dans les années 1980 ont été les premiers processeurs 32 bits de la famille Intel 80×86.

En 2006, la société ARM a présenté le premier processeur commercial, unique et asynchrone, l’ARM996HS. Puisqu’il gère sans bouclage, un processeur asynchrone a un rayonnement beaucoup moins concis dans la plage de fréquences haute et n’utilise aucune électricité significative pendant les pauses d’essai.

Au cours de densités d’intégration toujours plus élevées des processus semi-conducteurs, les développeurs de CPU ont intégré de nouvelles fonctions dans le matériel. Les unités qui devaient auparavant être connectées comme puces séparées et pouvaient être intégrées dans le CPU elle-même au fil du temps:

Les microcontrôleurs, en revanche, n’ont souvent que quelques registres et une commande limitée, dans laquelle l’addition et la soustraction sont souvent les opérations les plus complexes. Pour les applications simples, telles que le contrôle d’une machine simple, cette fonctionnalité est suffisante, d’autant plus que les fonctions plus élevées peuvent être implémentées par quelques opérations de base, par exemple la multiplication en déplaçant et en ajoutant (voir la multiplication paysanne russe). À cette fin, les microcontrôleurs intègrent une variété de fonctions périphériques, de programme, de données et de mémoire sur la puce à des fins de contrôle et de communication.

Dans le cadre de l’augmentation des coûts d’électricité, la consommation d’énergie des microprocesseurs devient une caractéristique de plus en plus importante. Cela s’applique avant tout aux grands calculatrices, centres de données et fermes de serveurs ainsi que pour les appareils mobiles tels que les smartphones ou les tablettes. Même en dehors des centres de données, les processeurs d’économie d’électricité offrent des avantages. Étant donné que les glacières ont moins à faire, les ordinateurs deviennent également plus silencieux. Parfois, les ordinateurs peuvent même être réfrigérés passivement. Et en été, la chaleur produite par un PC dans une pièce sans climatisation est une altération pour les personnes présentes là-bas.

Dans le passé, de nouvelles techniques de fabrication (en particulier des combinaisons structurelles) ont été utilisées principalement pour augmenter la fréquence; En attendant, ils sont utilisés en partie pour réduire la consommation d’énergie qui a jusqu’à présent augmenté:

  • Au lieu de fréquences d’horloge toujours plus élevées pour un seul noyau informatique, plusieurs noyaux informatiques sont désormais hébergés dans un processeur à une fréquence plus faible.
  • La production optimisée réduit les courants de fuite.

Selon le modèle, les processeurs multiples actuels peuvent se situer entre 45 et 140 watts (TDP). Les compétences d’économie d’énergie sont également de plus en plus installées afin de pouvoir grimper parfois les composants qui ne sont pas requis par moments plus lentement ou pour s’éteindre complètement. En termes de consommation actuelle totale, i. A. Appliqué le principe de la course à la répression. Les processeurs modernes connaissent parfois un “mode turbo” pour exploiter pleinement les réserves de refroidissement existantes.

La consommation d’énergie des processeurs est contaminée par des coûts de suivi supplémentaires: l’électricité utilisée est convertie en chaleur, qui doit être retirée de l’ordinateur par le ventilateur. Une consommation plus élevée nécessite des ventilateurs plus forts qui utilisent également plus d’électricité. Si l’emplacement d’installation de l’ordinateur lui-même est un espace conditionné à l’air, le système de climatisation est également accablé. Selon le numéro de service de l’appareil de refroidissement, vous pouvez vous attendre à environ 25 à 40% de consommation supplémentaire, i. H. Un PC de 300 W charge la climatisation avec 75–120 W exigence de puissance supérieure. L’alimentation de l’ordinateur peut également devoir être plus grande. Si l’ordinateur est connecté à un UPS, il a également une auto-consommation plus élevée en fonction de son efficacité. Dans de nombreux ordinateurs en un seul endroit, des coûts d’investissement supplémentaires pour les plus grands systèmes de climatisation et les plus grands systèmes UPS peuvent également s’appliquer. Le serveur fonctionne généralement 24 heures par jour, sept jours par semaine, un total de 8760 heures par an. Différentes solutions sont poursuivies pour améliorer l’équilibre énergétique des systèmes informatiques. L’objectif est d’augmenter l’efficacité du refroidissement (exemple: guide d’air) et d’utiliser le moulage de chaleur (exemple: Aquasar).

Selon la charge, les processeurs modernes sont très chauds pendant le fonctionnement. Selon le modèle et le fabricant, des performances de perte allant jusqu’à 125 watts sont obtenues par centimètre carré (quadcore actuels). À titre de comparaison: la plaque de tasse de 18 cm d’une cuisinière électrique habituelle ne atteint que 7 à 10 w / cm².

Cependant, comme tous les semi-conducteurs, les CPU peuvent ne pas dépasser certaines températures de fonctionnement, car cela entraîne initialement des dysfonctionnements (“crash”), dans des cas extrêmes pour détruire la puce (est évité par la surchauffe de protection dans les processeurs récents). Les températures de bordure habituelles pour l’opération se situent entre 60 et 90 ° C. Les températures de plus d’environ 125 à 135 ° C entraînent des dommages irréversibles. Les processeurs doivent donc être réfrigérés, avec une certaine distance de sécurité par rapport aux valeurs maximales spécifiées par le fabricant.

La façon la plus courante d’assurer le refroidissement du processeur est d’assembler un dissipateur de chaleur avec un ventilateur. Le dissipateur de chaleur côtelé en aluminium ou en cuivre (partiellement combiné) élargit la zone qui contribue à la puissance de chaleur, un multiple, le ventilateur est destiné à garantir que la chaleur de perte est rapidement retirée. Le refroidissement n’est souvent pas basé sur les performances de perte possibles théoriquement maximales, mais pour des raisons de coût après la puissance de conception thermique (TDP), ce qui est nettement plus bas.

Le processeur et le dissipateur de chaleur sont utilisés de la pâte thermique ou un conducteur de chaleur. En raison de l’inégalité et de la rugosité, la pollution de l’air reste entre la puce et le dissipateur de chaleur qui entrave le transport de chaleur, les pâtes ou les coussinets déplacent ces air et améliorent considérablement le transfert de chaleur.

Les ventilateurs axiaux avec des diamètres comprises entre 40 et 140 mm sont presque exclusivement utilisés comme ventilateurs pour le refroidisseur de processeur. De petites copies en particulier atteignent des vitesses allant jusqu’à 6500 tr / min et peuvent créer un bruit de fond significatif. Les ventilateurs sont connectés à la carte principale aujourd’hui, afin que la vitesse surveille et peut également être réglementée électroniquement pour de nombreux planches principales modernes.

En tant qu’alternative au refroidissement par l’air, il y a encore du refroidissement par eau pour des ordinateurs puissants ou relativement calmes, dans lesquels l’eau est refroidie à l’intérieur ou à l’extérieur de l’ordinateur dans un radiateur (parfois même sans ventilateur), puis a conduit à travers le boîtier et sur les objets à refroidir, parfois aussi à Ram, Chipset, Processeur graphique, etc. Dans l’ensemble, le refroidissement par eau est plus complexe, plus cher et principalement en maintenance à la forte intensité que le refroidissement de l’air. En tant que premier fabricant d’ordinateurs, Apple a construit un refroidissement d’eau standardisé dans ses modèles Power Mac G5. Auparavant, le refroidissement par eau n’était principalement utilisé que par des amateurs avec des processeurs overclockés dans notre propre installation.

Le refroidissement en azote liquide est également utilisé dans le secteur industriel, qui est cependant extrêmement complexe. Pour être liquide, l’azote doit être refroidi à -196 ° C, ce qui nécessite de grandes unités de refroidissement. En raison de la très basse température dans l’ordinateur, la carte principale et d’autres objets doivent être chauffés à l’arrière afin qu’ils fonctionnent correctement. Cette technologie est très difficile à réaliser, les coûts d’exploitation et de maintenance sont généralement plus élevés que l’exploitation de plusieurs processeurs individuels en parallèle.
En général, il n’est pas raisonnable de refroidir un processeur jusqu’à moins de +10 ° C, sinon les coûts deviendront trop élevés. De plus, tous les composants électroniques ont une température de fonctionnement minimale et sur trop de composants refroidis peuvent se refléter dans la condensation, qui doit être évitée.

Le refroidissement liquide de l’azote a cependant du sens en tant que solution à court terme pour configurer de nouvelles enregistrements de fréquence et de référence. Aucune unités de refroidissement n’est également nécessaire pour cela, l’azote est simplement rempli et évaporé à partir de la bouteille. Dans ce cas, il n’est pas non plus nécessaire de chauffer le dos, car pendant le court laps de temps, les composants restent généralement fonctionnels même sans de telles mesures.

Refroidisseur de processeur pour la base 775 (Intel Pentium D) avec caloduc par rapport à un refroidisseur pour la base 7 (Intel Pentium 1 mmx)

Les fabricants individuels utilisent également des refroidisseurs de compression. Ceux-ci fonctionnent de manière similaire à un réfrigérateur: un liquide de refroidissement est mis sous pression et la chaleur résultante est retirée, lorsque la compensation à une pression normale, elle refroidit davantage et refroidit donc également son environnement, c’est-à-dire le processeur ou d’autres dispositifs. Cette solution est principalement utilisée pour les postes de travail overclockés, mais a l’inconvénient de produire également le bruit de fond d’un réfrigérateur.

L’élément Peltier offre une autre façon de refroidir le CPU. Ici aussi, le risque de condensation est donné. De plus, en raison de la faible efficacité, un élément Peltier crée au moins la même perte de puissance que le processeur lui-même, qui doit être supprimé en plus. Le côté “chaud” doit également être refroidi ici par le refroidissement par eau ou le dissipateur de chaleur avec un ventilateur.

La chaleur peut également être dissipée en utilisant le refroidissement de l’huile, mais jusqu’à présent dans la zone PC, cela n’a été effectué que dans l’environnement expérimental. Pour un refroidissement à l’huile, aucun ventilateur spécial ou des installations de refroidissement n’est généralement installé sur le CPU, mais simplement plongé toute la carte mère avec un ventilateur installé dans une baignoire pleine d’huile. Il n’y a pas d’huile minérale conductrice et la plus pure.

Les premiers CPU produits par un fabricant, similaire à un prototype, sont distribués à des sociétés ou testeurs sélectionnés comme “échantillon d’ingénierie” ou “CPU confidentiel”. Fondamentalement, ce sont des processeurs entièrement fonctionnels qui ne sont généralement en aucun cas inférieurs au produit final ultérieur. Ces processeurs ne sont généralement pas disponibles dans les magasins. Ces versions CPU sur l’abréviation “ES” ou l’empreinte “confidentielle” peuvent être vues.
De plus, au moins dans le passé, des processeurs et des ensembles de puces entiers ont été donnés dans des “kits universitaires”, du moins dans le passé. Les chips contenaient là-bas avaient l’empreinte “CS” et étaient généralement endommagées sur le logement en céramique, dans de nombreux cas, l’empreinte était mauvaise (glissée, maculée, duplarée).
Il convient de noter que la combinaison de lettres ES ou CS ne doit pas toujours signifier l’ingénierie ou l’échantillon client, c’est souvent aussi le code par lots ou un nom de révision.

  • Onglet Thomas: Technologie du microprocesseur et structures informatiques. Springer-Verlag, Berlin / Heidelberg 2004, ISBN 3-540-22270-7.
  • Michael S. Malone: Le microprocesseur. Une biographie inhabituelle. Springer-Verlag, Berlin / Heidelberg 1995, ISBN 3-540-60514-2.
  • Thomas Beierlein, Olaf Hagenbruch: Technologie du microprocesseur de poche. 3. Édition. Fachbuchverlag Leipzig chez Carl Hanser Verlag, Leipzig 2004, ISBN 3-446-22072-0.
  • Klaus Wüst: Technologie des microprocesseurs: bases, architecture et programmation des microprocesseurs, des microcontrôleurs et des processeurs de signaux. Vieweg et Teubner, 2008, ISBN 978-3-8348-0461-7.
  • Dieter Wecker: Braft de processeur. 2e édition. De Gruyter Oldenbourg-Verlag, 2015, ISBN 978-3-11-040296-4.
  1. Konrad Zuse: L’ordinateur – le travail de ma vie . 5e, inattendu. Édition. Springer-Verlag, Berlin / Heidelberg 2010, ISBN 978-3-642-12095-4, S. 55 (100 ans de Zuse).
  2. Friedrich Naumann: D’Abacus à Internet . E-Sights Publishing, 2015, ISBN 978-3-945189-42-9, S. 134 .
  3. un b Gerd Küveler, Dietrich Schwoch: Informatique pour les ingénieurs et les scientifiques 1 . Vieweg + Teubner, Wiesbaden 2009, ISBN 978-3-8348-0460-0, S. 4 .
  4. Wilfried de Beauclair: Calculer avec les machines . Un historique d’image de la technologie informatique. 2e édition. Springer, Berlin Heidelberg New York 2005, ISBN 3-540-24179-5, S. 111–113 .
  5. Manuel Jiménez: Introduction aux systèmes intégrés. Springer Science & Business Media, 2013, ISBN 978-1-4614-3143-5, S. 3 ( Aperçu limité dans la recherche de livres Google).
  6. Ray M. Holt: Premier ensemble de puces de microprocesseur du monde. (Pas plus disponible en ligne.) Site Web de Ray M. Holt, archivé à partir de Original suis 25 juillet 2010 ; Récupéré le 25 juillet 2010 .
  7. Le premier microprocesseur du monde. Dans: FirstMicroprocessor.com. 21. avril 1998, Consulté le 9 août 2015 .
  8. Jivan S. Parab, Vinod G. Shelake, Rajanish K. Kamat, Gourish M. Naik: Explorer C pour les microcontrôleurs: une approche pratique . Springs, 2007, ISBN 978-1-4020-6067-0, S. 4 ( Ee.sharif.edu [PDF]). Ee.sharif.edu ( Mémento des Originaux du 20 juillet 2011 dans Archives Internet ) Info: Le lien d’archive a été utilisé automatiquement et non encore vérifié. Veuillez vérifier le lien d’origine et d’archiver en fonction des instructions, puis supprimez cette note. @d’abord @ 2 Modèle: webachiv / iabot / ee.sharif.edu
  9. Hollis Blanchard: Assemblage PowerPC – Introduction à l’assemblage sur le PowerPC. Dans: Développeur IBM – Linux. 30. juin 2002, consulté le 7 octobre 2022 (Englisch): «La spécification d’architecture PowerPC, publiée en 1993, est une spécification 64 bits avec un sous-ensemble 32 bits.»
  10. Lennart Sorensen: Re: Différence de performance 32 bits / 64 bits Userland. (E-mail) dans: Listes de diffusion Debian. 7 février 2017, consulté le 7 octobre 2022 (Englisch): „x86 est différent. AMD a fait un bon travail de réparation de nombreuses erreurs dans X86 dans le cadre de la conception de la version 64 bits de x86. Les grands changements sont de doubler le nombre de registres, car le x86 a toujours été terriblement inscrit affamé. Cela explique à lui seul la plupart des améliorations des performances que vous voyez sur 64 bits x86. … La plupart des architectures autres que x86 perdent un peu de vitesse en mode 64 bits par rapport au mode 32 bits, sauf s’ils apportent d’autres améliorations architecturales en même temps (comme l’ont fait x86). ”
  11. Christoph Biedl: Différence de performance 32 bits / 64 bits Userland. (E-mail) dans: linux.debian.ports.powerpc. Google Groupes, 17 février 2017, consulté le 7 octobre 2022 (Englisch): „… Deux hôtes avec du matériel identique (LPARS sur IBM Power): [1] PowerPC (noyau 64 bits, userland 32 bits) [2] PPC64 (64 bits, les opérations liées à 64 bits)… maintenant sont significativement faster (5 pour 10 pour compenser).
  12. De quelques cœurs à beaucoup: un aperçu de la recherche informatique à l’échelle de l’échelle de Tera. (PDF) IBM, 2006, Récupéré le 17 août 2013 .
after-content-x4