Flächendichte (Computerspeicher) – Wikipedia

Flächendichte ist ein Maß für die Menge an Informationsbits, die auf einer bestimmten Länge der Spur, einem bestimmten Oberflächenbereich oder in einem bestimmten Volumen eines Computerspeichermediums gespeichert werden können. Im Allgemeinen ist eine höhere Dichte wünschenswerter, da dadurch mehr Daten im gleichen physischen Raum gespeichert werden können. Die Dichte steht daher in direktem Zusammenhang mit der Speicherkapazität eines bestimmten Mediums. Die Dichte beeinflusst im Allgemeinen auch die Leistung innerhalb eines bestimmten Mediums sowie den Preis.

Speichergeräteklassen[edit]

Festkörpermedien[edit]

Solid-State-Laufwerke verwenden Flash-Speicher zum Speichern von nicht volitalen Medien. Sie sind die neueste Form von massenproduziertem Speicher und konkurrierenden Magnetplattenmedien. Solid-State-Mediendaten werden in einem Pool von NAND-Flash gespeichert. NAND selbst besteht aus sogenannten Floating-Gate-Transistoren. Im Gegensatz zu den im DRAM verwendeten Transistorkonstruktionen, die mehrmals pro Sekunde aktualisiert werden müssen, ist der NAND-Blitz so ausgelegt, dass er seinen Ladezustand auch ohne Einschalten beibehält. Die im Handel erhältlichen Laufwerke mit der höchsten Kapazität sind die Laufwerke der Nimbus Data Exadrive © DC-Serie. Diese Laufwerke sind in Kapazitäten von 16 TB bis 100 TB erhältlich. Nimbus gibt an, dass die 100-TB-SSD für ihre Größe ein platzsparendes Verhältnis von 6: 1 gegenüber einer Nearline-Festplatte aufweist[1]

Magnetplattenmedien[edit]

Festplattenlaufwerke speichern Daten in der magnetischen Polarisation kleiner Flecken der Oberflächenbeschichtung auf einer Festplatte. Die maximale Flächendichte wird durch die Größe der magnetischen Partikel in der Oberfläche sowie die Größe des “Kopfes” definiert, der zum Lesen und Schreiben der Daten verwendet wird. 1956 hatte die erste Festplatte, die IBM 350, eine Flächendichte von 2.000 Bit / Zoll2. Seitdem entspricht die Zunahme der Dichte dem Moore’schen Gesetz und erreicht 1 Tbit / in2 im Jahr 2014.[2] Im Jahr 2015 führte Seagate eine Festplatte mit einer Dichte von 1,34 Tbit / in ein2,[3] Es wird erwartet, dass die derzeitige Aufzeichnungstechnologie “machbar” auf mindestens 5 Tbit / in skaliert werden kann2 in naher Zukunft.[3][4] Neue Technologien wie die wärmeunterstützte magnetische Aufzeichnung (HAMR) und die mikrowellenunterstützte magnetische Aufzeichnung (MAMR) sind in der Entwicklung und werden voraussichtlich eine weitere Erhöhung der magnetischen Flächendichte ermöglichen.[5]

Optische Disc-Medien[edit]

Optische Discs speichern Daten in kleinen Vertiefungen auf einer Kunststoffoberfläche, die dann mit einer dünnen Schicht reflektierenden Metalls bedeckt wird. Compact Discs (CDs) bieten eine Dichte von ca. 0,90 Gbit / Zoll2unter Verwendung von Gruben, die 0,83 Mikrometer lang und 0,5 Mikrometer breit sind und in Spuren angeordnet sind, die 1,6 Mikrometer voneinander entfernt sind. DVDs sind im Wesentlichen CDs mit höherer Dichte, die mehr Plattenoberfläche, kleinere Pits (0,64 Mikrometer) und engere Spuren (0,74 Mikrometer) verwenden und eine Dichte von etwa 2,2 Gbit / Zoll bieten2. Single-Layer-HD-DVD- und Blu-ray-Disks bieten Dichten um 7,5 Gbit / Zoll2 und 12,5 Gbit / Zoll2, beziehungsweise.

Bei der Einführung im Jahr 1982 hatten CDs eine erheblich höhere Dichte als Festplattenlaufwerke, aber Festplattenlaufwerke sind seitdem viel schneller vorangekommen und haben optische Medien sowohl hinsichtlich der Flächendichte als auch der Kapazität pro Gerät in den Schatten gestellt.

Magnetbandmedien[edit]

Das erste Magnetbandlaufwerk, das Univac Uniservo, wurde mit einer Dichte von 128 Bit / Zoll auf einem Magnetband von einem halben Zoll aufgezeichnet, was zu einer Flächendichte von 256 Bit / Zoll führte2.[6] Im Jahr 2015 haben IBM und Fujifilm einen neuen Rekord für die Flächendichte von Magnetbändern von 1,23 Gbit / in aufgestellt2,[7] Während LTO-6, der Produktionsbandversand mit der höchsten Dichte im Jahr 2015, eine Flächendichte von 0,84 Gbit / Zoll bietet2.[8]

Forschung[edit]

Eine Reihe von Technologien versuchen, die Dichte bestehender Medien zu übertreffen.

IBM wollte sein Millipede-Speichersystem mit 1 Tbit / in kommerzialisieren2 2007 scheint die Entwicklung jedoch sterbend zu sein. Eine neuere IBM Technologie, der Rennstrecken-Speicher, verwendet eine Anordnung vieler kleiner nanoskopischer Drähte, die in 3D angeordnet sind und jeweils zahlreiche Bits enthalten, um die Dichte zu verbessern.[9] Obwohl genaue Zahlen nicht erwähnt wurden, sprechen IBM-Nachrichtenartikel von “100-fachen” Erhöhungen.

Holographische Speichertechnologien versuchen ebenfalls, bestehende Systeme zu überspringen, aber auch sie haben das Rennen verloren und bieten schätzungsweise 1 Tbit / in2 auch mit etwa 250 GB / in2 Dies ist die bisher beste Demonstration für Nicht-Quanten-Holographiesysteme.

Andere experimentelle Technologien bieten noch höhere Dichten. Es wurde gezeigt, dass die Lagerung von molekularen Polymeren 10 Tbit / in speichert2.[10] Die bisher experimentell mit Abstand dichteste Art der Speicherung ist die elektronische Quantenholographie. Durch Überlagerung von Bildern unterschiedlicher Wellenlängen in dasselbe Hologramm erreichte ein Stanford-Forscherteam 2009 eine Bitdichte von 35 Bit / Elektron (ca. 3 Exabyte / Zoll)2) unter Verwendung von Elektronenmikroskopen und einem Kupfermedium.[11]

Im Jahr 2012 wurde DNA erfolgreich als experimentelles Datenspeichermedium eingesetzt, benötigte jedoch einen DNA-Synthesizer und DNA-Mikrochips für die Transkodierung. Wie 2012[update]DNA hält den Rekord für Speichermedium mit der höchsten Dichte.[12] Im März 2017 veröffentlichten Wissenschaftler der Columbia University und des New York Genome Center eine Methode namens DNA Fountain, mit der Informationen aus einer Dichte von 215 Petabyte pro Gramm DNA, 85% der theoretischen Grenze, perfekt abgerufen werden können.[13][14]

Auswirkungen auf die Leistung[edit]

Mit der bemerkenswerten Ausnahme des NAND-Flash-Speichers verbessert eine Erhöhung der Speicherdichte eines Mediums typischerweise die Übertragungsgeschwindigkeit, mit der dieses Medium arbeiten kann. Dies ist am offensichtlichsten, wenn verschiedene festplattenbasierte Medien betrachtet werden, bei denen die Speicherelemente über die Oberfläche der Festplatte verteilt sind und physisch unter dem “Kopf” gedreht werden müssen, um gelesen oder geschrieben zu werden. Höhere Dichte bedeutet, dass sich bei jeder mechanischen Bewegung mehr Daten unter dem Kopf bewegen.

Zum Beispiel können wir die effektive Übertragungsgeschwindigkeit für eine Diskette berechnen, indem wir bestimmen, wie schnell sich die Bits unter dem Kopf bewegen. Eine Standard-3½-Zoll-Diskette dreht sich mit 300 U / min, und die innerste Spur ist etwa 66 mm lang (10,5 mm Radius). Bei 300 U / min beträgt die lineare Geschwindigkeit des Mediums unter dem Kopf somit etwa 66 mm × 300 U / min = 19800 mm / Minute oder 330 mm / s. Entlang dieser Spur werden die Bits mit einer Dichte von 686 Bit / mm gespeichert, was bedeutet, dass der Kopf 686 Bit / mm × 330 mm / s = 226.380 Bit / s (oder 28,3 KiB / s) sieht.

Betrachten Sie nun eine Verbesserung des Designs, die die Dichte der Bits verdoppelt, indem Sie die Abtastlänge reduzieren und den gleichen Spurabstand beibehalten. Dies würde die Übertragungsgeschwindigkeit verdoppeln, da die Bits doppelt so schnell unter dem Kopf laufen würden. Frühe Diskettenschnittstellen wurden für Übertragungsgeschwindigkeiten von 250 kbit / s entwickelt, wurden jedoch mit der Einführung der “High Density” -Disketten mit 1,44 MB (1.440 KiB) in den 1980er Jahren schnell übertroffen. Die überwiegende Mehrheit der PCs enthielt Schnittstellen für Laufwerke mit hoher Dichte, die stattdessen mit 500 kbit / s betrieben wurden. Auch diese wurden von neueren Geräten wie dem LS-120 völlig überfordert, die gezwungen waren, schnellere Schnittstellen wie IDE zu verwenden.

Obwohl der Effekt auf die Leistung bei rotierenden Medien am offensichtlichsten ist, treten ähnliche Effekte auch bei Solid-State-Medien wie Flash RAM oder DRAM auf. In diesem Fall wird die Leistung im Allgemeinen durch die Zeit definiert, die die elektrischen Signale benötigen, um durch den Computerbus zu den Chips und dann durch die Chips zu den einzelnen “Zellen” zu gelangen, die zum Speichern von Daten verwendet werden (jede Zelle enthält ein Bit).

Eine definierende elektrische Eigenschaft ist der Widerstand der Drähte innerhalb der Chips. Wenn die Zellengröße abnimmt, wird durch die Verbesserungen bei der Halbleiterherstellung, die zum Moore’schen Gesetz führten, der Widerstand verringert und es wird weniger Leistung benötigt, um die Zellen zu betreiben. Dies bedeutet wiederum, dass weniger elektrischer Strom für den Betrieb benötigt wird und somit weniger Zeit benötigt wird, um die erforderliche Menge an elektrischer Ladung in das System zu senden. Insbesondere im DRAM wirkt sich die Ladungsmenge, die im Kondensator einer Zelle gespeichert werden muss, auch direkt auf diese Zeit aus.

Mit der Verbesserung der Herstellung hat sich der Festkörperspeicher hinsichtlich der Leistung dramatisch verbessert. Moderne DRAM-Chips hatten Betriebsgeschwindigkeiten in der Größenordnung von 10 ns oder weniger. Ein weniger offensichtlicher Effekt ist, dass mit zunehmender Dichte die Anzahl der DIMMs, die zur Bereitstellung einer bestimmten Speichermenge benötigt werden, abnimmt, was wiederum insgesamt weniger DIMMs in einem bestimmten Computer bedeutet. Dies führt häufig auch zu einer Leistungsverbesserung, da weniger Busverkehr herrscht. Dieser Effekt ist jedoch im Allgemeinen nicht linear.

Auswirkungen auf den Preis[edit]

Die Speicherdichte hat auch einen starken Einfluss auf den Speicherpreis, obwohl in diesem Fall die Gründe nicht so offensichtlich sind.

Bei festplattenbasierten Medien sind die Hauptkosten die beweglichen Teile im Laufwerk. Dies setzt eine feste Untergrenze, weshalb der durchschnittliche Verkaufspreis für beide großen Festplattenhersteller seit 2007 zwischen 45 und 75 US-Dollar liegt.[15] Der Preis für Laufwerke mit hoher Kapazität ist jedoch rapide gesunken, und dies ist in der Tat ein Effekt der Dichte. Die Laufwerke mit der höchsten Kapazität verwenden mehr Platten, im Wesentlichen einzelne Festplatten im Gehäuse. Mit zunehmender Dichte kann die Anzahl der Platten verringert werden, was zu geringeren Kosten führt.

Festplatten werden häufig als Kosten pro Bit gemessen. Beispielsweise lieferte die erste kommerzielle Festplatte, IBMs RAMAC aus dem Jahr 1957, 3,75 MB für 34.500 USD oder 9.200 USD pro Megabyte. 1989 kostete eine 40-MB-Festplatte 1200 US-Dollar oder 30 US-Dollar pro MB. Und im Jahr 2018 wurden 4-TB-Laufwerke für 75 US-Dollar oder 1,9 ¢ / GB verkauft, eine Verbesserung von 1,5 Millionen seit 1989 und 520 Millionen seit dem RAMAC. Dies ohne Berücksichtigung der Inflation, die die Preise von 1956 bis 2018 um das Neunfache erhöhte.

Festplattenkosten pro GB im Laufe der Zeit
Datum Kapazität Kosten $ / GB
1957 3,75 MB 34.500 US-Dollar 9,2 Mio. USD / GB
1989 40 MB 1.200 US-Dollar 30.000 USD / GB
1995 1 GB 850 $ 850 USD / GB
2004 250 GB 250 $ $ 1 / GB
2011 2 TB $ 70 0,035 USD / GB
2018 4 TB 75 $ 0,019 USD / GB

Bei Festkörperspeichern sind die Kosten pro Bit ähnlich gesunken. In diesem Fall werden die Kosten durch die bestimmt Ausbeutedie Anzahl lebensfähiger Chips, die in einer Zeiteinheit produziert werden. Chips werden in Chargen hergestellt, die auf die Oberfläche eines einzelnen großen Siliziumwafers gedruckt sind, der zerschnitten und nicht arbeitende Proben verworfen werden. Die Herstellung hat die Ausbeuten im Laufe der Zeit verbessert, indem größere Wafer verwendet und Wafer mit weniger Fehlern hergestellt wurden. Die Untergrenze für diesen Prozess liegt aufgrund von Verpackungs- und anderen Kosten bei etwa 1 USD pro fertiggestelltem Chip.[16]

Die Beziehung zwischen Informationsdichte und Kosten pro Bit kann wie folgt dargestellt werden: Ein Speicherchip, der halb so groß wie die physikalische Größe ist, bedeutet, dass doppelt so viele Einheiten auf demselben Wafer hergestellt werden können, wodurch sich der Preis für jeden einzelnen halbiert. Zum Vergleich: DRAM wurde erstmals 1971 kommerziell eingeführt, ein 1-kbit-Teil, das in großen Chargen etwa 50 US-Dollar oder etwa 5 Cent pro Bit kostete. 1999 waren 64-Mbit-Teile üblich, die etwa 0,00002 Cent pro Bit (20 Mikrozent / Bit) kosteten.[16]

Siehe auch[edit]

  • Bitzelle – Die Länge, Fläche oder das Volumen, die zum Speichern eines einzelnen Bits erforderlich sind
  • Mark Kryder, der 2009 prognostizierte, dass ein 2,5-Zoll-Festplattenlaufwerk mit zwei Plattentellern im Jahr 2020 ungefähr 40 Terabyte (TB) speichern würde, wenn die Festplatten mit ihrem damals aktuellen Tempo von etwa 40% pro Jahr weiter voranschreiten würden. und kostet etwa 40 $.
  • Gemusterte Medien
  • Shedled Magnetic Recording (SMR)

Verweise[edit]

  1. ^ “ExaDrive®”. Nimbus-Daten. Abgerufen 2020-11-16.
  2. ^ “2014: HDD-Flächendichte erreicht 1 Terabit / Quadratzoll. | The Storage Engine | Computer History Museum”. www.computerhistory.org. Abgerufen 2018-05-27.
  3. ^ ein b Re, Mark (25. August 2015). “Tech Talk auf HDD Areal Density” (PDF). Seagate. Archiviert von das Original (PDF) am 28.05.2018. Abgerufen 2018-05-27.
  4. ^ M. Mallary; et al. (Juli 2002). “Ein Terabit pro Quadratzoll senkrechte Aufnahme Konzeption”. IEEE-Transaktionen auf Magnetics. 38 (4): 1719–1724. Bibcode:2002ITM …. 38.1719M. doi:10.1109 / tmag.2002.1017762.
  5. ^ “Seagate plant HAMR WDs MAMR; 20-TB-Festplatten mit eingehenden Lasern”. Toms Hardware. 2017-11-03. Abgerufen 2018-05-27.
  6. ^ Daniel; et al. (1999). Magnetische Aufzeichnung, die ersten 100 Jahre. IEEE Press. p. 254.
  7. ^ IBM behauptet einen neuen Flächendichterekord mit 220 TB Bandtechnologie Das Register, 10. April 2015
  8. ^ HP LTO-6 Media Metallpartikel und Bariumferrit Archiviert 22. Dezember 2015 auf der Wayback-Maschine, HP, Mai 2014
  9. ^ Parkin, Stuart SP; Rettner, Charles; Moriya, Rai; Thomas, Luc (24.12.2010). “Dynamik magnetischer Domänenwände unter ihrer eigenen Trägheit”. Wissenschaft. 330 (6012): 1810–1813. Bibcode:2010Sci … 330.1810T. doi:10.1126 / science.1197468. ISSN 1095-9203. PMID 21205666.
  10. ^ “Neue Methode zur Selbstorganisation nanoskaliger Elemente könnte die Datenspeicherindustrie verändern”. ScienceDaily.
  11. ^ “Das Lesen des Kleingedruckten bekommt eine neue Bedeutung”. stanford.edu. 2009-01-28.
  12. ^ Church, GM; Gao, Y.; Kosuri, S. (28.09.2012). “Digitale Informationsspeicherung der nächsten Generation in DNA”. Wissenschaft. 337 (6102): 1628. Bibcode:2012Sci … 337.1628C. doi:10.1126 / science.1226355. ISSN 0036-8075. PMID 22903519. S2CID 934617.Digitale Informationsspeicherung der nächsten Generation in DNA Wissenschaft, September 2012
  13. ^ Yong, Ed. “Dieser DNA-Fleck enthält einen Film, einen Computervirus und eine Amazon-Geschenkkarte.”. Der Atlantik. Abgerufen 3. März 2017.
  14. ^ Erlich, Yaniv; Zielinski, Dina (2. März 2017). “DNA Fountain ermöglicht eine robuste und effiziente Speicherarchitektur”. Wissenschaft. 355 (6328): 950–954. Bibcode:2017Sci … 355..950E. doi:10.1126 / science.aaj2038. PMID 28254941.
  15. ^ Shilov, Anton (29.10.2013). “WD vergrößert die Lücke mit Seagate weiter, da die durchschnittlichen Verkaufspreise für Festplatten weiter sinken”. xbitlabs. xbitlabs.com. Abgerufen 2014-08-11. Durchschnittliche Verkaufspreise von Festplatten in USD
  16. ^ ein b “DRAM 3”. iiasa.ac.at.