[{"@context":"http:\/\/schema.org\/","@type":"BlogPosting","@id":"https:\/\/wiki.edu.vn\/wiki26\/2021\/08\/31\/reichweitenbildgebung-wikipedia\/#BlogPosting","mainEntityOfPage":"https:\/\/wiki.edu.vn\/wiki26\/2021\/08\/31\/reichweitenbildgebung-wikipedia\/","headline":"Reichweitenbildgebung \u2013 Wikipedia","name":"Reichweitenbildgebung \u2013 Wikipedia","description":"Technik, die ein 2D-Bild erzeugt, das die Entfernung zu Punkten in einer Szene von einem bestimmten Punkt aus anzeigt. Dieser","datePublished":"2021-08-31","dateModified":"2021-08-31","author":{"@type":"Person","@id":"https:\/\/wiki.edu.vn\/wiki26\/author\/lordneo\/#Person","name":"lordneo","url":"https:\/\/wiki.edu.vn\/wiki26\/author\/lordneo\/","image":{"@type":"ImageObject","@id":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","height":96,"width":96}},"publisher":{"@type":"Organization","name":"Enzyklop\u00e4die","logo":{"@type":"ImageObject","@id":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","url":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","width":600,"height":60}},"image":{"@type":"ImageObject","@id":"https:\/\/upload.wikimedia.org\/wikipedia\/commons\/thumb\/5\/53\/Ambox_current_red_Americas.svg\/42px-Ambox_current_red_Americas.svg.png","url":"https:\/\/upload.wikimedia.org\/wikipedia\/commons\/thumb\/5\/53\/Ambox_current_red_Americas.svg\/42px-Ambox_current_red_Americas.svg.png","height":"34","width":"42"},"url":"https:\/\/wiki.edu.vn\/wiki26\/2021\/08\/31\/reichweitenbildgebung-wikipedia\/","wordCount":2315,"articleBody":"Technik, die ein 2D-Bild erzeugt, das die Entfernung zu Punkten in einer Szene von einem bestimmten Punkt aus anzeigt.Dieser Artikel muss sein Aktualisiert. Bitte helfen Sie mit, diesen Artikel zu aktualisieren, um aktuelle Ereignisse oder neu verf\u00fcgbare Informationen widerzuspiegeln. (Oktober 2019)Reichweitenabbildung ist der Name f\u00fcr eine Sammlung von Techniken, die verwendet werden, um ein 2D-Bild zu erzeugen, das die Entfernung zu Punkten in einer Szene von einem bestimmten Punkt zeigt, der normalerweise mit einer Art von Sensorger\u00e4t verbunden ist.Das resultierende Bild, das Reichweitenbild, hat Pixelwerte, die der Entfernung entsprechen. Wenn der Sensor, mit dem das Entfernungsbild erstellt wird, richtig kalibriert ist, k\u00f6nnen die Pixelwerte direkt in physikalischen Einheiten wie Metern angegeben werden.Verschiedene Arten von Entfernungskameras[edit]Die Sensorvorrichtung, die zur Erzeugung des Entfernungsbildes verwendet wird, wird manchmal als a . bezeichnet Entfernungskamera. Entfernungskameras k\u00f6nnen nach einer Reihe verschiedener Techniken arbeiten, von denen einige hier vorgestellt werden.Stereo-Triangulation[edit]Stereotriangulation ist eine Anwendung der Stereophotogrammetrie, bei der die Tiefendaten der Pixel aus Daten bestimmt werden, die mit einem Stereo- oder Mehrkamera-Setup-System erfasst wurden. Auf diese Weise ist es m\u00f6glich, die Tiefe zu Punkten in der Szene zu bestimmen, zum Beispiel aus dem Mittelpunkt der Linie zwischen ihren Brennpunkten. Um das Tiefenmessungsproblem mit einem Stereokamerasystem zu l\u00f6sen, ist es notwendig, zun\u00e4chst korrespondierende Punkte in den verschiedenen Bildern zu finden. Die L\u00f6sung des Korrespondenzproblems ist eines der Hauptprobleme bei der Verwendung dieser Art von Technik. Beispielsweise ist es schwierig, das Korrespondenzproblem f\u00fcr Bildpunkte zu l\u00f6sen, die innerhalb von Bereichen homogener Intensit\u00e4t oder Farbe liegen. Infolgedessen kann eine auf Stereotriangulation basierende Entfernungsabbildung normalerweise nur f\u00fcr eine Teilmenge aller in den mehreren Kameras sichtbaren Punkte zuverl\u00e4ssige Tiefensch\u00e4tzungen erzeugen.Der Vorteil dieser Technik besteht darin, dass die Messung mehr oder weniger passiv ist; es erfordert keine besonderen Bedingungen in Bezug auf die Szenenbeleuchtung. Die anderen hier erw\u00e4hnten Techniken m\u00fcssen das Korrespondenzproblem nicht l\u00f6sen, sondern sind stattdessen von bestimmten Beleuchtungsbedingungen der Szene abh\u00e4ngig.Blatt der Lichttriangulation[edit]Wenn die Szene mit einer Lichtscheibe beleuchtet wird, erzeugt dies eine reflektierte Linie von der Lichtquelle aus gesehen. Von jedem Punkt au\u00dferhalb der Blattebene erscheint die Linie typischerweise als Kurve, deren genaue Form sowohl vom Abstand zwischen dem Beobachter und der Lichtquelle als auch vom Abstand zwischen der Lichtquelle und den reflektierten Punkten abh\u00e4ngt. Durch Beobachten der reflektierten Lichtfl\u00e4che mit einer Kamera (oft eine hochaufl\u00f6sende Kamera) und Kenntnis der Positionen und Ausrichtungen von Kamera und Lichtquelle ist es m\u00f6glich, die Abst\u00e4nde zwischen den reflektierten Punkten und der Lichtquelle oder Kamera zu bestimmen.Durch Verschieben entweder der Lichtquelle (und normalerweise auch der Kamera) oder der Szene vor der Kamera kann eine Sequenz von Tiefenprofilen der Szene erzeugt werden. Diese k\u00f6nnen als 2D-Entfernungsbild dargestellt werden.Strukturiertes Licht[edit]Durch die Beleuchtung der Szene mit einem speziell entwickelten Lichtmuster, strukturiertes Licht, kann die Tiefe mit nur einem einzigen Bild des reflektierten Lichts bestimmt werden. Das strukturierte Licht kann in Form von horizontalen und vertikalen Linien, Punkten oder Schachbrettmustern vorliegen. Ein Lichttisch ist im Grunde ein generisches Bildgebungsger\u00e4t mit strukturiertem Lichtbereich, das urspr\u00fcnglich f\u00fcr die Aufgabe der Reflexionserfassung entwickelt wurde.Flugzeit[edit]Die Tiefe kann auch mit der Standard-Time-of-Flight (ToF)-Technik, mehr oder weniger wie bei einem Radar, gemessen werden, indem ein Entfernungsbild \u00e4hnlich einem Radarbild erzeugt wird, au\u00dfer dass ein Lichtimpuls anstelle eines RF . verwendet wird Impuls. Es ist auch einem LIDAR nicht un\u00e4hnlich, au\u00dfer dass ToF ohne Scanner ist, dh die gesamte Szene wird mit einem einzigen Lichtpuls erfasst, im Gegensatz zu Punkt f\u00fcr Punkt mit einem rotierenden Laserstrahl. Time-of-Flight-Kameras sind relativ neue Ger\u00e4te, die mit einem dedizierten Bildsensor eine ganze Szene in drei Dimensionen erfassen und daher keine beweglichen Teile ben\u00f6tigen. Ein Time-of-Flight-Laserradar mit einer verst\u00e4rkten CCD-Kamera mit schneller Gating erreicht eine Tiefenaufl\u00f6sung im Submillimeterbereich. Bei dieser Technik beleuchtet ein kurzer Laserpuls eine Szene, und die intensivierte CCD-Kamera \u00f6ffnet ihren High-Speed-Shutter nur f\u00fcr einige hundert Pikosekunden. Die 3D-Informationen werden aus einer 2D-Bildserie berechnet, die mit zunehmender Verz\u00f6gerung zwischen dem Laserpuls und der Verschluss\u00f6ffnung aufgenommen wurde.[1]Interferometrie[edit]Durch die Beleuchtung von Punkten mit koh\u00e4rentem Licht und die Messung der Phasenverschiebung des reflektierten Lichts relativ zur Lichtquelle ist es m\u00f6glich, die Tiefe zu bestimmen. Unter der Annahme, dass das True-Range-Bild eine mehr oder weniger kontinuierliche Funktion der Bildkoordinaten ist, kann die richtige Tiefe unter Verwendung einer als Phase-Unwrapping bezeichneten Technik erhalten werden. Siehe terrestrische SAR-Interferometrie.Codierte Blende[edit]Tiefeninformationen k\u00f6nnen teilweise oder vollst\u00e4ndig zusammen mit der Intensit\u00e4t durch umgekehrte Faltung eines Bildes abgeleitet werden, das mit einem speziell entworfenen codierten Aperturmuster mit einer spezifischen komplexen Anordnung von L\u00f6chern aufgenommen wurde, durch die das einfallende Licht entweder durchgelassen oder blockiert wird. Die komplexe Form der Blende erzeugt eine ungleichm\u00e4\u00dfige Unsch\u00e4rfe des Bildes f\u00fcr die Teile der Szene, die sich nicht in der Brennebene des Objektivs befinden. Das Ausma\u00df der Unsch\u00e4rfe \u00fcber die Szene, das mit der Verschiebung von der Brennebene zusammenh\u00e4ngt, kann verwendet werden, um die Tiefe abzuleiten.[2]Um die Gr\u00f6\u00dfe der Unsch\u00e4rfe (die zum Dekodieren von Tiefeninformationen ben\u00f6tigt wird) im aufgenommenen Bild zu identifizieren, k\u00f6nnen zwei Ans\u00e4tze verwendet werden: 1) Entsch\u00e4rfen des aufgenommenen Bildes mit verschiedenen Unsch\u00e4rfen oder 2) Lernen einiger linearer Filter, die die Art der Unsch\u00e4rfe identifizieren .Der erste Ansatz verwendet eine korrekte mathematische Entfaltung, die das bekannte Apertur-Designmuster ber\u00fccksichtigt; diese Entfaltung kann erkennen, wo und in welchem \u200b\u200bAusma\u00df die Szene durch selektiv auf die Erfassungsoberfl\u00e4che fallendes Licht au\u00dferhalb des Brennpunkts gefaltet wurde, und den Vorgang umkehren.[3] Somit kann die unsch\u00e4rfefreie Szene zusammen mit der Gr\u00f6\u00dfe der Unsch\u00e4rfe abgerufen werden.Der zweite Ansatz extrahiert stattdessen das Ausma\u00df der Unsch\u00e4rfe unter Umgehung der Wiederherstellung des unsch\u00e4rfefreien Bildes und daher ohne Durchf\u00fchren einer umgekehrten Faltung. Unter Verwendung einer auf der Hauptkomponentenanalyse (PCA) basierenden Technik lernt das Verfahren offline eine Filterbank, die jede Unsch\u00e4rfegr\u00f6\u00dfe eindeutig identifiziert; diese Filter werden dann als normale Faltung direkt auf das aufgenommene Bild angewendet.[4] Ein wesentlicher Vorteil dieses Ansatzes besteht darin, dass keine Informationen \u00fcber das codierte Aperturmuster erforderlich sind. Aufgrund seiner Effizienz wurde dieser Algorithmus auch auf Videosequenzen mit bewegten und verformbaren Objekten erweitert.[5]Da die Tiefe f\u00fcr einen Punkt aus dem Ausma\u00df der Unsch\u00e4rfe abgeleitet wird, die durch die Lichtverteilung von dem entsprechenden Punkt in der Szene verursacht wird, die \u00fcber die gesamte Oberfl\u00e4che der Blende eintrifft und sich entsprechend dieser Verteilung verzerrt, ist dies eine komplexe Form der Stereotriangulation. Jeder Punkt im Bild wird effektiv \u00fcber die Breite der Apertur r\u00e4umlich abgetastet.Diese Technologie wurde in letzter Zeit im iPhone X verwendet. Viele andere Telefone von Samsung und Computer von Microsoft haben versucht, diese Technologie zu verwenden, aber sie verwenden kein 3D-Mapping.Siehe auch[edit]Verweise[edit]^ Hochpr\u00e4zises 3D-Laserradar Jens Busck und Henning Heiselberg, Danmarks Tekniske University, 2004^ Martinello, Manuel (2012). Bildgebung mit codierter Blende (PDF). Heriot-Watt-Universit\u00e4t.^ Bild und Tiefe einer herk\u00f6mmlichen Kamera mit codierter Blende Anat Levin, Rob Fergus, Fredo Durand, William T. Freeman, MIT^ Martinello, Manuel; Favaro, Paolo (2011). “Blinde Dekonvolution einzelner Bilder mit Texturstatistiken h\u00f6herer Ordnung” (PDF). Videoverarbeitung und Computervideo, LNCS 7082. Skript zur Vorlesung Informatik. Springer-Verlag. 7082: 124\u2013151. mach:10.1007\/978-3-642-24870-2_6. ISBN 978-3-642-24869-6.^ Martinello, Manuel; Favaro, Paolo (2012). “Tiefensch\u00e4tzung aus einer Videosequenz mit bewegten und verformbaren Objekten” (PDF). IET-Bildverarbeitungskonferenz: 131. doi:10.1049\/cp.2012.0425. ISBN 978-1-84919-632-1."},{"@context":"http:\/\/schema.org\/","@type":"BreadcrumbList","itemListElement":[{"@type":"ListItem","position":1,"item":{"@id":"https:\/\/wiki.edu.vn\/wiki26\/#breadcrumbitem","name":"Enzyklop\u00e4die"}},{"@type":"ListItem","position":2,"item":{"@id":"https:\/\/wiki.edu.vn\/wiki26\/2021\/08\/31\/reichweitenbildgebung-wikipedia\/#breadcrumbitem","name":"Reichweitenbildgebung \u2013 Wikipedia"}}]}]