Bildstabilisierung – Wikipedia

Vergleich vereinfachter Bildstabilisierungssysteme:
1. nicht stabilisiert
2. Linsenbasierte optische Stabilisierung
3. optische Stabilisierung der Sensorverschiebung
4. digitale oder elektronische Stabilisierung

Bildstabilisierung ((IS) ist eine Familie von Techniken, die Unschärfen reduzieren, die mit der Bewegung einer Kamera oder eines anderen Bildgebungsgeräts während der Belichtung verbunden sind.

Im Allgemeinen kompensiert es das Schwenken und Neigen (Winkelbewegung, entsprechend Gieren und Neigen) des Bildgebungsgeräts, obwohl die elektronische Bildstabilisierung auch die Drehung kompensieren kann.[1] Es wird in bildstabilisierten Ferngläsern, Standbild- und Videokameras, astronomischen Teleskopen und auch in Smartphones verwendet, hauptsächlich im High-End-Bereich. Mit Standbildkameras, Verwacklungen ist ein besonderes Problem bei langen Verschlusszeiten oder bei Objektiven mit langer Brennweite (Tele oder Zoom). Bei Videokameras verursacht das Verwackeln der Kamera sichtbaren Bild-zu-Bild-Jitter im aufgenommenen Video. In der Astronomie wird das Problem des Linsenschüttelns durch Variationen in der Atmosphäre verstärkt, die die scheinbaren Positionen von Objekten im Laufe der Zeit verändern.

Anwendung in der Standfotografie[edit]

In der Fotografie kann die Bildstabilisierung die Verschlusszeiten um 2 bis 5,5 Stufen verlängern (Belichtung 4 bis 5)22 12 mal länger) und noch langsamere effektive Geschwindigkeiten wurden berichtet.

Die Faustregel zur Bestimmung der langsamsten Verschlusszeit, die für das Halten der Hand ohne merkliche Unschärfe aufgrund von Verwacklungen der Kamera möglich ist, besteht darin, den Kehrwert der äquivalenten Brennweite des Objektivs von 35 mm zu verwenden, die auch als “1 / mm-Regel” bezeichnet wird. Beispielsweise können bei einer Brennweite von 125 mm bei einer 35-mm-Kamera Vibrationen oder Verwacklungen die Schärfe beeinträchtigen, wenn die Verschlusszeit länger als ist1125 zweite. Aufgrund der von IS zulässigen längeren Verschlusszeiten von 2 bis 4,5 Blendenstufen wurde ein Bild aufgenommen1125 Die zweite Geschwindigkeit mit einem gewöhnlichen Objektiv könnte mit genommen werden115 oder18 Zweitens mit einem IS-Objektiv und produzieren fast die gleiche Qualität. Die bei einer bestimmten Geschwindigkeit erreichbare Schärfe kann sich dramatisch erhöhen.[2]

Bei der Berechnung der effektiven Brennweite ist es wichtig, das von einer Kamera verwendete Bildformat zu berücksichtigen. Beispielsweise verwenden viele digitale Spiegelreflexkameras einen Bildsensor23,58oder12 die Größe eines 35 mm Filmrahmens. Dies bedeutet, dass der 35-mm-Rahmen das 1,5-, 1,6- oder 2-fache der Größe des digitalen Sensors beträgt. Die letzteren Werte werden als Zuschneidefaktor, Zuschneidefaktor für das Sichtfeld, Brennweitenmultiplikator oder Formatfaktor bezeichnet. Bei einer 2 × Crop-Factor-Kamera beispielsweise erzeugt ein 50-mm-Objektiv das gleiche Sichtfeld wie ein 100-mm-Objektiv, das bei einer 35-mm-Filmkamera verwendet wird, und kann normalerweise in der Hand gehalten werden1100 zweite.

Die Bildstabilisierung funktioniert jedoch nicht Vermeiden Sie Bewegungsunschärfe, die durch die Bewegung des Motivs oder durch extreme Bewegungen der Kamera verursacht wird. Die Bildstabilisierung wurde nur entwickelt und kann Unschärfen reduzieren, die durch normales, winziges Verwackeln eines Objektivs aufgrund von Handaufnahmen entstehen. Einige Objektive und Kameragehäuse verfügen über einen sekundären Schwenkmodus oder einen aggressiveren “aktiven Modus”, die beide nachstehend unter optische Bildstabilisierung ausführlicher beschrieben werden.

Bei der Astrofotografie wird häufig die Langzeitbelichtung verwendet, bei der die Kamera fixiert werden muss. Es reicht jedoch nicht aus, es an der Erde zu befestigen, da sich die Erde dreht. Die Pentax K-5 und Kr können, wenn sie mit dem GPS-Zubehör O-GPS1 für Positionsdaten ausgestattet sind, ihre Sensorverschiebungsfunktion nutzen, um die resultierenden Sternspuren zu reduzieren.[3]

Die Stabilisierung kann im Objektiv oder im Kameragehäuse erfolgen. Jede Methode hat unterschiedliche Vor- und Nachteile.[4]

Techniken[edit]

Optische Bildstabilisierung[edit]

Ein Vergleich von Nahaufnahmen einer Taschenrechner-Tastatur mit und ohne optische Bildstabilisierung

Ein optischer Bildstabilisator ((OIS, IS, oder Betriebssystem) ist ein Mechanismus, der in Standbild- oder Videokameras verwendet wird und das aufgenommene Bild durch Variieren des Strahlengangs zum Sensor stabilisiert. Diese Technologie ist im Objektiv selbst implementiert und unterscheidet sich von der Bildstabilisierung im Körper (IBIS), bei dem der Sensor als letztes Element im Strahlengang bewegt wird. Das Schlüsselelement aller optischen Stabilisierungssysteme besteht darin, dass sie das auf den Sensor projizierte Bild stabilisieren, bevor der Sensor das Bild in digitale Informationen umwandelt. IBIS kann bis zu 5 Bewegungsachsen haben: X, Y, Roll, Yaw und Pitch. IBIS hat den zusätzlichen Vorteil, mit allen Objektiven zu arbeiten.

Vorteile von OIS[edit]

Die optische Bildstabilisierung verlängert die für Handaufnahmen mögliche Verschlusszeit, indem die Wahrscheinlichkeit verringert wird, dass das Bild während derselben Belichtungszeit durch Verwacklungen unscharf wird.

Bei der Videoaufnahme mit Handhelds gleicht die optische Bildstabilisierung unabhängig von den Lichtverhältnissen kleinere Verwacklungen aus, deren Erscheinungsbild sich bei Betrachtung auf einem großen Display wie einem Fernsehgerät oder einem Computermonitor vergrößert.[5][6][7]

Namen von Anbietern[edit]

Verschiedene Unternehmen haben unterschiedliche Namen für die OIS-Technologie, zum Beispiel:

  • Schwingungsreduktion (VR) – Nikon (produzierte das erste optische zweiachsige stabilisierte Objektiv, ein 38–105 mm f/4–7.8 Zoom in die Nikon Zoom 700VR (USA: Zoom-Touch 105 VR) Kamera von 1994)[8][9]
  • Bildstabilisator (IS) – Canon stellte den EF 75–300 mm vor f/4–5,6 IS USM) im Jahr 1995. 2009 stellten sie ihr erstes Objektiv (das EF 100mm F2.8 Macro L) vor, das eine Vierachse verwendet Hybrid IS.)
  • Anti-Shake (AS) – Minolta und Konica Minolta (Minolta stellte 2003 mit der DiMAGE A1 den ersten sensorgestützten Teo-Achsen-Bildstabilisator vor)
  • IBIS – In Body Image Stabilization – Olympus
  • Optical SteadyShot (OSS) – Sony (für Cyber-shot und mehrere α E-Mount-Objektive)
  • Optische Bildstabilisierung (OIS) – Fujifilm
  • MegaOIS, PowerOIS – Panasonic und Leica
  • SteadyShot (SS), Super SteadyShot (SSS), SteadyShot INSIDE (SSI) – Sony (basierend auf Konica Minoltas Anti-Shake ursprünglich führte Sony 2008 eine 2-Achsen-Vollbildvariante für die DSLR-A900 ein und eine 5-Achs-Stabilisator für den Vollbild-ILCE-7M2 im Jahr 2014)
  • Optische Stabilisierung (OS) – Sigma
  • Schwingungskompensation (VC) – Tamron
  • Shake Reduction (SR) – Pentax
  • PureView – Nokia (produzierte den ersten optisch stabilisierten Sensor für Mobiltelefone, der in das Lumia 920 eingebaut ist)
  • UltraPixel – HTC (Bildstabilisierung ist nur für das HTC One 2013 und das HTC 10 2016 mit UltraPixel verfügbar. Sie ist nicht für das HTC One (M8) oder das HTC Butterfly S verfügbar, die auch über UltraPixel verfügen.)

Die meisten High-End-Smartphones verwenden ab Ende 2014 die optische Bildstabilisierung für Fotos und Videos.[10]

Linsenbasiert[edit]

Bei der Implementierung von Nikon und Canon wird ein schwebendes Linsenelement verwendet, das mithilfe von Elektromagneten orthogonal zur optischen Achse des Objektivs bewegt wird.[11] Vibrationen werden mithilfe von zwei piezoelektrischen Winkelgeschwindigkeitssensoren (häufig als Kreiselsensoren bezeichnet) erfasst, von denen einer die horizontale Bewegung und der andere die vertikale Bewegung erfasst.[12] Infolgedessen korrigiert diese Art von Bildstabilisator nur Rotationen der Nick- und Gierachse.[13][14] und kann die Drehung um die optische Achse nicht korrigieren. Einige Objektive verfügen über einen sekundären Modus, der Verwacklungen nur bei vertikaler Kamera entgegenwirkt. Dieser Modus ist nützlich, wenn Sie eine Schwenktechnik verwenden. Einige dieser Objektive aktivieren es automatisch. andere benutzen einen Schalter am Objektiv.

Um das Verwackeln der Kamera beim Aufnehmen von Videos während des Gehens auszugleichen, führte Panasonic Power Hybrid OIS + mit fünfachsiger Korrektur ein: Achsendrehung, horizontale Drehung, vertikale Drehung sowie horizontale und vertikale Bewegung.[15]

Einige Nikon VR-fähige Objektive bieten einen “aktiven” Modus für Aufnahmen von einem fahrenden Fahrzeug wie einem Auto oder Boot, der größere Verwacklungen als den “normalen” Modus korrigieren soll.[16] Der für normale Aufnahmen verwendete aktive Modus kann jedoch zu schlechteren Ergebnissen führen als der normale Modus.[17] Dies liegt daran, dass der aktive Modus für die Reduzierung von Bewegungen mit höherer Winkelgeschwindigkeit optimiert ist (normalerweise beim Aufnehmen von einer sich stark bewegenden Plattform mit kürzeren Verschlusszeiten), wobei der normale Modus versucht, Bewegungen mit niedrigerer Winkelgeschwindigkeit über einen größeren Amplituden- und Zeitrahmen (normalerweise Körper- und Handbewegungen) zu reduzieren wenn Sie auf einer stationären oder sich langsam bewegenden Plattform stehen und längere Verschlusszeiten verwenden).

Die meisten Hersteller empfehlen, die IS-Funktion eines Objektivs auszuschalten, wenn das Objektiv auf einem Stativ montiert ist, da dies zu fehlerhaften Ergebnissen führen kann und im Allgemeinen nicht erforderlich ist. Viele moderne Bildstabilisierungsobjektive (insbesondere die neueren IS-Objektive von Canon) können automatisch erkennen, dass sie auf einem Stativ montiert sind (aufgrund extrem niedriger Vibrationswerte), und IS automatisch deaktivieren, um dies und eine daraus resultierende Verringerung der Bildqualität zu verhindern.[18] Das System verbraucht auch Batteriestrom, sodass durch Deaktivieren, wenn es nicht benötigt wird, die Batterieladung verlängert wird.

Ein Nachteil von Objektivbasierte Bildstabilisierung ist kosten. Jedes Objektiv benötigt ein eigenes Bildstabilisierungssystem. Außerdem ist nicht jedes Objektiv in einer bildstabilisierten Version erhältlich. Dies ist häufig bei schnellen Primzahlen und Weitwinkelobjektiven der Fall. Das schnellste Objektiv mit Bildstabilisierung ist jedoch das Nocticron mit einer Geschwindigkeit von f/1.2. Während der offensichtlichste Vorteil für die Bildstabilisierung in längeren Brennweiten liegt, profitieren auch normale und Weitwinkelobjektive bei Anwendungen bei schlechten Lichtverhältnissen davon.

Die linsenbasierte Stabilisierung hat auch Vorteile gegenüber der Stabilisierung im Körper. In Situationen mit wenig Licht oder geringem Kontrast kann das Autofokussystem (ohne stabilisierte Sensoren) genauer arbeiten, wenn das vom Objektiv kommende Bild bereits stabilisiert ist.[citation needed] Bei Kameras mit optischen Suchern zeigt das Bild, das der Fotograf durch das stabilisierte Objektiv sieht (im Gegensatz zur Stabilisierung im Körper), aufgrund seiner Stabilität mehr Details und erleichtert auch die korrekte Rahmung. Dies ist insbesondere bei längeren Teleobjektiven der Fall. Dieser Vorteil tritt bei kompakten Systemkameras nicht auf, da die Sensorausgabe an den Bildschirm oder den elektronischen Sucher stabilisiert würde.

Sensorverschiebung[edit]

Der das Bild erfassende Sensor kann so bewegt werden, dass er der Bewegung der Kamera entgegenwirkt, eine Technologie, die häufig als mechanische Bildstabilisierung bezeichnet wird. Wenn sich die Kamera dreht und einen Winkelfehler verursacht, codieren Gyroskope Informationen an den Aktuator, der den Sensor bewegt.[19] Der Sensor wird bewegt, um die Projektion des Bildes auf die Bildebene aufrechtzuerhalten, was eine Funktion der Brennweite des verwendeten Objektivs ist. Moderne Kameras können automatisch Brennweiteninformationen von modernen Objektiven erfassen, die für diese Kamera hergestellt wurden. Einige Objektive können mit einem Chip nachgerüstet werden, der die Brennweite kommuniziert. Minolta und Konica Minolta verwendeten eine Technik namens Anti-Shake (AS), die jetzt als SteadyShot (SS) in der Sony α-Linie und Shake Reduction (SR) in den Kameras der Pentax K-Serie und Q-Serie vermarktet wird und auf einem sehr präzisen Winkel beruht Geschwindigkeitssensor zur Erkennung von Kamerabewegungen.[20]Olympus führte die Bildstabilisierung mit seinem E-510 D-SLR-Gehäuse ein und verwendete ein System, das auf dem Supersonic Wave Drive basiert.[21] Andere Hersteller verwenden digitale Signalprozessoren (DSP), um das Bild im laufenden Betrieb zu analysieren und den Sensor dann entsprechend zu bewegen. Sensorverschiebung wird auch in einigen Kameras von Fujifilm, Samsung, Casio Exilim und Ricoh Caplio verwendet.[22]

Der Vorteil beim Bewegen des Bildsensors anstelle des Objektivs besteht darin, dass das Bild auch auf Objektiven stabilisiert werden kann, die ohne Stabilisierung hergestellt wurden. Dies kann ermöglichen, dass die Stabilisierung mit vielen ansonsten nicht stabilisierten Linsen funktioniert, und verringert das Gewicht und die Komplexität der Linsen. Wenn sich die sensorgestützte Bildstabilisierungstechnologie verbessert, muss nur die Kamera ausgetauscht werden, um die Verbesserungen nutzen zu können. Dies ist in der Regel weitaus kostengünstiger als das Ersetzen aller vorhandenen Objektive, wenn die objektivbasierte Bildstabilisierung verwendet wird. Einige sensorgestützte Bildstabilisierungsimplementierungen können die Drehung der Kamerarolle korrigieren, eine Bewegung, die durch Drücken des Auslösers leicht angeregt werden kann. Kein objektivbasiertes System kann diese potenzielle Quelle von Bildunschärfe beheben. Ein Nebenprodukt der verfügbaren “Roll” -Kompensation besteht darin, dass die Kamera automatisch geneigte Horizonte im optischen Bereich korrigieren kann, sofern sie mit einer elektronischen Wasserwaage wie den Pentax K-7 / K-5-Kameras ausgestattet ist.

Einer der Hauptnachteile beim Bewegen des Bildsensors selbst besteht darin, dass das auf den Sucher projizierte Bild nicht stabilisiert wird. Dies ist jedoch kein Problem bei Kameras, die einen elektronischen Sucher (EVF) verwenden, da das auf diesen Sucher projizierte Bild vom Bildsensor selbst aufgenommen wird. In ähnlicher Weise wird das Bild, das auf ein Phasendetektions-Autofokussystem projiziert wird, das nicht Teil des Bildsensors ist, wenn es verwendet wird, nicht stabilisiert.

Einige, aber nicht alle Kameragehäuse, die zur Stabilisierung im Körper fähig sind, können manuell auf eine bestimmte Brennweite voreingestellt werden. Ihr Stabilisierungssystem korrigiert, als ob das Objektiv mit Brennweite angebracht wäre, sodass die Kamera ältere Objektive und Objektive anderer Hersteller stabilisieren kann. Dies ist bei Zoomobjektiven nicht möglich, da ihre Brennweite variabel ist. Einige Adapter übertragen Brennweiteninformationen vom Hersteller eines Objektivs an den Körper eines anderen Herstellers. Bei einigen Objektiven, die ihre Brennweite nicht angeben, kann dem Objektiv ein Chip hinzugefügt werden, der dem Kameragehäuse eine vorprogrammierte Brennweite meldet. Manchmal funktioniert keine dieser Techniken, und die Bildstabilisierung kann mit solchen Objektiven einfach nicht verwendet werden.

Für die Bildstabilisierung im Körper muss das Objektiv einen größeren Ausgangsbildkreis haben, da der Sensor während der Belichtung bewegt wird und somit einen größeren Teil des Bildes verwendet. Im Vergleich zu Linsenbewegungen in optischen Bildstabilisierungssystemen sind die Sensorbewegungen ziemlich groß, so dass die Wirksamkeit durch den maximalen Bereich der Sensorbewegung begrenzt ist, in dem eine typische moderne optisch stabilisierte Linse größere Freiheit hat. Sowohl die Geschwindigkeit als auch die Reichweite der erforderlichen Sensorbewegung nehmen mit der Brennweite des verwendeten Objektivs zu, wodurch die Sensor-Shift-Technologie für sehr lange Teleobjektive, insbesondere bei Verwendung längerer Verschlusszeiten, weniger geeignet ist, da der verfügbare Bewegungsbereich des Sensors schnell ist wird unzureichend, um mit der zunehmenden Bildverschiebung fertig zu werden.

Dual[edit]

Beginnend mit der im Juli 2015 angekündigten Panasonic Lumix DMC-GX8 und anschließend mit der Panasonic Lumix DC-GH5 führte Panasonic ein, die früher nur eine objektivbasierte Stabilisierung in ihrem Wechselobjektivkamerasystem (nach dem Micro Four Thirds-Standard) ausstattete Sensor-Shift-Stabilisierung, die mit dem bestehenden linsenbasierten System (“Dual IS”) zusammenarbeitet.

In der Zwischenzeit (2016) bietet Olympus auch zwei Objektive mit Bildstabilisierung an, die mit dem eingebauten Bildstabilisierungssystem der Bildsensoren der Micro Four Thirds-Kameras von Olympus (“Sync IS”) synchronisiert werden können. Mit dieser Technologie ein Gewinn von 6,5 f-Stopps können ohne unscharfe Bilder erreicht werden.[23] Dies wird durch die Rotationsbewegung der Erdoberfläche begrenzt, die die Beschleunigungsmesser der Kamera täuscht. Daher sollte die maximale Belichtungszeit je nach Blickwinkel nicht überschritten werden13 Sekunde für lange Teleaufnahmen (mit einer äquivalenten Brennweite von 35 mm von 800 Millimetern) und etwas mehr als zehn Sekunden für Weitwinkelaufnahmen (mit einer äquivalenten Brennweite von 35 mm von 24 Millimetern), wenn die Bewegung der Erde nicht aufgenommen wird unter Berücksichtigung durch den Bildstabilisierungsprozess.[24]

Im Jahr 2015 ermöglichte das Sony E-Kamerasystem auch die Kombination von Bildstabilisierungssystemen von Objektiven und Kameragehäusen, ohne jedoch die gleichen Freiheitsgrade zu synchronisieren. In diesem Fall werden nur die unabhängigen Kompensationsgrade der eingebauten Bildsensorstabilisierung aktiviert, um die Linsenstabilisierung zu unterstützen.[25]

Digitale Bildstabilisierung[edit]

Kurzes Video mit Bildstabilisierung, die in der Nachbearbeitungsphase ausschließlich in Software durchgeführt wird

Echtzeit digitale BildstabilisierungIn einigen Videokameras wird auch die elektronische Bildstabilisierung (EIS) verwendet. Diese Technik verschiebt das elektronische Bild von Bild zu Bild, genug, um der Bewegung entgegenzuwirken.[26] Es werden Pixel außerhalb des Rahmens des sichtbaren Rahmens verwendet, um einen Puffer für die Bewegung bereitzustellen. Diese Technik reduziert störende Vibrationen von Videos, indem der Übergang von einem Bild zum anderen geglättet wird. Diese Technik beeinflusst den Rauschpegel des Bildes nicht, außer an den extremen Rändern, wenn das Bild extrapoliert wird. Es kann nichts gegen vorhandene Bewegungsunschärfe tun, was dazu führen kann, dass ein Bild scheinbar den Fokus verliert, wenn die Bewegung kompensiert wird.

Einige Hersteller von Standbildkameras vermarkteten ihre Kameras mit digitaler Bildstabilisierung, wenn sie wirklich nur einen hochempfindlichen Modus hatten, der eine kurze Belichtungszeit verwendet – Bilder mit weniger Bewegungsunschärfe, aber mehr Rauschen.[27] Es reduziert Unschärfen beim Fotografieren von sich bewegenden Gegenständen sowie durch Verwacklungen.

Andere verwenden jetzt auch die digitale Signalverarbeitung (DSP), um die Unschärfe in Standbildern zu verringern, indem sie beispielsweise die Belichtung schnell hintereinander in mehrere kürzere Belichtungen unterteilen, unscharfe Belichtungen verwerfen, die schärfsten Unterbelichtungen neu ausrichten und addieren Verwenden des Gyroskops, um die beste Zeit für jedes Bild zu ermitteln.[28][29][30]

Stabilisierungsfilter[edit]

Viele nichtlineare Videobearbeitungssysteme verwenden Stabilisierungsfilter, die ein nicht stabilisiertes Bild korrigieren können, indem sie die Bewegung von Pixeln im Bild verfolgen und das Bild durch Verschieben des Rahmens korrigieren.[31][32] Der Vorgang ähnelt der digitalen Bildstabilisierung, gibt es jedoch nicht größer Bild, das mit dem Filter arbeitet, schneidet das Bild entweder ab, um die Bewegung des Rahmens zu verbergen, oder versucht, das verlorene Bild am Rand durch räumliche oder zeitliche Extrapolation wiederherzustellen.[33]

Online-Dienste, einschließlich YouTube, bieten ebenfalls ‘Videostabilisierung als Nachbearbeitungsschritt nach dem Hochladen von Inhalten. Dies hat den Nachteil, dass kein Zugriff auf die Echtzeit-Kreiseldaten möglich ist, aber den Vorteil einer höheren Rechenleistung und der Möglichkeit, Bilder sowohl vor als auch nach einem bestimmten Frame zu analysieren.[34]

Orthogonale Übertragung CCD[edit]

In der Astronomie verschiebt ein orthogonaler Transfer-CCD (OTCCD) das Bild tatsächlich innerhalb des CCD selbst, während das Bild aufgenommen wird, basierend auf der Analyse der scheinbaren Bewegung heller Sterne. Dies ist ein seltenes Beispiel für die digitale Stabilisierung von Standbildern. Ein Beispiel hierfür ist das kommende Gigapixel-Teleskop Pan-STARRS, das in Hawaii gebaut wird.[35]

Stabilisierung des Kameragehäuses[edit]

Eine Technik, die keine zusätzlichen Funktionen einer Kombination aus Kameragehäuse und Objektiv erfordert, besteht darin, das gesamte Kameragehäuse extern zu stabilisieren, anstatt eine interne Methode zu verwenden. Dies wird durch Anbringen eines Gyroskops am Kameragehäuse erreicht, normalerweise unter Verwendung der eingebauten Stativhalterung der Kamera. Dadurch kann der externe Kreisel (kardanisch) die Kamera stabilisieren und wird normalerweise beim Fotografieren von einem fahrenden Fahrzeug aus verwendet, wenn ein Objektiv oder eine Kamera mit einer anderen Art der Bildstabilisierung nicht verfügbar ist.[36]

Ein üblicher Weg, um sich bewegende Kameras nach ca. Im Jahr 2015 wird ein Kamerastabilisator wie ein stabilisierter Remote-Kamerakopf verwendet. Die Kamera und das Objektiv sind in einem ferngesteuerten Kamerahalter montiert, der dann an allen beweglichen Gegenständen wie Schienensystemen, Kabeln, Autos oder Hubschraubern montiert wird. Ein Beispiel für einen ferngesteuerten stabilisierten Kopf, mit dem sich bewegende Fernsehkameras stabilisiert werden, die live übertragen werden, ist der Newton-stabilisierte Kopf.[37]

Eine andere Technik zur Stabilisierung eines Video- oder Filmkameragehäuses ist das Steadicam-System, das die Kamera mithilfe eines Gurtzeugs und eines Kameraauslegers mit Gegengewicht vom Körper des Bedieners isoliert.
[38]

Kamerastabilisator[edit]

Ein Kamerastabilisator ist jedes Gerät oder Objekt, das die Kamera extern stabilisiert. Dies kann sich auf eine Steadicam, ein Stativ, die Hand des Kameramanns oder eine Kombination davon beziehen.

In der Nahaufnahme wird die Verwendung von Rotationssensoren zum Ausgleich von Richtungsänderungen unzureichend. Wenn Sie versuchen, millimetergroße Details des Objekts aufzulösen, wird die Kamera nicht bewegt, sondern um einen Bruchteil eines Millimeters nach oben / unten oder links / rechts gekippt. Lineare Beschleunigungsmesser in der Kamera können in Verbindung mit Informationen wie der Brennweite des Objektivs und der fokussierten Entfernung eine sekundäre Korrektur in den Antrieb einspeisen, der den Sensor oder die Optik bewegt, um sowohl lineare als auch rotatorische Verwacklungen auszugleichen.
[39]

In biologischen Augen[edit]

Bei vielen Tieren, einschließlich Menschen, fungiert das Innenohr als biologisches Analogon eines Beschleunigungsmessers in Kamerabildstabilisierungssystemen, um das Bild durch Bewegen der Augen zu stabilisieren. Wenn eine Drehung des Kopfes festgestellt wird, wird ein Hemmsignal an die Extraokularmuskeln auf der einen Seite und ein Erregungssignal an die Muskeln auf der anderen Seite gesendet. Das Ergebnis ist eine Ausgleichsbewegung der Augen. Typischerweise verzögern Augenbewegungen die Kopfbewegungen um weniger als 10 ms.[40]

Siehe auch[edit]

Verweise[edit]

  1. ^ “Übermäßiges Schütteln in Final Cut Pro korrigieren”. Apple Inc.
  2. ^ “Bildstabilisierung (IS) und Vibrationsreduzierung (VR)”. www.kenrockwell.com.
  3. ^ PENTAX O-GPS1 – Pressemitteilung, Pentax.jp (archiviert)
  4. ^ “Bildstabilisierung – Linse gegen Körper”. Bobatkins.com. Abgerufen 11.12.2009.
  5. ^ “Sony α7R IV 35 mm Vollbildkamera mit 61,0 MP”. Sony.
  6. ^ “Sony A7R IV Sensor Bewertung”. 14. November 2019.
  7. ^ “Objektivstabilisierung vs. In-Camera-Stabilisierung”. photoylife.com.
  8. ^ Nikon Kameramodelle 1992-1994 MIR
  9. ^ Nikon Zoom 700VR Kamera-Klatsch
  10. ^ “15 Smartphone-Kameras mit optischer Bildstabilisierung”. 14. Dezember 2014.
  11. ^ Was ist ein optischer Bildstabilisator? Archiviert 2006-05-16 bei der Wayback-Maschine, Technologie-FAQ, Canon Broadcast Equipment
  12. ^ Glossar: Optisch: Bildstabilisierung, Vincent Bockaert, Digitalfotografie Review
  13. ^ “Archivierte Kopie”. Archiviert vom Original am 12. Januar 2009. Abgerufen 16. März 2007.CS1-Wartung: Archivierte Kopie als Titel (Link) CS1-Wartung: nicht angepasste URL (Link)
  14. ^ “Mega OIS”. Archiviert von das Original am 07.01.2011. Abgerufen 2011-11-05.
  15. ^ “Warum braucht Ihre Kompaktkamera das OIS?”. Abgerufen 31. Dezember, 2013.
  16. ^ “VR-Technologie (Vibration Reduction)”. Archiviert von das Original am 04.11.2007. Abgerufen 2007-05-19.
  17. ^ “CameraHobby: Nikon AF-S VR 70–200 mm f2.8 Test”. Archiviert von das Original am 23.05.2007. Abgerufen 2007-05-19.
  18. ^ “Technischer Bericht”. Canon.com. Archiviert von das Original am 25.12.2009. Abgerufen 11.12.2009.
  19. ^ “Entwicklung einer Testmethode für Bildstabilisierungssysteme” (PDF). Archiviert von das Original (PDF) am 17.01.2009. Abgerufen 2008-04-04.
  20. ^ Dynax 7D Anti-Shake-Technologie Archiviert 2006-06-19 an der Wayback-Maschine, Konica Minolta
  21. ^ “Olympus Bildstabilisierungstechnologie”. Archiviert von das Original am 2007-07-02. Abgerufen 2007-06-30.
  22. ^ “Bildstabilisierung”.
  23. ^ DL Cade: Laut Olympus begrenzt die Erdrotation die Bildstabilisierung auf 6,5 Stopps max, petapixel.com, 26. September 2016, abgerufen am 26. Oktober 2017
  24. ^ Markus Bautsch: Optomechanische Bildstabilisierung, Deutsche, Optomechanische Bildstabilisierung, in: Wikibook Digitale Bildgebungstechniken, abgerufen am 30. Oktober 2017
  25. ^ Ein Vergleich der Funktionsweise der 5-Achsen-Stabilisierung von Olympus und Sony, thephoblographer.com, 17. Dezember 2014, abgerufen am 26. Oktober 2017
  26. ^ Chereau, R., Breckon, TP (September 2013). “Robuste Bewegungsfilterung als Wegbereiter für die Videostabilisierung eines ferngesteuerten mobilen Roboters” (PDF). In Kamerman, Gary W; Steinvall, Ove K; Bischof Gary J; Gonglewski, John D (Hrsg.). Proc. SPIE Elektrooptische Fernerkundung, photonische Technologien und Anwendungen VII. Elektrooptische Fernerkundung, photonische Technologien und Anwendungen VII; und militärische Anwendungen in der hyperspektralen Bildgebung und der Erfassung hoher räumlicher Auflösung. 8897. SPIE. S. 88970I. doi:10.1117 / 12.2028360. Abgerufen 5. November 2013.CS1-Wartung: mehrere Namen: Autorenliste (Link)
  27. ^ “Hören Sie auf, ‘Bildstabilisierungs’-Etiketten irrezuführen: Digital Photography Review”. Dpreview.com. 2007-01-05. Abgerufen 11.12.2009.
  28. ^ “Sony DSC-HX5V-Funktionen”. sony.co.uk. 2010-04-01. Abgerufen 2012-06-24.
  29. ^ “Fujifilm FinePix HS20EXR-Funktionen – dreifache Bildstabilisierung”. fujifilm.ca. 2011-01-05. Archiviert von das Original am 2012-01-12. Abgerufen 2012-06-26.
  30. ^ Zimmerman, Steven (12. Oktober 2016). “Sony IMX378: Umfassende Aufschlüsselung des Sensors von Google Pixel und seiner Funktionen”. XDA-Entwickler. Abgerufen 17. Oktober 2016.
  31. ^ “Die Ressource des Event-Videografen”. EventDV.net. Abgerufen 11.12.2009.
  32. ^ “Stabilisierung pro Software”. studiodaily.com. 2011-02-28. Abgerufen 2014-03-17.
  33. ^ “Fähigkeiten | Stabilisierung”. 2d3. Archiviert von das Original am 25.11.2009. Abgerufen 11.12.2009.
  34. ^ “Geheimnisse der Videostabilisierung auf YouTube”. 15. Mai 2013. Abgerufen 17. Oktober 2014.
  35. ^ Pan-STARRS Orthogonal Transfer CCD Kameradesign Archiviert 07.08.2004 an der Wayback-Maschine, Gareth Wynn-Williams, Institut für Astronomie
  36. ^ Multimedia: Verwenden Sie die Bildstabilisierung, Andy King, Website-Optimierung, 2004
  37. ^ “NEWTON stabilisierte entfernte Kameraköpfe”. newtonnordic.com. 2020-01-09. Abgerufen 2020-06-26.
  38. ^ Harris, Tom (22.11.2001). “Wie Steadicams funktionieren”. HowStuffWorks.com. Discovery Communications LLC. Abgerufen 2008-07-26.
  39. ^ “Hybrid Image Stabilizer”. Canon Global News Releases. canon.com. 2009-07-22. Archiviert von das Original am 17.06.2012. Abgerufen 2012-06-26.
  40. ^ Barnes, GR (1979). “Vestibulo-Okular-Funktion bei koordinierten Kopf- und Augenbewegungen zur Erfassung visueller Ziele”. Das Journal of Physiology. 287: 127–147. doi:10.1113 / jphysiol.1979.sp012650. PMC 1281486. PMID 311828.