Stanford Research Tiefenkamera

Forscher haben entwickelten Eine neuartige Möglichkeit, jeder modernen Digitalkamera die Möglichkeit zu geben, die Tiefe mit einem energiesparenden und kompakten optischen Gerät zu berechnen.

Mit seiner Fähigkeit, die Tiefe durch das Aussenden von Lichtimpulsen und das Messen der Rückkehrzeit zu messen, war LiDAR – was für „Light Detection and Ranging“ steht – ein Wendepunkt für alles von Automobilherstellern, die es zur Unterstützung von Fahrerassistenzfunktionen einsetzen leistungsfähiger und genauer werden, bis hin zu Drohnen, die ihnen die Fähigkeit geben, Hindernissen auf ihrer Flugbahn auszuweichen. Sogar Smartphones können die von LiDAR bereitgestellten Sensordaten verwenden, um die Position eines Objekts im 3D-Raum zu bestimmen und eine künstliche Tiefenschärfe zu erzeugen.

LiDAR allein wird jedoch nicht zum Fotografieren verwendet. Dafür werden typischerweise CMOS-Sensoren verwendet. CMOS-Sensoren eignen sich hervorragend zum Aufzeichnen visueller Informationen mit hoher Auflösung, haben jedoch nicht die Fähigkeit, über zwei Dimensionen hinaus zu sehen.

„Das Problem ist, dass CMOS-Bildsensoren nicht wissen, ob etwas einen Meter oder 20 Meter entfernt ist. Der einzige Weg, das zu verstehen, sind indirekte Hinweise wie Schatten, um die Größe des Objekts herauszufinden“, sagt Amin Arbabian, außerordentlicher Professor für Elektrotechnik an der Stanford University Populärwissenschaft.

Arabian sagt, CMOS-Sensoren sehen alles im 3D-Raum als eindimensional an. Aber mit einigen der Funktionen von LIDAR könnten sie lernen, Tiefe zu sehen. Zu diesem Zweck haben Arabian und sein Team einen Hybridsensor entwickelt, der die besten Eigenschaften sowohl eines CMOS-Bildsensors als auch eines LIDAR-Sensors nutzt, um die Amplitude, Frequenz und Intensität des in die Kamera einfallenden Lichts zu verstärken und sie nicht nur auf Farbe, sondern auch auf Farbe zu analysieren. Helligkeit und Weißabgleich, aber auch Reichweitendaten.

In der vollständigen Forschungsarbeit veröffentlicht in Natur, erklärt das Team, dass es einen akustischen Modulator zwischen Objektiv und Kamera platziert hat. Dieser transparente Kristall besteht aus Lithiumniobat und wird von zwei transparenten Elektroden aufgeladen. In Zusammenarbeit mit dem Bildsensor kann das System die Lichtdaten modulieren, die durch das Objektiv kommen, und bestimmen, wo sich ein Objekt befindet.

Stanford Research Tiefenkamera
Andrew Brodhead/Stanford University

Das vom Bild kommende Licht wird durch den Modulator geschickt. Mithilfe von zwei piezoelektrischen Elektroden sendet der Modulator Strom durch den Kristall und schaltet das Licht Millionen Mal pro Sekunde ein und aus. Dadurch und anhand der Geschwindigkeit, mit der das Licht zurückkehrt, kann der Modulator die Entfernung bestimmen, die das Licht zurückgelegt hat, und somit die Entfernung zum Ziel.

In Verbindung mit einer Digitalkamera ist der Modulator in der Lage, ein eigenes Bilddatenpaket zu erstellen, das der Kamera die Entfernung von allem im Bild mitteilt und daher die Tiefe berechnen kann.

Die Forscher glauben nicht nur, dass dies große Auswirkungen auf die möglichen Vorteile von Kameras hat, sondern sie glauben auch, dass sie sie kleiner und billiger als herkömmliche LIDAR-Sensoren machen können.

Anwendungen für eine kostengünstige Version des Modulators könnten von der Fähigkeit reichen, Smartphone-Kameras zu verbessern und ihnen zu ermöglichen, eine realistischere Hintergrundunschärfe zu erzeugen, einer Kamera die Fähigkeit zu geben, das, was sie sieht, virtuell nachzubilden, um sie in Augmented Reality (AR) zu verwenden Virtual Reality (VR)-Anwendungen.

Der Modulator würde es auch ermöglichen, LiDAR mit Megapixel-Auflösung für extrem scharfe und genaue Daten zu erstellen. Dieses LiDAR mit höherer Auflösung wäre in der Lage, Ziele in größerer Entfernung zu identifizieren und unabhängig davon, ob sie sich auf die Erkennung zu oder von ihr weg bewegen – ein großer Vorteil für autonome Fahrsysteme, die ohne menschliche Aufsicht sicher arbeiten können.

Da selbstfahrende Autos immer mehr möglich werden, wird der Bedarf an ultraintelligenten und zuverlässigen Bildsensoren, die Tiefe wahrnehmen können, während sich ein Auto darauf zu bewegt, zu einer kritischen Komponente für sicheres, autonomes Fahren.

Derzeit arbeiten die beiden Systeme zusammen, aber das Stanford-Team hofft, ein einziges System zu entwickeln, das das alternde CMOS-Design ersetzen und Kameras und andere Systeme leistungsfähiger und flexibler machen kann.


Bildnachweis: Das Titelfoto zeigt den laborbasierten LiDAR-Prototyp, den das Forschungsteam gebaut hat und der erfolgreich Tiefenkarten mit Megapixel-Auflösung mit einer handelsüblichen Digitalkamera aufgenommen hat. | von Andrew Brodhead/Stanford University

Share.

Leave A Reply