Inhaltsverzeichnis:

Stanford Research Zeigt, Wie Tesla-Fahrzeuge Durch Nebel Sehen Können
Stanford Research Zeigt, Wie Tesla-Fahrzeuge Durch Nebel Sehen Können

Video: Stanford Research Zeigt, Wie Tesla-Fahrzeuge Durch Nebel Sehen Können

Video: Der Kampf um die Batterie-Lieferkette, Tesla startet mit Energy in Japan 2022, Dezember
Anonim

In einem neuen Video von Dr. Know It All auf YouTube erklärt er, dass er wissen wollte, ob Tesla-Autos durch Nebel sehen können oder nicht. Er zitierte einen Forschungsartikel aus Stanford, der zeigt, wie er durch den Nebel sehen kann. Der letztes Jahr veröffentlichte Artikel stellte fest, dass optische Bildgebungstechniken wie Light Detection and Ranging (LiDAR) wesentliche Werkzeuge in der Fernerkundung, der Robotersicht und dem autonomen Fahren sind. Das macht mich persönlich etwas neugierig, da Tesla kein LiDAR verwendet und bald auch kein Radar mehr verwenden wird, sondern auf „pures Sehen“setzt, wie Elon Musk kürzlich auf Twitter teilte.

In seinem Video bemerkte Dr. Know-It-All, dass er bei der Zusammenfassung des Forschungspapiers nicht glaubte, dass Tesla die gesamte Forschung aus diesem Papier nutzte. „Die Forschung ist sehr spezialisiert und braucht ein Lasersystem und auch eine Art Kaskadendiodensensor.“Er erklärte, dass diese Dinge eher auf LiDAR als auf Vision basieren, ist jedoch der Meinung, dass es eine passive KI-Methode geben könnte, die Forschung zu nutzen, um die Fähigkeit zum Selbstfahren unter extremen Bedingungen – wie Nebel, starker Regen, Schnee und sogar Staub - für diejenigen, die in staubiger Umgebung leben.

„Das Erstaunliche an dieser Forschung ist, dass sie im Grunde genommen durch ein ein oder zweieinhalb Zentimeter großes Stück Schaumstoff sehen können. Ich meine, es ist im Grunde etwas, das man buchstäblich nicht durchschauen kann “, sagte er.

Er schlug vor, dass Tesla-Fahrzeuge das nicht können. Was Tesla jedoch tun kann, ist durch so etwas wie Nebel zu schauen.

Zusammenfassung des Forschungspapiers

Im Video geht Dr. Know-It-All auf einige Zitate aus dem Forschungspapier ein und teilt seine Gedanken mit. Nachfolgend die Zitate aus dem Papier.

„Wir stellen eine Technik vor, die Einzelphotonen-Lawinendioden, ultraschnelle gepulste Laser und eine neue inverse Methode zur Erfassung von 3D-Formen durch Streumedien mitentwickelt.“

„Unsere Technik, die konfokale diffuse Tomographie, kann für die oben genannten Anwendungen von erheblichem Wert sein.“

„Aktuelle LiDAR-Systeme versagen bei widrigen Bedingungen, bei denen Wolken, Nebel, Staub, Regen oder trübes Wasser Streuungen verursachen. Diese Einschränkung ist eine kritische Hürde für 3D-Sensor- und Navigationssysteme und behindert einen robusten und sicheren Betrieb.“

„Hier stellen wir eine Technik zur nichtinvasiven 3D-Bildgebung durch Streumedien vor: die konfokale diffuse Tomographie (CDT). Wir wenden diese Technik auf ein komplexes und anspruchsvolles makroskopisches Bildgebungsregime an, indem wir die Streuung von Photonen modellieren und invertieren, die durch einen dicken Diffusor wandern, der ungefähr 6 freien Transportwegen entspricht, sich durch den freien Raum zu einem versteckten Objekt ausbreitet und durch den Diffusor.

„Unsere Erkenntnis ist, dass ein speziell nach konfokalen Scansystemen (wie kommerziellen LiDARs) gemustertes Hardware-Design, das neue Einzelphotonen-sensitive, Pikosekunden-genaue Detektoren und neu entwickelte Signalverarbeitungstransformationen kombiniert, eine effiziente Näherungslösung für diese Herausforderung ermöglicht. umgekehrtes Problem.“

Im Wesentlichen stellte er fest, dass die Forscher einen Pulslaser auf Pikosekundenebene aussenden. 1 Pikosekunde entspricht 0,000000000001 Sekunden. Es ist ein wirklich kurz gepulster Laserstrahl. Sowohl der Sensor als auch der Laserstrahl sind konfokal. Das bedeutet, dass sie sich beide an der gleichen Stelle im Raum befinden. Ein bisschen wie Pizza mit Ananas in meinem Bauch.

Als nächstes geht es raus und trifft auf das Schaumstoffstück. Die meisten Photonen streuen weg, aber einige streuen schließlich durch und treffen auf das Material auf der anderen Seite. Einige dieser Photonen streuen dann nach hinten, und einige von ihnen gehen durch den Schaum auf der anderen Seite.

„Was sie sehr geschickt machen, ist, das aufzuschneiden – und das ist Tomographie. Wenn Sie schon einmal einen Katzenscan hatten, dann ist das Positronen-Emissions-Tomographie und Tomographie bedeutet wie das Schreiben mit Schnitten. Im Grunde genommen nimmt man diese Slices also mit sehr hoher Geschwindigkeit auf und rekonstruiert sie dann, um das eigentliche Bild zu erstellen, nach dem Sie suchen.“

„CDT ermöglicht die nichtinvasive 3D-Bildgebung durch dick streuende Medien, ein Problem, das die Modellierung und Umkehr der diffusen Streuung und die Ausbreitung von Licht im freien Raum zu einem versteckten Objekt und zurück erfordert. Der Ansatz arbeitet mit geringem Rechenaufwand bei relativ großer Reichweite für große, metergroße Bildgebungsvolumina.“

Er erklärte, dass die Forscher darüber sprechen, wie sie dieses Bild mit einem sehr, sehr kurzen Pulslaser mit einer kaskadierenden ultraempfindlichen Diode erstellen können, was im Wesentlichen eine superempfindliche Kamera ist, die sehr fein abgestimmt ist. Im folgenden Zitat weist Dr. Know-It-All darauf hin, wo Tesla dies verwenden könnte:

„Wir führen eine effiziente Annäherung an dieses Modell ein, die unser konfokales Akquisitionsverfahren nutzt, bei dem sich Beleuchtungsquelle und Detektor einen optischen Weg teilen und die Messungen durch Beleuchten und Abbilden eines Punkterasters auf der Oberfläche des Streumediums erfasst werden.”

„Diese Näherung führt zu einem vereinfachten Faltungsbilderzeugungsmodell.“

Er wies darauf hin, dass die Forscher von einem Faltungsmodell der Bilderzeugung sprechen. Er hat Videos über Convolutional Neural Networks gemacht und darauf hingewiesen, dass diejenigen, die diese gesehen haben, sehen können, wie dies synchronisiert wird.

„Wir versuchen, das versteckte Objekt Albedo p zu bergen. In diesem Fall existiert eine geschlossene Lösung unter Verwendung des Wiener Dekonvolutionsfilters und eines konfokalen inversen Filters A-1, der bei der Bildgebung ohne Sichtlinie verwendet wird.“

„Bemerkenswert ist, dass die Rechenkomplexität dieser Methode O(N3 log N) für ein NxNxN-Messvolumen beträgt, wobei der teuerste Schritt die 3D-Fast-Fourier-Transformation ist.“

Das NxNxN repräsentiert ein dreidimensionales Messvolumen. Dr. Know It All stellte fest, dass die Forscher in den obigen Zitaten eine Möglichkeit geschaffen haben, dieses Problem zeitnah zu lösen. Dies ist wichtig, da Tesla sich auf das vollständige Sehen konzentriert und keine LiDAR-Systeme, Laser oder Kaskadendioden hat. Tesla kann diese Forschung jedoch immer noch nutzen, um seine Sicht bei extremen Wetterbedingungen wie Nebel, Staub oder starkem Regen zu verbessern.

„Ich denke, dass sie in der Lage sind, eine zeitliche Tomographie im Gegensatz zu einer räumlichen zu machen. Was sie also im Grunde tun können, ist, ihre Vision zu zerschneiden. Sie können ziemlich wahrscheinlich die Dinge direkt vor ihnen sehen, weil das die Fahrtrichtung des Autos ist.“

Eine andere Sache, die er bemerkte, ist, dass das Auto unter diesen extremen Bedingungen höchstwahrscheinlich langsam fährt, wie es ein Mensch tun würde, wenn er das Fahrzeug bedient, und während es langsam fährt, könnte die Kamera alle Ansichten aufschneiden und suchen was es sehen kann.

„Wenn es sich durch den Weltraum bewegt, bewegen Sie effektiv die Beziehung zwischen dem Auto und sagen wir, es ist ein Reh auf der Straße. Das ist ein wirklich schlimmes Szenario. Du hast das Auto hier, du hast ein Reh hier und du hast Nebel dazwischen. Was hier passiert, ist, dass sich das Auto bewegt und seine relative Ausrichtung und Position relativ zu diesem Hirsch ändert. Und was es tun kann, indem es die verschiedenen Kameras nimmt, ist die Ansichten aufzuschneiden und es kann beginnen, ein paar Photonen gleichzeitig zu erhalten, die beschreiben, dass da etwas ist, und es kann beginnen, dieses Objekt aufzulösen. Und meine Vorhersage ist, dass diese Autos, wenn wir uns diese Version 9 der Full Self Driving Beta ansehen, durch Regen und Nebel usw. weiter sehen können als Menschen.“

Er erweiterte diesen Gedanken und stellte fest, dass diese Photonen in der Lage sind, die Erinnerung an alle Pixel, die langsam eintreffen, festzuhalten und im Laufe der Zeit ein Bild dieses Objekts zu erstellen. Menschen sind durch Vergleiche darauf angewiesen, dass sie es sofort sehen können.

Menschen können nicht durch dichten Nebel sehen, weil unsere Augen nicht so funktionieren. Er stellte fest, dass diese Kameras an den Tesla-Fahrzeugen wie ein Teleskop funktionieren können. Als Beispiel nannte er das Hubble-Teleskop. Es dauert Stunden von Fotos, um diese schönen Weltraumfotos zu erstellen.

„Was der Tesla tun kann, offensichtlich in Echtzeit, ist, dass er die wenigen Pixel, die zurückkommen, einziehen kann. Die wenigen Photonen, die zu seinem Detektor zurückkehren und er kann im Grunde aus sehr wenigen Daten eine dreidimensionale Szene rekonstruieren. Menschen sind mit Teslas etwa 30 Millionen Meilen gefahren – sind durch Staubstürme gefahren, sind durch Nebel gefahren, sind durch Schneestürme gefahren, sind durch starken Regen gefahren usw. Wir stellen Tesla diese Daten zur Verfügung. Es ist in der Lage, die Daten zu kuratieren.“

Er merkte an, dass man damit das gesamte KI-System trainieren kann. Während Sie fahren, sehen die Kameras das Reh, und wenn Sie es sehen, bremsen Sie. Im Wesentlichen würde Tesla Pseudo-CDT durchführen, erklärte er. Das vollständige Video können Sie sich hier ansehen.

Beliebt nach Thema