Inhaltsverzeichnis:

Dies Sind Die 3 Großen Meinungsverschiedenheiten Darüber, Ob Teslas Autonomiepfad Gut Oder Schlecht Ist
Dies Sind Die 3 Großen Meinungsverschiedenheiten Darüber, Ob Teslas Autonomiepfad Gut Oder Schlecht Ist

Video: Dies Sind Die 3 Großen Meinungsverschiedenheiten Darüber, Ob Teslas Autonomiepfad Gut Oder Schlecht Ist

Video: SRF-Kassensturz berichtet über Tesla Autopilot 2022, Dezember
Anonim

Ich habe gerade ungefähr zwei Stunden damit verbracht, YouTuber Warren Redlich und Jason Torchinsky dabei zuzusehen, wie sie über Tesla und den Weg zu vollständig autonomen Fahrzeugen sprechen (meistens streiten). Die Grundlagen der technologischen Debatte um das vollautonome Fahren sind mir gut bekannt und haben sich über die Jahre kaum verändert. Beim Anschauen dieses Videos ist mir jedoch aufgefallen, dass nur wenige Menschen wissen, wo einige der grundlegenden theoretischen Meinungsverschiedenheiten und Informationslücken liegen.

Ja, es gibt die ganze Lidar-gegen-kein-Lidar-Debatte (die seit Anbeginn der Zeit geführt zu haben scheint und sicherlich bis zum Ende andauern wird). Ja, es gibt die neue Behauptung von Elon Musk, dass Vision alles ist, was benötigt wird (nicht Lidar oder Radar). Aber ich spreche von einigen Unterschieden, die in Bezug auf den aktuellen Stand der Technik und die Pläne von Tesla sowohl breiter als auch nuancierter sind. Lassen Sie uns sie durchgehen.

Ist es sicher, dass das Fahrerassistenzsystem immer besser wird, ohne L4 zu sein?

Bild
Bild

Foto von Kyle Field/CleanTechnica

Das grundlegende Argument, das Jason Torchinsky erläuterte und für das einige Referenzen anführten, ist zweifach: 1) Je besser die Fahrerassistenztechnologie wird, desto weniger müssen die Überwachungstreiber tun; 2) Da sie weniger zu tun haben, wird es für sie immer schwieriger, die Grenzfälle zu überwachen, in denen sie übernehmen müssen. Theoretisch könnte dies zu einer Entwicklungsphase führen, in der die Technologie „zu gut, aber nicht gut genug“ist, was zu vielen Unfällen und Todesfällen führt.

Ich habe dieses Thema von Zeit zu Zeit angesprochen, seit ich vor einigen Jahren davon erfahren habe und erfahren habe, dass die NASA vor Jahrzehnten die gleiche Herausforderung (aber andere Aufgabe) an einigen Ingenieuren getestet hatte und die Ingenieure einfach nicht konsequent aufpassen könnten, wenn die Ding, das sie überwachten, brauchte kein Eingreifen.

Einige Leute denken im Grunde genommen, dass sich das Autopilot-System von Tesla jetzt in diesem Stadium befindet. (Ich sehe keine Beweise, die diese Theorie stützen.) Einige glauben, dass es in diesem Stadium mit dem Tesla FSD Beta-System sein wird, das derzeit nur ein paar tausend Besitzer in ihren Autos haben und der Rest von uns, die FSD gekauft haben und leben in den USA werden voraussichtlich bald kommen. Im Moment habe ich das Gefühl, dass die Autopilot-Suite, die ich in meinem Tesla Model 3 habe, ein großer Sicherheitsfaktor ist und nicht zu Selbstzufriedenheit führt. Was halte ich von einem System, das so gut ist, dass es mich in 99% der Fälle von Parkplatz zu Parkplatz bringen kann, aber in den anderen 1% der Zeit etwas tun muss, um einen Unfall zu vermeiden? Kann ich nicht sagen, da ich so ein System (noch) nicht habe.

Mir scheint, es stellt sich immer noch die Frage, wie Unternehmen auf diesen höheren Stufen vorgehen sollten, aber wenn die Aufsichtsbehörden nicht eingreifen und etwas Bestimmtes verlangen, werden die Unternehmen einfach ihre eigenen Strategien in dem Tempo und in der Art und Weise umsetzen, wie sie es für richtig halten. Wir haben gesehen, was Waymo in dieser Hinsicht getan hat. Das Unternehmen stellte fest, dass seine Sicherheitsfahrer einfach nicht in der Lage waren, sich auf die Überwachung der Fahrzeuge zu konzentrieren - obwohl sie dafür bezahlt und geschult wurden - und beschloss, die L2/L3-Fahrerausbildungsphase zu überspringen, um die volle L4-Autonomie zu erreichen (die Fahrzeuge fahren selbst ohne Sicherheitsfahrer innerhalb des begrenzten geografischen Gebiets, in dem Waymo operieren kann).

Ist eine beschleunigte Technologieverbesserung und -einführung dank der Beta-Nutzung der Kunden ein Net-Safer-Ansatz oder ein Net-Cray-Cray-Ansatz?

Eine andere Kontroverse bezüglich Tesla FSD, die in letzter Zeit heiß geworden ist, ist, ob es für Tesla-Kunden logisch, sicher oder sogar legal ist, eine „Beta“-Version von Tesla FSD in normalen Tesla-Autos zu bekommen und als Tesla-Tester zu fungieren Sportschuhe.

Zunächst einmal gibt es einige einfache Verwirrung darüber, was „Beta“in diesem Zusammenhang bedeutet. Elon Musk twitterte im Juli 2016 darüber, und das führte dazu, dass ich damals einen Artikel darüber schrieb. Sein Tweet lautete damals:

„Missverständnis, was ‚Beta‘ für Tesla für Autopilot bedeutet: Jedes System hat weniger als 1 Milliarde Kilometer reales Fahren.“

Er twitterte auch: „Die Verwendung des Wortes ‚Beta‘ ist explizit, damit sich die Fahrer nicht wohl fühlen. Es ist keine Beta-Software im üblichen Sinne.“

Bild
Bild
Bild
Bild

Vor kurzem, gestern, hat Maarten Vinkhuyzen erklärt, was Beta-Tests sind und warum es für eine neue Technologie wie FSD entscheidend ist, voranzukommen. Ich denke, es ist eine gründliche Erklärung, die dem Problem auf den Grund geht – also lies einfach diesen Artikel.

Auf der anderen Seite sehen Kritiker „Beta-Tester“-Kunden als gefährlich – egal ob sie für die Weiterentwicklung des Systems nützlich sind oder nicht.

Eine große Sache hier ist jedoch nicht nur die Übergangszeit. Es geht darum, wie schnell wir zu autonomen L4- und L5-Systemen kommen, die enorm sicherer sind als der Mensch. Wenn wir es in 2 Jahren statt in 5 Jahren erreichen, wie viele Leben werden dann gerettet? Tausende? Zigtausende?

Dies ist eines der großen Themen, über die Warren und Jason diskutierten, manchmal nicht so prägnant. Aber die Theorie, die Elon und Tesla verfolgen, ist klar: Je schneller Sie den Zugang zum System (sicher) erhöhen, desto schneller können Sie es verbessern und desto schneller können Sie die Straßen insgesamt sicherer machen.

Ist Tesla Autopilot ein Sicherheitsgewinn, auch wenn er nicht L4-fähig ist (Robotaxi bereit)?

Dies ist ein Zweiteiler. Zunächst stellt sich die Frage, ob Autopilot heute Leben rettet. Tesla veröffentlicht einen vierteljährlichen „Sicherheitsbericht“, der zeigt, dass (relativ gesprochen) weniger Unfälle mit Tesla-Fahrern im Vergleich zu Nicht-Tesla-Fahrern auftreten, und es sind noch weniger, wenn der Autopilot aktiviert ist. Unten ist eine Grafik, die die von Tesla bereitgestellten Statistiken in eine Visualisierung einfügt.

Bild
Bild

Grafik von Zach Shahan/CleanTechnica

Es gibt jedoch mehrere Probleme mit den Statistiken, die sie im Wesentlichen nutzlos machen, wie Jason Torchinsky in seiner Debatte mit Warren Redlich betonte. Erstens haben bestimmte Fahrzeugklassen (wie die teureren Klassen, in denen Tesla spielt) weit weniger Unfälle pro Meile als billigere Autos. Das gleiche gilt für jüngere Autos im Vergleich zu älteren Autos, und die meisten Tesla-Fahrzeuge sind extrem jung.

Positiv ist jedoch, dass die Tesla-Autos mit aktiviertem Autopilot viel seltener in Unfälle verwickelt waren als die Tesla-Autos ohne aktivierten Autopilot. Aber auch das sagt uns im Grunde nicht viel, denn Autopilot funktioniert auf besseren Straßen und wird eher auf einfacheren, besseren Fahrten verwendet. Auch wenn der Fahrer oder Autopilot feststellt, dass etwas das autonome Fahren zu schwierig macht, bedeutet das nicht, dass Sie die Strecke nicht fahren – es bedeutet nur, dass Sie unter den gefährlicheren Bedingungen selbst fahren müssen.

Wie Torchinsky betonte, haben wir einfach nicht die Daten, um Autos mit Autopilot mit vergleichbaren Autos ohne Autopilot zu vergleichen – oder genauer gesagt, es scheint, dass niemand die Daten aggregiert hat, um solche Vergleiche anzustellen.

Und dies könnte derzeit die grundlegendste Meinungsverschiedenheit zwischen Tesla-Fans und Tesla-Hassern sein. Erstere glauben, dass Autopilot die Sicherheit im Netz verbessert (ich bin in diesem Lager), während letztere denken, dass er die Sicherheit verringert - hauptsächlich von Leuten, die denken, dass er leistungsfähiger ist, als er ist. Wie Warren in der Debatte mit Jason immer wieder betonte, wenn Sie sich im letzteren Lager befinden, wo sind die Daten, die das zeigen? Aus meiner Benutzererfahrung und der vieler anderer Tesla-Fahrer scheint Autopilot ein großer Sicherheitsschub zu sein. Tesla veröffentlicht vierteljährliche Daten, die dies sicherlich implizieren. Vielleicht wird ein Doktorand irgendwo eine angemessene Analyse durchführen, um zu dem Schluss zu kommen, dass dies berechtigterweise der Fall ist. Nichtsdestotrotz wird die Debatte mit jeder Tesla-Verbesserung (neues FSD-Feature) von vorne beginnen. ?

Beliebt nach Thema