D'Argument iwwer ob Tesla FSD iwwer e Kand oder Dummy Kand leeft, verpasst de Punkt

A rezent Video vun TeslaTSLA
-Kritiker Dan O'Dowd vum "Dawn Project" weist eng Teststreck mat enger Strooss aus Kegel. Do fiert e Chauffeur deen dem Tesla säi FSD Prototyp benotzt, Richtung e Kand Crash-Dummy a schléit et. Et gëtt argumentéiert datt Telsa FSD net zouverlässeg fir Kanner bremst. Kritiker vum O'Dowd hunn behaapt datt de Video gefälscht oder schlecht erstallt gouf, an e puer hunn hir eege Demos gemaach, dorënner, zu der Nout vun allen, den Test mat aktuellen Live "fräiwëllegen" Kanner ze maachen. Puer betruecht d'Fro ob e Prototyp wéi Tesla FSD soll fir Kanner zouverlässeg Bremsen, déi wierklech interessant Thema ass.

Den O'Dowd huet dacks geschriwwen datt hien Tesla FSD verbannt wëll. Ech hunn seng Kampagne virdru ofgedeckt, an hien huet viru kuerzem eng Course fir d'Kalifornien Senat Nominatioun eleng gemaach fir Anti-Tesla FSD Kampagne Annoncen ze lafen. Hien huet natierlech d'Irre vum Elon Musk an der vokaler Pro-Tesla Gemeinschaft erhéicht. Als esou gouf et direkt Sparring. Den ursprénglechen Video uewe verlinkt huet FSD net aktivéiert gewisen, awer spéider Verëffentlechungen hunn et gewisen. E puer hu virgeschloen datt schwéier ze liesen Bildschirmbiller soten datt de Chauffeur de Pedal gehalen huet. Aner Donnéeën weisen datt den Auto verlangsamt gëtt oder Warnungen erausginn, an d'Argumenter sinn zréck a vir gaangen iwwer wéi real d'Demonstratioun ass.

Publicitéit

D'Demonstratioun gouf fir provokativ gewielt, well näischt méi grujeleg ass wéi Autoen, déi Kanner schloen. 3 Kanner stierwen all Dag bei Autosaccidenter an den USA, an all Joer ginn ongeféier 170 Kanner Foussgänger vun Autoen ëmbruecht. Fir vill ass d'Reaktioun datt keng Technologie déi jeemools iwwer e Kand géif lafen akzeptabel ass. NHTHT
SA huet eng Enquête iwwer d'Deployment vum Tesla Autopilot ugefaang (wat e verëffentlecht Produkt ass) a fänkt un de FSD Prototyp ze kucken. Anerer, wéi Ralph Nader, hunn och Uruff gemaach fir de FSD Prototyp vun der Strooss ze huelen. Nodeems eng ganz kleng Zuel vu Leit den Test mat echte Kanner widderholl huet, huet d'NHTSA eng Warnung erausginn dëst net ze maachen, an Youtube huet Videoe vu Leit gezunn, déi et maachen. Tesla huet gemellt datt d'Videoe vun hirem Auto, deen den Test Dummy schloen, och geläscht ginn. D'Washington Post bericht e Cease-and-Desist Bréif vun Tesla ze gesinn.

Dëst Thema ass ganz komplex, a wéi net ze ongewéinlech ass, kritt keen et genau richteg. De FSD System, obwuel e Beta genannt gëtt, gëtt méi genee e Prototyp genannt. Selbstfahrend Prototypen (a Betas) brauche grouss Quantitéiten un Testen op der Strooss an der Sicht vun de meeschten Entwéckler, an all Team mécht dat, mat mënschlechen "Sécherheetsfuerer" déi de System iwwerwaachen a regelméisseg intervenéieren wann et Feeler mécht fir Tëschefäll ze vermeiden. Tesla ass ongewéinlech datt et gewéinlech Clienten erlaabt un dësen Tester ze engagéieren, während all aner Firmen Mataarbechter hunn, mat engem gewëssen Trainingsniveau dës Aufgab maachen, an allgemeng 2 Mataarbechter pro Gefier hunn.

Prototypen, duerch hir Natur, versoen, och op wichteg Saachen wéi fir Foussgänger op der Strooss ze stoppen. All Team vun de Beschten wéi Waymo bis zum Schlëmmsten, hunn Gefierer op d'Strooss gesat, déi regelméisseg eppes eescht schlecht maache géifen ausser Interventioun, an déi meescht fillen Testen vun esou fréizäiteg Gefierer ze maachen war an ass nach ëmmer néideg fir Fortschrëtter ze maachen a schliisslech d'Autoen z'installéieren. Wann se ofgesat sinn, wäerten d'Autoe vu vill méi héich Qualitéit sinn a Liewen retten - vill vun hinnen - also jidderee wëll datt deen Deployement sou séier wéi méiglech geschitt, awer et gi vill Themen fir ze diskutéieren wéi mir op dee Punkt kommen a wéini mir erreecht hunn et.

Publicitéit

Driver Assist vs Self Driving

Zousätzlech zu der Fro ob dem Tesla seng Benotzung vu Cliente fir hire Prototyp ze testen eng gutt Iddi ass, dréien vill Themen ëm den Ënnerscheed tëscht Chauffer-Assistent Systemer, déi e Mënsch involvéiert voll am Drive engagéiert, awer de System iwwerwaacht anstatt kierperlech ze beweegen. d'Kontrollen, a selbstfahrend Systemer, wou keng mënschlech Iwwerwaachung gebraucht gëtt (an tatsächlech kann d'Gefier ouni iergendeen dra lafen.)

Vill Industrie Insider mengen datt dëst zwou zimlech verschidde Saache sinn, an datt et e Feeler fir NHTSA war fir se als just zwee verschidden "Niveauen" vun der Automatisatiounstechnologie ze deklaréieren. Sterling Anderson, Matgrënner vun Aurora Self-Driven, denkt datt d'Bewegung vu Chaufferhëllef (oder ADAS, fir fortgeschratt Chaufferhëllef) op Selbstfahrt ass wéi probéiert op de Mound ze kommen andeems se méi héich Leeder bauen.

Déi éischt grouss fortgeschratt Chauffer Assistent System datt eng Persoun huelen hir Féiss vun de Pedale war Cruise Kontroll, besonnesch adaptiven Cruise Kontroll. Méi spéit ass d'Lanekeeping ukomm, déi Iech erlaabt d'Hänn vum Rad ze huelen, a geschwënn goufen déi zwee a Produkter wéi Tesla "Autopilot" kombinéiert. Als ADAS (Driver Assist) Tools sinn dës geduecht fir mat voller Opmierksamkeet benotzt ze ginn.

Publicitéit

Och wann net jiddereen et am Ufank gegleeft huet, ass déi allgemeng Conclusioun haut datt dës Systemer funktionnéieren an keng Gefor op der Strooss schafen. Leit waren zweifelhaftem vun souguer Basis Cruise Kontroll um éischte, mä et gouf séier eng ganz gemeinsam Fonktioun op Autoen.

Den Tesla Autopilot huet nei Froen aus verschiddene Grënn opgeworf, awer dat interessantst Thema dréint sech ëm d'Tatsaach datt et kloer besser ass a Funktionalitéit wéi fréier Produkter, inklusiv méi einfache Cruise Kontrollen - awer dës Iwwerleeënheet kéint et tatsächlech méi geféierlech maachen, an dofir schlëmm. En komeschen Paradox entsteet, wou de System besser ass, wat d'Resultat méi schlëmm ass, well de Superior System eng "Automatisatiounscomplacency" induzéiert, wou den Iwwerwaachungschauffer manner op d'Strooss opmierksam ass. (E puer gleewen och datt Tesla "Autopilot" an FSD Nimm dës Komplizitéit encouragéieren, an déi ëffentlech Messagerie ronderëm dës Produkter maachen dat och.)

Dëst ass net e gudde Paradox ze hunn. Mir wëllen besser Systemer entwéckelen, awer wann e System allgemeng verschlechtert gëtt wéi Dir et besser mécht, ass et vill méi schwéier fir wierklech gutt Systemer ze kréien wéi Dir duerch en Dall vu Gefor reest wou d'Saachen verschlechtert ginn ier se besser ginn. Haut wäerte mir ni eng Standard Cruise Control schëlleg fir de Fakt datt et e Kand schloen oder duerch eng rout Luucht bléist - déi Systemer ware vill méi einfach an hu guer keng Fäegkeet fir dës Feeler ze vermeiden. Awer vill wëllen de vill méi héije System schëlleg maachen, dee fir déi meescht Hindernisser stoppt, well et net fir 100% stoppt - och wann kee System jeemools sou perfekt wäert sinn fir 100% vu Feeler ze vermeiden, an och wann d'Mënschen och net perfekt sinn.

Publicitéit

Ech hunn un der Ausschaffe vun den éischte Selbstfueren Testgesetzer op der Welt deelgeholl, an Nevada a Kalifornien. D'Spiller ware sech eens datt et e puer grondleeënd Regele solle ginn iwwer wéi een Tester op de Stroosse mécht (virdrun Reegelen hunn et net verbueden, well selbstverständlech kee geduecht huet dat ze maachen.) Zur selwechter Zäit hunn d'Automobilisten, déi ADAS Tools verkafen, gemaach. net wëllen datt hir ADAS Autoen ënner Selbstfueren Testreglementer ënnerleien, sou datt d'ADAS Operatioun ausgeschnidden ass als net vun dëse Reglementer ofgedeckt.

Virun allem a Kalifornien huet dat eng oppe Fro erstallt. All Selbstfahrtprüfung (mat e puer rezent Ausnahmen) gëtt mat engem iwwerwaachende Sécherheetsfuerer gemaach. Op déi Manéier ass et ganz vill wéi en ADAS Auto fueren. D'Gesetz war net kloer iwwer den Ënnerscheed, wat e puer interessant Situatiounen erstallt huet. Den Anthony Levandowski, deen och un der Ausschaffe vun de Reglementer deelgeholl huet, war spéider Chef vun UberUBER
ATG. Hien huet deklaréiert datt well all hir Autoen deemools nëmme mat engem Sécherheetschauffer operéiert sinn, dëst ADAS war, an Uber brauch net d'Selbstfahrend Testreglementer ze verfollegen. De Kalifornien DMV sot nee, datt ënner dëser Logik kee Selbstfueren getest huet, an dat war net d'Absicht vum Gesetz. Si hunn Uber gesot datt si sech als selbstfahrend Testfahrzeuge musse registréieren, oder se géifen d'Nummerplacke vun den Uber Autoen zéien mat hire spezielle Muechten. Uber huet gefollegt.

Publicitéit

D'DMV huet d'Approche geholl datt wann Dir probéiert e Selbstfahrtsystem ze maachen, obwuel et e fréi onkomplett war deen d'Iwwerwaachung brauch an ëmmer iwwerwaacht gouf, sollt Dir als selbstfahrend Testfirma ugesi ginn, déi vun de Regele regéiert gëtt.

Trotzdem setzt Tesla déiselwecht Approche weider. Zënter datt Tesla definitiv en ADAS Produkt huet, mellen se ni eng Selbstfahrtstest un de Staat. Bis elo huet den DMV dës Rutsch gelooss - och den Test vun Tesla FSD vun Tesla Mataarbechter, wat ganz schwéier ass ze z'ënnerscheeden mat deem wat se Uber gestoppt hunn ze maachen. Den DMV kéint dëst gutt regléieren. Awer wat iwwer d'Benotze vum Client, wou et offiziell (wann Dir de Feindréck liest an den Numm ignoréiert) e Chaufferhëllefstool ass?

Mä et schéngt ze schaffen

D'Haaptléisung fir dëst war Weeër fir d'IwwerwaachungsOpmierksamkeet ze garantéieren bleift héich. Et gi verschidde Techniken fir dëst, ënner anerem de Chauffer op verschidde Manéieren ze iwwerwaachen a se ze knacken wa se net oppassen, oder wéi bemierkt, trainéiert professionnell Chauffeuren oder souguer e Team vun hinnen mat méi Aen op der Strooss ze hunn. Fir vill Joerzéngte hu mir Teenager Chauffeuren an Fahrschoulen trainéiert andeems en Instruktor huet deen d'Rad gräifen kann an hir eege Brems huet fir den Auto ze stoppen, an dee System huet ganz gutt geschafft.

Publicitéit

Déi staark Conclusioun bis elo ass datt dëst funktionnéiert. De Sécherheetsrekord vu grousse selbstfueren Firmen wéi Waymo ass exemplaresch. Waymo huet iwwer 20 Millioune Meilen vun Tester mat Sécherheetsfuerer am Joer 2021 gemellt, an an där Zäit hat vläicht 2 Feeler Accidenter. Am Duerchschnëtt wäert de Mënsch an där Zäit méi no bei 40 Accidenter hunn. Just wéi Fuerstudente mat Fahrinstrukteuren vill besser maachen wéi frësch lizenzéierte Chauffeuren, funktionnéiert d'Iwwerwaachungssystem kloer, an dës Gefierer schafen tatsächlech manner Risiko fir de Public wéi ähnlech Fuere vu gewéinleche Leit.

Op d'mannst an den USA, wa kee verletzt gëtt - oder op d'mannst wann de Risiko manner ass wéi dee vum normale Fuere - wier eng Aktivitéit allgemeng net geregelt. D'USA Approche ass vill méi permissiv - Dir musst net beweisen wat Dir maacht ass sécher, awer wann et onsécher ass, kënnt Dir gestoppt ginn a haftbar fonnt ginn fir all Schued deen Dir verursaacht hutt. E puer aner Länner géifen d'Reglementer erfuerderen am Viraus ze entscheeden ob eppes sécher ass, eng vill méi héich Bar déi vill manner fir Innovatioun führend ass.

Natierlech, an engem berühmte Fall, der Sécherheet Chauffer Approche hat eng Fatalitéit, wann Uber ATG Gefier e Foussgänger an Arizona ëmbruecht. D'NTSB Enquête a spéider Geriichtsfäll hunn de Sécherheetschauffer als vernoléissegt fonnt (si huet Fernseh gekuckt anstatt hir Aarbecht ze maachen) obwuel Uber och schëlleg war fir eng schlecht Kultur ze hunn fir hir Sécherheetschauffer ze managen, wat zu dësem Feeler bäigedroen huet. Déi wichteg Conclusioun ass awer dat d'Sécherheet Chauffer System Wierker a stellt selwer net de Public un ongerecht Risiko, obwuel et selbstverständlech méiglech ass fir mënschlech Sécherheet Chauffeuren ze vernoléissegen an e grousse Risiko ze verursaachen.

Publicitéit

Dat ass de System mat ausgebilte bezuelte Chauffeuren. Tesla geet weider, an huet gewéinlech Clienten d'Aarbecht maachen. Et goufen eng Zuel vun Tëschefäll, wou Tesla Chauffeuren kloer vernoléissegt goufen an der Iwwerwaachung vum Autopilot Produkt, an Accidenter, dorënner fatal, stattfonnt. Wéi och ëmmer, Tesla Autoen fuere vill méi Meilen mat Autopilot wéi all selbstfahrend Team mécht, sou datt d'Präsenz vun negativen an och trageschen Eventer net onbedéngt Beweis ass datt de System de Public fir e gréissere Risiko aussetzt.

All Véierel publizéiert Tesla falsch Statistiken déi soen datt Chauffeuren déi Autopilot benotzen besser Sécherheetsrecords hunn wéi déi déi net maachen, och wann e puer Autopilot Benotzer vernoléissegt sinn. Och wann dës Zuelen eng Ligen sinn, Ech an anerer hu probéiert déi reell Zuelen ëmgedréint ze maachen, an déi richteg Zuelen sinn net esou schlecht, a proposéiere datt Autopilot Benotzer eng ähnlech Sécherheet Rekord ze Net-Benotzer hunn. Och wann et net super ass, gëtt et och d'Leit net un zousätzlech Risiko ausgesat. D'Resultat ass no genuch datt d'NHTSA eng Enquête iwwer Tesla Accidenter mat Noutfahrzeuge mécht. Et ass onbekannt ob se déi virsiichteg Approche huelen oder de globale Sécherheetsrekord kucken.

Vill hu virgeschloen datt Tesla hire Rekord mat bessere Chauffer Iwwerwaachung kéint verbesseren. D'Standard Iwwerwaachung verlaangt einfach de Chauffer regelméisseg Kraaft op d'Rad. Aner Firmen hunn Kameraen déi d'Ae vum Chauffer kucken fir sécher ze stellen datt se d'Strooss kucken - hätt Uber ATG dat gemaach, si hätten hir Fatalitéit verhënnert. Tesla huet viru kuerzem ugefaang och Chaufferbléck Iwwerwaachung ze benotzen.

Publicitéit

Et sollt bemierkt datt d'Berechnung déi d'Sécherheet vun Tesla Autopilot weist wéi ähnlech wéi regelméisseg Fuere eng utilitaristesch ass. Et ass tatsächlech d'Kombinatioun vun engem méi héijen Accidentraten ënner engem klenge Kader vun vernoléissegen Autopilot Benotzer, déi d'Strooss ignoréieren oder an d'Automatisatiounskomplizitéit kommen, an e bessere Sécherheetsrekord vun deenen, déi fläisseg sinn. Mir hunn eng philosophesch schwéier Zäit mat dësem - mir hunn net gär datt e puer Leit méi héicht Risiko hunn, och wann méi Leit manner Risiko hunn. Mir gefällt et net esou gutt, datt mir déi fläisseg Leit en Tool entzéien, wat se méi sécher mécht fir déi, déi vernoléissegt sinn, ze schützen, obwuel dat net eist Zil ass.

Wat iwwer FSD

D'Donnéeën hei uewen betreffen Autopilot, wat e Versandprodukt ass. Tesla FSD ass kee Versandprodukt. Si nennen et eng "Beta" (wat e bal finaliséiert Produkt a senger leschter Testphase virun der Verëffentlechung ass) awer et ass guer net dat. Si hunn elo iwwer 100,000 Tesla Besëtzer et ausprobéieren. Fir et ze benotzen, muss de Besëtzer eng Tax bezuelen (elo erop op $ 15,000) fir den eventuellen FSD System virbestellen, an eng Zort sécher Führertest passéieren fir an d'Testkohort opgeholl ze ginn. De séchere Fuertest ass gréisstendeels falsch an testt net wat Dir fir dës Aufgab wëllt, awer et heescht datt net jidderee dee bezuelt kritt.

Si warnen Chauffeuren datt de System vill Bugs huet a konstant Iwwerwaachung brauch wéi ADAS, a seet: "Et wäert déi falsch Saach op der schlëmmster Zäit maachen." Dat ass eng zimlech kloer Ausso, awer gläichzäiteg zielt den Numm "voll Selbstfahrt" selbstverständlech en anere Bild wéi ADAS. Ech hu mat dësem System gefuer a beurteelt seng Leeschtung als zimmlech schlecht als selbstfahrend System.

Publicitéit

Trotzdem, trotz Intuitionen zum Géigendeel, schéngt dem Tesla seng Approche ze schaffen. Mat 100,000 Chauffeuren ass de System Millioune Meilen vun Operatioun ënnergaangen (obwuel et keng ëffentlech Donnéeën iwwer wéi vill all Chauffeur de System benotzt.) Mir wëssen och datt et vill ëffentlech Iwwerpréiwung gëtt iwwer all Accident mat der Tester vun der FSD System, an nëmmen eng kleng Zuel vu klengen Tëschefäll sinn ëffentlech ginn. Wärend e puer Tesla FSD Tester sou grouss Tesla Fans sinn datt se en Accident verstoppe kënnen, deen se haten, ass et extrem onwahrscheinlech datt bedeitend Zuel vu groussen Accidenter geschéien ouni datt keen opgedeckt gëtt. All schlëmm Police gemellt Accidenter, besonnesch Verletzung Accidenter, wier ganz wahrscheinlech Opmierksamkeet ze kréien, wéi se fir Autopilot maachen.

An awer gesi mir se net. Och wann dëst keng richteg wëssenschaftlech Analyse ass, schéngt et wahrscheinlech datt den Tesla säi FSD Programm de Moment de Public net a Gefor bréngt. Dëst kéint zougeschriwwe ginn wéi schlecht de System ass. Déi meescht Chauffeuren wëssen, datt et wierklech domm wier, net op dëse System a sengem aktuellen Zoustand opzepassen. Et ass méiglech datt wann et besser gëtt, dëst ännert. Wann Dir d'Basis Cruise Control berécksiichtegt, déi vill méi primitiv ass, funktionnéiert et well kee sech traut sech net op d'Strooss opzepassen wann se se benotzt.

Publicitéit

Tesla Numm

Tesla hëlleft sech net mat senge Produktnimm. Vill ware kritesch géint den Autopilot als Numm, well déi (falsch) ëffentlech Perceptioun ass datt Fliger Autopiloten de Fliger eleng fléien. Tatsächlech ass e Fliger Autopilot e wäit, vill méi einfach System wéi dem Tesla Auto Pilot, an et funktionnéiert nëmme well an der Loft sidd Dir ganz wäit vun allem wat Dir schloen. Dat hält déi falsch ëffentlech Perceptioun awer net op. Mat FSD ass et nach méi schlëmm. Et ass nach net um Niveau vum Selbstfueren, net emol no, an et ass sécher net "voll." Dës Duercherneen huet de Waymo dozou bruecht de Begrëff Selbstfahrt ze benotzen fir hire Produkt ze beschreiwen, aus Angscht datt Tesla de Begrëff am ëffentleche Geescht falsch definéiert huet.

Tesla brauch net wierklech méi Hype fir hir Produkter. Si verkafen alles wat se maache kënnen. Et ass perplex datt se bewosst mat dësen Nimm goen anstatt ze ënnersträichen an ze iwwerliwweren. Si géife sech vill Trauer retten - anescht wéi déi vun der Aart "all Publizitéit ass gutt Publizitéit".

Also ass et OK wann en Tesla e Kand mat engem Dummy schloen?

Déi iwwerraschend Äntwert ass "wahrscheinlech." All Test Prototyp Systemer wäert Saache wéi dëst maachen, a kuerz vun verbidden all Testen vun Prototypen, et gëtt kee Wee Perfektioun ze verlaangen och op esou engem evokativ Thema wéi Crash mat Kanner. Et ass schwéier e Reguléierungsregime auszeschaffen deen Tesla FSD géif verbidden deen d'Entwécklung vu ganz wichtegen Technologien net verbidd oder verlangsamt, déi mat der Zäit Millioune vu Liewen retten. Millioune vu Liewen ass keng kleng Saach, et wäert ee vun de gréisste Fortschrëtter a Sécherheet an der mënschlecher Geschicht sinn.

Publicitéit

Mir kéinten héchstens probéieren Saachen ze definéieren sou datt déi, déi sou Testsystemer iwwerwaachen, bestëmmte Critèren erfëllen. Mir kënnen insistéieren datt se besser Iwwerwaachung kréien (wat Tesla mécht.) Mir kënnen froen datt se professionell sinn oder en Test passéieren, awer da wäerte mir e Kierper kreéieren deen dës Tester definéiert an ëmsetzt, wat ëmständlech wier. Dir kënnt e Fahrinstruktor ginn just andeems Dir e schrëftlechen Test passéiert an e Certificat vu gudder Gesondheet kritt, kee Live Fäegkeet Test gëtt gemaach.

Trotzdem kënne mir eng Rei vu Reegele definéieren fir wien e Prototypsystem iwwerwaache kann, an et kéint dem Tesla seng Aktivitéit stoppen. Awer dat ze maachen wier an de Paradox ze falen "wat besser et ass, wat mer et net gär hunn." Mir wëllen et net méi schwéier maachen deen Dall duerchzekreien fir e bessere System ze ginn. Déi richteg Fro ass firwat mir iwwerhaapt wëllen dohinner goen wa kee verletzt gëtt. De Moment ginn et keng Berichter vu Leit déi blesséiert ginn, sécherlech net op all Niveau, déi géif weisen datt et méi Risiko ass wéi dee vum normale Fuere. Mir wëllen net an d'Fal falen, Saachen ze verbidden, well mir eng Intuition hunn datt se geféierlech sinn. Mir wëllen nëmmen Saachen verbidden, déi eigentlech geféierlech sinn.

Et ass ganz méiglech datt Tesla FSD Tester spéider ze geféierlech fänken. Dëst kéint geschéien wéinst Automatiséierungskomplizitéit, oder Ännerungen am System. Et ass raisonnabel datt Tesla opgefuerdert gëtt den Autoritéiten ze berichten wéi vill Tëschefäll wärend dem Test vum System stattfannen, sou datt mir kënne wëssen ob a wéini et geféierlech gëtt. Dem O'Dowd seng Approche "mir sollen dat verbidden, well et schéngt mir geféierlech ze sinn" ass déi falsch, op d'mannst an den USA.

Publicitéit

Liest a verloosst Kommentaren hei

Quell: https://www.forbes.com/sites/bradtempleton/2022/08/25/the-argument-over-whether-tesla-fsd-will-run-over-a-child-or-dummy-child- verpasst de Punkt/