Az a vita, hogy a Tesla FSD egy gyereket vagy egy álgyereket fog-e elgázolni, nem veszi el a lényeget

A legutóbbi videó a TeslátólTSLA
-A „Dawn Project” kritikusa, Dan O'Dowd tesztpályát mutat be kúpokból álló úton. Ott egy sofőr a Tesla FSD-prototípusát használva egy gyermek ütközőbábu felé hajt, és elüti. Azzal érvelnek, hogy a Telsa FSD nem fékez megbízhatóan a gyerekeket. Az O'Dowd kritikusai azt állították, hogy a videót hamisították vagy rosszul készítették el, és néhányan saját demót készítettek, és mindenki bánatára tényleges élő „önkéntes” gyerekekkel végezték el a tesztet. Kevesen vették fontolóra azt a kérdést, hogy egy olyan prototípus, mint a Tesla FSD, megbízhatóan fékezze-e a gyerekeket, ami az igazi érdekes kérdés.

O'Dowd gyakran írt arról, hogy szeretné betiltani a Tesla FSD-t. Korábban foglalkoztam a kampányával, és nemrég indult a kaliforniai szenátusi jelölésért, kizárólag a Tesla FSD-ellenes kampányhirdetések megjelenítésére. Természetesen felkeltette Elon Musk és a Tesla-párti közösség haragját. Ennek megfelelően azonnali sparring következett. A fent linkelt eredeti videó nem mutatta be az FSD aktiválását, bár a későbbi kiadások azt mutatták, hogy az volt. Egyesek szerint a nehezen olvasható képernyőképek szerint a sofőr lenyomva tartja a pedált. Más adatok azt mutatják, hogy az autó lassít vagy figyelmeztetéseket ad ki, és ide-oda mentek viták arról, hogy mennyire valós a demonstráció.

REKLÁM

A demonstrációt provokatívnak választották, hiszen semmi sem ijesztőbb annál, mint amikor az autók elütik a gyerekeket. Naponta 3 gyerek hal meg autóbalesetben az Egyesült Államokban, és évente körülbelül 170 gyermek gyalogos hal meg autók által. Sokak számára az a reakció, hogy egyetlen olyan technológia sem elfogadható, amely valaha is elgázolna egy gyereket. NHTHT
Az SA vizsgálatot kezdett a Tesla Autopilot (amely egy kiadott termék) telepítésével kapcsolatban, és elkezdi vizsgálni az FSD prototípusát. Mások, mint például Ralph Nader, szintén felhívták az FSD prototípusát az utakra. Miután nagyon kevés ember megismételte a tesztet valódi gyerekekkel, az NHTSA figyelmeztetést adott ki, hogy ezt ne tegyék, a Youtube pedig videókat készített azokról, akik ezt csinálják. A Tesla állítólag azt kérte, hogy távolítsák el azokat a videókat is, amelyeken autójuk ütközött a próbabábuval. A Washington Post arról számol be, hogy látott egy Szünetet és Hagyást kérő levelet a Teslától.

Ez a kérdés nagyon összetett, és ami nem túl szokatlan, senki sem érti pontosan. Az FSD rendszert, bár béta verziónak hívják, pontosabban prototípusnak nevezik. A legtöbb fejlesztő véleménye szerint az önvezető prototípusok (és a béták) nagy mennyiségű tesztelést igényelnek az utakon, és ezt minden csapat megteszi, az emberi „biztonsági sofőrök” figyelik a rendszert, és rendszeresen beavatkoznak, ha az hibázik, hogy megelőzze az incidenseket. A Tesla szokatlan abban, hogy lehetővé teszi a hétköznapi ügyfelek számára, hogy részt vegyenek ebben a tesztelésben, míg az összes többi vállalatnak vannak alkalmazottai, akik bizonyos szintű képzettséggel látják el ezt a feladatot, és járművenként általában 2 alkalmazottat foglalkoztatnak.

A prototípusok természetüknél fogva meghibásodnak, beleértve a fontos dolgokat, például a gyalogosok megállását az úton. Minden csapat a legjobbaktól, mint a Waymo, a legrosszabbakig olyan járműveket bocsátott az utakra, amelyek a beavatkozáson kívül rendszeresen valami komoly rosszat csinálnak., és a legtöbben úgy érzik, hogy az ilyen korai fázisú járművek tesztelése szükséges volt és továbbra is szükséges az előrelépéshez, és végül az autók telepítéséhez. A telepítést követően az autók sokkal jobb minőségűek lesznek, és életeket menthetnek meg – sokukat –, így mindenki azt szeretné, ha a telepítés a lehető leghamarabb megtörténhet, de sok kérdést meg kell vitatni, hogyan jutunk el odáig, és mikor érjük el. azt.

REKLÁM

Driver Assist vs. Self Driving

Azon a kérdésen túlmenően, hogy jó ötlet-e a Tesla ügyfelei használata prototípusuk tesztelésére, sok probléma a vezetőt segítő rendszerek közötti különbség körül forog, amelyekben az ember teljes mértékben részt vesz a vezetésben, de nem fizikailag mozog, hanem felügyeli a rendszert. a kezelőszervek és az önvezető rendszerek, ahol nincs szükség emberi felügyeletre (és valóban, a jármű úgy tud közlekedni, hogy nincs benne senki).

Sok iparági bennfentes úgy érzi, hogy ez két meglehetősen különböző dolog, és hiba volt az NHTSA részéről az automatizálási technológia két különböző „szintjének” nyilvánítása. Sterling Anderson, az Aurora önvezetés társalapítója úgy gondolja, hogy a vezetői asszisztensről (vagy az ADAS-ról a haladó vezetői asszisztensre) az önvezetésre váltani olyan, mintha magasabb létrák építésével próbálnánk feljutni a Holdra.

Az első nagy fejlett vezetőtámogató rendszer, amely lehetővé tette, hogy az ember levehesse a lábát a pedálokról, a sebességtartó automatika volt, különösen az adaptív sebességtartó automatika. Később megérkezett a sávfelügyelet, amivel le lehetett venni a kezét a kormányról, és hamarosan a kettőt egyesítették olyan termékekben, mint a Tesla „Autopilot”. Az ADAS (vezető asszisztens) eszközként ezeket teljes figyelemmel kell használni.

REKLÁM

Bár először nem mindenki hitte el, ma az általános következtetés az, hogy ezek a rendszerek működnek, és nem jelentenek veszélyt az utakon. Az emberek eleinte még az alapvető tempomatot is kételkedtek, de hamarosan az autók általános jellemzőjévé vált.

A Tesla Autopilot különféle okokból új kérdéseket vetett fel, de a legérdekesebb probléma az a tény körül forog, hogy funkcionalitásában egyértelműen jobb, mint a korábbi termékeknél, beleértve az egyszerűbb sebességtartó automatikákat is – ennek ellenére ez a fölény valójában veszélyesebbé, tehát alacsonyabb rendűvé teheti. Furcsa paradoxon adódik, hogy minél jobb a rendszer, annál rosszabb lehet az eredmény, mert a felsőbbrendű rendszer „automatizálási önelégültséget” indukál, ahol a felügyelő vezető kevésbé figyel az útra. (Egyesek úgy vélik, hogy a Tesla „Autopilot” és FSD elnevezései erre az önelégültségre ösztönöznek, és a termékek körüli nyilvános üzenetek is ezt teszik.)

Ez nem jó paradoxon. Jobb rendszereket akarunk fejleszteni, de ha egy rendszer összességében romlik, ahogy te jobbá teszed, sokkal nehezebb igazán jó rendszereket szerezni, miközben a veszélyek völgyében utazol, ahol a dolgok rosszabbra fordulnak, mielőtt javulnának. Ma soha nem hibáztatnánk a normál tempomatot azért, mert elüt egy gyereket, vagy átfújja a piros lámpát – ezek a rendszerek sokkal egyszerűbbek voltak, és egyáltalán nem voltak képesek elkerülni ezeket a hibákat. De sokan hibáztatni akarják a sokkal jobb rendszert, amely a legtöbb akadálynál megáll, mert nem áll le 100%-ra – még akkor is, ha egyetlen rendszer sem lesz olyan tökéletes, hogy elkerülje a hibák 100%-át, és bár az emberek sem lesznek tökéletesek.

REKLÁM

Részt vettem a világ első önvezetési tesztelési törvényeinek kidolgozásában, Nevadában és Kaliforniában. A játékosok egyetértettek abban, hogy kell néhány alapvető szabály az utakon történő tesztelésről (a korábbi szabályok nem tiltották, mert persze soha senkinek nem jutott eszébe.) Ugyanakkor az autógyártók, akik ADAS szerszámokat árulnak, megtették. nem akarják, hogy ADAS autóikra az önvezető tesztszabályok vonatkozzanak, ezért az ADAS működését úgy határozták meg, hogy az nem vonatkozik ezekre a szabályokra.

Ez különösen Kaliforniában nyitott kérdést teremtett. Minden önvezetési tesztet (néhány kivételtől eltekintve) felügyelő biztonsági vezetővel végeznek. Ilyen módon nagyon hasonlít egy ADAS autót vezetni. A törvény nem volt egyértelmű a különbségtétel tekintetében, ami érdekes helyzeteket teremtett. Anthony Levandowski, aki a szabályzat kidolgozásában is részt vett, később az Uber vezetője voltUBER
ATG. Kijelentette, hogy mivel akkoriban minden autójuk csak biztonsági sofőrrel működött, ez ADAS volt, és az Ubernek nem kellett betartania az önvezető tesztelési előírásokat. A kaliforniai DMV azt mondta, nem, e logika szerint senki sem tesztelte az önvezetést, és nem ez volt a törvény célja. Azt mondták az Ubernek, hogy önvezető tesztjárműként kell regisztrálniuk, különben speciális erőikkel lehúzzák az Uber autók rendszámát. Az Uber betartotta.

REKLÁM

A DMV azt a megközelítést alkalmazta, hogy ha önvezető rendszert próbált létrehozni, annak ellenére, hogy az egy korai, hiányos rendszer volt, amely felügyeletet igényelt, és mindig felügyelték, akkor Önt a szabályok hatálya alá tartozó önvezető tesztelő cégnek kell tekinteni.

Ennek ellenére a Tesla ugyanazt a megközelítést folytatja. Mivel a Teslának biztosan van ADAS-terméke, soha nem jelentenek be az államnak semmilyen önvezetési tesztet. A DMV eddig engedte ezt – még a Tesla FSD tesztelését is a Tesla alkalmazottai, amit nagyon nehéz megkülönböztetni attól, hogy mitől akadályozták meg az Ubert. A DMV ezt jól szabályozhatja. De mi a helyzet az ügyfélhasználattal, ahol hivatalosan (ha elolvassa az apró betűs részt, és figyelmen kívül hagyja a nevet) vezetőt segítő eszköz?

De úgy tűnik, működik

Ennek fő megoldása az volt, hogy a felügyeleti figyelem továbbra is magas marad. Különféle technikák léteznek erre, többek között a sofőr különféle módokon történő megfigyelése és nyaggatása, ha nem figyel, vagy amint azt megjegyezték, hogy képzett hivatásos sofőrök vagy akár egy csapat több szemmel az úton van. Évtizedek óta tinédzser sofőröket képeztünk az autósiskolákban úgy, hogy van egy oktatónk, aki meg tudja ragadni a kormányt, és saját fékkel rendelkezik az autó leállításához, és ez a rendszer nagyon jól működött.

REKLÁM

Az eddigi erős következtetés az, hogy ez működik. A nagy önvezető cégek, például a Waymo biztonsági teljesítménye példaértékű. A Waymo 20-ben több mint 2021 millió mérföldnyi tesztről számolt be biztonsági vezetőkkel, és ezalatt talán 2 hibás balesete volt. Az emberi lények átlagosan közel 40 balesetet szenvednek ebben az időszakban. Ahogyan a járművezetői oktatókkal rendelkező vezetőtanulók sokkal jobban teljesítenek, mint a frissen jogosítvánnyal rendelkezők, a megfigyelőrendszer egyértelműen működik, és ezek a járművek valójában kevesebb kockázatot jelentenek a lakosság számára, mint a hétköznapi emberek hasonló vezetése.

Az USA-ban legalábbis, ha senki sem sérül meg – vagy legalábbis ha a kockázat szintje kisebb, mint a szokásos vezetésé –, akkor általában nem szabályoznák a tevékenységet. Az Egyesült Államok megközelítése sokkal megengedőbb – nem kell bizonyítania, hogy amit csinál, az biztonságos, de ha kiderül, hogy nem biztonságos, leállíthatják, és felelősségre vonhatják az okozott károkért. Egyes országokban megkövetelnék a szabályozóktól, hogy előre eldöntsék, hogy valami biztonságos-e, ami sokkal magasabb léc, ami sokkal kevésbé segíti elő az innovációt.

Természetesen egy híres esetben a biztonsági sofőr megközelítése halálos kimenetelű volt, amikor az Uber ATG járműve megölt egy gyalogost Arizonában. Az NTSB vizsgálata és a későbbi bírósági ügyek megállapították, hogy a biztonsági sofőr hanyag volt (ahelyett, hogy a munkáját végezte volna, tévét nézett), bár az Ubert is felrótták a biztonsági sofőrök kezelésének rossz kultúrája miatt, ami hozzájárult ehhez a hibához. A fontos következtetés azonban az a biztonsági vezetőrendszer működik, és önmagában nem teszi ki indokolatlan kockázatnak a lakosságot, bár nyilvánvalóan előfordulhat, hogy az emberi biztonságot nyújtó járművezetők hanyagak és nagy kockázatot okoznak.

REKLÁM

Ez a rendszer képzett fizetett sofőrökkel. A Tesla tovább megy, és a hétköznapi ügyfelek végzik a munkát. Számos olyan esemény történt, amikor a Tesla-sofőrök egyértelműen hanyagul felügyelték az Autopilot terméket, és balesetek is történtek, beleértve a halálos kimenetelűeket is. A Tesla autók azonban jóval több kilométert tesznek meg Autopilottal, mint bármely önvezető csapat, így a negatív, sőt tragikus események jelenléte nem feltétlenül bizonyítja, hogy a rendszer nagyobb kockázatoknak teszi ki a lakosságot.

A Tesla minden negyedévben félrevezető statisztikákat tesz közzé, amelyek szerint az Autopilotot használó járművezetők jobb biztonsági eredményekkel rendelkeznek, mint azok, akik nem, még akkor is, ha egyes Autopilot-felhasználók hanyagul viselkednek. Bár ezek a számok egyenértékűek a hazugsággal, Én és mások megpróbáltuk visszafejteni a valós számokat, és a valós számok nem olyan rosszak, és arra utalnak, hogy az Autopilot használói hasonló biztonsági múlttal rendelkeznek, mint a nem használók. Bár nem jobb, de nem is teszi ki az embereket további kockázatoknak. Az eredmény elég közel áll ahhoz, hogy az NHTSA nyomozást folytasson a Tesla mentőautók balesetei miatt. Nem ismert, hogy az elővigyázatossági megközelítést alkalmazzák-e, vagy megvizsgálják az általános biztonsági adatokat.

Sokan felvetették, hogy a Tesla javíthatná rekordját a jobb vezetői megfigyeléssel. Az alapfelszereltség ellenőrzése egyszerűen megköveteli a vezetőtől, hogy rendszeresen erőltesse a kereket. Más cégeknek vannak kamerái, amelyek figyelik a sofőr szemét, hogy megbizonyosodjanak arról, hogy az utat figyelik – ha az Uber ATG ezt tette volna, megelőzték volna halálukat. A Tesla a közelmúltban elkezdte használni a vezető tekintetét is.

REKLÁM

Meg kell jegyezni, hogy az a számítás, amely a Tesla Autopilot biztonságát a szokásos vezetéshez hasonlónak mutatja, haszonelvű. Valójában ez a nagyobb baleseti ráta kombinációja a gondatlan Autopilot-felhasználók kis létszámában, akik figyelmen kívül hagyják az utat, vagy önelégültek az automatizálásban, valamint a szorgalmasak jobb biztonsági teljesítménye. Nekünk filozófiailag nehéz dolgunk van ezzel – nem szeretjük, ha egyes embereket nagyobb kockázatot rónak ki, pedig több embernél kisebb a kockázat. Annyira nem szeretjük, hogy a szorgalmas embereket megfosztjuk egy olyan eszköztől, amely biztonságosabbá teszi a gondatlanok védelmét, pedig nem ez a célunk.

Mi a helyzet az FSD-vel

A fenti adatok az Autopilotra vonatkoznak, amely szállítási termék. A Tesla FSD nem szállítási termék. „Bétának” hívják (ami egy majdnem kész termék a megjelenés előtti utolsó tesztelési fázisban), de egyáltalán nem az. Jelenleg több mint 100,000 15,000 Tesla-tulajdonos próbálja ki. A használatához a tulajdonosnak díjat kell fizetnie (jelenleg XNUMX XNUMX dollárra emelkedik), hogy előrendelje az esetleges FSD-rendszert, és le kell tennie egyfajta biztonságos vezetési vizsgát, hogy bekerülhessen a tesztelési csoportba. A biztonságos vezetési vizsga nagyrészt hamis, és nem azt teszteli, hogy valójában mit szeretne ehhez a feladathoz, de ez azt jelenti, hogy nem mindenki kapja meg, aki fizet.

Figyelmeztetik a járművezetőket, hogy a rendszerben sok hiba van, és állandó felügyeletre van szüksége, mint az ADAS, mondván: „A legrosszabbkor rosszat fog tenni.” Ez elég egyértelmű kijelentés, ugyanakkor a „teljes önvezetés” elnevezés nyilvánvalóan az ADAS-tól eltérő képet varázsol. Vezettem ezzel a rendszerrel, és úgy ítéltem meg, hogy a teljesítménye önvezető rendszerként meglehetősen gyenge.

REKLÁM

Ennek ellenére az ellenkező megérzések ellenére úgy tűnik, hogy a Tesla megközelítése működik. A 100,000 XNUMX sofőrrel a rendszer több millió mérföldes üzemelésen megy keresztül (bár nincs nyilvános adat arról, hogy az egyes sofőrök mennyit használják a rendszert.) Azt is tudjuk, hogy az FSD tesztelésével járó balesetek nagy nyilvános ellenőrzése alatt állnak. rendszer, és csak kis számú kisebb incidens vált nyilvánossá. Míg egyes Tesla FSD-tesztelők olyan nagy Tesla-rajongók, hogy esetleg eltitkolják a történteket, rendkívül valószínűtlen, hogy jelentős számú súlyos baleset történne anélkül, hogy egyet sem árulnának el. Bármely súlyos rendőrségi bejelentés, különösen a sérüléses balesetek esetén nagy valószínűséggel felhívja a figyelmet, akárcsak az Autopilot esetében.

És mégsem látjuk őket. Bár ez nem valódi tudományos elemzés, valószínűnek tűnik, hogy a Tesla FSD-programja jelenleg nem veszélyezteti a nyilvánosságot. Ez talán annak tudható be, hogy milyen rossz a rendszer. A legtöbb sofőr tudja, hogy hülyeség lenne nem figyelni erre a rendszerre a jelenlegi állapotában. Lehetséges, hogy ahogy javul, ez megváltozik. Ha az alap tempomatot nézzük, ami sokkal primitívebb, akkor működik, mert senki sem merne nem figyelni az útra használat közben.

REKLÁM

A Tesla elnevezése

A Tesla nem segít magán a termékneveivel. Sokan kritizálták az Autopilotot, mint nevet, mert a közvélemény (hamis) az a felfogás, hogy a repülőgépek robotpilótái önállóan repülik a gépet. Valójában a repülőgép robotpilóta egy sokkal, sokkal egyszerűbb rendszer, mint a Tesla autós Autopilotja, és csak azért működik, mert a levegőben nagyon messze van mindentől, amivel eltalálhat. Ez azonban nem akadályozza meg a közvélemény hamis felfogását. Az FSD-vel még rosszabb a helyzet. Még nincs az önvezetés szintjén, még csak közel sem, és biztosan nem „tele”. Ez a zűrzavar arra késztette a Waymot, hogy felhagyott az önvezetés kifejezéssel termékük leírására, attól tartva, hogy a Tesla rosszul definiálta ezt a kifejezést a köztudatban.

A Teslának nem igazán van szüksége nagyobb felhajtásra a termékei miatt. Mindent eladnak, amit csak tudnak. Megdöbbentő, hogy szándékosan alkalmazzák ezeket a neveket ahelyett, hogy alábecsülnék és túlteljesítenék. Sok bánattól kímélnék meg magukat – kivéve a „minden reklám jó reklám” típust.

Tehát rendben van-e, ha egy Tesla eltalál egy gyerek méretű próbabábut?

A meglepő válasz: „valószínűleg”. Minden tesztprototípus-rendszer megteszi az ehhez hasonló dolgokat, és ha nem tiltja meg a prototípusok tesztelését, nincs mód a tökéletesség megkövetelésére még olyan felemelő kérdésben sem, mint a gyerekekkel való összeomlás. Nehéz olyan szabályozási rendszert kialakítani, amely betiltaná a Tesla FSD-t, amely nem tiltja vagy lassítja egy nagyon fontos technológia fejlesztését, amely idővel életek millióit mentheti meg. Életek milliói nem kis dolog, ez lesz az egyik legnagyobb előrelépés a biztonság terén az emberiség történelmében.

REKLÁM

Legfeljebb megpróbálhatnánk úgy definiálni a dolgokat, hogy az ilyen tesztrendszereket felügyelők megfeleljenek bizonyos kritériumoknak. Ragaszkodhatunk hozzá, hogy jobb ellenőrzést végezzenek (amit a Tesla csinál). Megkérhetjük őket, hogy legyenek profik, vagy menjenek át egy teszten, de akkor létrehoznánk egy testületet, amely meghatározza és végrehajtja ezeket a teszteket, ami nehézkes lenne. Gépjárművezetői oktatóvá csak egy írásbeli vizsga letételével és jó egészségi bizonyítvány megszerzésével lehetsz, élő ügyességi vizsgát nem végeznek.

Mindazonáltal meghatározhatunk egy szabályrendszert arra vonatkozóan, hogy ki felügyelhet egy prototípus rendszert, és ez leállíthatja a Tesla tevékenységét. De ha ezt tennénk, akkor a „minél jobb, annál jobban nem szeretjük” paradoxonba esnénk. Nem akarjuk megnehezíteni a völgy átkelését, hogy jobb rendszerré váljunk. Az igazi kérdés az, hogy miért akarunk egyáltalán odamenni, ha senkit sem bántanak. Jelenleg nem érkezett jelentés arról, hogy emberek megsérültek volna, semmiképpen sem olyan szinten, amely arra utalna, hogy nagyobb kockázatot jelentene a szokásos vezetés. Nem akarunk abba a csapdába esni, hogy tiltsunk dolgokat, mert megérzéseink szerint veszélyesek. Csak olyan dolgokat akarunk betiltani, amelyek valójában veszélyesek.

Nagyon valószínű, hogy a Tesla FSD tesztelése később túl veszélyes lesz. Ez történhet az automatizálási önelégültség vagy a rendszer változásai miatt. Indokolt felkérni a Teslát, hogy jelentse a hatóságoknak, hány incidens történik a rendszer tesztelése során, így tudjuk, hogy veszélyessé válik-e, és mikor. O'Dowd megközelítése, miszerint „ezt be kellene tiltanunk, mert úgy tűnik, veszélyes lenne” helytelen, legalábbis az Egyesült Államokban.

REKLÁM

Olvassa el és írjon megjegyzéseket itt

Forrás: https://www.forbes.com/sites/bradtempleton/2022/08/25/the-argument-over-whether-tesla-fsd-will-run-over-a-child-or-dummy-child- eltéveszti a lényeget/