YouTube usuwa film, który testuje wersję beta Tesli Full Self-Driving w porównaniu z prawdziwymi dziećmi

YouTube usuwa film, który testuje wersję beta Tesli Full Self-Driving w porównaniu z prawdziwymi dziećmi

YouTube usunął film, który pokazuje kierowców Tesli przeprowadzających własne testy bezpieczeństwa w celu ustalenia, czy możliwości w pełni samodzielnej jazdy (FSD) pojazdu elektrycznego (pojazdu elektrycznego) sprawią, że będzie on automatycznie zatrzymywał się dla dzieci przechodzących w poprzek lub stojących na drodze, jak po raz pierwszy zgłoszono przez CNBC. Film zatytułowany „Czy Tesla Full-Self Driving Beta naprawdę przejeżdża przez dzieci?” został pierwotnie opublikowany na kanale YouTube Whole Mars Catalog i obejmuje właściciela i inwestora Tesli, Tada Parka, testującego funkcję FSD Tesli z własnymi dziećmi. Podczas filmu Park jedzie Teslą Model 3 w kierunku jednego ze swoich dzieci stojących na drodze, a następnie próbuje ponownie z drugim dzieckiem przechodzącym przez ulicę. Pojazd zatrzymuje się przed dotarciem do dzieci za każdym razem. Jak wskazano na swojej stronie pomocy, YouTube ma określone zasady dotyczące treści, które „zagrażają emocjonalnemu i fizycznemu dobremu nieletnim”, w tym „niebezpieczne akrobacje, wyzwania lub żarty”. Rzecznik YouTube, Ivy Choi, powiedział The Verge, że film naruszył jego zasady dotyczące szkodliwych i niebezpiecznych treści, a platforma „nie zezwala na treści pokazujące nieletniego uczestniczące w niebezpiecznych działaniach lub zachęcające nieletnich do niebezpiecznych działań”. Choi mówi, że w rezultacie YouTube postanowił usunąć film. „Próbowałem już wcześniej wersji beta FSD i powierzyłbym im życie moich dzieci” — mówi Park w usuniętym filmie. „Więc jestem bardzo pewien, że wykryje moje dzieci, a także kontroluję kierownicę, więc mogę hamować w dowolnym momencie” – powiedział Park CNBC, że samochód nigdy nie jechał więcej niż osiem mil na godzinę. i „upewnił się, że samochód rozpoznaje dzieciaka”. Na dzień 18 sierpnia film miał ponad 60 000 wyświetleń na YouTube. Film został również opublikowany na Twitterze i nadal można go obejrzeć. The Verge skontaktował się z Twitterem, aby sprawdzić, czy ma jakieś plany, aby go usunąć, ale nie od razu otrzymał odpowiedź. Szalony pomysł przetestowania FSD z prawdziwymi — żywymi i oddychającymi — dziećmi pojawił się później wideo oraz kampania reklamowa opublikowane na Twitterze pokazały, że pojazdy Tesli pozornie nie wykrywają i zderzają się z manekinami wielkości dziecka umieszczonymi przed pojazdem. Fani Tesli nie kupowali tego, wywołując debatę na temat ograniczeń funkcji na Twitterze. Whole Mars Catalog, napędzany pojazdami elektrycznymi kanał na Twitterze i YouTube, prowadzony przez inwestora Tesli, Omara Qaziego, później napomknął o tworzeniu wideo angażowanie prawdziwych dzieci w celu udowodnienia, że ​​oryginalne wyniki są błędne. W odpowiedzi na nagranie National Highway Traffic Safety Administration (NHTSA) wydała oświadczenie ostrzegające przed wykorzystywaniem dzieci do testowania technologii zautomatyzowanej jazdy. „Nikt nie powinien ryzykować życia ani życia kogokolwiek innego, aby przetestować wydajność technologii pojazdów” – powiedziała agencja Bloomberg. „Konsumenci nigdy nie powinni próbować tworzyć własnych scenariuszy testowych ani wykorzystywać prawdziwych ludzi, a zwłaszcza dzieci, do testowania wydajności technologii pojazdów”. Oprogramowanie FSD Tesli nie sprawia, że ​​pojazd jest w pełni autonomiczny. Jest dostępny dla kierowców Tesli za dodatkowe 12 000 USD (lub 199 USD / miesiąc). Gdy Tesla ustali, że kierowca spełnia określony wynik bezpieczeństwa, odblokowuje dostęp do wersji beta FSD, umożliwiając kierowcom wprowadzenie miejsca docelowego i kierowanie tam pojazdem za pomocą Autopilota, zaawansowanego systemu wspomagania kierowcy pojazdu (ADAS). Kierowcy muszą nadal trzymać ręce na kierownicy i być w każdej chwili gotowi do przejęcia kontroli. Na początku tego miesiąca kalifornijski DMV oskarżył Teslę o fałszywe twierdzenia dotyczące Autopilota i FSD. Agencja twierdzi, że nazwy obu funkcji, a także ich opis Tesli, błędnie sugerują, że umożliwiają autonomiczne działanie pojazdów. W czerwcu NHTSA po raz pierwszy opublikowała dane na temat wypadków ze wspomaganiem kierowcy i stwierdziła, że ​​pojazdy Tesla korzystające z pojazdów Autopilot brały udział w 273 wypadkach od 20 lipca 2021 do 21 maja 2022. NHTSA obecnie bada szereg incydentów gdzie pojazdy Tesli wykorzystujące technologię wspomagania kierowcy zderzyły się z zaparkowanymi pojazdami uprzywilejowanymi, oprócz ponad dwudziestu wypadków Tesli, z których niektóre były śmiertelne.
Aktualizacja 20 sierpnia, 14:10 ET: Zaktualizowano, aby dodać oświadczenie i dodatkowy kontekst od rzecznika YouTube.

Click to rate this post!
[Total: 0 Average: 0]
Android