Autonomiczne ciastko z kremem może być trujące. Ale nie wszyscy chcą to zauważyć
Obawiam się, że sporą część winy za to ponosi Elon Musk.
W Stanach Zjednoczonych miał miejsce kolejny śmiertelny wypadek z udziałem samochodu marki Tesla - mowa o Modelu S, całkiem świeżym, bo z 2019 r. Wygląda na to, że choć jest to najprawdopodobniej ściśle związane z niepoprawnie działającym Autopilotem lub funkcją Full Self-Driving (FSD), to wina samochodu jest w tym wszystkim najmniejsza. To przez Twittera.
Elon mówi różne rzeczy
Może sobie mówić. W końcu to wolny człowiek i wolny kraj. Problem leży w tym, że to jego mówienie czasem prowadzi do problemów. Takich jak np. wypadki. Doskonale zdaję sobie sprawę, że takie stwierdzenie może wyglądać na dość karkołomne. Pozwolę więc sobie wytłumaczyć, o co mi chodzi - a jest to całkiem proste.
Musk, jedna z najważniejszych osób w Tesli (ale także założyciel m.in. SpaceX czy The Boring Company), jest człowiekiem diablo inteligentnym - tego odmówić mu nie można. Nie wiąże się to jednak najwidoczniej z jakimiś głębszymi przemyśleniami przed publikacją wypowiedzi na Twitterze. A teraz połączcie to z faktem, że mnóstwo osób traktuje te wypowiedzi bezkrytycznie.
Nie przychodzę do Was z pustymi rękoma, uzbroiłem się w kilka wypowiedzi Muska. Proszę:
Autonomiczna jazda to gigantyczny skok, przewrót kopernikański, niewiarygodne ulepszenie, prawie zero interwencji kierowcy podczas jazdy, ja już dojechałem do domu bez dotykania kierownicy. Teraz przypomnijcie sobie, że wszystko, co Tesla oferuje, nie wykracza poza drugi poziom jazdy autonomicznej - czyli taki, gdzie kierowca musi cały czas zachowywać uwagę, żeby w razie potrzeby zareagować. Tak, to dotyczy także FSD, czyli najbardziej zaawansowanego rozwiązania Tesli.
Ale przecież Musk regularnie przypomina, że prace trwają!
Tak, przypomina. I że trzeba uważać także przypomina. Ale tu pojawia się drugi problem - z odbiorcami. Problem w tym, że odbiorcy - nie tylko w Stanach Zjednoczonych, ale na całym świecie - są podatni na różne rzeczy. I na domiar złego nie czytają. Albo czytają mniej niż powinni, wyrywkowo. Mówiąc wprost: jeśli widzą nazwy w rodzaju „Autopilot” czy „Full Self-Driving”, to nie będą sobie głowy zawracać ostrzeżeniami. No tak, Elon Musk to wybitna osoba, tak, słuchamy go - ale przecież nawet on się nie zna na tyle, żeby traktować poważnie jakieś ostrzeżenia z jego strony, pfff.
A teraz popatrzmy wszyscy po sobie - niemal każdy z nas też niejednokrotnie zabrał się za używanie czegoś bez przeczytania choćby skróconej instrukcji obsługi. Eeee, poradzę sobie - myśli każdy. A potem pralka tańczy po mieszkaniu, bo ktoś nie zdjął blokady transportowej.
Do czego dążę: dla większości osób wspomniany Autopilot i FSD, ze wszystkimi ich wadami i niedoskonałościami, wyglądają mniej więcej tak:
Ludzi nie interesuje kupowanie problemów. Ludzi interesuje kupowanie Czegoś, Co Odmieni Ich Życie. Tylko że to Coś przeceniają - i potem mamy wypadki takie jak wspomniany we wstępie. Czym różni się on od większości innych?
Tym, że nikogo nie było na miejscu kierowcy
Obaj pasażerowie zginęli, gdy auto uderzyło w drzewo. Przyczyny wypadku są nadal badane (bierze się także pod uwagę, że kierowca mógł uciec), ale pozwolę sobie powtórzyć: nawet jeśli to była „wina” Autopilota czy FSD - a póki co wiele na to wskazuje - to nie była to wina auta. Może jako ludzkość jesteśmy gotowi na czwarty czy piąty poziom autonomii, ale na drugi - najwidoczniej nie.