Aktualny

Wpływ pojazdów autonomicznych może zagrozić społeczeństwu i demokracji

Autor: Marcin Szponder

Dodano: 8 maja 2023
Wybory do samorządu uczniowskiego to dla nauczycieli czas na przeprowadzenie lekcji o demokracji

Biorąc pod uwagę znacznie, jakie transport odgrywa w naszym społeczeństwie, upowszechnienie AV (pojazdów autonomicznych), jako technologii destrukcyjnej będzie miało znaczny wpływ na całe społeczeństwo. Wymiary te obejmują między innymi bezpieczeństwo, czas podróży, zagęszczenie ruchu, dostęp do mobilności dla nowych grup społecznych, kwestie środowiskowe i urbanistykę. 

Wyraźnie wpłynie to na zachowanie podróżnych oraz sposób transportu ludzi i towarów. Mobilność autonomiczna może zmienić sposób, w jaki ludzie spędzają czas w drodze, w tym może wygenerować nowe możliwości interakcji społecznych, ponieważ wewnętrzne kabiny prawdopodobnie zostaną znacznie zmodyfikowane, aby zapewnić większą elastyczność w pracy, rekreacji i zajęć towarzyskich. Istotne są zarazem inne aspekty społeczne, takie jak wpływ na cyfryzację, zmiany w strategicznym planowaniu i harmonogramowaniu podróży, a nawet transformacja sensorycznych wymiarów bycia w ruchu. Natomiast jeśli chodzi o procesy demokratyczne, podejmowanie decyzji politycznych i konteksty wyborcze, raport stwierdza, że przynajmniej na razie bardzo trudno jest przewidzieć jakikolwiek wpływ AV w tym zakresie.

Odpowiedzialność (KR7)

W omawianym dokumencie czytamy, że wymóg ten jest spełniony za pomocą dwóch kryteriów cząstkowych, które należy wprowadzić przed opracowaniem, wdrożeniem i użyciem AV oraz po jego opracowaniu. Jako pierwszą raport wymienia, audytowalność, umożliwiająca ocenę algorytmów, danych i procesu projektowania. Po drugie, zarządzanie ryzykiem, mające na celu stworzenie środowiska, w którym można zidentyfikować, ocenić, udokumentować i zminimalizować negatywny wpływ AV. Zostały one omówione w kolejnych podrozdziałach.

Możliwość kontroli

Możliwość kontroli systemów AI dla AV jest ściśle związana z przejrzystością (kluczowe wymaganie 4), ponieważ główne mechanizmy potrzebne do zapewnienia możliwości kontroli to identyfikowalność, wyjaśnialność, pozyskiwanie danych szkoleniowych oraz rejestrowanie danych wejściowych systemu, procesów i wyników. Ponadto, jak stwierdziła AI HLEG (Grupa ekspertów wysokiego szczebla ds. sztucznej inteligencji), w zastosowaniach krytycznych dla bezpieczeństwa (takich jak AV), systemy AI muszą być kontrolowane nie tylko przez audytorów wewnętrznych, ale także przez niezależnych audytorów zewnętrznych. Chociaż niekoniecznie oznacza to, że informacje o modelach biznesowych i własności intelektualnej muszą być jawnie dostępne, faktem jest, że aby strony trzecie mogły skutecznie kontrolować systemy sztucznej inteligencji tak złożone, jak te zawarte w AV, wymagany poziom szczegółowości informacji jest bardzo wysoko. Dlatego głównym wyzwaniem jest zdefiniowanie minimalnych wymagań niezbędnych stronom trzecim do przeprowadzania audytów systemów bez narażania własności intelektualnej i przemysłowej producentów AV.

Raport wskazuje, że dodatkową trudnością w przypadku niezależnych audytów jest brak wiedzy fachowej. Sektor sztucznej inteligencji dla AV jest bardzo innowacyjny, a wiedza specjalistyczna w zakresie audytu jest ograniczona i dopiero się pojawia. Wszystko to sugeruje, że na wczesnych etapach procesu audyty wewnętrzne będą miały kluczowe znaczenie. Możliwość audytu wiąże się również z odpowiedzialnością w tym sensie, że te same wymagania i wiedza fachowa potrzebne do audytu systemów będą konieczne, aby ofiary lub ubezpieczyciele byli w stanie wykazać (ciężar dowodu) wady produktu (odpowiedzialność na zasadzie ścisłej) lub winę producenta (odpowiedzialność na zasadzie winy) oraz związek przyczynowy ze szkodą wyrządzoną przez pojazd, niezależnie od tego, czy ofiarami są pasażerowie, czy zewnętrzni użytkownicy dróg. Przeniesienie ciężaru dowodu na producenta AV uczyniłoby te systemy bardziej przyjaznymi dla ofiar (Uytsel, 2021). Zarazem wymagałoby to znacznych wysiłków na rzecz harmonizacji i poważnych aktualizacji istniejących krajowych ram prawnych dotyczących odpowiedzialności za produkt, odpowiedzialności cywilnej i opartej na winie, w tym dyrektywy w sprawie odpowiedzialności za produkt i dyrektywy w sprawie ubezpieczeń komunikacyjnych (EPRS, 2018).

Z kolei dyrektywa w sprawie ubezpieczeń komunikacyjnych zapewnia zharmonizowany system ubezpieczenia od odpowiedzialności cywilnej umożliwiający szybkie odszkodowanie poszkodowanym, nawet jeśli w grę wchodzi AV. W tym momencie ubezpieczyciel może przyjąć status powoda i podjąć kroki prawne przeciwko producentowi AV na podstawie dyrektywy o odpowiedzialności za produkt, jeśli wystąpi awaria lub wada AV.  Podczas gdy udowodnienie defektu lub winy jest powiązane z wypadkiem powodującym szkody osobowe lub majątkowe, procesy audytu wewnętrznego i zewnętrznego można powiązać zarówno z ocenami ex ante, jak i mechanizmami zgodności ex post.

Zarządzanie ryzykiem

W punkcie 5.7.2 omawiany dokument wskazuje, że wdrażanie i adopcja podłączonych AV przyniesie nowe zagrożenia, które staną się bardziej widoczne w miarę wzrostu ich wykorzystania i penetracji. W dokumencie stwierdza się, że niektóre z tych nowych zagrożeń obejmują te związane z awarią lub wyborami programistycznymi/projektowymi algorytmów operacyjnych lub oprogramowania, które umożliwiają działanie AV. Ponadto zagrożenia te związane są z awariami łączności i sieci oraz zagrożeniami wynikającymi z włamania się do systemu przez osobę trzecią (cyberprzestępczość). Ponadto ze względu na wysoki stopień innowacyjności AV, praktycznie nieskończoną różnorodność możliwych scenariuszy oraz intensywność, zmienność i złożoność interakcji AV w ich środowisku operacyjnym, potencjalny zakres ryzyka, które jest nieznane lub niewykrywalne w czasie produkcji, a które może pojawić się dopiero po wprowadzeniu na rynek, jest znacznie wyższy niż w przypadku pojazdów konwencjonalnych. Obecne ramy odpowiedzialności nie przewidują, by producenci AV byli pionierami w zakresie zagrożeń bezpieczeństwa, które nie są jeszcze powszechne w branży w momencie produkcji. Według autorów niniejszego raportu należy jednak znaleźć odpowiednią równowagę w kosztach odpowiedzialności i ubezpieczenia między konsumentami i poszkodowanymi z jednej strony, a producentami AV z drugiej. To podkryterium dodatkowo określa potrzebę przewidzenia różnych środków w celu zmniejszenia potencjalnie negatywnego wpływu ryzyka związanego z AV, w tym potrzebę ustanowienia rady ds. oceny etycznej, szkolenia w zakresie ryzyka, dostępności procesów dla stron trzecich w celu zgłaszania podatności, a także jako zadośćuczynienie za pomocą mechanizmów projektowych. Wreszcie należy w tym kontekście uwzględnić rolę specjalnego procesu oceny przestrzegania Listy oceny godnej zaufania sztucznej inteligencji (ALTAI). Wszystkie te uwagi końcowe są dość ogólne, a ich zastosowanie w obszarze AV nie powinno różnić się od innych rodzajów technologii opartych na sztucznej inteligencji. Produkcja odnosi się tutaj do wszystkich procesów (np. projektowania, rozwoju, wdrażania) przed wprowadzeniem produktu do obrotu, tj. AV lub jakiegoś komponentu opartego na sztucznej inteligencji.

Wnioski

W ostatniej części niniejszego raportu, po szczegółowej analizie wymagań i kryteriów, autorzy raportu podsumowali główne wyzwania stojące przed pojazdami autonomicznymi oraz omówili przyszłe luki badawcze dla każdego z tych wyzwań.

KR1. Ludzkie działanie i nadzór

• Ludzkie działanie w przypadku AV jest bezpośrednio związane z zasadą ludzkiej autonomii i wpływa na akceptację (np. nieużywanie) i bezpieczeństwo (nadużywanie).

• Potrzebne są nowe zorientowane na agencje interfejsy HMI i eHMI, aby zapewnić odpowiedni poziom ludzkiej agencji dla kierowców rezerwowych do poziomu 3 SAE, a w szczególności dla pasażerów na poziomach SAE 4 i 5, a także dla zewnętrznych użytkowników dróg.

• W tym celu niezbędne są skuteczne podejścia do pomiaru i kalibracji poczucia sprawczości, w tym wyjaśniania i interpretowalności zachowania AV.

• Nadzór człowieka nad AV jest sprawowany w różny sposób w zależności od poziomu automatyzacji, poprzez różne mechanizmy interakcji człowiek-pojazd. Do pewnego stopnia stosują ją również zewnętrzni użytkownicy dróg, którzy ryzykują nadużyciami podczas interakcji, wiedząc, że AV i tak się zatrzymają.

• Dla właściwej interakcji musi istnieć wzajemna świadomość pomiędzy AV a agentami, z którymi współpracuje, głównie kierowcami i pasażerami, ale także zewnętrznymi użytkownikami dróg.

• To, w jaki sposób najskuteczniej przedstawiać i informować użytkowników o stanie działania AV, w tym TOR lub prośby o interwencję, jest kluczowym obszarem przyszłych badań mających na celu spełnienie wymogu nadzoru przez ludzi.

• Wreszcie, sposób sprawowania nadzoru będzie wymagał nowych umiejętności, którymi należy się zająć a priori, ale które będą również rozwijane poprzez ujawnienie i wykorzystanie. Odpowiedź na pytanie: „jak skutecznie pokierować tym procesem?” jest również przyszłym wyzwaniem.

KR2. Solidność techniczna i bezpieczeństwo

• Solidność techniczna i bezpieczeństwo to prawdopodobnie najistotniejsze wymagania dla AV ze względu na ich silne powiązanie z zasadą zapobiegania szkodom, która, jeśli nie zostanie osiągnięta i nie zostanie odpowiednio przekazana, może również prowadzić do rezygnacji ze względu na wpływ na akceptację użytkownika.

• Odporność na ataki i bezpieczeństwo AV należy uwzględniać przy użyciu heterogenicznego, stale aktualizowanego podejścia, zaczynając od projektowania zabezpieczeń, w tym wielu środków ochronnych (np. metod kryptograficznych, wykrywania włamań i anomalii), środków zaradczych przeciwko atakom przeciwnika (np. redundancja, wzmacnianie w porównaniu z wrogimi przykładami), metod odpornych na błędy, fail-x i samonaprawiających, a nawet szkoleń użytkowników, aby byli w stanie spełnić surowe wymagania dotyczące uwierzytelniania, integralności, prywatności i dostępności.

• Oceniając, jak bezpieczne jest „wystarczająco bezpieczne” dla AV, konserwatywne oczekiwania mogą przyspieszyć poprawę akceptacji użytkowników. Nawet niewielka poprawa może uratować wiele istnień ludzkich, a zbyt wysokie oczekiwania mogą opóźnić przyjęcie, a tym samym korzyści technologii. Wymaga to również nowych innowacyjnych metod oceny bezpieczeństwa AV w odniesieniu do ludzkich kierowców, bez konieczności przeprowadzania oceny w rzeczywistych warunkach w nieosiągalnych okresach czasu.

• Chociaż podjęto ważne kroki w zakresie projektowania nowych procedur testów bezpieczeństwa dla funkcji zautomatyzowanej jazdy, w tym symulacji, testów fizycznych na poligonach i jazdy próbnej w świecie rzeczywistym, nadal istnieją bardzo ważne ograniczenia, takie jak brak rzeczywistych zachowań, ograniczona zmienność, brak wymogów bezpieczeństwa, brak scenariuszy oceny ludzkiej sprawczości i nadzoru, a także dotyczące przejrzystości i uczciwości. Jest to być może jeden z najważniejszych punktów dalszych badań i rozwoju.

• Dokładność AV to problem wielowymiarowy, obejmujący wiele metryk, różne poziomy, warstwy, przypadki użycia i scenariusze. Definiowanie holistycznych metryk i progów dokładności w celu kompleksowej oceny AV jest trudnym badaniem, a nawet problemem politycznym, którym należy się zająć w przyszłości.

• Potrzebne są nowe strategie awaryjne, aby osiągnąć minimalne warunki ryzyka, a także procedury testowe w celu oceny ich bezpieczeństwa.

• Chociaż ciągłe uczenie się podczas obsługi AV jest mało prawdopodobne ze względu na ryzyko i koszty związane z bezpieczeństwem, należy zauważyć, że każda istotna zmiana w komponencie AV opartym na sztucznej inteligencji, która może zmienić ogólne zachowanie, musi spełniać wszystkie wymagania dotyczące odporności i bezpieczeństwa i może wymagać ponownego przetestowania.

KR3. Prywatność i zarządzanie danymi

• Należy wprowadzić nowe innowacyjne podejścia, aby zagwarantować ochronę danych bez negatywnego wpływu na bezpieczeństwo AV.

• Należy stosować nowe techniki anonimizacji danych specyficznych dla agentów bez uszkadzania charakteru danych i zachowywania odpowiednich atrybutów agentów. Podejścia do anonimizacji  danych (w tym generatywne metody kontradyktoryjne) z niezbędnymi ograniczeniami w celu zachowania odpowiednich cech agentów wydają się być najwłaściwszym podejściem do zachowania równowagi między anonimowością a dokładnością atrybutów.

• Prywatność z założenia będzie wymagała również szyfrowania danych, urządzeń pamięci masowej i kanałów komunikacji V2X, z unikalnym systemem zarządzania kluczami szyfrowania dla każdego pojazdu i obejmującym regularne odnawianie kluczy szyfrowania.

• Zgoda na przetwarzanie danych osobowych w AV wiąże się z kilkoma wyzwaniami. Dla kierowców i pasażerów nie powinno to stwarzać żadnego zagrożenia dla bezpieczeństwa i powinno obejmować wymianę danych z innymi pojazdami i infrastrukturą. W przypadku zewnętrznych użytkowników dróg zgodę można uzyskać tylko pośrednio, chociaż można jej uniknąć, jeśli dane są przetwarzane w czasie rzeczywistym lub jeśli deidentyfikacja danych jest prawidłowo wdrożona.

KR4. Przejrzystość

• Identyfikowalność oprogramowania jest już obecnie wyzwaniem dla nowoczesnych pojazdów konwencjonalnych, zatem złożoność tego zagadnienia dla AV będzie jeszcze znacznie większa.

• Wciąż nierozstrzygniętym pytaniem badawczym jest skuteczna integracja komponentów systemów sztucznej inteligencji opartych na danych (np. modeli uczenia maszynowego, hiperparametrów, zbiorów danych) jako artefaktów, które można śledzić.

• Oprócz niezbędnego rozwoju sprzętu, należy opracować nowe strategie inteligentnego rejestrowania danych, aby sprostać zwiększonym wymaganiom w zakresie przepustowości i pojemności ciągłej rejestracji danych dla AV.

• Należy opracować nowe  modele projektowe i metody zewnętrzne w celu wyjaśnienia złożonych, nieprzejrzystych modeli opartych na sztucznej inteligencji, koncentrując się na użytkownikach wewnętrznych i zewnętrznych użytkownikach dróg, co implikuje nowe tematy badawcze związane z interakcją człowiek-pojazd za pośrednictwem nowych HMI i eHMI.

• Wyjaśnienie jako wymóg testowania bezpieczeństwa w ramach homologacji typu pojazdu poprawi ocenę bezpieczeństwa, sprawczość i nadzór ludzki oraz przejrzystość, ale będzie wymagało nowych procedur testowych, metod i mierników.

• Należy wprowadzić nowe skuteczne sposoby komunikowania zarówno użytkownikom wewnętrznym, jak i zewnętrznym użytkownikom dróg, że wchodzą oni w interakcję z AV.

• Należy opracować nowe sposoby informowania użytkowników o ryzyku, zwłaszcza we wczesnej fazie interakcji człowiek-pojazd, aby skalibrować zaufanie i uniknąć zaniechania użytkowania bądź  niewłaściwego używania AV.

Dodajmy, że w uczeniu maszynowym hiperparametr to parametr, którego wartość służy do sterowania procesem uczenia. Natomiast wartości pozostałych parametrów (na ogół wagi węzłów) uzyskuje się poprzez uczenie. Hiperparametry można sklasyfikować jako hiperparametry modelu, których nie można wyprowadzić przez dopasowanie maszyny, ponieważ mają zastosowanie do zadania wyboru modelu, lub jako algorytmy hiperparametrów, które w zasadzie nie mają wpływu na wydajność modelu, ale mają wpływ na prędkość i jakość procesu uczenia się. Przykładem hiperparametru modelu jest topologia i rozmiar sieci neuronowej. Przykładami hiperparametrów algorytmu są szybkość uczenia się i wielkość partii. Różne hiperparametry różnią się w zależności od rodzaju algorytmów uczenia, na przykład niektóre proste algorytmy uczenia maszynowego (takie jak regresja najmniejszych kwadratów) ich nie wymagają. Biorąc pod uwagę te hiperparametry, algorytm uczący uczy się parametrów z danych. Na przykład regresja LASSO to algorytm, który dodaje hiperparametr regularyzacji do regresji metodą najmniejszych kwadratów, którą należy zdefiniować przed oszacowaniem parametrów za pomocą algorytmu uczącego. Czasami hiperparametrów nie można nauczyć się na podstawie danych uczących, ponieważ agresywnie zwiększają one pojemność modelu i mogą spychać funkcję straty do ubogiego minimum — nadmierne dopasowanie i przechwytywanie szumu w danych — w przeciwieństwie do prawidłowego mapowania bogactwa struktury danych. Na przykład, jeśli traktujemy stopień równania wielomianowego pasującego do modelu regresji jako parametr możliwy do nauczenia, to po prostu zwiększy to stopień, aż model będzie idealnie pasował do danych, co spowoduje niewielki błąd uczenia się - ale słabą wydajność uogólniania. Większość zmian wydajności można przypisać kilku hiperparametrom. Dostrajanie algorytmu, hiperparametru lub hiperparametru oddziałującego jest miarą wydajności, którą można osiągnąć poprzez dostrajanie. Podczas gdy dla LSTM najważniejszymi hiperparametrami są szybkość uczenia się, po której następuje rozmiar sieci, przetwarzanie wsadowe i dynamika nie mają znaczącego wpływu na jej wydajność. Podczas gdy niektóre badania zalecały stosowanie rozmiarów minipartii liczonych w tysiącach, inne prace wykazały najlepszą wydajność przy rozmiarach minipartii od 2 do 32.

Metody, które nie są odporne na proste zmiany hiperparametrów, a nawet różne implementacje tego samego algorytmu, nie mogą być zintegrowane z krytycznymi systemami sterowania bez znacznego uproszczenia i solidności. W szczególności niektóre algorytmy uczenia wymagają pomiaru ich wydajności, a także pomiaru ich wrażliwości na wybór hiperparametrów. Niektóre metody uczenia się przez wzmacnianie, takie jak DDPG (Deep Deterministic Policy Gradient), są bardziej wrażliwe na decyzje hiperparametrów niż inne.

KR5. Różnorodność, niedyskryminacja i sprawiedliwość

• Wszystkie badania, które zajmują się moralnym zachowaniem AV wpływającym na proces podejmowania decyzji lub (lokalne) planowanie ścieżki w sytuacjach, w których poszkodowanie kogoś jest nieuniknione, są w rzeczywistości źródłem dyskryminacji i uprzedzeń opartych na określonej wartości społecznej nadanej pewnym grupom ludzi w stosunku do innych, czego należałoby bezwzględnie unikać.

• Aby uniknąć dyskryminacji, AV muszą utrzymywać ten sam poziom bezpieczeństwa dla wszystkich użytkowników dróg, co w niektórych przypadkach może sugerować konieczność dostosowania zachowania AV zgodnie z wewnętrznymi cechami osoby lub grupy społecznej, z którą wchodzi w interakcję . Innymi słowy, AV powinien działać w różny sposób, aby korygować nierówności w zakresie bezpieczeństwa, które wynikają z różnych zachowań użytkowników dróg.

• Dlatego potrzebne są nowe systemy predykcyjnej percepcji zdolne do modelowania zachowań różnych użytkowników dróg. Badania nad predykcyjnymi systemami percepcji i planowania ścieżek są coraz popularniejsze, ale solidne rozwiązania działające w czasie rzeczywistym nie zostały jeszcze wystarczająco opracowane.

• Badania nad stronniczością podejmowania decyzji w systemach percepcji AV nie zostały w wystarczającym stopniu uwzględnione przez społeczność badawczą. Potrzebne są dalsze wysiłki w celu zidentyfikowania możliwych źródeł dyskryminacji w najnowocześniejszych systemach percepcji do wykrywania zewnętrznych użytkowników dróg według różnych atrybutów nierówności, takich jak płeć, wiek, odcień skóry, zachowanie grupowe, rodzaj pojazdu, kolor itp.

• Stronniczość w podejmowaniu decyzji może również występować w warstwie interakcji użytkownik-pojazd. Będzie to ważny temat badawczy, ponieważ zarówno HMI, jak i eHMI ewoluują.

• AV otwierają nowe systemy, usługi i produkty autonomicznej mobilności, które stwarzają ryzyko utrwalenia lub nawet zwiększenia nierówności między jednostkami i grupami w społeczeństwie. Należy unikać wszelkiego podejścia do świadczenia usług, które może dyskryminować użytkowników. • AV mogą rozszerzyć mobilność na użytkowników, którzy nie mogą prowadzić konwencjonalnego pojazdu (np. nieletnich, osoby starsze, osoby bez prawa jazdy, osoby niepełnosprawne). Stanowi to wyzwanie dla projektowania dostępnych i adaptowalnych interfejsów HMI, które powinny być zgodne z zasadami projektowania uniwersalnego. Ten temat badawczy został dopiero skonceptualizowany i należy zbadać nowe podejścia.

• Chociaż zidentyfikowano głównych interesariuszy, konieczne jest, aby decydenci ustalili jasną taksonomię interesariuszy, modulując kierunek (pozytywny lub negatywny) oraz wagę wpływu, jaki przyjęcie AV oznacza dla każdego z nich.

KR6. Dobrobyt społeczny i środowiskowy

• Zrozumienie i oszacowanie wpływu, jaki przyjęcie AV może mieć na środowisko, jest bardzo wielowymiarowym i złożonym problemem, obejmującym wiele czynników zakłócających, a dla którego można dokonywać prognoz tylko w oparciu o jeszcze niepewne założenia. Wpływ netto może być pozytywny lub negatywny, dlatego ważne jest, aby decydenci kierowali i monitorowali proces przyjmowania, aby przechylić szalę w kierunku pozytywnego wpływu.

• Automatyzacja pojazdów do poziomu SAE 3 nie będzie miała negatywnego wpływu na miejsca pracy, ale niesie ze sobą zapotrzebowanie na nowe umiejętności dla kierowców rezerwowych.

• W przypadku pojazdów wysoce zautomatyzowanych lub autonomicznych, ponieważ nie są potrzebni kierowcy, oczekiwany wpływ na pracę i umiejętności będzie prawdopodobnie negatywny, ale częściowo łagodzony przez liczbę zadań niezwiązanych z prowadzeniem pojazdów, mniej podatnych na automatyzację oraz potrzebę nowych miejsc pracy i umiejętności, które przynosi automatyzacja transportu.

• Wprowadzenie AV otwiera możliwość wykorzystania czasu dojazdu na czynności związane z pracą, co prowadzi do ogólnej wyższej produktywności lub skrócenia czasu w miejscu pracy, ponieważ czas dojazdu do pracy można uznać za czas pracy. W nadchodzących latach oczekiwane są nowe podejścia do przekształcania wnętrz AV w miejsca do pracy. Jest to duże wyzwanie, zwłaszcza w kontekście mobilności współdzielonej.

• AV mają potencjał, aby zmienić sposób, w jaki obywatele spędzają czas dojazdów umożliwiając chociażby funkcie towarzyskie i rekreacyjne. Nie zostało to jeszcze dostatecznie zbadane.

• Potrzebne są nowe podejścia i badania, aby zapewnić dokładniejsze szacunki, przy mniejszej niepewności, co do wpływu AV na środowisko i społeczeństwo.

KR7. Odpowiedzialność

• AV są aplikacją krytyczną dla bezpieczeństwa i dlatego muszą być kontrolowane nie tylko wewnętrznie, ale także przez niezależnych audytorów zewnętrznych. Poważnym wyzwaniem jest ustanowienie minimalnych wymagań dla stron trzecich w zakresie audytu systemów bez narażania własności intelektualnej i przemysłowej.

• W przyszłych wypadkach z udziałem AV i skutkujących obrażeniami fizycznymi lub szkodami materialnymi ofiary (zarówno pasażerowie, jak i zewnętrzni użytkownicy dróg) będą musiały wykazać wadę produktu (odpowiedzialność na zasadzie ryzyka) lub winę producenta (odpowiedzialność na zasadzie winy) oraz związek przyczynowy ze szkodą wyrządzoną przez AV. Te same wymagania i wiedza fachowa potrzebne do audytu AV byłyby konieczne, aby ofiary lub ubezpieczyciele mogli dochodzić odpowiedzialności, co byłoby bardzo złożone i kosztowne. Przeniesienie ciężaru dowodu na producenta AV uczyniłoby te systemy bardziej przyjaznymi dla ofiar.

• Niezbędne są znaczne wysiłki na rzecz harmonizacji i poważne aktualizacje istniejących krajowych ram odpowiedzialności za produkt, odpowiedzialności za ruch drogowy i odpowiedzialności na podstawie winy, w tym dyrektywy w sprawie odpowiedzialności za produkt i dyrektywy w sprawie ubezpieczeń komunikacyjnych.

• Przyjęcie AV pociągnie za sobą nowe zagrożenia, w tym te, które są nieznane w momencie produkcji i mogą pojawić się dopiero po wprowadzeniu na rynek. Decydenci powinni zaproponować nowe zrównoważone i innowacyjne ramy, aby uwzględnić koszty ubezpieczenia i odpowiedzialności między konsumentami i poszkodowanymi z jednej strony, a dostawcami AV z drugiej.

Jak pokazano w niniejszym raporcie, bezpośrednie zastosowanie wszystkich wymagań dotyczących godnej zaufania sztucznej inteligencji w kontekście AV obejmuje wiele obszarów o różnym charakterze, z których niektóre są jeszcze na bardzo wczesnym etapie dojrzałości technologicznej. Współzależność i zależność między różnymi wymaganiami i kryteriami wskazują, że najbardziej odpowiednie są podejścia holistyczne. Jednak ich praktyczność jest ograniczona, ponieważ są najbardziej złożone przy wdrożeniach i wymagają wiedzy z wielu różnych dyscyplin. W tej sytuacji odpowiedniejszym pierwszym krokiem wydają się być podejścia dostosowane osobno do każdego z wymagań. Raport zwraca też uwagę, że systemy AI zintegrowane z AV będą działać w scenariuszu wysokiego ryzyka. Dlatego jako kolejny krok w ramach ogólnego ekosystemu doskonalenia i zaufania, jaki UE rozwija w zakresie sztucznej inteligencji, należałoby przeanalizować przystosowanie w taki sposób, aby wszystkie wymogi i kryteria, o których mowa w niniejszym sprawozdaniu, mieściły się w nowym wniosku Komisji dotyczącym ram regulacyjnych w sprawie sztucznej inteligencji niezależnie od istnienia innych szczególnych ram sektorowych w dziedzinie transportu zautomatyzowanego.

Autor: Marcin Szponder

Autor: Marcin Szponder

Ekspert w obszarze regulacyjnym związany z branżą naftową, a także z Polskim Komitetem Normalizacyjnym