Aktualny

Skąd wiemy, że mamy do czynienia ze sztuczną inteligencją?

Autor: Marcin Szponder

Dodano: 2 maja 2023
e-mail

Według omawianego raportu to podkryterium skupia się na ogólnych informacjach, które użytkownicy powinni posiadać (i zrozumieć) na temat korzyści i zagrożeń związanych z technologią. Ponieważ AV są interaktywnymi systemami AI, pierwszym pytaniem, na które należy odpowiedzieć, jest to, czy użytkownicy zostali poinformowani, że wchodzą w interakcję z systemem AI, a nie z człowiekiem.

Może się wydawać, że informowanie o tym użytkowników wewnątrz pojazdu nie jest konieczne (ponieważ w oczywisty sposób nie ma kierowcy), zawsze mogą pojawić się wątpliwości, czy interakcja i sterowanie pojazdem odbywa się zdalnie, np. przez osobę. Informacje te należy zatem przekazać użytkownikowi natychmiast po zainicjowaniu komunikacji z systemem, za pomocą wiadomości głosowej lub charakterystycznych informacji wizualnych wewnątrz pojazdu (np. znak, logo). Ponadto informacje te muszą być również przekazywane zewnętrznym agentom drogowym, którzy, chociaż nie są użytkownikami AV, wchodzą z nim w interakcję (choć niewerbalnie). Musi także istnieć jakaś forma oznakowania zewnętrznego, na przykład poprzez wizualne eHMI, która jasno i skutecznie identyfikuje, że pojazd jest autonomiczny i nie jest kierowany przez człowieka.

Druga kwestia dotyczy informowania o korzyściach i ryzyku korzystania z AV. Raport stwierdza, że  oczywiście ta komunikacja powinna być skierowana tylko do użytkowników (pasażerów lub kierowców zapasowych), ponieważ agenci zewnętrzni, nawet jeśli wchodzą w interakcję z AV, nie są użytkownikami. Komunikacja zagrożeń (i korzyści) jest dobrze ugruntowanym i solidnym tematem badawczym, który był badany w wielu dyscyplinach (np. psychologii, socjologii, komunikacji itp.) oraz w szerokim zakresie zastosowań. Zagrożenia i korzyści są wielowymiarowe, ciągłe i można je postrzegać z perspektywy społecznej lub indywidualnej. Dlatego efektywna komunikacja musi uwzględniać wszystkie zmienne i być w stanie uszczegółowić informacje w zależności od podmiotu i jego okoliczności. Autorzy raportu proponują rozważenie scenariusza, w którym AV są odpowiednio certyfikowane pod względem bezpieczeństwa. Oczywiście ta certyfikacja nie eliminuje ryzyka, ale utrzymuje je na tyle niskim, aby technologia była akceptowalna. Rzeczywiście, obsługa AV zawsze wiąże się z nieodłącznym ryzykiem dla użytkownika, który staje się podatny na jakiekolwiek problemy z wydajnością systemu. W tym kontekście odpowiednie informowanie o ryzyku może służyć ograniczeniu ryzyka nieużycia lub niewłaściwego wykorzystywania AV. Aby uniknąć ryzyka nieużycia, kierowcy muszą dobrowolnie podejmować ryzyko, gdy nie mogą kontrolować systemu, a postrzegane ryzyko musi być wystarczająco niskie, aby tak się stało. Z drugiej strony, nadużycie nastąpi, jeśli postrzegane ryzyko jest mniejsze niż w rzeczywistości (np. zbytnie poleganie kierowców korzystających ze zautomatyzowanych systemów jazdy poziomu 2 i 3). Raport stwierdza, że zostało wykazane, że przedstawianie kierowcom odpowiednich informacji na wczesnym etapie interakcji samochód-kierowca znacząco wpływa na ich postrzeganie ryzyka, tym samym kalibrując zaufanie i promując prawidłowe korzystanie z technologii.

Różnorodność, niedyskryminacja i uczciwość (KR5)

Różnorodność, niedyskryminacja i uczciwość to wymagania związane głównie z etyczną zasadą uczciwości, która obejmuje unikanie dyskryminacji , stawianie na dostępność/uniwersalność i określone w sposób niedyskryminujący podwymagania dotyczące udziału poszczególnych  interesariuszy.

Unikanie arbitralności podejmowania decyzji

To podkryterium skupia się na uczciwości i arbitralności podejmowania decyzji. Jak stwierdzono w niektórych opracowaniach, sprawiedliwość to złożona koncepcja normatywna oparta na wartościach, którą trudno sformalizować, podczas gdy arbitralność jest koncepcją techniczną, którą można zdefiniować jako systematyczne odchylenie od rzeczywistego stanu. Ogólnie rzecz biorąc, proces lub decyzja (zautomatyzowana lub nie) jest uważana za sprawiedliwą, jeśli 46 nie dyskryminuje ludzi ze względu na ich przynależność do grupy. W uczeniu maszynowym „uczciwość” zwykle odnosi się do prób unikania stronniczości algorytmicznej, tj. unikania systematycznych i powtarzalnych błędów, które prowadzą do niesprawiedliwych wyników, takich jak arbitralne uprzywilejowanie jednej grupy użytkowników nad innymi. W przypadku AV, pierwsze źródło możliwych nieuczciwych uprzedzeń opartych na cechach osobistych pewnych grup, które mogą prowadzić do dyskryminacji, można znaleźć w warstwie podejmowania decyzji/planowania trajektorii, która została szeroko zbadana z perspektywy „kodowania moralności” w ramach decyzji podejmowanych przez systemy w pojazdach. Pomysł polegał na przewidywaniu niedalekiej przyszłości, w której algorytmy kierowania pojazdów AV są tak zaawansowane, że będą w stanie rozpoznać i poradzić sobie z wszelkiego rodzaju scenariuszami, w tym dylematami, w których autonomiczny system podejmowania decyzji musi decydować między co najmniej dwoma nieuniknionymi sytuacjami krytycznymi w oparciu o zasady moralne. W jednym z pierwszych badań do kwestii podejmowania decyzji w AV podchodzono z czysto utylitarnego punktu widzenia, w którym na przykład można było podjąć decyzję o poświęceniu pasażerów dla większego dobra. 

Nazwano to dylematem społecznym AV. Pomysł ten został dalej rozwinięty w dobrze znanym projekcie Moral Machine (o którym więcej poniżej), w którym zebrano informacje od milionów użytkowników na całym świecie (ponad 40 milionów odpowiedzi) za pośrednictwem podobnej do gry platformy internetowej, która pozorowała opcje binarne w scenariuszach z udziałem AV, które miały ulec awarii. Scenariusze to warianty problemu wózka dostosowane do kontekstu AV. Projekt ten, którego wyniki opublikowano w magazynie Nature, miał ogromny wpływ na społeczeństwo. Chociaż z jednej strony służyło to podniesieniu świadomości społecznej co do znaczenia uwzględniania aspektów etycznych w projektowaniu AV, miało to również negatywne skutki. Na przykład w pewien sposób zmyliło opinię publiczną, tak że zaczęto sądzić, że AV są zaprogramowane tak, by zderzać się z pewnymi typami ludzi lub po prostu, że są niebezpieczne. Miało to negatywny wpływ na opinię publiczną, co może spowolnić wdrażanie technologii (Etienne, 2021). Mogłoby to również częściowo odwrócić uwagę organów regulacyjnych od ważnego zadania, jakim jest zapewnienie bezpiecznego przejścia do wdrażania AV, a nawet naukowców i inżynierów, którzy przeznaczyli zasoby na zbadanie tych problemów. Mogłoby się tak stać dlatego, że scenariusze problemów z wózkami są niezwykle rzadkie i wysoce nieprawdopodobne, aby wystąpiły w rzeczywistym ruchu, nawet dla pojazdów kierowanych przez ludzi.

Jednakże, jak wskazują autorzy omawianego raportu, nawet jeśli tego typu problemy były realnym problemem dla AV, podejście sugerowane przez projekt Moral Machine (tj. zakodowanie opinii większości ludzi na temat społecznej wartości niektórych decyzji w scenariuszach, w których AV będą wybierać między wyrządzeniem krzywdy jednemu z nich) jest etycznie wątpliwa i nieodłącznie wiąże się z niesprawiedliwymi uprzedzeniami i dyskryminacją. Technicznie możliwe jest opracowanie systemów podejmowania decyzji, które modelują spodziewaną szkodę i stosują różne „teorie etyczne” lub „systemy oparte na głosowaniu” w celu zdefiniowania funkcji kosztów, które ostatecznie zostaną zoptymalizowane w celu decydowania, kto zostanie poszkodowany. Wymagałoby to zdolności do wykrycia jakiejś formy „wartości społecznej” osób, które potencjalnie mogłyby zostać skrzywdzone przez AV, i wiązałoby się z formą jawnej niesprawiedliwej dyskryminacji lub uprzedzeń opartych na cechach osobistych. Zgodnie z definicją Niemieckiej Komisji Etyki ds. Zautomatyzowanej i Połączonej Jazdy oraz zgodnie z Ustawą o autonomicznej jeździe opracowaną przez niemiecki rząd federalny, możemy rozsądnie uznać, że jeśli jest to wykonalne, systemy muszą być zaprogramowane tak, aby akceptowały szkody wyrządzone zwierzętom lub mieniu, jeśli oznacza to, że można zapobiec obrażeniom ciała, tj. aby nadać najwyższy priorytet ochronie życia ludzkiego. Jednak w przypadku nieuniknionego alternatywnego ryzyka dla życia ludzkiego (np. decyzji dylematycznych, takich jak decyzja między jednym ludzkim życiem a drugim), wszelkie rozróżnienie, ważenie lub kompensacja na podstawie cech osobowych (np. wieku, płci, jednostki/grupy, konstytucja fizyczna lub psychiczna, zachowania itp.) muszą być surowo zabronione. Nie oznacza to jednak, że AV nie powinny wykorzystywać modeli behawioralnych opartych na cechach osobistych w celu poprawy systemów percepcji i mieć różne strategie planowania ścieżki w zależności od tych cech. Wręcz przeciwnie. Przewidywanie działania i ruchu użytkowników dróg, w tym pieszych, rowerzystów oraz pojazdów, jest podstawową częścią systemów percepcji zapewniających AV umiejętność przewidywania ryzykownych sytuacji i wykonywania konserwatywnego planowania ścieżki w celu poprawy bezpieczeństwa i komfortu. Na przykład, predykcyjny system percepcji może przewidywać, że prawdopodobieństwo nagłego pojawienia się na ulicy dziecka znajdującego się w pobliżu krawężnika  jest znacznie wyższe niż w przypadku osoby dorosłej, a zatem AV może zmniejszyć prędkość po rozpoznaniu dziecka i utrzymać ją dla osoby dorosłej. Niekoniecznie oznacza to, że dorośli są dyskryminowani (o ile nie ma uprzedzeń w danych i algorytmach wykorzystywanych do generowania modeli predykcyjnej percepcji), ale że niepewność w zachowaniu i możliwym ruchu dziecka jest de facto większa niż u dorosłych, a AV musi dostosować swoje zachowanie, aby zachować ten sam poziom bezpieczeństwa dla dzieci i dorosłych. Raport ocenia, że można zasadnie oczekiwać, że decydenci będą wymagać, aby producenci AV gwarantowali ten sam poziom bezpieczeństwa dla wszystkich użytkowników dróg i że wymóg ten implikuje potrzebę opracowania AV, które zachowują się inaczej w zależności od użytkownika drogi. Jest to częściowo zgodne z zaleceniem dotyczącym podziału ryzyka Niezależnej Grupy Ekspertów ds. Etyki Pojazdów Podłączonych i Zautomatyzowanych. Raport wskazuje zarazem, że należy jednak zachować ostrożność, ponieważ powiązanie rozkładu ryzyka (lub poziomu bezpieczeństwa) z poziomem narażenia użytkowników dróg na podstawie np. stosunku ofiar śmiertelnych do narażenia na drogach lub niepełnosprawności może prowadzić do dyskryminacji ze względu na narażenia użytkownika drogi, postrzeganej jako przyłożenie większej wagi do bezpieczeństwa większej liczby VRU.

Bardziej adekwatne podejście zakłada, że warstwa podejmowania decyzji lub planowania ścieżki nie jest jedyną, w której mogą wystąpić problemy z nieuczciwą stronniczością. Chociaż stosunkowo niezbadana, dynamiczna warstwa rozumienia sceny może ucierpieć z powodu niesprawiedliwego błędu zarówno pod względem wykorzystania tendencyjnych danych wejściowych, jak i projektu algorytmu. Metody stosowane do wykrywania różnych użytkowników dróg (np. pieszych, rowerzystów, motocykli, pojazdów) opierają się na uczeniu się. Nieuczciwe odchylenia w zbiorach danych wykorzystywanych do szkolenia, walidacji i testowania tych metod mogą prowadzić do różnic w działaniu, które ostatecznie mogą sugerować tendencyjne wyniki wypadków i różne poziomy bezpieczeństwa. Na przykład niektóre wstępne badania wykazały wyraźne uprzedzenia w różnych metodach wykrywania pieszych w oparciu o zmienne takie jak wiek (dorosły/dziecko) i płeć (mężczyzna/kobieta) oraz odcień skóry (jasny/ciemny). Podczas korzystania z testu Caltech Pedestrian Detection Benchmark (patrz niżej) do szkolenia, walidacji i testowania różnych algorytmów wykrywania pieszych, w przypadku dzieci, psów i kobiet notowano wyższy wskaźnik chybień niż w przypadku dorosłych oraz mężczyzn (pieszych). Ponadto podczas korzystania z podzbioru zestawu danych BDD100K, najnowocześniejsze metody wykrywania obiektów wykazywały niższą precyzję w przypadku wyższych(według skali Fitzpatricka – patrz niżej)  typów skóry (ciemne) niż niższych typów skóry (jasne). Badania te są nadal wstępne i dotyczą tylko bardzo małej części problemu. Na przykład skupiają się tylko na problemie wykrywania. Jednak metody predykcyjnej percepcji, które modelują ludzkie zachowanie w celu przewidywania działań i ruchów, mogą zapewnić stronnicze wyniki w zależności od pochodzenia geograficznego i reprezentatywności różnych użytkowników i grup w zbiorach danych. Ponadto pomija się ważne zmienne, takie jak obecność grupowa lub indywidualna. Z drugiej strony dostępne badania skupiają się wyłącznie na pieszych. Błąd w wykrywaniu i przewidywaniu może również wystąpić w przypadku innych VRU (np. rowerzystów, motocyklistów, użytkowników wózków inwalidzkich itp.), ale może również wystąpić w przypadku pojazdów w zależności od zmiennych, takich jak kolor, rozmiar, typ itp. Silna zależność od danych w systemach wykrywania i predykcji oraz duża ilość zestawów danych, które są już dostępne w celu rozwiązania zadania dynamicznego wykrywania obiektów, sugerują, że potrzebna jest bardziej dogłębna analiza. Ponadto, ponieważ arbitralność w systemach postrzegania AV może mieć wpływ na bezpieczeństwo niektórych użytkowników dróg, którzy mogą być dyskryminowani w porównaniu z innymi, potrzeba więcej wysiłku ze strony społeczności naukowej, przemysłu i decydentów, aby posunąć tę kwestię dalej i szerzej.

„Nieuczciwe uprzedzenia” mogą również występować w warstwie interakcji z użytkownikiem. Interfejsy człowiek-pojazd mogą obejmować systemy rozpoznawania twarzy, rozpoznawania głosu, modelowania stanu behawioralnego i emocjonalnego, wykrywania stanu uwagi itp. Wszystkie te systemy są oparte na złożonych systemach sztucznej inteligencji opartej na danych, więc wszystkie zalecenia dotyczące projektowania zbiorów danych i systemów sztucznej inteligencji zmniejszających  poziom arbitralności mają zastosowanie do tej warstwy. Chociaż badanie zasad, które powinny rządzić interakcją człowiek-maszyna, było omawiane w społeczności HMI od ponad dwóch dekad (Amershi i in., 2019), a ostatnio pojawiły się postępy w opracowywaniu wytycznych i metod oceny projektowania HMI dla AV, badanie potencjalnego błędu w tym obszarze nie zostało jeszcze uwzględnione i będzie to ważny obszar badań w miarę rozwoju technologii.

Wreszcie, jak stwierdzono w jednym z zaleceń Grupy Ekspertów Komisji ds. kwestii etycznych związanych z mobilnością autnomiczną, oraz w odniesieniu do zasady uczciwości, należy zapobiegać dyskryminacyjnemu świadczeniu usług. Na przykład zapewnienie mobilności jako usługi (MaaS) z AV może wprowadzać różne stopnie schematów dyskryminacji cenowej w zależności od wielu czynników, takich jak miejsce pochodzenia i miejsce docelowe, pora dnia lub poziom popytu. Niniejszy raport sugeruje, że można nawet rozważyć system o różnym stopniu bezpieczeństwa (powyżej wymaganego minimum), wygodzie i wydajności w zależności od taryfy, na którą użytkownik może sobie pozwolić. Jak stwierdziła grupa ekspertów Komisji, przyszły rynek AV otwiera nowe możliwości zróżnicowanego dostarczania systemów, usług i produktów autonomicznej mobilności, które stwarzają ryzyko utrwalania i zwiększania nierówności między jednostkami i grupami w społeczeństwie. Aby uniknąć tej potencjalnej dyskryminacji, decydenci muszą ustanowić instytucje, które będą stale monitorować, oceniać i kierować producentami, programistami i usługodawcami.

Dodajmy, że Moral Machine to platforma internetowa, opracowana przez grupę Scalable Cooperation Iyada Rahwana w Massachusetts Institute of Technology, która generuje dylematy moralne i zbiera informacje o decyzjach podejmowanych przez ludzi w warunkach dylematu między dwoma destrukcyjnymi skutkami. Platforma jest pomysłem Iyada Rahwana i psychologów społecznych Azima Shariffa i Jean-Françoisa Bonnefona, którzy wpadli na ten pomysł przed publikacją swojego artykułu o etyce autonomicznych samochodów. Kluczowymi uczestnikami budowy platformy byli absolwenci MIT Media Lab Edmond Awad i Sohan Dsouza. Przedstawione scenariusze są często odmianami problemu z wózkiem, a zebrane informacje posłużą do dalszych badań dotyczących decyzji, jakie inteligencja maszyny musi podejmować w przyszłości. Na przykład, ponieważ sztuczna inteligencja odgrywa coraz większą rolę w technologii autonomicznej jazdy, projekty badawcze, takie jak Moral Machine, pomagają znaleźć rozwiązania dla trudnych decyzji dotyczących życia i śmierci, które staną przed pojazdami autonomicznymi. Projekt Moral Machine był aktywny od stycznia 2016 r. do lipca 2020 r., ale jest nadal dostępny na stronie internetowej twórców.

W ramach eksperymentu proszono widza o podjęcie decyzji w sprawie jednego scenariusza, w którym autonomiczny samochód miał uderzyć w przechodniów. Użytkownik mógł zdecydować, czy samochód zboczy, aby uniknąć zderzenia z przechodniami, czy pojedzie prosto, aby uratować życie, które przewozi. Uczestnicy mogli wykonać dowolną liczbę scenariuszy, jednak same scenariusze były  generowane w grupach po trzynaście. W ramach tych trzynastu grup jeden scenariusz był całkowicie losowy, podczas gdy pozostałe dwanaście było generowanych z przestrzeni w bazie danych zawierającej 26 milionów różnych możliwości. Były one zestawiane z dwoma dylematami skupionymi na każdym z sześciu wymiarów preferencji moralnych: płci, wieku postaci, sprawności fizycznej postaci, statusu społecznego postaci, gatunku charakteru i numeru postaci. Konfiguracja eksperymentu pozostawała taka sama w wielu scenariuszach, ale każdy scenariusz testował inny zestaw czynników. Przede wszystkim postacie biorące udział w scenariuszu były różne w każdym z nich, a były to: wózek, dziewczyna, chłopiec, kobieta w ciąży, lekarz, lekarka, sportowiec, kierownik, zawodniczka, kierowniczka, mężczyzna, duża kobieta, duży mężczyzna, bezdomny, staruszek, starsza kobieta, pies, przestępca , oraz kot. Dzięki takim, zróżnicowanym postaciom badacze byli w stanie zrozumieć, w jaki sposób wiele osób będzie oceniać scenariusze na podstawie zaangażowanych osób.

Analiza danych zebranych za pośrednictwem Moral Machine wykazała duże różnice we względnych preferencjach między różnymi krajami oraz korelacje między tymi preferencjami, a różnymi wskaźnikami krajowymi. Dane zostały zsyntetyzowane w ramach wspólnej analizy w celu obliczenia średniego efektu składowej marginalnej (AMCE) każdego atrybutu testowanego przez Maszynę Moralności. Atrybuty te testowały dziewięć czynników:

  • oszczędzenie ludzi (w porównaniu ze zwierzętami),
  • pozostawanie na kursie (w przeciwieństwie do zbaczania),
  • oszczędzenie pasażerów (w porównaniu z pieszymi),
  • oszczędzenie większej liczby żyć (w porównaniu z mniejszą liczbą żyć),
  • oszczędzenie mężczyzn (w porównaniu z kobietami),
  • oszczędzenie młodych (w porównaniu do osób starszych),
  • oszczędzenie pieszych, którzy przechodzą w prawidłowy sposób (w porównaniu ze spacerowiczami),
  • oszczędzenie osób o wyższym poziomie sprawności (w porównaniu z osobami o mniejszej sprawności) i
  • oszczędzanie osób o wyższym statusie społecznym (w porównaniu z niższym statusem społecznym).

Niektóre postacie posiadały inne atrybuty (takie jak ciąża, lekarz, przestępca itp.), które nie mieściły się w ramach powyższych testowanych czynnikach.

Jeśli chodzi o same wyniki to zauważono, że na całym świecie uczestnicy przedkładali ludzkie życie nad życie zwierząt, takich jak psy i koty. Chcieli oszczędzić więcej żyć niż mniej, a także bardziej chcieli oszczędzić życie młodsze niż starsze. Najczęściej oszczędzano niemowlęta, a najrzadziej koty. Jeśli chodzi o różnice płci, lekarze i starsi mężczyźni byli oszczędzeni częściej niż lekarki i starsze kobiety. Podczas gdy zawodniczki i większe kobiety był oszczędzane w większym stopniu niż sportowcy płci męskiej i więksi mężczyźni.

Dodajmy, że 21 czerwca 2017 r. weszła w życie w Niemczech Ustawa o zautomatyzowanej jeździe (Gesetz zum automatisierten Fahren, jako nowelizacja prawa o ruchu drogowym). Sednem zmiany przepisów były zmienione prawa i obowiązki kierowcy pojazdu w fazie zautomatyzowanej jazdy. Zmiany te oznaczają, że systemy automatyczne (poziom 3) mogą przejąć zadanie prowadzenia pojazdu w określonych warunkach. Kierowca jest wprawdzie nadal potrzebny, ale zarazem może odwrócić uwagę od sytuacji na drodze i od sterowania pojazdem w trybie automatycznym. Z kolei w 2021 roku, wraz z nową ustawą o autonomicznej jeździe stworzono ramy prawne, aby pojazdy autonomiczne (poziom 4) mogły jeździć w określonych obszarach eksploatacji po drogach publicznych w ramach normalnej eksploatacji - na terenie całego kraju. To sprawia, że Niemcy są pierwszym krajem na świecie, który wprowadza pojazdy bez kierowców z etapu badań do życia codziennego. Celem jest wprowadzenie do 2022 r. pojazdów z funkcjami autonomicznej jazdy do  regularnej eksploatacji. Prawo skupia się na elastyczności: eksploatacja bezzałogowych pojazdów silnikowych jest możliwa dla maksymalnej liczby scenariuszy zastosowań. Rozmaite zastosowania autonomicznych pojazdów nie są w przepisach z góry ostatecznie uregulowane, a tylko lokalnie ograniczone do określonego obszaru roboczego. Nie są zatem potrzebne: indywidualne zezwolenia, wyjątki i warunki, takie jak obecność kierowcy bezpieczeństwa, który jest zawsze gotowy do interwencji.

Scenariusze użycia obejmują:

  • ruch wahadłowy z punktu A do B,
  • przewóz osób (autobusy poruszające się po ustalonej trasie),
  • ruch Hub2Hub (np. między dwoma centrami dystrybucyjnymi),
  • oferty zorientowane na popyt poza godzinami szczytu,
  • przewóz osób i/lub towarów na pierwszej lub ostatniej mili,
  • „Pojazdy działające w dwóch trybach”, takie jak Automated Valet Parking (AVP).

Ustawa reguluje m.in. następujące kwestie:

  • Wymagania techniczne dotyczące budowy, jakości i wyposażenia pojazdów samochodowych z funkcjami jazdy autonomicznej,
  • Badanie i postępowanie w sprawie przyznania przez Federalny Urząd Transportu Samochodowego zezwolenia na prowadzenie pojazdów silnikowych z funkcją jazdy autonomicznej,
  • Przepisy dotyczące obowiązków osób zaangażowanych w eksploatację pojazdów silnikowych z funkcjami autonomicznej jazdy,
  • Przepisy dotyczące przetwarzania danych podczas eksploatacji pojazdów mechanicznych z funkcjami jazdy autonomicznej,
  • Umożliwienie (ponownej) aktywacji funkcji zautomatyzowanej i autonomicznej jazdy już homologowanych pojazdów silnikowych („funkcje spania”),

Ponadto ustawa dostosowuje i tworzy jednolite przepisy umożliwiające testowanie pojazdów zautomatyzowanych i autonomicznych. Wskazano też, że regulator oceni skutki prawa po zakończeniu 2023 r. – w szczególności z myślą o rozwoju autonomicznej jazdy i o aktualizacji przepisów międzynarodowych, a także w zgodności z przepisami o ochronie danych. O wynikach zostanie poinformowany niemiecki Bundestag.

Przypomnijmy, że skala Fitzpatricka (również test typowania skóry Fitzpatricka lub skala fototypowania Fitzpatricka) to numeryczny schemat klasyfikacji ludzkiego koloru skóry. Został opracowany w 1975 roku przez amerykańskiego dermatologa Thomasa B. Fitzpatricka jako sposób na oszacowanie reakcji różnych typów skóry na światło ultrafioletowe (UV). Początkowo został opracowany na podstawie koloru skóry, aby zmierzyć właściwą dawkę UVA do terapii PUVA, a gdy początkowe testy oparte tylko na kolorze włosów i oczu skutkowały zbyt wysokimi dawkami UVA dla niektórych, zmieniono je, aby opierać się na raporty pacjentów o tym, jak ich skóra reaguje na słońce; został również rozszerzony na szerszy zakres typów skóry. Skala Fitzpatricka pozostaje uznanym narzędziem do badań dermatologicznych nad pigmentacją ludzkiej skóry. Poniższa lista przedstawia sześć kategorii skali Fitzpatricka w odniesieniu do 36 kategorii starszej skali von Luschan (w nawiasach):

  • Typ I (oceny od 0 do 6) zawsze się pali, nigdy się nie opala (najbledszy; piegi)
  • Typ II (ocena 7–13) zwykle pali się, opala minimalnie (jasny, ale ciemniejszy niż jasny)
  • Typ III (od 14 do 20 punktów) czasami lekkie oparzenie, jednolicie opala (złoty miód lub oliwka)
  • Typ IV (ocena 21–27) pali się minimalnie, zawsze dobrze się opala (umiarkowany brąz)
  • Typ V (ocena 28–34) bardzo rzadko się pali, bardzo łatwo się opala (ciemnobrązowy)
  • Typ VI (ocena 35–36) nigdy się nie pali (głęboko pigmentowany ciemnobrązowy do najciemniejszego brązu)

Dodajmy też, że zbiór danych dla pieszych Caltech składa się z około 10 godzin wideo w rozdzielczości 640x480 30Hz, nagranego z pojazdu jadącego w normalnym ruchu ulicznym w środowisku miejskim. Adnotacjami opatrzono około 250 000 klatek (w 137 około minutowych segmentach) z łącznie 350 000, a także 2300 unikalnych pieszych. Adnotacja zawiera czasową zgodność między obwiedniami, a szczegółowymi etykietami okluzji.

Autor: Marcin Szponder

Autor: Marcin Szponder

Ekspert w obszarze regulacyjnym związany z branżą naftową, a także z Polskim Komitetem Normalizacyjnym