sztuczna inteligencja

cover

Niezawodność, plany awaryjne i odtwarzalność sztucznej inteligencji w automobilności 

Na przykład protokoły testowe dla systemów AEB (Euro NCAP, 2021), są opracowywane w celu stworzenia znormalizowanego zestawu warunków, który umożliwiłby obiektywną, powtarzalną i odtwarzalną ocenę wspomnianych wcześniej systemów AEB. Jeśli zaś chodzi o plany awaryjne, jak opisano w normie SAE International, w zależności od poziomu automatyzacji, po wystąpieniu awarii systemu związanej z wydajnością dynamicznego zadania jazdy (DDT) lub po wyjściu z domeny projektowania operacyjnego (ODD), muszą być wprowadzone odpowiednie mechanizmy w celu umożliwienia (rezerwowemu) kierowcy wznowienia sterowania ręcznego (poziomy 1, 2 i 3) lub nadania automatycznemu układowi jazdy zdolności do osiągnięcia stanu minimalnego ryzyka (poziomy 4 i 5). Raport wskazuje, że standard SAE International nie definiuje wymagań i kryteriów akceptacji tego, co jest warunkiem minimalnego ryzyka. Biorąc pod uwagę różnorodność warunków drogowych, absolutnego „minimum” nie można ustalić poza ściśle określonym scenariuszem lub zestawem okoliczności. Warunki te będą zależeć od rodzaju awarii, przypadku użycia i konkretnego scenariusza, co pociąga za sobą ogromną zmienność. W rzeczywistości liczba prac badawczych związanych ze strategiami awaryjnymi w celu osiągnięcia warunków minimalnego ryzyka w jeździe zautomatyzowanej i autonomicznej jest nadal bardzo ograniczona. Podobnie stan postępów w zakresie procedur testowania służących do oceny bezpieczeństwa planów awaryjnych jest wciąż w powijakach i wymaga nowych propozycji i podejść.

1

Nadzór ludzki nad pojazdami autonomicznymi

W zależności od poziomu współpracy człowieka z systemami autonomicznymi lub na podstawie wymagań dotyczących monitorowania i działania (stopień zaangażowania) nałożonych na ludzi można zdefiniować trzy główne kategorie:

1. Human-in-the-loop: system autonomiczny, wykonuje niektóre zadania przez pewien czas, ale oczekuje na ludzkie polecenia przed kontynuowaniem. Człowiek-operator musi być na stałe połączony z systemem autonomicznym, a zdolność autonomiczna jest ograniczona do niektórych zadań.

2. Human-on-the-loop: system autonomiczny może wykonywać niektóre zadania całkowicie i niezależnie, ale ma człowieka w roli monitorującej lub nadzorczej, z możliwością ingerencji w przypadku awarii systemu. Kategoria ta opisuje sytuację, w której operator ludzki dowodzi systemami autonomicznymi i istnieje pewna współpraca w celu osiągnięcia celów, podczas gdy pewna krytyczna decyzja musi zostać podjęta przez operatora i nie może być podjęta autonomicznie.

3. Human-out-of-the-loop: każda decyzja jest podejmowana przez system autonomiczny. W tym przypadku ludzi nie można nazwać „operatorami”.

Definicje te, pochodzące od społeczności badaczy interakcji człowiek-maszyna, opierają się na wyższym poziomie abstrakcji stopnia zaangażowania człowieka w pętlę interakcji człowiek-maszyna. Możliwe jest przełożenie i zaadaptowanie tych pojęć (wykorzystywanych w kryterium CR1.7) do obszaru jazdy autonomicznej.