Aktualny

Bezpieczeństwo ogólne pojazdów autonomicznych

Autor: Marcin Szponder

Dodano: 6 lutego 2023
Od hamulców zależy bezpieczeństwo podróżnych

Raport stwierdza, że bezpieczeństwo ogólne jest najważniejszą zmienną przy przyjmowaniu POJAZDÓW AUTONOMICZNYCH. Zostało ono wyraźnie zidentyfikowane jako główna troska o akceptację użytkowników i jest to zdecydowanie najważniejszy wymóg dla twórców technologii i decydentów. Na przykład, jak stwierdziła Niemiecka Komisja Etyki ds. Zautomatyzowanej i Połączonej Jazdy w swoim raporcie z 2017 r., głównym celem częściowo i w pełni zautomatyzowanych systemów transportowych jest poprawa bezpieczeństwa wszystkich użytkowników dróg i ochrona osób. 

Ma to pierwszeństwo przed wszystkimi innymi względami utylitarnymi. Jednakże odpowiedź na stawiane przez niniejszy raport pytanie: na ile bezpieczne jest „wystarczająco bezpieczne” dla POJAZDÓW AUTONOMICZNYCH  pozostaje niepewna. Wyniki dostępnych badań pokazują wyraźną tendencję ze strony konsumentów, którzy uważają, że AV muszą być znacznie bezpieczniejsze niż przeciętny kierowca. Nie jest jednak jasne „o ile bezpieczniejsze” zaś podawane wartości oscylują od 75% do 90%, a w niektórych badaniach wskazywana jest nawet dwukrotność tego wskaźnika. Przy tym próg bezpieczeństwa, przy którym potencjalni użytkownicy byliby skłonni zaakceptować AV, może być ograniczony choćby z powodu różnych czynników psychologicznych, takich jak iluzoryczna wyższość (lub efekt „lepszy niż przeciętny”) i niechęć do algorytmów. W rzeczywistości, biorąc pod uwagę, że AV przynoszą również inne korzyści oprócz zwiększenia bezpieczeństwa, takie jak nowe usługi mobilności dla większej liczby osób lub uwalnianie miejskich przestrzeni publicznych, warto zapytać, czy byłoby możliwe zaakceptowanie wartości bezpieczeństwa równej tej dla przeciętnego kierowcy lub tylko trochę lepszej. Nawet 10-procentowy wzrost bezpieczeństwa w stosunku do przeciętnego kierowcy może oznaczać uratowanie setek tysięcy istnień ludzkich. Dlatego, zarówno dla przemysłu, jak i decydentów politycznych, może być wysoce wskazane, aby skalibrować komunikat o lepszym bezpieczeństwie, jakie mogą zapewnić AV, aby zrównoważyć uprzedzenia opinii publicznej.

Jednym z najważniejszych pytań w tym przypadku jest to, jak zmierzyć bezpieczeństwo pojazdów AV. Jednym z możliwych sposobów oceny bezpieczeństwa jest testowanie pojazdów AV w rzeczywistych warunkach drogowych, ocena ich wydajności pod kątem ofiar śmiertelnych i obrażeń oraz dokonywanie porównań statystycznych w odniesieniu do wydajności kierowcy. Jak wykazały dobrze znane badania (Kalra i Paddock, 2016), takie podejście jest niepraktyczne, ponieważ wymagałoby przejechania setek milionów, a nawet miliardów kilometrów AV, co zajęłoby dziesiątki, a nawet setki lat. Potrzebne są nowe innowacyjne metody oceny bezpieczeństwa funkcji jazdy automatycznej i autonomicznej.

Omawiany raport wskazuje, że bezpieczeństwo pojazdów konwencjonalnych jest certyfikowane za pomocą metod klasycznych, w których na torach testowych lub stanowiskach testowych przeprowadza się różne testy fizyczne w celu oceny wymaganego poziomu bezpieczeństwa przy użyciu różnych kryteriów wydajności. Podejścia te są tradycyjnie stosowane do homologacji typu pojazdu (homologacji) lub procedur samocertyfikacji (Martins, 2010) i są dobrze dostosowane do komponentów, systemów i pojazdów o ograniczonej złożoności i ograniczonych interakcjach z innymi podmiotami. Jednak wraz ze wzrostem złożoności komponentów, systemów lub pojazdów (np. od tradycyjnego hamowania do systemów przeciwblokujących lub elektronicznej kontroli stabilności), klasyczne podejścia nie są w stanie poradzić sobie ze wszystkimi istotnymi obszarami bezpieczeństwa ze względu na dużą zmienność potencjalnych scenariuszy. Doprowadziło to do wprowadzenia zorientowanych na bezpieczeństwo i opartych na symulacji audytów, jako sposobu uzupełnienia fizycznych testów systemów. Wraz z wprowadzeniem wspomaganych, zautomatyzowanych i autonomicznych systemów jazdy ogólna złożoność wzrosła pod względem liczby funkcji oprogramowania, wariantów scenariuszy i interakcji oraz potencjalnie dotkniętych obszarów bezpieczeństwa.

W tej sytuacji potrzebne są nowe podejścia do certyfikacji, nie tylko dla przyszłych regulacji  dotyczących bezpieczeństwa pojazdów, ale także dla ocen w ramach obecnych procedur wyłączeń. Kilka krajowych i międzynarodowych inicjatyw i projektów regulacyjnych i normalizacyjnych zostało już podjętych, aby rozwiązać ten problem. Jedna z najbardziej solidnych propozycji regulacyjnych jest opracowywana przez Grupę Roboczą ds. Pojazdów Zautomatyzowanych/Autonomicznych i Połączonych (GRVA) Światowego Forum EKG ONZ ds. Harmonizacji Przepisów dotyczących Pojazdów (WP.29). Zgodnie z tym samym podejściem, które jest obecne w projektach takich jak AdaptIVe lub PEGASUS, GRVA proponuje ramy testowe oparte na trzech głównych filarach, które należy oceniać łącznie.

  • Po pierwsze, audyt i ocena opierają się głównie na symulacji, aby uwzględnić wszystkie rodzaje scenariuszy, ale w szczególności scenariusze skrajnych przypadków, które są trudne do zrealizowania w ruchu drogowym w świecie rzeczywistym. Oprócz tradycyjnych metod symulacji opartych na oprogramowaniu w pętli (SIL), można również zidentyfikować bardziej wyrafinowane podejścia oparte na sprzęcie w pętli (HIL), a nawet pojazd w pętli (VIL), takie jak platforma testowa zaproponowana w projekcie ENABLES3 (projekt ENABLE-S3, 2019), aby połączyć zarówno symulację, jak i pojazdy gotowe do jazdy za pomocą hamowni podwoziowej i na stanowisku testowym układu napędowego.
  • Po drugie, testy fizyczne mające na celu ocenę scenariuszy krytycznych, przeprowadzane w kontrolowanych środowiskach na torach testowych (drogi zamknięte) z wykorzystaniem zaawansowanego sprzętu, takiego jak lekki pojazd globalny (Euro NCAP, 2018), manekin pieszego (ACEA, 2015) i rowerzysty (ACEA, 2018).
  • I wreszcie, co nie mniej ważne, jazda próbna w świecie rzeczywistym, która jest opracowywana jako „test prawa jazdy” dla zautomatyzowanych i autonomicznych systemów jazdy w celu oceny ogólnych możliwości i zachowania pojazdu w niesymulowanym ruchu drogowym na drogach publicznych/otwartych.

Wedle raportu powyższe podejście, oparte na wdrożeniu tych trzech filarów, zostało niedawno przyjęte przez ONZ w celu uregulowania zatwierdzania automatycznych systemów utrzymania pasa ruchu (ALKS) (UNECE WP.29 GRVA, 2021c). Chociaż większość podejść traktuje przypadek symulacji VIL jako podgrupę podejść opartych na symulacji, można ją również rozpatrywać oddzielnie jako podejście pośrednie między czystą symulacją (SIL) a testowaniem fizycznym na zamkniętych drogach. Te cztery podejścia mają i mocne i słabe strony, dlatego ważne jest, aby wdrożyć je holistycznie (UNECE WP29 GRVA, 2019). Z drugiej strony metody są w pewnym sensie komplementarne. Na przykład, chociaż testowanie oparte na symulacjach pozwala na pełną kontrolę, powtarzalność i zmienność w bardzo efektywny sposób, wykazują one bardzo niską szczegółowość i brak dostatecznego przełożenia na zachowania w świecie rzeczywistym. Można też zwiększyć dokładność kosztem rosnącej złożoności (tym samym zmniejszając wydajność): od symulacji VIL po testy fizyczne na zamkniętych torach. Problemem pozostaje jednak brak rzeczywistych zachowań, który tylko częściowo można zrekompensować testowaniem w rzeczywistych warunkach drogowych (na otwartych drogach).

Wedle autorów raportu inna istotna zmienna odnosi się do stopnia, w jakim można zoptymalizować funkcje jazdy i konkretne scenariusze, które mogą być postrzegane przez producentów OEM jako przekraczające wydajności ich systemów do scenariuszy testowych. Ma to negatywny wpływ na ewentualną dokładność testów, podczas gdy wydajność systemów w rzeczywistym ruchu pozostaje nieznana. Ogólnie rzecz biorąc, jeżeli warunki symulacji (lub fizyczne warunki badania na zamkniętych torach, albo na poligonie lub na obszarze badań w rzeczywistym ruchu drogowym), są znane a priori, wszystkie metody badań mogą potencjalnie podlegać nadmiernemu przeciążeniu. Mimo to istnieją pewne różnice. Na przykład, z jednej strony, niekontrolowane warunki testów na drogach publicznych sprawiają, że metoda ta jest mniej podatna na przeciążenie. Z drugiej strony niska zmienność oraz ścisłe warunki kontroli i powtarzalności scenariuszy w certyfikacji fizycznej na drogach zamkniętych są sprzyjającymi warunkami dla dostosowywania systemów do proponowanych scenariuszy. Bliższe przyjrzenie się różnym metodom pokazuje, że komplementarność jest ograniczona, ponieważ scenariusze, do których odnosi się każde podejście, mają inny charakter. Ponadto obecne podejścia do testowania nie pozwalają na ocenę bezpieczeństwa za pomocą rzeczywistych zachowań w przypadkach krytycznych i skrajnych. Jest to szczególnie istotne w przypadku zautomatyzowanych i autonomicznych funkcji jazdy, które wykorzystują percepcję predykcyjną, tj. systemy, które uczą się i modelują zachowania i interakcje agentów ruchu, aby przewidywać przyszłe działania i ruchy, które należy uwzględnić w warstwie planowania ścieżki. Oczekuje się, że te systemy predykcyjne sprawią, że autonomiczna jazda stanie się bardziej podobna do jazdy ręcznej, zwiększając marginesy bezpieczeństwa, zmniejszając ryzyko oraz zapewniając płynniejsze i bardziej akceptowalne trajektorie ruchu.

Ogólnie rzecz biorąc, możemy zidentyfikować następujące wyzwania związane z uwzględnieniem wiarygodnych wymagań dotyczących sztucznej inteligencji i ulepszeniem systemów certyfikacji bezpieczeństwa dla AV:

  • Uwzględnienie rzeczywistych zachowań zarówno w symulacji, jak i testach fizycznych. Raport wskazuje, że korzystanie z immersyjnej rzeczywistości wirtualnej może być dobrym wyborem, aby dodać realistyczne zachowania do symulowanych środowisk. W przypadku testów fizycznych na zamkniętych drogach manekiny pieszych przegubowe powinny być jeszcze bardziej wyrafinowane (chodzi tu w szczególności o bardziej realistyczne ruchy głowy i język ciała). Zachowania pojazdu, celów rowerzystów i pieszych powinny być oparte na rzeczywistych zachowaniach reprezentatywnych dla konkretnego scenariusza, połączonych ze zmiennymi wpływającymi na zachowanie uczestników ruchu, takimi jak układ ulic, warunki ruchu itp.
  • Zwiększanie zmienności za pomocą losowych warunków początkowych w testach fizycznych. Jeśli zaakceptowane (jako akceptowalną metodę oceny bezpieczeństwa zautomatyzowanych i autonomicznych systemów jazdy)  zostaną otwarte testy drogowe, gdzie sterowność i powtarzalność nie są możliwe można wprowadzić losowe warunki początkowe w różnych scenariuszach, aby zwiększyć zmienność i uniknąć przesadnego testowania, kosztem malejącej powtarzalności. Testy z losowymi warunkami początkowymi mogą być uzupełnieniem dla aktualnie stosowanych testów ze stałymi warunkami początkowymi.
  • Wprowadzenie wymagań dotyczących certyfikacji cyberbezpieczeństwa. Chodzi o uwzględnianie różnych rodzajów cyberataków, zarówno zewnętrznych (czujniki, komunikacja i fizyczne przeciwieństwa), jak i wewnętrznych (sieci w pojazdach i ECU) oraz o ocenę reakcji systemów.
  •  Opracowanie  nowych scenariuszy oceny ludzkiej agencji i kryteriów nadzoru. Chodzi o włączenie nowych scenariuszy i metryk, aby móc ocenić stopień zrozumienia decyzji przez użytkowników. Ponadto istotne są nowe podejścia do wprowadzenia większej różnorodności użytkowników końcowych w środowisku symulacyjnym lub w testach fizycznych, aby ocenić potencjalną arbitralność systemów zautomatyzowanych i autonomicznych.

Przypomnijmy, że wedle Komisji Europejskiej Europejska inicjatywa umożliwiająca walidację wysoce zautomatyzowanych bezpiecznych i bezpiecznych systemów (European Initiative to Enable Validation for Highly Automated Safe and Secure Systems, projekt ENABLE-S3) utoruje drogę do przyspieszonego stosowania wysoce zautomatyzowanych i autonomicznych systemów w dziedzinie mobilności w dziedzinie motoryzacji, lotnictwa, kolei i transportu morskiego, a także w dziedzinie opieki zdrowotnej. Wirtualne testowanie, weryfikacja i metody wyboru testów umożliwią walidację przy rozsądnym wysiłku. Powstałe ramy walidacji zapewnią Europie konkurencyjność przemysłu w globalnym wyścigu zautomatyzowanych systemów o oczekiwanym potencjale rynkowym 60 mld EUR w 2025 r. Wyniki projektu zostaną wykorzystane do zaproponowania znormalizowanych procedur walidacji dla wysoce zautomatyzowanych systemów (ACPS).

Cele techniczne, do których się odnosi Komisja i projekt to:

1. Zapewnienie ram testowania i walidacji, które udowadniają funkcjonalność, bezpieczeństwo i ochronę ACPS przy o co najmniej 50% mniejszym nakładzie pracy przy testowaniu niż jest to wymagane w klasycznym testowaniu.

2. Promowanie nowej techniki testowania zautomatyzowanych systemów z fizycznymi generatorami bodźców sygnałowych, co zostanie zademonstrowane dla co najmniej 3 fizycznych generatorów bodźców.

3. Znaczące podniesienie poziomu niezawodności zautomatyzowanych systemów dzięki zapewnieniu holistycznej platformy testowo-walidacyjnej oraz systematycznych środków pokrycia, które zmniejszą prawdopodobieństwo nieprawidłowego zachowania zautomatyzowanych systemów.

4. Zapewnienie środowiska walidacji do szybkiej ponownej kwalifikacji, które umożliwi ponowne wykorzystanie scenariuszy walidacji na co najmniej 3 etapach rozwoju.

5. Ustanowienie otwartych standardów w celu przyspieszenia przyjęcia nowych narzędzi i metod walidacji dla ACPS.

6. Włączenie bezpiecznych, bezpiecznych i funkcjonalnych ACPS w wielu domenach.

7. Stworzenie ekosystemu do walidacji i weryfikacji zautomatyzowanych systemów w przemyśle europejskim. ENABLE-S3 jest silnie napędzany przez przemysł. Komisja stwierdza, że realistyczne i odpowiednie przemysłowe przypadki zastosowania inteligentnej mobilności i inteligentnego zdrowia określą wymagania, które należy uwzględnić, i ocenią korzyści z postępu technologicznego.

Dodajmy także, że hamownia podwoziowa to funkcjonalne stanowisko testowe dla pojazdów, w którym pomiar wydajności odbywa się poprzez przeniesienie kół na rolkę. Siłę napędową lub hamującą mierzy się zwykle na kole. Ponieważ pojazd jest przymocowany do hamowni podwoziowej, uniemożliwia to zmiennym, takim jak opór wiatru, zmianę zestawu danych. Hamownię podwoziową zaprojektowano tak, aby suma wszystkich sił działających na pojazd poruszający się po rzeczywistym torze drogi była symulowana przez opony i obliczana w wynikach badań. Rosnący opór powietrza wraz z prędkością na drodze objawia się wzrostem siły hamowania kół pojazdu. Celem jest sprawienie, aby pojazd na hamowni przyspieszał i zwalniał w taki sam sposób, jak na prawdziwej drodze. Najpierw należy poznać parametry „zachowania” pojazdu na prawdziwej drodze. Aby uzyskać "parametry drogi", pojazd musi jechać po idealnie płaskiej drodze bez wiatru z dowolnego kierunku, bieg ustawiony musi być na luz, a czas potrzebny do zwolnienia bez hamowania mierzony jest w określonych odstępach czasu, np. 100–90 km/h, 90–80 km/h, 80–70 km/h 70–60 km/h itd. Zwalnianie z większej prędkości trwa krócej głównie ze względu na opór powietrza. Parametry te są później ustawiane na stanowisku dynamometru wraz z bezwładnością pojazdu. Pojazd jest unieruchomiony i należy wykonać tzw. adaptację pojazdu. Podczas adaptacji pojazdu hamownia automatycznie zwalnia od zadanej prędkości, zmieniając własne "parametry hamowni" i starając się uzyskać takie same spowolnienia w określonych odstępach czasu jak na prawdziwej drodze. Parametry te obowiązują wówczas dla tego typu pojazdu. Zmiana zadanej symulowanej bezwładności umożliwia zaś symulację zdolności przyspieszania pojazdu w pełni obciążonego: przy ustawieniu gradientu można zasymulować siłę przy zjeżdżaniu pojazdu itp. Istnieje hamownia podwoziowa dla komory klimatycznej, w której możliwa jest zmiana temperatury w zakres tj. -40 do +50 °C lub komora wysokościowa, w której możliwe jest sprawdzenie zużycia paliwa przy różnych temperaturach lub ciśnieniu oraz symulacja jazdy po górskich drogach.

Warto też nadmienić, że 42 kraje uzgodniły jednolite wymagania homologacji typu dla funkcji zautomatyzowanej jazdy (poziom 3 SAE), przyjmując obowiązujące na całym świecie przepisy dotyczące zautomatyzowanych systemów utrzymywania pasa ruchu. Oznacza to, że producenci dysponują wiarygodnymi przepisami EKG ONZ (Europejskiej Komisji Gospodarczej Organizacji Narodów Zjednoczonych), które wspomagają ich w opracowywaniu funkcji zautomatyzowanej jazdy na wszystkich rynkach o znaczeniu międzynarodowym. Przepisy EKG ONZ określają ścisły zestaw kryteriów dla samochodów osobowych, regulujących sposób działania zautomatyzowanych systemów utrzymywania pasa ruchu.

Oprócz rozporządzenia ALKS, EKG ONZ przyjęła również regulacje dotyczące cyberbezpieczeństwa i aktualizacji oprogramowania. Wprowadzenie tych trzech regulaminów EKG ONZ daje producentom OEM i producentom pojazdów jasne ramy dla zapewnienia samochodom pomocy w utrzymaniu pasa ruchu na poziomie 3 SAE.

Kluczowe założenia regulaminu EKG ONZ dla ALKS obejmują:

  • Produkty ALKS są ograniczone do samochodów osobowych z maksymalnie ośmioma miejscami siedzącymi plus kierowca i obejmują tylko pojazdy o maksymalnej prędkości 60 km/h dla systemów ALKS.
  • System ALKS może kontrolować boczne i wzdłużne ruchy pojazdu na drogach przypominających autostrady.
  • Kierowcy nie muszą już trzymać rąk na kierownicy ani w inny sposób okazywać uważności (choć liczne zapisy w rozporządzeniu odnoszą się do monitorowania zachowania kierowców).
  • Kierowcy powinni być w stanie przejąć kontrolę w określonym czasie, jeśli zostanie o to poproszony przez system utrzymywania pasa ruchu.

Przestrzeganie przepisów EKG ONZ dotyczących ALKS umożliwi producentom OEM i producentom pojazdów legalne dostarczanie klientom systemów ALKS. Po wykazaniu zgodności ALKS, producenci będą mogli sprzedawać samochody z automatycznymi systemami utrzymywania pasa ruchu na niektórych z największych światowych rynków motoryzacyjnych. Samochody z systemami utrzymania pasa ruchu są dostępne od kilku lat. Jednak do czasu wprowadzenia regulaminów EKG ONZ nie istniało międzynarodowe znormalizowane podejście do bardziej zautomatyzowanych systemów SAE poziomu 3. Przepisy EKG ONZ dla ALKS oznaczają, że OEM i producenci pojazdów mogą wdrażać zautomatyzowany system jazdy w pojazdach seryjnych.

Dodajmy, że pojęcie immersja opisuje efekt wywoływany przez środowisko wirtualnej rzeczywistości (VR), który powoduje, że świadomość użytkownika narażenia na iluzoryczne bodźce schodzi na dalszy plan do tego stopnia, że środowisko wirtualne jest odbierane jako realne. Jeśli stopień zanurzenia jest szczególnie wysoki, stosuje się również termin „obecność”. W przeciwieństwie do pasywnej, kinowej immersji, rzeczywistość wirtualna pozwala na interakcję ze środowiskiem wirtualnym, co oznacza, że można osiągnąć znacznie większą intensywność immersji. O immersyjnym środowisku wirtualnym mówi się wtedy, gdy użytkownik może bezpośrednio wchodzić z nim w interakcję. Przykładem takiego systemu jest CAVE z odpowiednim sprzętem interakcyjnym. Kontrastuje to z nieimmersyjną rzeczywistością wirtualną, m.in. B. w systemie CAD 3D obsługiwanym na komputerze PC. Według Ernesta W. Adamsa immersję można podzielić na trzy główne kategorie:

  • Zanurzenie taktyczne: Zanurzenie taktyczne jest doświadczane podczas wykonywania operacji dotykowych, które wymagają umiejętności. Uczestnicy mają poczucie bycia „w strefie”, doskonaląc działania, które owocują sukcesem.
  • Immersja strategiczna: Immersja strategiczna jest bardziej mózgowa i wiąże się z wyzwaniem umysłowym. Szachiści doświadczają strategicznej immersji przy wyborze właściwego rozwiązania spośród szerokiej gamy możliwości.
  • Immersja narracyjna: Immersja narracyjna ma miejsce, gdy gracze zainwestują w historię i przypomina to, czego doświadczają podczas czytania książki lub oglądania filmu.

Staffan Björk i Jussi Holopainen we wzorach Patterns In Game Design dzielą immersję na podobne kategorie, ale nazywają je odpowiednio immersją sensoryczno-motoryczną, immersją poznawczą i immersją emocjonalną. Oprócz tego dodają nową kategorię: immersję przestrzenną, która ma miejsce, gdy uczestnik czuje, że symulowany świat jest percepcyjnie przekonujący. Uczestnik czuje, że jest naprawdę „tam” i że symulowany świat wygląda i czuje się „prawdziwy”.

„Obecność” to zaś termin wywodzący się ze skrócenia oryginalnej „teleobecności”. Jest zjawiskiem umożliwiającym ludziom interakcję i poczucie połączenia ze światem poza ich fizycznymi ciałami za pomocą technologii. Definiuje się ją jako subiektywne odczucie przebywania osoby w scenie przedstawionej przez medium, zwykle o charakterze wirtualnym. Większość projektantów skupia się na technologii wykorzystywanej do tworzenia wirtualnego środowiska o wysokiej wierności; jednak należy również wziąć pod uwagę czynniki ludzkie zaangażowane w osiągnięcie stanu obecności. To subiektywne postrzeganie, chociaż generowane przez i/lub filtrowane przez technologię stworzoną przez człowieka, ostatecznie determinuje pomyślne osiągnięcie obecności. Okulary rzeczywistości wirtualnej mogą wywoływać instynktowne wrażenie przebywania w symulowanym świecie, formę zanurzenia w przestrzeni zwanej Obecnością.

Michael Abrash wygłosił wykład na temat VR na Steam Dev Days w 2014 roku. Według zespołu badawczego VR w Valve, do ustanowienia obecności potrzebne są wszystkie poniższe elementy.

  • Szerokie pole widzenia (80 stopni lub lepsze)
  • Odpowiednia rozdzielczość (1080p lub lepsza)
  • Niska trwałość pikseli (3 ms lub mniej)
  • Wystarczająco wysoka częstotliwość odświeżania (>60 Hz, wystarczy 95 Hz, ale mniejsza może być wystarczająca)
  • Globalny wyświetlacz, w którym wszystkie piksele są podświetlone jednocześnie (przesuwający się wyświetlacz może działać ze śledzeniem ruchu gałek ocznych).
  • Optyka (maksymalnie dwie soczewki na oko z kompromisami, idealna optyka niepraktyczna przy obecnej technologii)
  • Kalibracja optyczna
  • Niezawodne śledzenie — przesunięcie z dokładnością do milimetra lub lepszą, orientacja z dokładnością do ćwierć stopnia lub lepszą i objętość 1,5 metra lub więcej z boku
  • Niskie opóźnienie (20 ms ruchu do ostatniego fotonu, 25 ms może wystarczyć)

Dodajmy także, że w komputerach i sieciach komputerowych cyberatak jest próbą ujawnienia, zmiany, zakłócenia, zniszczenia, usunięcia w celu uzyskania nieautoryzowanego dostępu lub użycia zasobu. Cyberatak lub atak komputerowy to każdy ofensywny manewr umyślnego wyzysku, którego celem jest przejęcie kontroli, destabilizacja lub uszkodzenie systemu komputerowego (komputera, sieci prywatnej itp.). Atakujący to osoba lub organizacja usiłująca zdobyć kontrolę systemu komputerowego w celu wykorzystania go do złośliwych celów, kradzieży informacji lub wyrządzenia szkody celowi. Cyberatak wykorzystuje złośliwe kody do uszkodzenia kodów, prywatnych danych lub algorytmów, generując konsekwencje, które zagrażają i naruszają bezpieczeństwo systemów informatycznych. Niektóre cyberataki, w zależności od tego, gdzie, dla kogo lub kiedy użyte, są częścią cyberwojny lub ataku cyberterrorystycznego. Obecnie ataki są bardziej wyrafinowane i jeszcze bardziej pomysłowe.

Istnieją różne rodzaje ataków komputerowych, niektóre z nich to:

  • Atak typu „odmowa usługi”, zwany również atakiem DoS (Denial of Service), to atak na system komputerowy lub sieć, który powoduje, że usługa lub zasób jest niedostępny dla uprawnionych użytkowników, co zwykle powoduje utratę łączności sieciowej, przepustowości sieci ofiary lub przeciążenie zasobów obliczeniowych systemu ofiary.
  • Atak łańcucha dostaw. Polega na włamaniu do zewnętrznych dostawców usług cyfrowych (dostawców usług internetowych, dostawców usług telekomunikacyjnych, dostawców oprogramowania, zewnętrznych dostawców usług, dostawców sprzętu itp.) i użyciu jako narzędzia do infiltracji docelowej organizacji.
  • Atak „ u wodopoju”. Jest to strategia ataku na organizacje, w której atakujący infekuje złośliwym oprogramowaniem witryny internetowe stron trzecich, które są powszechnie wykorzystywane przez użytkowników organizacji. W ten sposób, gdy użytkownicy organizacji uzyskują dostęp do tej witryny, zostają zainfekowani.
  • Atak typu man-in-the-middle, czasami w skrócie MitM, to sytuacja, w której atakujący monitoruje (zwykle poprzez sniffing portu) komunikację między dwiema stronami i fałszuje ją, aby podszywać się pod jedną z nich.
  • Ataki polegające na ponownym wstrzyknięciu to forma ataku sieciowego, w którym prawidłowa transmisja danych jest powtarzana lub opóźniana w złośliwy lub oszukańczy sposób. Dokonuje tego autor lub atakujący, który przechwytuje informacje i retransmituje je, prawdopodobnie w ramach zamaskowanego ataku.
  • Atak zero-day, atak przeprowadzony na komputer, w którym wykorzystuje się określone luki w zabezpieczeniach, luki w zabezpieczeniach programu lub programów, zanim zostaną one poznane, lub też wchodzi w grę przeprowadzenie ataku przed opublikowaniem łatki dla istniejącej luki, która tą lukę zamyka
Autor: Marcin Szponder

Autor: Marcin Szponder

Ekspert w obszarze regulacyjnym związany z branżą naftową, a także z Polskim Komitetem Normalizacyjnym