Funkionelle Sicherheit & KI | Hella auf der TechAD 2018
Auf der Tech AD Konferenz 2018 von WeConect haben die beiden Forschenden von Hella ihre Einsichten zum Thema KI und Sicherheitsüberprüfungen zum besten gegeben.
Die beiden Hella Angestellten, Stefan Schinzer und Rafal Dorociak, gaben auf der Tech AD in Berlin Einblicke in ihre Arbeit.
Auch in diesem Beitrag verweist man darauf, dass die Sicherheitsnorm ISO 26262 sich zwar gut etabliert hat in der Autoindustrie, es jedoch noch nicht auf moderne Technik angepasst ist. Das gilt vor allem für die Künstliche Intelligenz (KI), das man auch maschinelles Lernen oder Deep Learning nennt.
Für die Performanzchecks erarbeitet die ISO Gruppe Spezifikationen bezüglich der Risikoanalyse. Dabei setzt man auf SOTIF und das steht dabei für Safety Of The Intended Functionality.
Die Problematik spielt sich dabei im Verhältnis von Deterministik, Wahrscheinlichkeit und maschinellem Lernen ab. Ein deterministisches System, wie es normalerweise genutzt wird, ist regelbasiert und die eingehenden Daten können eine Fehlertoleranz aufweisen. Ein Beispiel ist das ESP, die Servolenkung. Bei einem probabilistischen System, das die Wahrscheinlichkeit abdeckt, hat man zu korrigierendes Datenrauschen und die Evaluierung ist ebenfalls regelbasiert. Ein Beispiel dafür wäre der Radar.
Beim maschinellen Lernen, also der KI, braucht man eine Vielzahl von Daten in guter Qualität und die Parameter für die Algorithmen. Das Ergebnis hat eine nominale Leistung. Ein Beispiel dafür ist die Bilderkennung via Kamera.
Die Schritte bei der funktionellen Sicherheitsüberwachung sind, dass der Input (Simulation, Testszenarien und Fahrten durch die echte Welt) trainiert werden. Per Algorithmen wird die Konfiguration geändert und verifiziert. Die abgekürzte Version ist die Datenbank, welche durch die KI gelabelt wird. In beiden Fällen wird das Ergebnis evaluiert.
Dabei ist in der ISO 26262 vieles nicht abgedeckt bzw. ausgenommen. Das SOTIF Programm erweitert die ISO, aber immernoch ist das Training außen vor. Gerade die Independenzen (gegenseitige Abhängigkeiten) sollen bezüglich der Systemausfälle vermeiden helfen.
Dazu muss die Abdeckung in der Datenbank auch gewährleistet sein, sowie die Aktualität der Daten. Statt dem Labelling schlägt man vor: Nochmalige Durchsicht der Daten, Redundantes Labelling durch unabhängiges Personal und verschiedene Algorithmen.
Eine künftige ISO 26262 Norm sollte systematische Ausfälle bei der KI beinhalten. Zudem braucht es neue Forschungen dazu.