Künstliche Intelligenz als Bestandteil von sicherheitsrelevanten Systemen?


Künstlich intelligente Systeme machen auf dem Weg von der Vision zur realen Verwendung kontinuierlich Fortschritte. Daher soll mit diesem Beitrag ein Blick in die Zukunft von sicherheitsrelevanten Embedded Systemen geworfen und erörtert werden, ob der Einsatz von künstlicher Intelligenz auch im sicherheitsrelevanten Bereich denkbar wäre bzw. welche Hürden hier genommen werden müssen.

Was zeichnet künstlich Intelligente Systeme aus?

„Künstliche Intelligenz befasst sich mit der Automatisierung intelligenten Verhaltens. Der Begriff ist insofern nicht eindeutig abgrenzbar, als es bereits an einer genauen Definition von Intelligenz mangelt. Im Allgemeinen bezeichnet künstliche Intelligenz den Versuch, Maschinen und Computer so zu bauen oder programmieren, dass sie eigenständig Probleme bearbeiten können.“ (s. Wikipedia)

Funktionale Sicherheitsnormen und intelligente Systeme - Passt das?

Für den Einsatz im sicherheitsrelevanten Bereich müssen solche Systeme die Forderungen von Normen wie IEC 61508, ISO 26262, EN 5012x oder DO-178 erfüllen. Aber ist das überhaupt möglich? Die IEC 61508 und die EN 50128 (Bahn) sind hier eindeutig: In beiden Normen wird künstliche Intelligenz explizit als nicht zu empfehlende Technik/Maßnahme benannt (IEC 61508 Tabelle A2-5, EN 50128 Tabelle A3-13).

In der ISO 26262 (Automobil) und im DO-178 (Luftfahrt) hingegen gibt es keine direkte Aussage zum Einsatz künstlicher Intelligenz. Hier ist der Einsatz solcher Systeme letztlich aber ebenfalls nicht möglich, da künstlich intelligente Systeme das Grundprinzip des deterministischen Verhaltens eines Systems nicht einhalten (können). Dieses Grundprinzip gilt bisher in der Funktionalen Sicherheit als nicht verhandelbar. Andererseits ist kein künstlich intelligentes System denkbar, welches dieses Prinzip einhalten könnte. Der Einsatz von künstlicher Intelligenz scheint daher in diesen Bereichen beinahe unmöglich.

Fazit

Was kann also unter diesen schwierigen Bedingungen getan werden?

Mir persönlich ist bisher industrieübergreifend kein Ansatz bekannt, der versucht, diese Hürde zu überwinden. Andererseits ist mir auch noch kein serienreifes, künstlich intelligentes Produkt geläufig, welches im sicherheitsrelevanten Bereich eingesetzt werden könnte.

Trotzdem ist es im Bereich des autonomen Fahrens sicherlich denkbar, dass künstlich intelligente Systeme zum Einsatz kommen könnten. Daher ist der jetzige Zeitpunkt ideal, um hierfür Lösungen zu erarbeiten. Wenn man die Prinzipien, Methoden und Maßnahmen aller aktuellen funktionalen Sicherheitsnormen betrachtet, wird man feststellen, dass deren Ursprünge 20 – 30 Jahre zurück reichen. Die Gedankenspiele rund um künstlich intelligente Systeme zeigen jedoch, dass diese Prinzipien, Methoden und Maßnahmen ergänzt oder teils sogar ersetzt werden sollten. Es ist also notwendig, sie in Frage zu stellen und nach verantwortbaren Alternativen zu suchen. Multicore Prozessoren - also Mikroprozessoren mit mehr als einem vollständigen Hauptprozessorkern in einem einzigen Chip - sind beispielsweise eine der modernen Technologien, welche diese Schlussfolgerung nahe legt.

Ein alternativer Ansatz wäre, solche neuen Technologien vom Einsatz in sicherheitsrelevanten Systemen auszuschließen. Wobei damit sicherlich auch einige Chancen des Fortschritts zu Beginn vernichtet werden. Welchen Weg man aber auch immer einschlagen wird: Für die funktionale Sicherheit wird er weitreichende Folgen haben.

#KünstlicheIntelligenz #EmbeddedSysteme

Kontakt: 0431 - 888 2111 0

E-Mail: marketing@scope-engineering.de

  • YouTube
  • Twitter
  • XING
  • LinkedIn

© 2020 SCOPE Engineering GmbH

Impressum

Datenschutz

Kontakt

SCOPE Engineering Website       I       test!t     I     t(ea)talk     I     Dezentrales Arbeiten