Zertifizierung soll Vertrauen in KI schaffen
5. Juli 2019Das Zeitalter der Digitalisierung durchdringt fast alle Lebensbereiche – von der Arbeitswelt über den Straßenverkehr und den Gesundheitssektor bis hin zur Kommunikation. Wie kann man sicherstellen, dass besonders Entwicklungen auf Basis von Künstlicher Intelligenz (KI) technisch, ethisch und rechtlich vertretbar sind? Wissenschaftlerinnen und Wissenschaftler der Universitäten Bonn und Köln erarbeiten dazu unter der Federführung des Fraunhofer-Instituts für Intelligente Analyse- und Informationssysteme IAIS und unter Mitwirkung des Bundesamtes für Sicherheit in der Informationstechnik (BSI) einen Prüfkatalog zur Zertifizierung von KI-Anwendungen. Das interdisziplinäre Team stellt die Handlungsfelder aus philosophischer, ethischer, rechtlicher und technologischer Sicht nun in einer Publikation vor.
Künstliche Intelligenz verändert unsere Gesellschaft, unsere Wirtschaft und unseren Alltag grundlegend und eröffnet große Chancen für unser Zusammenleben. Sie hilft zum Beispiel Ärzten, Röntgenbilder besser und oft exakter auszuwerten, beantwortet in Form von Chatbots Fragen zu Versicherungspolicen und anderen Produkten und wird in absehbarer Zeit Autos immer selbstständiger fahren lassen. Aktuelle Prognosen gehen davon aus, dass die Zahl der KI-Anwendungen in den nächsten Jahren exponentiell wachsen wird. McKinsey zum Beispiel prognostiziert bis 2030 global bis zu 13 Billionen Dollar zusätzliche Wertsteigerung durch Künstliche Intelligenz.
Gleichzeitig wird deutlich, dass eine sorgfältige Gestaltung von KI-Anwendungen notwendig ist, damit wir die Chancen der KI im Einklang mit unseren gesellschaftlichen Werten und Vorstellungen nutzen können. Deshalb hat sich das interdisziplinäre Expertenteam im Kontext der Kompetenzplattform KI.NRW zusammengetan, um eine durch akkreditierte Prüfer durchzuführende Zertifizierung für KI-Anwendungen zu entwickeln. Das Zertifikat soll einen Qualitätsstandard bescheinigen, der es Technologieanbietern erlaubt, KI-Anwendungen überprüfbar technisch zuverlässig und ethisch akzeptabel zu gestalten.
„Mit der Zertifizierung wollen wir dazu beitragen, Qualitätsstandards für eine ‚KI Made in Europe‘ zu setzen, den verantwortungsvollen Umgang mit der Technologie zu sichern und einen fairen Wettbewerb verschiedener Anbieter zu befördern“, sagt Prof. Dr. Stefan Wrobel, Institutsleiter des Fraunhofer IAIS und Professor für Informatik an der Universität Bonn.
Künstliche Intelligenz hat das Potenzial, die Fähigkeiten des Menschen zu erweitern und hilft uns, neue Erkenntnisse zu gewinnen. Wenn wir unseren Entscheidungen jedoch Ergebnisse von voll- oder teilautomatisierten selbstlernenden Systemen zugrunde legen, stellt uns dies gleichzeitig vor neue Herausforderungen. Neben der technischen Eignung müssen vor allem grundsätzliche philosophisch-ethische Aspekte, aber auch rechtliche Fragestellungen geklärt werden. Um sicherzustellen, dass der Mensch stets im Mittelpunkt dieser Entwicklung steht, ist daher ein enger Austausch zwischen Informatik, Philosophie und Rechtswissenschaften notwendig.
In dem Whitepaper erläutern die Expertinnen und Experten ihre interdisziplinäre Herangehensweise an die KI-Zertifizierung. So gehen die Autorinnen und Autoren etwa auf die ethischen Grundsätze ein: „Alle Beteiligten sollen sich beim Einsatz von KI nach ihren moralischen Überzeugungen gut verhalten können, und niemand darf in seinen Rechten, seiner Autonomie oder Freiheit beschnitten werden“, betont Prof. Dr. Markus Gabriel, Professor für Philosophie an der Universität Bonn. Auch juristische Fragestellungen werden adressiert: „Es muss zum Beispiel geklärt werden, welche Anforderungen an KI-Anwendungen sich aus den Grundwerten und Prinzipien eines freiheitlich geordneten Rechtsstaates ergeben“, sagt Prof. Dr. Dr. Frauke Rostalski, Professorin für Rechtswissenschaft an der Universität zu Köln. (rhh)
Beteiligte Institutionen:
Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS