Aktuelle Trends im Bereich Künstliche Intelligenz (KI)Von ethischer zu verantwortungsbewusster KI

19. März 2020

In den letzten Jahren war die Künstliche Intelligenz (KI) das Enfant Terrible – vor allem in der öffentlichen Wahrnehmung: eine Technologie voll unkonventioneller Verhaltensweisen, kontrovers diskutiert, die das Publikum weltweit sowohl schockiert und provoziert als auch verzaubert hat. Im Jahr 2020 ändert sich das alles: KI wird endlich erwachsen und trifft gleichzeitig auf neuartige Anforderungen.

Generell werden die Erwartungen an verantwortungsbewusste KI-Systeme aufgrund des ständig steigenden Einsatzes neuer KI-Anwendungen in vielen Bereichen steigen – gekoppelt mit der Tatsache, dass die Regulierung rund um die notwendige Erklärungsfähigkeit, Transparenz, Fairness und Ethik immer noch im Entstehen begriffen ist.

Anzeige
corp x opta

Diese Entwicklung lässt sich gut mit medizinischen Geräten vergleichen. So kann beispielsweise ein Herzschrittmacher, der verfrüht auf den Markt gebracht wird, schlecht oder nachlässig entwickelt sein. Wenn Menschen, die dieses Gerät benutzen, zu Schaden kommen, würde es direkte Haftungsansprüche geben. Das Unternehmen, das es zur Verfügung stellt, könnte von Einzelpersonen oder Gruppen verklagt werden, wenn ein Mangel an Sorgfalt oder gar grobe Fehler in der Entwicklung nachgewiesen würden.

Analog dazu wird es schon bald strafrechtliche Konsequenzen für Unternehmen geben, die erklärbare, ethische KI lediglich als optional betrachten. Stellen Unternehmen fest, dass sie mit einem Algorithmus einen Fehler gemacht haben, der eine negative bzw. schädliche Auswirkung hat, wird das nicht mehr länger nur eine interessante Neuigkeit sein, die zeigt, dass eine KI fehlerhaft war oder außer Kontrolle geraten ist. Vielmehr ist es dann ein konkreter Aufruf zu handeln. Dabei können die Auswirkungen fehlerhafter KI vielfältig sein.

Mögliche Beispiele sind: Die fehlerhafte Gesichtserkennung am Flughafen verweigert einem Reisenden die rechtmäßige Einreise in ein Land. Oder: Ein Roboter, der für medizinische Untersuchungen eingesetzt wird, erstellt eine Fehldiagnose, wodurch der Patient falsch behandelt wird. Oder: Jemand wird durch ein neuartiges KI-gestütztes Kredit-Scoring-System auf der Basis nicht-kausaler Merkmale schlecht bewertet und erhält deswegen keinen Kredit.

In allen Fällen stellt sich die Frage: Welche Rechte haben Menschen, wenn sie durch KI zu Schaden kommen und welche Rahmenbedingungen oder Regularien gibt es hier? Wenn Verbrauchern durch KI ein Nachteil entsteht, werden sie und ihre Interessensvertreter wissen wollen, auf welcher Basis die KI ihre Entscheidung getroffen hat und alle Informationen darüber verlangen.

Verbraucher haben die Macht

Das gibt Verbrauchern und Verbraucherschützern eine gewisse Macht und wird dazu führen, dass KI- Experten sichten und erklären müssen, welche Daten zugrunde liegen und wie das KI-Modell entwickelt und implementiert wurde – wir werden uns also klar in Richtung ‚Explainable AI‘ bewegen.

2020 wird auch das Jahr, in dem erste KI-Versicherungen auf den Markt kommen werden. Denn angesichts des wachsenden Drucks von außerhalb hinsichtlich verantwortungsbewusster und erklärbarer KI bleibt Unternehmen kaum eine andere Wahl, als ihre Algorithmen gegen Haftpflichtprozesse zu versichern.

KI braucht Regulierung

Viele führende Vertreter unterschiedlicher Branchen sind der Meinung, dass staatliche Regulierung Innovation hemmt. Das gilt auch für den Bereich KI. So gibt es einerseits Unternehmen, die sich zurücklehnen und sagen: „Wir sind ethisch; wir werden mit Ihren Daten nichts Böses tun“. Anderseits versuchen Gesetzgeber und Verbraucherschützer, die Konsumenten vor den negativen Auswirkungen der Technologie zu schützen – beispielsweise mit der General Data Protection Rule (GDPR) der EU bzw. der Datenschutz-Grundverordnung DSGVO in Deutschland oder dem California Consumer Privacy Act.

Man wird wohl einen guten Mittelweg finden müssen. Und um das zu bewerkstelligen werden wir im Jahr 2020 einen Anstieg der internationalen Standards erleben, die den Rahmen für sichere und vertrauenswürdige KI definieren. Gleichzeitig gilt es zu hoffen, dass KI-Experten die Regulierung der Branche unterstützen und vorantreiben werden, um Fairness zu gewährleisten und Verantwortung zu übernehmen.

Da KI zu einer allgegenwärtigen Technologie heranwächst, steht die Öffentlichkeit den Unternehmen, die sie einsetzen, verständlicherweise oft sehr skeptisch gegenüber. Je mehr die moderne Gesellschaft jedoch lernt, was der Missbrauch künstlicher Intelligenz verursachen kann, desto mehr kommt es auf Erfahrung im Umgang mit KI und auf die Erklärbarkeit von KI an und nicht auf “move fast and break things”-Aktionen. Es ist an der Zeit, dass KI endlich erwachsen wird.

Scott Zoldi ist Chief Analytics Officer bei FICO.

FICO

Lesen Sie auch