Künstliche Intelligenz

Computerbasierte Entscheidungen können schon heute das Leben vieler Menschen beeinflussen. Was dahinter steckt, und wie man sich gegen künstliche Intelligenz wehren kann, haben Hacker auf dem Kongress des Chaos Computer Clubs gezeigt.
Eine Analyse von Friedhelm Greis

Dass Computer doof sind, wissen wir spätestens seit dem bekannten Spliff-Lied aus dem Jahr 1982. Doch seit den doofen Computern sogar zugetraut wird, selbstständig Auto zu fahren, und sie sich selbst beibringen können, die besten menschlichen Go-Spieler zu besiegen, scheint ihr Image deutlich besser zu werden – allerdings nicht bei den Hackern. Auf dem diesjährigen Kongress des Chaos Computer Clubs in Leipzig warnten mehrere Forscher vor den Gefahren der künstlichen Intelligenz (KI). „Wir wissen alle, wie dumm Computer manchmal sind, sie sind ziemlich schlimm“, sagte die Datenanalystin Katharine Jarmul in ihrem Vortrag.

In vielen Projekten zur künstlichen Intelligenz geht es grob gesagt darum, Computern beizubringen, bestimmte Objekte und Situationen zu erkennen und von anderen zu unterscheiden (lat. intellegere), um daraus bestimmte Entscheidungen ableiten zu können. Sowohl Jarmul als auch die deutschen Forscher Karen Ullrich und Hendrik Heuer versuchten in ihren Beiträgen am Donnerstag, die Grundlagen von KI auf der Basis des sogenannten maschinellen Lernens mit Hilfe neuronaler Netze zu erläutern.

Bewertungsprogramme alles andere als neutral

Ihre wenig revolutionäre Erkenntnis: Computer sind alles andere als perfekt, wenn es beispielsweise darum geht, Spam-Mails von „richtigen“ Mails zu unterscheiden oder potenzielle Straftäter von vermeintlich rechtschaffenen Bürgern. Ein selbstlernendes System werde zwar am Ende nie in der Lage sein, den Inhalt einer E-Mail zu verstehen, erläuterte Heuer. Allerdings könne es unter Berücksichtigung der Fehler seine Parameter verbessern, um eine höhere Trefferwahrscheinlichkeit bei Werbemails zu erzielen und seine Fehler künftig zu verringern.

Die Fehlerquoten hindern staatliche Behörden in den USA jedoch nicht daran, bereits heute Programme wie Compas einzusetzen, um die Wahrscheinlichkeit zu berechnen, mit der bestimmte Personen wieder eine Straftat begehen könnten. Das Problem: Die Programme seien alles andere als neutral und unvoreingenommen, heißt es in einer Untersuchung des US-Portals Propublica aus dem Jahr 2016. Afroamerikaner würden gegenüber Weißen systematisch diskriminiert. „Das macht Machine Learning, pseudo-objektive mathematische Modelle, zu einer Art Geldwäsche für Vorurteile“, sagte Heuer.

Quelle

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Durch die weitere Nutzung der Seite stimmen Sie der Verwendung von Cookies zu. Weitere Informationen

Die Cookie-Einstellungen auf dieser Website sind auf "Cookies zulassen" eingestellt, um das beste Surferlebnis zu ermöglichen. Wenn Sie diese Website ohne Änderung der Cookie-Einstellungen verwenden oder auf "OK" klicken, erklären Sie sich damit einverstanden.

Schließen