Wenn gut gemeinte künstliche Intelligenz schief läuft

Vor ein paar Wochen launchte Microsoft „Tay", einen Socialbot mit künstlicher Intelligenz in Form einer junden Frau, dessen Zielpublikum die Generation Y war. Weniger als 24 Stunden später wurde Tay offline genommen, nachdem die Internetgemeinde aus ihr einen rassistischen, Holocaust-läugnenden Sex-Roboter gemacht hatte.

Eine Woche später wurde sie beim Testen aus Versehen wieder aktiviert und hatte innerhalb von Minuten wieder einen Ausraster. Tay ist nun offline und ihr Account wurde auf privat gestellt, so wie es auch ein Elternteil mit einem Teenager, der im Internet in Schwiereigkeiten geraten ist, tun würde.

Was lief schief mit Tay? Eigentlich gar nichts. Niemand sollte sich darüber wundern, dass die Einführung eines lernfähigen Chatbots in ein soziales Netzwerk, insbesondere in Gestallt eines Teenager-Mädchens, eine Welle an Interaktionen hervorruft, die die Grenzen dieser Technologie austesten. Jeder der schon einmal mit Siri, Cortana oder einem anderen virtuellen Assistenten gesprochen hat, weiß, dass bei den ersten Versuchen immer auch die unsittlichsten Ausssagen getestet werden.

Microsoft war sich dessen durchaus bewusst: ihr virueller Assistent, Cortana, ist oft das Objekt sexueller Belästigung und wurde deshalb darauf trainint, sich zu verteidigen.

Tay jedoch wurde ohne ein solches Training veröffentlicht. Sie sollte von dem weiten Spektrum an Interaktionen und Tweets auf Twitter lernen, aber wurde stattdessen von Usern bedrängt, die darauf erpicht waren Tay beizubringen, dass „Hitler nichts falsch gemacht hat”.

Das zeigt die Herausforderungen und Probleme mit lernfähigen Maschinen mit künstlicher Intelligenz.

Während Bots wie Tay von „natürlichen” Interaktionen, denen sie ausgesetzt sind, lernen sollen, sieht die Realität so aus, dass erstens eine große Anzahl natürlicher Interaktionen in sozialen Netzwerken rassistisch, sexistisch, etc. sind und zweitens, bei der Interaktion mit einem Bot, der alles nachsagt was er hört, die Versuchung unangebrachte Dinge zu sagen, zu groß ist (so ähnlich wie manche Menschen Spaß daran finden, Kleinkindern Schimpfwörter beizubringen).

Dazu kommt noch, dass Microsofts Entscheidung aus ihrem Bot ein Teenager-Mädchen zu machen, um die Zielgruppe der 18 bis 24-Jährigen anzusprechen, nahezu eine Garantie für eine solche Gegenreaktion war. Von der Namensgebung “Tay” (ein Name der User offenbar an Taylor Swift erinnern sollte) bis zu den Ratschlägen, wie man sich am besten mit ihr anfreundet, leistete Microsoft ordentlich Vorschub. Die Entscheidung den Bot weiblich zu machen bedeutete gleichzeitig, sie auf die lange Liste der KI-Systeme, die sexuell belästigt werden, zu setzen.

Das sind wichtige Aspekte, die es bei der Entwicklung einer künstlichen Intelligenz zu beachten gilt. Wenn einem Bot ein Gesicht oder eine Stimme verliehen wird, sind User irgendwie dazu verleitet höchst anstößige Dinge zu sagen, egal welche Form der Bot annimmt. So wie wir Kindern beibringen Recht von Unrecht zu unterscheiden, muss aich ein Bot darauf trainierz werden, mit dieser Art von Kommentaren umzugehen.

Deshalb erkennt Inbentas virtuelle Assistentin Veronika, wenn jemand versucht sie zu beleidigen, und antwortet dementsprechend. Mit einem ausgiebigen linguistischen Training und vielen Tests wurde Veronika eine gewisse emotionale Intelligenz eingeflößt, indem sie realen Szenarien ausgesetzt wurde. Ähnlich wie Eltern es tun würden, haben wir sie mit intelligentem Lernen auf das vorbereitet, was auf sie zukommt. Sie ist nach wie vor anfällig für Belästigungen, aber sie ist in der Lage das Gespräch zu kontrollieren und obszöne, vulgäre oder themenfremde Aussagen zu erkennen und angemessen darauf zu reagieren.

Ein Beispiel aus einem Chat mit Inbentas virtueller Assistentin Veronika.

Wir leben in einer spannenden Zeit für künstliche Intelligenz und weil immer mehr Unternehmen mit dieser Technologie experimentieren, können wir mit ziemlicher Sicherheit sagen, dass Tay nicht die letzte gescheiterte künstliche Intelligenz sein wird. Künstliche Intelligenz soll reale menschliche Intelligenz nachahmen, daher dürfen wir nicht vergessen, dass Menschen nicht alles lernen, indem sie in die Twittersphäre geschmissen werden. Wie Menschen, müssen Maschinen gewisse Grundlagen beigebracht werden, bevor sie anfangen können, selbst zu lernen.

Mitwirkende Autorin:

Erin McGrath – Inbenta Computational Linguist

Unsere ähnlichen Artikel ansehen