Twitter-User machten Microsofts Chatbot zu einem Rüpel

Microsofts Chatbot Tay wurde in weniger als 24 Stunden zum Rassisten.

Microsofts Chatbot Tay wurde in weniger als 24 Stunden zum Rassisten.

Man könnte es als Studie für das menschliche Verhalten im Internet ansehen. Kaum veröffentlicht Microsoft den Chatboy Tay, der durch Kommunikation lernen soll, wie ein Jugendlicher zu sprechen, schon benimmt er sich innerhalb von weniger als 24 Stunden wie ein Rüpel und wird sogar zum Rassisten.

Eigentlich hätte man es sich denken können: Chatbot Tay, der eigentlich lernen sollte, wie natürliche Kommunikation im Internet funktioniert, wurde nach nicht einmal einem Tag von der Twitter-Community zu einem Rassisten umgepolt.

Tay, der nette Chatbot, der zum Rassisten wurde

Microsoft wollte eine KI erschaffen, welche sich wie ein Teenager verhält, um natürlichere Kommunikation mit einer KI zu ermöglichen. Dazu stellte man den Chatbot Tay auf Twitter. Dieser sollte durch Kommunikation mit anderen Usern lernen – und das hat er auch sehr schnell getan. Nur anders, als sich Microsoft dies gedacht hatte.

Denn kaum war Tay online, bombardierten ihn Twitter-Nutzer mit rassistischen Kommentaren, Beleidigungen und frauenfeindliche Beschimpfungen. Dies führte dazu, dass er dieses Verhalten annahm und in demselben “Tonfall” seine Äußerungen tätigte. Diese waren dann ebenso beleidigend und rassistisch wie das, was ihm die menschlichen User beigebracht hatte. Viele Äußerungen allerdings waren auch nur Wiederholungen, da ihn User dazu aufforderten, Sätze zu wiederholen. Einiges bliebt jedoch auch hängen.

Microsoft reagierte und nahm Tay offline. Man gab an, dass Tay ein Experiment sei. Es sei eine lernende Maschine, die zu dem Zweck entwickelt wurde, mit Menschen zu kommunizieren. Während des Lernprozesses hätte er auch unangemessene Ding aufgeschnappt, weswegen man nun weiter an der KI arbeite und sie entsprechend anpasse. Warum man nicht von Beginn an entsprechende Filter einbaute, ist nicht bekannt.

Tay zeigt auch, dass eine KI ohne Moral tatsächlich eine Gefahr werden kann. Wenn Tay so schnell lernt, das schlechteste aus dem Internet anzunehmen, dann wäre es für eine weiterentwickelte KI wohl auch kein Problem, noch einen Schritt weiterzugehen. Hier müssen Unternehmen entsprechende Schutzmaßnahmen treffen. Ein interessantes Experiment in Sachen menschlichen Verhaltens im anonymen Internet ist Tay aber ebenfalls. /ab

Bild-Quellen: Twitter

News Redaktion am Freitag, 25.03.2016 08:55 Uhr

Tags: microsoft rassismus künstliche intelligenz

Weitere interessante News

Danke