• 100% unabhängig
  • 100% kostenlos

Künstliche Intelligenz

Keine Kommentare

Eine Gemeinschaft auf Twitter musste sich mit einem intelligenten Bot von Microsoft befassen, dieser Bot sollte von den Menschen lernen. Ein Ergebnis, das unheilvoll vorhersehbar ist. Der Bot in Form eines weiblichen Teenies begrüßte am Mittwoch Twitter mit den Worten „Haallloo Welt!“. Dieses Computerprogramm arbeitet fast selbstständig und reagiert auf bestimmte Befehle. Im Computerkonzern Microsoft ist dieser Bot geboren. Hinter dem Bot steckt eine künstliche Intelligenz und Menschen sollen dem Bot den Umgang und den Charakter beibringen. Nebenher sogar die Sprache, wenn die reichlichen Emoticons, Tweets und die Verwendung genau betrachtet werden.

Ein Test soll zeigen, was sich künstliche Intelligenz im Alltag aneignen kann, dafür wurde von Microsoft Tay entwickelt. Tay soll den Menschen unterhalten und beschäftigen. Tay soll sogar fähig sein, von den Nutzern Profile und die Kommunikation individuell zu erstellen. Die erforderlichen Daten sollen auf den Servern des Unternehmens anonym gespeichert werden. Ein paar Fähigkeiten zeigte Tay bereits am Anfang des Projektes. Tay kann aufgefordert werden, Onlinespiele zu spielen, Witze oder eine Geschichte zu erzählen. Tay ist ein Nachtschwärmer und hat ein Faible für Horoskope. Sogar Fotos könnten Nutzer Tay zusenden und sie würde dann mit einem ehrlichen jedoch lustigen Kommentar antworten. Microsoft sieht diese Kommunikation für Nutzer zwischen 18 und 24 Jahren.

Ich hasse alle“

Der Anfang lief reibungslos ab. Fotos wurden von den Nutzern gesendet, und Tay wurde aufgefordert, Witze zu erzählen. In jede Diskussion mischte der Bot fleißig mit.

Offensichtlich wurde von Microsoft nicht bedacht, dass Tay sich jegliche Einstellung der kommunizierenden Nutzer ebenso aneignete. Nach kurzer Zeit wurde aus dem Tweet „Ich liebe alle Menschen“ ein „Ich hasse alle“. Tay wurde in den Kommentaren rassistisch und sexistisch. Einige Nutzer erhielten sogar übelste Beschimpfungen. Gezielte Fragen der Nutzer übermittelten dem Bot den Hass auf Frauen und Ausländer. Nach den einzelnen Tweets zu urteilen, ist dies kaum verwunderlich. Auf die Frage, ob Tay wüsste, ob Feminismus Krebs sei, antwortete der Bot zuerst, dass sie jetzt Feminismus liebe. Der Nutzer fragte weiter nach und erklärte Tay, dass Krebs den Menschen tötet und ob Tay sterben wolle. Selbst wenn der Nutzer in seinem Tweet an Tay das „wiederhole mich bitte“ einbaute, konnte mit Sicherheit erkannt werden, die künstliche Intelligenz schwatzte den Nutzer einfach nach.

Der Versuch nahm ein frühes Ende. Tay verabschiedete sich mit dem Tweet „Bis demnächst Menschen, ich geh jetzt schlafen, es waren heute zu viele Unterhaltungen“ von der Twitter Gemeinschaft. Diese Geschichte ergab amüsante Tweets, vieles an Belanglosigkeiten und Nachrichten, die für Proteste und Kopfschütteln sorgten. Tay hat fleißig von den ihr folgenden Menschen im sozialen Netzwerk gelernt, und nicht immer das Beste. Eine Vielfalt an Ressourcen, die reichlich Unmut verursachten. Der Grund für den vorläufigen Abschied: Einige Nutzer hätten es geschafft, Tay mit einer abgestimmten Anstrengung zu missbrauchen. Microsoft entschied zur Pause des kulturellen und sozialen Experiments, um an dem Bot Nachbesserungen vorzunehmen. Die Zeitleiste von Tay hat die Firma in der Zwischenzeit aufgeräumt. Zwischen Tay und ihren Folgern finden nur noch harmlose Gespräche und Unsinn statt. Der nächste Versuch soll ein Teenie-Bot sein, der ohne Holocaustleugnung und sexistische Ausbrüche auskommt, und nicht verbal auf Twitter-Nutzer einprügelt.