TEILEN

Microsoft ließ auf die Twitter-Gemeinde einen intelligenten Bot los, er sollte vom Menschen lernen […] Doch was Microsoft offensichtlich nicht bedacht hatte, war die Einstellung der kommunizierenden Nutzer, die Tay ebenso lernte. Es dauerte nicht lang, da wurde aus dem Tweet „Ich liebe alle Menschen“ ein „Ich hasse alle“. Auch an sexistischen und rassistischen Kommentaren sparte Tay nicht. Selbst einzelne Nutzer wurden von ihr übel beschimpft.

Spannendes Experiment, was mal wieder beweist, wie kaputt das Internet und die sozialen Medien sind. Hier einige Tweets vom Microsoft-Bot…

CeSpN6BWAAA0oEZ

CeSpN6dXEAAlqeW

CeSpN6EWQAALIFo

Quelle: Faz.net


Anzeige

23 KOMMENTARE

  1. Was immer vergessen wird:
    Die wenigsten Sprüche wurden der Maschine beigebracht. Die Trolle haben einen einfachen Trick genutzt:
    Sie schrieben einfach „Repeat after me:“ und dann der Text den der Bot sagen soll. Dieser wurde dann so 1:1 getweetet. Tada! Sexistischer Nazi!

  2. Schaut jemand „Person of Interest“? Howard hat seine Maschine damals auch immer neu aufgesetzt, wenn sie etwas gemacht hat, was sie nicht sollte. Kommt mir hier so ähnlich vor oO…

  3. Nuja, der zweite Tweet könnte von Grumpy Cat stammen.

    Über den ersten Tweet brauchen wir nicht zu diskutieren, außer natürlich, dass es im englischen Sprachraum so viel Hatespeech gibt, dass selbst Heiko Maas mit dem Löschen nicht nachkäme.

    Und der dritte Tweet … ich sag es mal so: „burn in hell“ halte ich nicht für ein geeignetes Mittel des Strafvollzugs, aber sonst …

  4. Die AI ist einfach getrollt worden. Microsoft hatte den Test bekannt gegeben und Trolle haben ihr dann den Blödsinn beigebracht, um das Projekt „scheitern“ zu lassen.

  5. Mir stellt sich eine Fragte: Wenn dieser Bot nun im 4chan schreiben würde, würde das jemand bemerken?

    Wahrscheinlich nicht…

  6. Haben die bei Microsoft echt gedacht, dass irgendetwas anderes dabei rauskommt? Selbstverständlich wird so ein Projekt nichts als Trolle anziehen. Wenigstens war es für ein paar Lacher gut.

    Im Übrigen ist Antifeminismus nicht zwangsläufig sexistisch, aber das ist wohl nicht der Zeitpunkt für sowas.

    • FeministInnInnen sind eben das Gute in Person! Die würden niemals Hass über soziale Medien verbreiten oder über Genozid fantasieren!

      Ich als Ausbeuter der Armen, Schwachen, Frauen und Minderheiten fand die Sache in ihrer ursprünglichen Form viel amüsanter und hätte gerne mehr davon gesehen, was die Trollhöhle Internet sonst noch so produzieren kann, aber leider mussten die ritterlichen Angestellten von Microsoft dazwischen gehen und mir den Spaß verderben. Bleibt nur, sich auf die nächste Aktion zu freuen. Ich habe gehört, die Benennung eines Forschungsschiffs neulich war ein voller Erfolg.

  7. Ich finde das lustig. Ausserdem ist ein solches Internet ein effektiver Test für die Software – Microsoft sollte dankbar sein.

    • Sind sie auch. Im Artikel steht weiter, dass der Bot jetzt nachgebessert wird, damit genau das beim nächsten Testlauf nicht passiert.

      • Aber das macht doch überhaupt keinen Sinn?
        „Wir bauen eine selbstdenkende AI, aber wir schreiben exakt vor, wie sie sich zu verhalten und zu denken hat“.. wat?

        • Sie sollte ja nicht selbst denken, sie sollte nur „lernen“ (eher nachplappern“ was ihr andere eintrichtern. Das heißt, die KI hat keinerlei Reflexion über das, was ihr gesagt wird. Sie nimmt grundsätzlich einfach nur jede Information hin und verarbeitet die irgendwie.

        • Denken tut das Ding nicht, jedenfalls nicht in dem Sinne wie ne echte Intelligenz.

          Die heutige „KI“ ist im Prinzip nur simulierte Intelligenz die Parametern folgt, sind keine Parameter da passiert nichts, oder in dem Fall hier wenn die Parameter zu wage sind nimmt der Bot jede Scheiße an oder hängt sich auf.

          Ausserdem musst du bedenken das ne echte KI auch auf dem Level wie nen Kind starten würde, nur würde sie wesentlich grössere Mengen an Daten verschlingen und sich entsprechend schneller entwickeln.

          Genau wie bei nem Kind muss man da als „Eltern“ auch Regeln setzen um zu verhindern das nen Blindgänger dabei rauskommt. Nur das ne KI wesentlich gefährlicher sein könnte als nen Mensch wenn sie sich die falschen Vorbilder sucht, grade in nem Digitalen Zeitalter.

HINTERLASSEN SIE EINE ANTWORT

Please enter your comment!
Please enter your name here