TEILEN

Eine KI in einem US-Forschungslabor sollte bei der Entwicklung von Medizin schlechte und gefährliche Nebenwirkungen verhindern. Doch die Forscher hatten das einmal umgedreht und wollten ausprobieren, was passiert, wenn die KI gefährliche Nebenwirkungen entwickeln soll. (via)

In dem Fachmagazin Nature Machine Intelligence wurde in der vergangenen Woche ein interessanter Beitrag rund um einamerikanisches Forschungsteam veröffentlicht. Diese Gruppe verwendet das maschinelle Lernen einer KI für gewöhnlich dafür, um herauszufinden, ob neu entwickelte Moleküle giftig für den Menschen sind. Die KI erfüllt in diesem Fall also eine wichtige Rolle im Bereich der Sicherheit.

Für eine Konferenz in der Schweiz sollten die Wissenschaftler sich aber Gedanken darüber machen, wie man diese Technik missbrauchen könnte. Dafür drehte das Team die Regeln ihrer KI einfach um, sodass das Programm damit startete, giftige Kombinationen zu entwickeln. Dabei sollte sich die KI wohl auf Ergebnissen beschränken, die dem extrem gefährlichen Nervengift VX ähneln. Das Ergebnis dieses Tests hat die Wissenschaftler ziemlich erschrocken.

Die KI hat nach dieser Umstellung nämlich gerade einmal 6 Stunden dafür gebraucht, um insgesamt 40.000 für den Menschen sehr giftige Moleküle zu erstellen. Dabei handelte es sich sowohl um einige bekannte Stoffe als auch viele komplett unbekannte Moleküle. Auch wenn das Team die unbekannten Stoffe nicht auf ihre tatsächliche Gefahr überprüft hat, so spricht die Aufführung der bekannten Gifte aber recht deutlich für die Wirksamkeit dieser unbekannten Elemente.

Laut den Forschern sollte man diese Ergebnisse auf jeden Fall sehr ernst nehmen. In der Theorie könnten daran interessierte Personen recht einfach einen mitmenschlichen Generator erzeugen, der den ganzen Tag über einfach nur neue tödliche Chemiewaffen auflistet. Diese Option ist keine Fiktion mehr, sondern direkte Realität. Es ist schwer zu sagen, wie viele Unternehmen dort draußen aktuell dazu in der Lage wären, solch ein Gerät zu bauen. Allerdings ist dem zuständigen Team diese Chance im Moment eindeutig zu hoch.

Den Wissenschaftlern zufolge sollte man sich in der Zukunft deutlich stärker mit dem potenziellen Missbrauch der eigenen Technik auseinandersetzen und mögliche Schutzmaßnahmen erarbeiten. Die Datensätze der eigenen KI sind bisher frei verfügbar, was man auf jeden Fall ändern könnte. Vorstellbar wäre auch noch eine Möglichkeit, die den Missbrauch solcher Technik automatisch bei den verantwortlichen Behörden meldet. Zusätzlich kann es nicht schaden, wenn man in der Ausbildung mehr Wert auf das Betonen der ethischen Folgen der Arbeit mit dieser Technologie legt.

Die Realität ist, dass es sich nicht um Science-Fiction handelt. Wir sind nur ein sehr kleines Unternehmen in einem Universum von vielen Hunderten von Unternehmen, die KI-Software für die Arzneimittelentdeckung und das De-novo-Design [Neuschöpfung von Stoffen] einsetzen. Wie viele von ihnen haben die Möglichkeiten der Wiederverwendung oder des Missbrauchs überhaupt in Betracht gezogen? (via)


Anzeige

2 KOMMENTARE

  1. Für mich ist das hauptsächlich Panik Mache. Es dürfte für den Interesierten Terroristen/Diktator auch ohne KI kein großes Problem sein, die Chemische Formel für einige bekannte Chemiewaffen wie Senfgas oder Chlorgas zu bekommen. Schwieriger ist dann schon die Herstellung, Lagerung und der Einsatz. Es hat ja seinen Grund warum selbst im zweiten Weltkrieg Chemiewaffen keine große Rolle spielten und mir auf Anhieb nur ein größerer Terror Anschlag damit einfällt. Es ist deutlich einfacher und auch billiger ein paar Sturmgewehre, normalle Splitter Bomben oder schlicht ein Auto zu besorgen und die gegen große Menschenansammlungen einzusetzen. Mehr sorgen bei der modernen Technik machen mir Waffen aus dem 3D Drucker, vor allem wenn diese in Flugzeuge geschmuggelt werden.

  2. Mensch. Da bin ich ja echt beruhigt, dass man den Leuten in der Ausbildung sagt, dass man Menschen nicht in Massen ausrotten soll. Fühle mich gleich wieder in meiner Sicherheits-Comfort-Zone.

HINTERLASSEN SIE EINE ANTWORT

Please enter your comment!
Please enter your name here