Dozens of AI industry leaders, academics and even some celebrities on Tuesday called for reducing the risk of global annihilation due to artificial intelligence, arguing in a brief statement that the threat of an AI extinction event should be a top global priority. (via)
Das vergangene Jahr über sind verschiedene Formen an AI-Technologie immer beliebter geworden. Diese Technik kann zum automatischen Erstellen von Content und zum Auswerten von Inhalten verwenden werden. Diese Tätigkeiten nehmen dabei dann kaum Zeit in Anspruch und selbst Laien können die entsprechenden Tools ohne Probleme verwenden. Gleichzeitig gibt es aber auch immer stärkere Sorgen darüber, wie diese Technologie missbraucht werden könnte und in welche Richtung sich das Ganze entwickelt.
Betont wurden diese Sorgen in dieser Sache noch einmal recht deutlich durch die in der AI-Industrie und -Forschung tätigen Experten. Ein „Center for AI Safety„ veröffentlichte vor kurzen nämlich eine öffentliche Stellungnahme, die sich genau mit diesem Thema beschäftigt. Das Ganze soll betonen, wie gefährlich diese Technologie sein kann und wie hoch die Risiken sind. Dabei liegt der Fokus interessanterweise auf der Chance darauf, dass die von den Menschen entwickelten AI-Technologien die Menschheit irgendwann auf die eine oder andere Weise auslöschen.
Laut dem Schreiben darf man diese Risiken nicht unterschätzen. Die Reduzierung der Chance auf solch eine problematische Situation muss laut dem Schreiben die angemessene Priorität erhalten. Dabei stufen die Autoren des Schreibens das Ganze auf eine ähnliche Weise ein, mit der sie auch Pandemien, Atomkriege oder ähnliche Katastrophen betrachten. Die Risiken der AI-Technologien sind im gleichen Bereich angesiedelt.
DIE WARNUNG: “Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war,”
Die Stellungnahme wurde interessanterweise von hunderten an Menschen unterzeichnet, die in der KI-Industrie und -Forschung tätig sind. Auf diese Weise drücken sie ihre Unterstützung dafür aus, wie wichtig diese Botschaft ihrer Meinung ist. Zu den Unterzeichnern gehören unter anderem die Geschäftsführer von OpenAI, Googles Deepmind und Anthropic. Zusätzlich dazu steht auch der renommierte KI-Forscher Geoffrey Hinton auf der Liste. Hinton ist vor Kurzem dadurch aufgefallen, dass er seine Arbeitsstelle bei Google gekündigt hat, um genau solche Warnungen aussprechen zu dürfen.
Dieses neue Schreiben ist natürlich nicht die erste Warnung dieser Art. In der Vergangenheit gab es schon häufiger öffentliche Briefe und Schreiben, die die Gefahr der AI-Technik thematisierten. Dieses neue Schreiben fällt aber wirklich dadurch auf, wie viele bekannte Personen und einflussreiche Köpfe das Ganze unterzeichnet haben. Alle diese Menschen sehen gewisse Risiken mit der Technologie und sie sind der Meinung, dass man diese Punkte nicht ignorieren darf.
Das Schreiben ist in diesem Fall absichtlich kurz und etwas vage formuliert. Schließlich kann die Menschheit AI-Technologie auf vielfältige Arten dafür nutzen, um sich selbst permanenten Schaden zuzufügen. Die kurze Formulierung sollte laut der New York Times sicherstellen, dass man möglichst viele Unterzeichner für die Sache gewinnen kann. Gleichzeitig verliert sich der Text weder in wissenschaftlichen Details noch in unnötigen Geschwafel. Daher können selbst mit dem Thema unvertraute Menschen leicht verstehen, worum sich dieser Text dreht.
Die Chance darauf, dass wir in ein klassisches Sci-Fi-Szenario geraten ist meiner Meinung nach eher gering. Solche Warnungen darf man also etwas weniger ernst nehmen. Allerdings gibt es selbst ohne diese verrückteren Ideen noch immer genug andere Extremfälle, die dazu führen könnten, dass die Menschen sich mit diesen technischen Fortschritten selbst Schaden zufügen. Daher sollte das diese Technik auf jeden Fall respektieren und vernünftige Regeln dafür aufstellen, wie die Menschen damit umgehen dürfen.
Anzeige
Bei tatsächlicher künstlicher Intelligenz, ja, da kann ich das nachvollziehen.
Ich sehe nicht wie diese nicht zu dem Entschluss kommen würde das wir eine Plage/Virus für diesen Planeten (oder alle) sind und komplett durchgeknallt.