Das japanische Unternehmen Vaak hat eine Software entwickelt, die mittels KI erkennen kann, dass jemand beabsichtigt, einen Ladendiebstahl zu begehen […] Das soll funktionieren, weil der Algorithmus mit über 100.000 Stunden Überwachungs-Videos gefüttert und trainiert wurde. Es wird erkannt, wenn sich eine Person im Geschäft ungewöhnlich verhält, beispielsweise, wenn sie nervös wirkt oder verdächtige Gesten macht, die einen anstehenden Diebstahl ankündigen könnten.
„Verdächtige Gesten macht“? Ich weiß ja nicht. Auch wenn es in dem angehängten Video wohl funktioniert, eben weil man das entsprechend zusammenschneiden kann, gehe ich davon aus, dass es hier sehr viele falsche Alarme und Verdächtigungen gibt. Wenn er den Herzschlag dazu messen könnte und/oder die Schweißentwicklung, dann vielleicht, aber anhand von Gesten und Körperhaltung potentielle Ladendiebe vorab zu identifizieren halte ich für relativ unwahrscheinlich bis unmöglich. Was meint Ihr?
Quelle: MobileGeeks.de
Anzeige
Was viele nicht wissen: alle Überwachsungskameras sind in der Lage Bewegungen zu tracken, heatmaps u.Ä. zu erstellen. Der Einzelhandel nutzt Kameras schon lange zu Marketing-Zwecken. Da wird jeder m² studiert und geschaut wo/wie Kunden am meisten hinlaufen, zuerst hinschauen, spontan zugreifen etc.
Darauf eine kleine KI stülpen, welche tausende Ladendiebe auswertet und deren Bewegungen interpretiert, ist nicht wirklich allzu kompliziert.
Jeah PreCrime.
Aber Hauptsache technischer Fortschritt um jeden Preis
also ich finde das schon problematisch dass man jetzt verurteilt werden kann nur weil ein programm sagt, dass man (angeblich!!!) einen diebstahl begehen wird. was ist wenn sich das programm vertut?! man kann doch nicht einfach aufgrund so eines computerprogramms eingesperrt werden oder bin ich da der einzige der da bedenken hat?!?
Wo steht da was von Verurteilt?….
Ansonsten erinnert schon stark an Minority Report.
Eingreifen wird man dann trotzdem nur können, wenn der Diebstahl am Ende auch ausgeführt wird.
Das System wird also bestenfalls die Aufmerksamkeit eines Menschen auf bestimmte Personen lenken können.
Das Problem sind denke ich hier auch die „falsch positiven“ es gibt da einen sehr guten Artikel von der Sz zu:
https://projekte.sueddeutsche.de/artikel/digital/falsch-positive-machen-prognose-algorithmen-zum-problem-e716375/?autologin=true
Guter Artikel. Und genau so würde es wohl auch mit den Uploadfiltern aussehen. Leider scheinen die wenigsten Politiker von soetwas zu wissen
Ich halte es schon für möglich. Die künstliche Intelligenz hat sich in den letzten Jahren exponentiell schnell entwickelt. Es könnte in 10-20 Jahren schon die „richtige“ KI geben, die sich von einem denkenden Menschen für uns kaum noch untercheidet.
Und wenn das der Fall sein sollte und es dieser KI erlaubt sein wird sich selber neu und besser zu programmieren, dann könnte das auch irgendwann unser Untergang sein. Zumindest wenn man keine Sicherheitsmechanismen mit einbaut. Sowas wie: Tuhe nie einem Menschen was. Denn ich denke es wird nicht lange dauern bis eine selbstständig denkende KI erkennen würde, dass der Mensch dem Planeten nicht gut tut.
Google ist bei der Entwicklung künstlicher Intelligenz übrigens ganz vorne mit dabei. In Starcraft 2 hat ihre KI 5:0 gegen Profis gewonnen.
Nein.
Sorry aber ich glaube da überschätzt du was „KI“s heute ausmacht um einiges. Was momentan als KI Gilt, sind ja meist die Deep Learning Algorythmen – Also ein komplexerer Stück Code der seine Ergebnisse von alleine optimiert. Die Algorythmen sind jedoch immer nur für einen expliziten Anwendungsfall funktionabel, den man eben programmiert hat.
Am Ende läuft die DeepLearning KI unzähligen male durch das Szenario und trifft jedes mal Entscheidungen, bis am Ende ein Weg enstanden ist der die höchste Siegeschance ergibt. Für die StarCraft KI lief dies laut Entwickler so oft, wie über 200 Jahre Spielzeit in StarCraft 2, und wurde erweitert dass zufällige Entscheidungen und diejenigen, mit der höchsten Siegchance gemixt wurden.
Trotzdem war die StarCraft 2 DL KI stark limitiert. Sie konnte zB nur 1-vs-1 gegen Protoss spielen auf einer einzigen Karte spielen, da nur dafür die Algorythmen die Entscheidungen auswerten konnten. Dazu konnte die KI nur gewinnen, solange sie so eingestellt war, dass sie das eigene Sichtfeld auf der Karte dauerhaft im Blick hatte, also im Gegensatz zum Menschen keine Kamerabewegungen machen musste. Zudem stellten Leute hinterher fest, dass die KI – entgegen der Aussagen der Entwickler – mit übermenschlicher Klickgeschwindigkeit agiert hat, also mehr Aktionen pro Sekunde durchgeführt hat als ein Mensch es je könnte.
Entsprechend ist das Ergebnis der DL Starcraft KI zwar immer noch großartig, aber nicht mal im Ansatz irgendwo in der Nähe davon, dass die KI besser ist als menschliche Profispieler. Die kann unter ganz bestimmten Umständen mit übermenschlichen Vorteilen gewinnen, mehr nicht.
Dass KIs in 10-20 Jahren übergreifende Entscheidungen auf vielen Gebieten treffen können oder gar Menschliches Denken vollständig imitieren, überschätzt hier den aktuellen Stand der Technik extrem.
Du hast nicht richtig gelesen wie ich es formuliert habe.
,,Es „KÖNNTE“ in 10-20 Jahren schon die „RICHTIGE“ KI geben.“
Dein ganzer Text war also überflüssig, da man diesem Satz entnehmen kann, dass ich durchaus weiß, dass noch keine richtige künstliche Intelligenz existiert und ich es für lediglich für MÖGLICH halte, dass es eine in 10-20 Jahren geben KÖNNTE. Google setzt seit ein paar Jahren zumindest alles daran. Und genügend Ressourcen haben sie.
Sagt mal weil es gerade zum Thema passt.
Wieso reden inzwischen eigentlich immer alle sofort von KI, wenn irgend ein Algorithmus mal etwas komplexeres macht?
KI steht für mich eigentlich immer noch für ein sich selbst gewusst werdendes und/oder selbständig „denkendes“ künstliches Wesen. Stichwort: Turing-Test
KI steht allgemein für ein System was selbstständig lernt. Der „Computer“ hat mithilfe des Algorithmus selbstständig Verhaltensweisen angehender Diebe erlernt (so wie ein Kind von der Mutter lernt mit Löffel und Gabel zu essen) um mit diesen Informationen selbstsändig zu entscheiden: Dieb oder kein Dieb. Das was Du beschreibst ist auch KI, aber die höchste Form davon. Vor dieser hab ich ehrlich gesagt ne scheiss Angst. ^^
Es ist halt ein cooles Buzzword – und die „verkaufen“ sich gut 😉
Weil es kürzer uns catchiger ist als „Algorithmus“.
Weil KI streng genommen die falsche Übersetzung ist. KI wird als Übersetzung für AI – Artificial Intelligence verwendet. Das Problem dabei ist das Wort Intelligence. Das kennen wir auch von der C.I.A. der Central Intelligence Agency. Intelligence kann man nun einmal auf verschiedene Weisen übersetzen. a) Intelligenz, b) Geheimdienst, c) Nachricht, d) Information, e) Aufklärung, f) Auskunft, g) Auffassungsvermögen, h) Verstandeskraft
Da Intelligenz und Intelligence ähnlich klingen, wird dies halt sehr gerne falsch verwendet.
Das englische AI meint vermutlich eher „Künstliche Informationsverarbeitung“.
Was Du unter Künstlicher Intelligenz verstehst, würde im englische eher Artificial Mind (A.M.) bezeichnet werden. Also als künstlichen Verstand.
Reihe es in die modernen Buzzwords wie Cloud oder Blockchain ein, mit man jeden Ahnungslosen Manager sofort auf seine Seite ein. Echte Künstliche Intelligenz ist das alles nicht, sondern nur komplexe Algorythmen die riesige Datenmengen analysieren und Muster darin erkennen, die man als Mensch nur mit sehr viel Aufwand auswerten kann. Damit optimiert sich der Algorythmus auf den vorgesehenden Einsatz, aber hat keinesfalls eine Form von Intelligenz.
Ich glaube, ein professioneller Typ wird da kaum ertappt werden.
PreCrime gefällt dieser Post
Minority Report lässt grüßen!
Na ja wenn es danach geht, ist jeder Polizeibeamte Teil des PreCrime Systems. Es gibt nunmal verdächtige Verhaltensweisen die jmd. verraten. Ich hab das schon desöfteren Miterlebt ^^