TEILEN

Verdächtige Fotos werden vor dem iCloud-Upload gescannt, Kinder, die Nacktfotos über iMessage empfangen oder versenden, werden automatisch gewarnt. Kritiker fürchten, Apple öffne »die Büchse der Pandora«. (Via)

In den letzten Tagen wurde viel über diese Pläne von Apple diskutiert. Datenschützer sehen darin einen massiven Eingriff in die Privatsphäre. Auch „Whistleblower“ Edward Snowden hat sich dazu aus Russland gemeldet:

„Wenn sie heute nach Kinderpornos scannen können, können sie morgen nach allem scannen“, fügt der in Moskau lebende Snowden hinzu. (Via)

Vor allem: Es ist auch einfach nicht Apples Aufgabe, hier den Welt-Sheriff zu spielen. Kann ich dann meinen 2,5jährigen Sohn nicht mehr beim Baden fotografieren, ohne Angst haben zu müssen, dass das BKA vor meiner Tür steht? Ich denke auch, dass man hier (gezielt?) versucht, die „Büchse der Pandora“ zu öffnen. Ich möchte einfach nicht, dass Apple meine Fotos scannt, Punkt!

Sollte dieses Feature tatsächlich durchgehen, werde ich alle meine Apple-Produkte verkaufen und auf Android umsteigen.


Anzeige

39 KOMMENTARE

  1. Glaubt hier ernsthaft jemand wenn das für iOS kommt, dass es nicht in absehbarer Zeit für Android folgen wird? Google unterliegt letztlich den selben Vorschriften wie Apple…
    Ok, Android hat man die Möglichkeit von Custom-ROM, das ist aber letztlich auch nur ein Tropfen auf dem heißen Stein.

  2. Ich wette jeder des sich darüber auflegt, hat mindestens eine App installiert, die Zugriff auf Eure Bilder fordert und das wären so 90% aller Apps. Ein hoch auf meine altmodische Digitalkamera 😉

  3. Vielleicht kann ich als IT-Sicherheits Master der mal ein Wahlfach Medienforensik am Frauenhofer Institut für Medienforensik gehört hat, die Gemüter hier etwas beruhigen, auch wenn ich es natürlich begrüßen würde, wenn möglichst viele von Apple auf Android umsteigen ;):

    Um zu erklären, was hier passiert, muss ich erstmal den Begriff des „Hashs“ erklären: Einen Hash kann man sich wie den Fingerabdruck einer Datei vorstellen, er hat eine feste Länge, aber ist für jede Datei immer ein bisschen anders. Generiert man den Hash einer Datei neu ohne dass die Datei verändert wurde, wird immer wieder genau der gleiche Hashwert herauskommen.
    Gerade bei Bildern bringt uns das natürlich erstmal wenig. Man könnte immer eine JPEG-Bilddatei in einem beliebigen Bildprogramm öffnen, man müsste sie nichteinmal bearbeiten. Wenn wir die Datei einfach neu abspeichern, startet die JPEG-Kompression über das Bild, die niedrigen Koeffizienten die wenig zum Bild beitragen werden entfernt und wir erhalten ein „neues-altes“ Bild. Diesen Vorgang könnte man beliebig wiederholen und aus den neu entstandenen Bildern würde jedes Mal ein neuer Hashwert entstehen, der so in noch keiner Datenbank zu finden sein wird.

    Deswegen setzt man hier auf das Konzept der „robusten Hashfunktionen“. Diese sind invariant gegenüber leichten bis mittleren Änderungen wie JPEG-Kompression, Drehen der Bildinhalte, Ändern der Farben etc. Die technischen Details spare ich mir jetzt mal, aber festzuhalten ist, dass man ein Bild eigentlich komplett unnutzbar machen müsste, um dieses Verfahren zu umgehen. Die Hashwerte werden immer noch so statistisch ähnliche robuste Hashwerte haben, dass sie maschinell erkennbar sind.

    Das wichtigste zu Hashes am Schluss: Jede Datei hat genau einen Hashwert. Es ist aber mathematisch bewiesen und auch absolut unstrittig in der Wissenschaft, dass sich aus einem Hashwert die ursprüngliche Datei nicht zurück errechnen lässt. Gerade bei Kinderpornographie findet dieses Verfahren schon seit Jahrzehnten Anwendung in der Medienforensik und das Frauenhofer Institut hat die entsprechenden Algorithmen hierzulande für das BKA implementiert.

    Da man es natürlich keinem Beamten zumuten kann (allein vom Arbeitsaufwand/psychischer Belastung), sich die Bilder alle wirklich anzuschauen und da man die Privatsphäre des Verdächtigen schützen möchte, wird in einer forensischen Untersuchung von den Dateien auf der Festplatte des Verdächtigen der Hash berechnet. Die berechneten Werte werden dann durch ein Programm mit einer Datenbank von bereits bekannten kinderpornographischen Inhalten verglichen. Wenn es Übereinstimmungen über einer gewissen Schwelle gibt, schaut man dann genauer hin. Dieses Verfahren deswegen so erfolgreich, weil die kinderpornographischen Inhalten immer in den entsprechenden Gruppen getauscht werden und immer wieder die gleichen Inhalte bei verschiedenen Leuten gefunden werden. Unser Prof meinte damals, dass die Pornosammlungen bei zwei Pädophilen, die noch nie Kontakt miteinander hatten, normalerweise zu über 70% identisch sind.

    TL:DR: Wenn deine Bilder gehashed werden, weiss Apple dass die eine Datei mit dem Hashwert „xyz123“ auf deinem Handy hast. Aus dem Hashwert „xyz123“ kann Apple (und auch die NSA) nicht zurückrechnen, was in der Datei steht, oder was auf einem Foto zu sehen ist. Nur wenn der Wert „xyz123“ in einer Datenbank mit bekannten Kinderporno-Hashes steht, wird man Alarm schlagen.
    Und nein, Falschbeschuldigungen werden nicht vorkommen. Zwar hat ein Hash je nach Verfahren eine feste Anzahl an Ziffern und die Eingabemenge (die Anzahl der Dateien) ist unendlich. Theorethisch ist als also möglich, irgendwann eine Datei zu finden, die den gleichen Wert hat, wie eine andere, in der Praxis ist das aber kein relevantes Problem um nicht zu sagen „ziemlich impossible“.
    Wenn du jetzt also Leo beim Baden fotografierst wird dabei ne Datei „abc456“ herauskommen, aber niemand kann wissen, dass die Datei mit Wertt „abc456“ deinen Filius beim Baden zeigt. Du bist also safe, solltest aber vermutlich trotzdem auf Android umsteigen!

    TL:DR2: Leute die sich bei sowas in die Hose machen, sollten vorher aber mal Faktor 1000000x mehr Angst haben, wenn sie Dateien unverschlüsselt auf irgendeinem Server ablegen, den sie nicht kennen. Da gibt man wirklich jedes bisschen PPrivatsphäre in die Hände von Dritten. Robuste Hashfunktionen wie sie hier beschrieben werden, bedrohen eure Privatsphäre hingegen 0,0.

    • Du verstehst das Problem nicht. Es geht darum, dass hier ein System geschaffen wird, dein Phone nach beliebigen Inhalten abzusuchen. Die Parameter welche Hashes böse sind können beliebig von Apple geändert werden. Denkst du nicht authoritäre Staaten läuft da schon der Sabber?

      Zum Thema falsch beschuldigen: 1. Solange Apple nicht verrät wie sie Hashen ist alles was du schreibst Kaffeesatzleserei. Was aber mit so ziemlich allen „robusten“ oder auch rolling Hashverfahren derzeit möglich ist, ist die gezielte Manipulation. Ich weiß also wie ein böser Hash aussieht, bastle also ein Bild, was zwar diesen bösen Hash hat, aber ansich nichts böses ist. Wenn das nicht missbraucht werden wird!

      Was deinen letzten Absatz betrifft muss ich dir natürlich zustimmen was die unverschlüsselten Sachen auf fremden Clouds betrifft. Aber das MUSS man nicht machen, wenn man ein Smartphone hat. Und wie gesagt, Robuste Hashfunktion? Woher hast du die Info das Apple so eine verwendet? Zudem sollte sie auch kryptografisch sicher sein, und da kenne ich keine die die Anforderungen von Apple erfüllt.

      • Eine gezielte Manipulation um einen ähnlichen Hashwert zu erhalten mag möglich sein, dass setzt aber voraus, dass der Angreifer alle anderen Sicherheitsvorkehrungen umgangen hat und dann noch dem Opfer das Material untergeschoben hat. Dazu benötigt der Angreifer noch das Originalbild. Ein solches Szenario als realistisch anzusehen und nicht als extrem seltenen Einzelfall ist allerdings absurd.

        „Die Parameter welche Hashes böse sind können beliebig von Apple geändert werden.“

        Nein. Apple kann nur die Hashes von bekanntem Material verwenden. Die Annahme Apple könnte beliebig viele Varianten von Dateien generieren, die Hashes berechnen und damit erfahren, was in meinem Liebesbrief-Dokument steht ist absurd und aufgrund der ganzen zufälligen Variablen die bei der Erstellung einer solchen Datei einfließen zeitlich unmöglich.

        „Und wie gesagt, Robuste Hashfunktion? Woher hast du die Info das Apple so eine verwendet?“

        Weil dass das einzig sinnvolle Hashingverfahren ist und von allen Strafverfolgungsbehörden auf der ganzen Welt als absoluter Standard in der Forensik verwendet wird. Im Artikel wird ausserdem von Hashes gesprochen die mit bekannten Hashes in einer Bilddatenbank verglichen werden. Dafür sind normale Hashes aufgrund der fehlenden Robustheit gegen leichte Änderungen nicht geeignet.

      • >> Es geht darum, dass hier ein System geschaffen wird, dein Phone nach beliebigen Inhalten abzusuchen.

        Kann das nicht jeder Virenscanner genauso?

      • Authoritäre Staaten sind also auf Apple angewiesen um Ihre Bürger, Opposition und Feinde im Ausland auszuspähen – interessant, allerdings ist das völliger Unfug.
        Ich gebe dir allerdings recht, bestimmt versteht er „das Problem“, also dein Problem nicht. Wieso auch…

    • Nun ich auch ich bin Informatiker mit akademischem Abschluss und bei allem, dass du da erklärst gebe ich dir Recht. Dennoch liegt deiner Erklärung eine falsche Grundannahme zugrunde. Hier wird nicht gehasht sondern eine trainierte „KI“ angewendet die eine Bilderkennung durchführt.

      • In dem von Steve verlinkten Spiegel-Artikel wird explizit von Hashes gesprochen, die mit einer Bilddatenbank verglichen werden.

        • Edit: Auch wenn das nicht im Artikel steht, wofür eine KI zum Einsatz kommen könnte, wäre das Erkennen von Bildern die Kinder von sich selbst gemacht haben. Das ist natürlich mit dem Hashingverfahren nicht mehr möglich, da es sich um neue, nicht bekannte Bilder handelt. Diese Funktion ist aber etwas, was Eltern für ihre Kinder aktivieren können so wie ich es verstehe und nicht standardmäßig angeschaltet.

          Nacktheit technisch auf Bildern zu erkennen ist natürlich gut umsetzbar und ja auch schon auf Facebook, Youtube, Instagram etc im Einsatz. Es handelt sich aber hier immer noch um eine freiwillig einsetzbare Funktion und es wird nicht dein Handy durchsucht, ob du irgendwelche Nudes hast, wie bei der Kinderpornosache auf die ich mich bezogen hatte.

  4. Zum Glück bin ich im Juni weg von Apple, gar nicht wegen der Geräte aber die Preisleistung stimmt einfach hinten und vorne nicht. Ich habe ein Poco X3 Pro mit 8GB RAM und 256GB Speicher Dualsim+mögliche SDXC Erweiterung für knapp 250€ gekauft.

  5. Achtung, Halbwissen!

    1. Es werden nur Fotos von Kindern gescannt, die in einem „iCloud Family Plan“ mit ihren Eltern sind.

    2. Das Scannen findet mithilfe des AI-Chips ausschließlich auf dem Gerät statt, hier wird nichts an Apple oder Behörden weitergeleitet.

    3. Wenn etwas verdächtiges gescannt wird, werden die Eltern benachrichtigt, die im iCloud Account mit drin sind. Die Nachrichten bleiben End-to-End verschlüsselt und Apple bekommt hiervon nichts mit.

    Hier werden alle Features die kommen genau erklärt: https://9to5mac.com/2021/08/05/apple-announces-new-protections-for-child-safety-imessage-safety-icloud-photo-scanning-more/

    Würde mich freuen, wenn zum Artikel ein Update gepostet wird 🙂

    • Edit: Gescannt wird nur in der „Messager App“, nicht in der Foto Library, falls es noch jemanden interessieren sollte 🙂

      • Das Ding ist, es läuft dann definitiv schon ein Stück „Scannersoftware“ auf einem Privaten Endgerät.

        Wir wissen alle wie sowas von Politik und Co in Zukunft missbraucht wird. Es heisst Anfangs immer: „Es wird doch nur, und nur und nur für diesen Zweck und überhaupt wird nur, und auch nur für 3 Monate und erstmal nur im Verdachtsfall und…“ einfach zuviel nur.

        So hats in China auch angefangen 🙂 Nur hier mal bisschen was, dann da mal bisschen was und überhaupt. Es ist die Büchse der Pandora, mit viel Überwachung kannst du viel gutes tun und viel böses ermöglichen.

  6. Aber du hast doch nichts zu verbergen, oder? ;p

    Und hey, damit würde sich Apple wieder zum Vorreiter aufschwingen 😀 #innovativ

  7. Ein absolutes Unding, ich befürchte aber auch mit Android kommst du auf dauer nicht weit wenn das bei Apple tatsächlich so durchgeht.
    Am besten ist derzeit immer noch ein Custom Rom – Da muss man sich halt etwas mit beschäftigen zu beginn, dann läuft das aber auch besser als ein Stock Android.

    Bezüglich Cloud: Wer seine Bilder (automatisch) ein eine öffentliche Cloud, sei es MS, Google oder Apple lädt hat so einen Scan längst, da es die US Gesetze vorschreiben.

    Und nochmal zu den KiPo Nutzern: Die wissen längst wie man sowas aushebelt. Klar ab und zu wird mal ein Depp gefangen, aber im großen können die sich schützen. Man muss ja nur mal sehen wie die letzten großen KiPo Ringe ausgehoben wurden. Da war nichts mit technischer Überwachung, das war alles gute alte Polizeiarbeit wo jemand in die Szene eingeschleust wurde.
    Sinnvoll wäre z.b. ein Gesetz das den Strafverfolgungsbehörden erlaubt selbst zu solchem Zwecke KiPo Material zu nutzen – natürlich mit Zustimmung der Opfer. Dann könnte man sich da schneller zutritt verschaffen und Vertrauen gewinnen.

  8. Wer vorhat irgendwann mal nach China oder in ein ähnliches Land beruflich oder für einen Urlaub zu reisen, sollte aufpassen keine Bilder in der Cloud (oder auch über WhattsApp auf dem Handy) zu haben die dort zu Problemen führen. Eine lustige Karrikatur könnte sonst zu einer ungewollten Reise Verlängerung führen.
    Auch wenn Apple angeblich nur gegen Kinderpornos vorgehen will, glaube ich nicht das sie die Büchse der Pandora wieder geschlossen bekommen, wenigstens nicht wenn sie in solchen Staaten noch geschäfte machen wollen. Die Frage ist nur welche Länder für Apple wichtig genug sind um sowas zu erzwingen, das könnte zum Beispiel für Deutsch-Türken zum Problem werden wenn sie in die Heimat reisen.

  9. Es werden nich die Bilder an sich gescannt sondern Hash-Werte verglichen, die mit Kriminalpolizei-Datenbanken abgeglichen werden.
    Machts aber generell nicht weniger ablehnenswert…

    • Das ist falsch. Hier wird ein AI-Chip verwendet und es handelt sich dabei um CSMA-Erkennungstechnik. Hash-Werte auf Well-Known vergleichen ist sowas von 2000. Vorerst.

  10. Hier geht es um die Icloud oder ? Also nicht um die Bilder auf dem iPhone ?

    Da ich aus gutem Grund keine Cloud Dienste nutze und niemals nutzen werde, ist mir das egal.

    Wer seine Bilder irgendwo hochlädt und damit aus der Hand gibt, ist selbst schuld.

    • Nein, es wird OFFLINE AM HANDY gescannt. Die Daten aus der Cloud dienen später dazu um zu beurteilen wie wahrscheinlich dein Bild ein böses Bild ist, und ob dann Apple weitere Handlungen macht.

    • Cloud (Storage Dienstleister) sind bereits gesetzlich dazu verpflichtet CSMA zu implementieren. Liegt ja auch auf deren Server und da dürfen die (gesetzlich verpflichtet) nach CSMA-Material und sonstigem suchen. Hier gehts um private Endgeräte.

  11. Wechseln auf Android … auch wenn ich von Apple nix halte, sage ich mal warte noch ab, auch Google wird nachziehen.

    Apple und Google nutzen halt ihr Monopole an jeder stelle aus um ihre Welt so zu machen wie sie sie haben wollen.
    Zensur in Apps sind jetzt schon kein Problem „Tangram“.
    Anime und Mangas werden jetzt z.b. in Japan mehr „Zensiert“ damit sie noch über Google und Apple Store vertreiben werden, weil Google/Apple mal wieder die Richtlinien angepasst haben.
    Irgendwann wird auch in jeder App Genderkacke wie *innen zur Pflicht werden, sonst kommt die App nicht mehr in den Store.

  12. Als Android-Nutzer muss ich aber sagen, dass Google mit Android jetzt auch nicht der Heilsbringer ist. Die wollen genau so alle deine Daten.

  13. Um sehen zu können, iob das Kind auf deinem Handy wirklich dein Sohn ist, muss das natürlich in deinem „Profil“ verknüpft werden. Aber jetzt könntest du ja auch ein Foto von einem Schulfreund deines Sohnes machen oder du machst ein Foto deiner Nichte. Besser wir verknüpfen dein Profil mit allen aus deiner Familie, deinen Freunden und der Klasse deines Sohnes.
    Guck, im Sinne des Kinderschutzes ein hübsches nettes Datennetzwerk aufgebaut.

    Mal so nebenbei: Was will Apple denn dann anfangen, wenn sie was finden? Einfach löschen? Denjenigen Anzeigen? Mit welchen Beweisen denn? Sobald man auch nur einen Screenshot davon anfertigt, ist Apple ja selbst im Besitz kinderpornografischem Inhalts, ganz ohne staatlichen Auftrag.
    Alles sehr dünn. Und auch, wenn die lieben Kinder natürlich immer ein guter Aufhänger sind, warum damit aufhören? Für Apple dürfte doch z.B. illegaler Downloadcontent (aka. Filme oder Musik) VIEL interessanter sein.

    • So wie ich das verstanden habe wird erstmal automatisiert der Hashwert eines jeden Bildes, das in die Cloud geladen wird, gegen eine Datenbank mit bekannten Kinderporno Bildern abgeglichen. Da es wohl dazu kommen kann das zwei völlig verschieden Bilder den selben Hashwert haben, wird beim ersten mal nichts passieren, erst wenn der selbe Account mehrere Treffer hat, wird das an Mitarbeiter von Appel zur prüfung weitergeleitet. Die schauen dann nach ob es sich um Strafrechtlich relevante Bilder handelt oder ob jemand mit seinen Urlaubfotos nur Pech hatte. Dann werden die Fotos und alle bekannten Info an eine Behörde weitergleitet, die sich dann darum kümmert das die zuständigen Polizei behörden informiert werden. Nach Amerikanischen Recht scheint das das übliche und auch legale Vorgehen von Facebook, Instagramm und co zu sein.

      • Und es ist also gerecht, die privaten Daten ALLER zu scannen und zu durchsuchen, um die 0,001% der KiPo-Betrachter ausfindig zu machen?
        Und Übermorgen wird dann dein Nachrichtenverlauf gescannt, ob du dich mal abfällig über den Präsidenten geäußert hast und darfst dann nicht mehr in die USA einreisen.

        • „Und schon seit Jahren wird dann dein Nachrichtenverlauf gescannt, ob du dich mal abfällig über den Präsidenten geäußert hast und darfst dann nicht mehr in die USA einreisen.“

          Fixed that for you. You are welcome.

      • Es gehört zum Wesen des Rechtsstaates, dass er sich an seine selbst gesetzten Grenzen hält, insbesondere die Grundrechte.

        Ob der Staat meine digitale Privatsphäre missachtet, ob er meine Haustür eintritt und prophylaktisch meinen Schreibtisch durchsucht, oder ob der Staat mich foltert, um ein Geständnis zu erzwingen, ist alles im Grunde dasselbe: es ist das Anzeichen eines totalitären Staates.

        Und dabei macht es auch keinen Unterschied, ob der Staat selber foltert oder dies – wie hier mit Apple – einem privaten Folterunternehmen gestattet.

        Grundrechte dürfen nicht verletzt werden, auch nicht im Namen der guten Sache.

        • „Grundrechte dürfen nicht verletzt werden, auch nicht im Namen der guten Sache.“

          Erzählst du das auch manchmal deinen AfD Freunden?

          • Kann ich auch mal einen Kommentar abgeben, ohne dass irgendein linkes Arschloch einen Parteienstreit daraus macht?

            Aber wo du es ansprichst, welches Grundrecht will die AfD denn genau verletzen?

          • Hast du auch den Artikel gelesen oder nur die reißerische Überschrift? Artikel 16 GG stellt lediglich klar, dass politisch Verfolgte Asylrecht genießen. Das stellt niemand in Abrede. Es geht lediglich um die Praxis seit 2015, erstmal jeden reinzulassen, dann halbherzig zu prüfen und am Ende so gut wie niemanden rauszuschmeißen.

            Ein Recht, deutschen Boden zu betreten, besteht erst nach der Anerkennung als Asylberechtigter. Selbstverständlich hat die Prüfung also vorher stattzufinden. Du bekommst deinen Führerschein ja auch nicht, bevor du die Fahrprüfung abgelegt hast.

HINTERLASSEN SIE EINE ANTWORT

Please enter your comment!
Please enter your name here