NeuralHash von Apple: Reverse-Engineering & Datenschutz vom Kinderporno-Scanner

Artikel ansehen

Was ich mich die ganzen Tage dazu Frage:

Neben dem iMessage-Nacktbildfilter plant Apple außerdem, iCloud-Fotos auf bekanntes Material von sexuellem Kindesmissbrauch (Child Sexual Abuse Material – CSAM) zu prüfen. Im Unterschied zu anderen Cloud-Anbietern arbeitet Apples System zum Teil lokal auf dem iPhone – der Nutzer wird praktisch durch sein eigenes Gerät überwacht. Bei rund 30 Treffern wird Apple informiert und kann die Bilder durch eigene Mitarbeiter sichten lassen – und dann an die zuständigen Behörden melden.

Bedeutet schlichtweg nunmal zuerst, dass der Telefonbesitzer unter Verdacht steht, eine schwerste kriminelle Handlung begangen zu haben!!!
Dabei ist das auch völlig Latte, ob der Verdacht dann später durch Apple wieder entkräftet wird…oder vielleicht auch nicht?!?

Beispielsituation:
Familie „XYZ“ hat vier kleine Kinder, im Alter zwischen zwei und neun Jahren und will drei Wochen Urlaub in Spanien am Strand machen. Sie werden noch von zwei anderen Familien begleitet, die zusammen auch nochmal sechs Kinder mitbringen.
Im Ergebnis fahren dann sechs Erwachsene und insgesamt zehn Kinder, im Altter von zwei bis zwölf Jahren.
Jede Familie hat auch ein eiFÖN mit dabei, um drei Wochen lang Bilder zu machen. Natürlich mit eiKLAUT - Anbindung…
In drei Wochen Strandurlaub kommen somit hunderte Fotos zusammen, auf denen die Kinder soweiso und teilweise die Erwachsenen nackt abgelichtet sind. Man fährt also guten Gewissens nach drei Wochen wieder nach Hause und wird dort direkt von der Polizei in Empfang genommen, weil irgend so ein verpickelter Apple-Praktikant wohl meinte, dass in Spanien wohl Verbrechen stattgefunden haben…
Sein Chef, der ebenfalls verpickelte COO, der noch nie eine Freundin hatte und deshalb überhaupt keine Ahnung von Sexualität und Nacktheit besitzt, bestätigt die Vorwürfe seine Praktikanten.
So nehmen dann die Dinge ihren Lauf, bis zum Polizeieinsatz vor der HaustĂĽre der Urlauber, die im Verdacht stehen, mit vier weiteren Komplizen (Familie B & C) insgesamt zehn Kinder sexuell missbraucht zu haben ĂĽber Tage und Wochen :bangbang:
Natürlich werden erstmal alle zehn Kinder in die Obhut des Jugendamt überstellt, bei solch einem Tatverdacht. Die monatelangen Ermittlungen der deutschen und spanischen Behörden sorgen dafür, dass die Familien daran zerbrechen. Nicht nur das…sondern am Ende verdächtigen die Familien sich sogar noch gegeneinander, für Taten, die niemals stattgefunden haben.

Natürlich erstmal eine fiktive Geschichte…aber wer weiss schon, wie weit so etwas gehen kann :interrobang:
Vielleicht könnte Apple sich ja nun mal nützlich machen und die Bilder der Taliban auf Kriegsverbrechen etc. scannen. Aber da hat der Konzern wohl Hemmungen, wegen der Privatssphäre und so…

Wer auf Apple setzt, hat seine Privatsphäre seit Bekanntwerden der Überwachung durch die USA (PRISM) bereits vor langer Zeit aufgegeben. Das gleiche gilt für den gesamten Microsoft „Ranz“…

1 Like

android_vs_apple

Was man halt mit Äpfeln so machen sollte…
19_e302ae90b902fb2921edd778c951cad3

Leider ist das Szenario aufgrund der Art der Implementierung des KiPo-Filters nicht realistisch.
Apple sucht nicht gezielt nach Kinder und Nacktheit, sondern nach Hashes bestimmter Bilder. Daher ist es zumindest mit der jetzigen Implementierung unproblematisch.
Natürlich könnte man mit der Technologie auch nach anderen bekannten Bildern suchen. Aber in der jetzigen Implementierung ist die Erkennung von einer bestimmten Art von Bild nicht möglich.
Der Schritt dahin ist aber nicht mehr so groß, da man das KI-Modell nur durch ein passendes für diesen Zweck ersetzen müsste. Trotzdem wäre er mit einigen grundlegenden Änderungen verbunden.

1 Like

Algorithmus nicht perfekt

Perfekt ist der Algorithmus sowieso nicht: Das ab iOS 14.3 enthaltene Verfahren kann laut Ygvar zwar Kompression und Größenänderungen von Bildern tolerieren, nicht jedoch das Zuschneiden oder Drehen von Bildern. Unklar bleibt noch, wie sehr Hash-Kollisionen Apples Ansatz stören könnten.

Der Konzern will erst alarmiert werden, wenn rund 30 Missbrauchsbilder vor dem Upload zu iCloud auf iPhones und iPads entdeckt werden. Dann sollen sich Mitarbeiter die Aufnahmen entschlüsseln können, um diese dann zu kontrollieren. Erst dann sollen Kinderschutz und Behörden eingeschaltet werden. (Quelle: Motherboard / Heise)!

Also ich verstehe es so, wie es dort steht und datraus wurde das Szenario gesponnen! Es ist natürlich erstmal fiktiv, stht ja auch da…
0