Start Technik Apples Kinderschutzmaßnahmen stoßen auf gemischte Reaktionen

Apples Kinderschutzmaßnahmen stoßen auf gemischte Reaktionen

Die gestrige Ankündigung der Kinderschutzmaßnahmen von Apple bestätigte einen früheren Bericht, dass das Unternehmen damit beginnen würde, auf iPhones nach Fotos von Kindesmissbrauch zu suchen. Die Nachrichten haben gemischte Reaktionen von Experten sowohl für Cybersicherheit als auch für Kindersicherheit hervorgerufen.

Vier Bedenken wurden bereits geäußert, bevor die Details bekannt wurden, und die Ankündigung von Apple ging auf zwei davon ein …

Bedenken beim CSAM-Scannen

Zu den ursprünglichen Bedenken gehörte die Tatsache, dass digitale Signaturen für Materialien zum sexuellen Missbrauch von Kindern (CSAM) absichtlich verschwommen sind, um Dinge wie Zuschnitte und andere Bildanpassungen zu ermöglichen. Dadurch besteht die Gefahr von Fehlalarmen, entweder durch Zufall (Problem 1) oder durch böswillige Handlungen (Problem 2).

Apple ging diese an, indem es ankündigte, dass keine Aktion durch ein einziges übereinstimmendes Bild ausgelöst würde. Diejenigen, die solches Material sammeln, neigen dazu, mehrere Bilder zu haben, daher sagte Apple, dass ein bestimmter Schwellenwert erforderlich ist, bevor ein Bericht erstellt wird. Das Unternehmen gab nicht bekannt, was die Schwelle ist, sagte jedoch, dass es die Wahrscheinlichkeit eines falsch positiven Ergebnisses auf weniger als eine zu einer Billion reduziert hat. Das befriedigt mich persönlich voll und ganz.

Es bleiben jedoch zwei weitere Risiken.

Missbrauch durch autoritäre Regierungen

Ein digitaler Fingerabdruck kann für jede Art von Material erstellt werden, nicht nur für CSAM. Was hindert eine autoritäre Regierung daran, Bilder von Wahlkampfplakaten oder ähnlichem in die Datenbank aufzunehmen?

Ein Instrument, das auf schwere Kriminelle abzielt, könnte also trivial angepasst werden, um diejenigen zu erkennen, die sich einer Regierung oder einer oder mehreren ihrer Politiken widersetzen.

Potenzielle Ausweitung auf Messaging

Wenn Sie einen Ende-zu-Ende-verschlüsselten Nachrichtendienst wie iMessage verwenden, hat Apple keine Möglichkeit, den Inhalt dieser Nachrichten anzuzeigen. Wenn eine Regierung mit einem Gerichtsbeschluss eintrifft, kann Apple einfach mit den Schultern zucken und sagen, dass es nicht weiß, was gesagt wurde.

Aber wenn eine Regierung Fingerabdrücke für Textsorten hinzufügt – sagen wir das Datum, die Uhrzeit und den Ort eines geplanten Protests – dann könnte sie leicht eine Datenbank mit politischen Gegnern erstellen.

Die Electronic Frontier Foundation (EFF) hob das Missbrauchsrisiko hervor und wies darauf hin, dass weder Apple noch Benutzer die Möglichkeit haben, die digitalen Fingerabdrücke zu überprüfen. Eine Regierung kann Apple mitteilen, dass es nur CSAM-Hashes enthält, aber es gibt keine Möglichkeit für das Unternehmen, dies zu überprüfen.

Im Moment ist der Prozess, dass Apple markierte Bilder manuell überprüft, und nur wenn die Überprüfung missbräuchliches Material bestätigt, gibt das Unternehmen die Details an die Strafverfolgungsbehörden weiter. Aber auch hier gibt es keine Garantie dafür, dass das Unternehmen diesen Prozess fortsetzen darf.

Der Kryptographie-Akademiker Matthew Green wiederholte diesen Punkt nach seinen Tweets vor der Ankündigung.

Wer auch immer diese Liste kontrolliert, kann auf Ihrem Telefon nach beliebigen Inhalten suchen, und Sie haben keine Möglichkeit zu wissen, was auf dieser Liste steht, da sie für Sie unsichtbar ist (und nur eine Menge undurchsichtiger Zahlen, selbst wenn Sie sich in Ihre hacken Telefon, um die Liste zu erhalten.)

Die EFF sagt, dass dies mehr als ein theoretisches Risiko ist:

Wir haben diese Mission bereits in Aktion gesehen. Eine der Technologien, die ursprünglich entwickelt wurde, um Bilder von sexuellem Missbrauch von Kindern zu scannen und zu hashen, wurde umfunktioniert, um eine Datenbank mit „terroristischen“ Inhalten zu erstellen, zu der Unternehmen beitragen und auf die Unternehmen zugreifen können, um solche Inhalte zu verbieten. Die Datenbank, die vom Global Internet Forum to Counter Terrorism (GIFCT) verwaltet wird, ist trotz Aufrufen der Zivilgesellschaft beunruhigend ohne externe Aufsicht. Obwohl es daher unmöglich ist, zu wissen, ob die Datenbank zu weit reicht, wissen wir, dass Plattformen kritische Inhalte regelmäßig als „Terrorismus“ kennzeichnen, einschließlich Dokumentation von Gewalt und Repression, Gegenrede, Kunst und Satire.

In Hongkong beispielsweise wird Kritik an der chinesischen Regierung mit Terrorismus gleichgesetzt und mit lebenslanger Freiheitsstrafe geahndet.

Bedenken beim iMessage-Scannen

Es wurden auch Bedenken hinsichtlich des KI-basierten Scannens von iPhones auf Fotos in iMessage geäußert. Dieses Scannen basiert nicht auf digitalen Signaturen, sondern versucht stattdessen, Nacktfotos basierend auf maschinellem Lernen zu identifizieren.

Auch hier hat Apple Schutz eingebaut. Es ist nur für mutmaßliche Nacktfotos. Es betrifft nur Kinderkonten als Teil von Familiengruppen. Das Kind wird gewarnt, dass eine eingehende Nachricht möglicherweise unangemessen ist, und entscheidet dann, ob es angezeigt werden soll oder nicht. Es wird kein externer Bericht generiert, nur ein Elternteil wird gegebenenfalls benachrichtigt.

Aber auch hier wird das Argument der rutschigen Steigung vorgebracht. Dies sind alles Kontrollen, die derzeit gelten, aber die EFF fragt, was, wenn eine repressive Regierung Apple dazu zwingt, die Regeln zu ändern?

Regierungen, die Homosexualität verbieten, könnten verlangen, dass der Klassifikator trainiert wird, um offensichtliche LGBTQ+-Inhalte einzuschränken, oder ein autoritäres Regime könnte verlangen, dass der Klassifikator in der Lage ist, populäre Satirebilder oder Protestflyer zu erkennen.

Die Organisation argumentiert auch, dass falsche Übereinstimmungen hier ein definitives Risiko darstellen.

Wir wissen aus jahrelanger Dokumentation und Forschung, dass maschinelle Lerntechnologien, die ohne menschliche Aufsicht verwendet werden, die Angewohnheit haben, Inhalte, einschließlich vermeintlich „sexuell expliziter“ Inhalte, falsch zu klassifizieren. Als die Blogging-Plattform Tumblr 2018 einen Filter für sexuelle Inhalte einführte, fing sie bekanntermaßen alle möglichen anderen Bilder im Netz ein, darunter Bilder von pommerschen Welpen, Selfies von vollständig bekleideten Personen und mehr. Facebooks Versuche, Nacktheit zu kontrollieren, haben dazu geführt, dass Bilder berühmter Statuen wie der kleinen Meerjungfrau von Kopenhagen entfernt wurden.

Auch dies ist bei der aktuellen Implementierung von Apple aufgrund der enthaltenen Sicherheitsvorkehrungen kein Problem, aber die Entwicklung von Technologien, die den Inhalt privater Nachrichten scannen können, birgt ein enormes Potenzial für zukünftigen Missbrauch.

Der EFF hebt auch ein Problem hervor, das von einigen Kinderschutzexperten angesprochen wurde: dass ein Elternteil oder Erziehungsberechtigter nicht immer eine sichere Person ist, mit der private Nachrichten eines Kindes geteilt werden können.

Dieses System bietet Eltern, die nicht das Wohl ihrer Kinder im Blick haben, eine weitere Möglichkeit, sie zu überwachen und zu kontrollieren.

Einige der Diskussionen heben hervor, dass Apple versucht, eine schwierige Gratwanderung zu gehen. Ein Schutz besteht beispielsweise darin, dass Eltern nicht automatisch benachrichtigt werden: Das Kind wird zuerst gewarnt und erhält dann die Wahl, ob das Bild angezeigt oder gesendet werden soll oder nicht. Wenn sie sich dagegen entscheiden, wird keine Warnung generiert. David Thiel war einer von vielen, der auf den offensichtlichen Fehler dort hinwies:

Apples Kinderschutzmaßnahmen können nicht jedem gefallen

Alle unterstützen hier die Absichten von Apple, und ich persönlich bin mit dem Schwellenschutz gegen Falschmeldungen rundum zufrieden. Auch die anderen Sicherheitsvorkehrungen von Apple sind durchdacht und sollten effektiv sein. Das Unternehmen ist dafür zu loben, dass es versucht, ein ernstes Problem sorgfältig anzugehen.

Gleichzeitig sind die Rutschgefahrrisiken sehr real. Es ist äußerst üblich, dass eine Regierung – selbst eine relativ wohlwollende – sich Missionskriechen hingibt. Es führt zunächst ein Gesetz ein, dem sich niemand vernünftig widersetzen könnte, und erweitert später seinen Anwendungsbereich, manchmal salamiartig, Stück für Stück. Dies ist in autoritären Regimen besonders gefährlich.

Umgekehrt könnte man argumentieren, dass Apple mit der Veröffentlichung dieses Systems nur einen Fingertipp gegeben hat. Jetzt weiß jeder mit CSAM auf seinem iPhone, dass er iCloud ausschalten sollte, und Missbraucher wissen, dass sie iMessage nicht verwenden sollten, wenn sie Akte an Kinder senden möchten. Sie könnten also argumentieren, dass Apple dies überhaupt nicht tun sollte, oder Sie könnten argumentieren, dass es dies hätte tun sollen, ohne es jemandem zu sagen.

Die Realität ist, dass es hier keine perfekte Lösung gibt, und jede Haltung, die Apple einnehmen könnte, hat sowohl Vorteile als auch Risiken.

Gestern, bevor alle Details bekannt waren, war die überwiegende Mehrheit von Ihnen dagegen. Wo stehen Sie jetzt, wo die Details – und die Sicherheitsvorkehrungen – bekannt sind? Bitte nehmen Sie erneut an unserer Umfrage teil und teilen Sie Ihre Gedanken in den Kommentaren mit.

Nehmen Sie an unserer Umfrage teil

Foto: David Watkis/Unsplash

FTC: Wir verwenden einkommensverdienende Auto-Affiliate-Links. Mehr.

Weitere Apple-Neuigkeiten finden Sie unter 9to5Mac auf YouTube:

Vorheriger ArtikelAS Monaco und FC Nantes unentschieden 1:1 und teilen sich die Punkte
Nächster ArtikelEthereum steigt zum ersten Mal seit Mai über 3.000 USD