Start Technik Apple CSAM FAQ behebt Missverständnisse und Bedenken

Apple CSAM FAQ behebt Missverständnisse und Bedenken

Apple hat auf Missverständnisse und Bedenken bezüglich seiner Ankündigungen zum Fotoscannen reagiert, indem es eine CSAM-FAQ veröffentlicht hat, in der häufig gestellte Fragen zu den Funktionen beantwortet werden.

Während Kindersicherheitsorganisationen Apples Pläne begrüßten, den Besitz von Materialien zum sexuellen Missbrauch von Kindern (CSAM) aufzudecken und Kinder vor Raubtieren zu schützen, gab es eine Mischung aus informierter und uninformierter Kritik …

Hintergrund

Verwirrung in den Mainstream-Medien entstand, als Apple gleichzeitig drei separate Maßnahmen ankündigte, wobei viele Nicht-Techniker die ersten beiden verwechselten:

Explizite iMessage-Fotowarnungen für Kinder in iCloud-Familiengruppen Erkennung bekannter CSAM-Fotos durch Scannen nach digitalen Fingerabdrücken Reagieren auf Siri und Suchanfragen nach CSAM-Material mit einer Warnung und Links zur Hilfe

Es fehlte auch an Verständnis für die Methoden, die Apple verwendet. Im Fall von iMessage verwendet es die KI auf dem Gerät, um Bilder zu erkennen, die wie Aktfotos aussehen. im Fall von CSAM vergleicht es digitale Fingerabdrücke mit Fingerabdrücken, die aus den gespeicherten Fotos eines Benutzers generiert werden.

In keinem Fall kann jemand bei Apple eines der Fotos sehen, mit Ausnahme von jemandem, der für mehrere CSAM-Fotos gekennzeichnet wurde, wenn jemand bei Apple Kopien mit niedriger Auflösung manuell überprüft, um sicherzustellen, dass es sich um echte Übereinstimmungen handelt, bevor die Strafverfolgungsbehörden informiert werden. .

Es gab auch Verwirrung zwischen Datenschutz- und Missbrauchsrisiken mit den heutigen Merkmalen (die null bis äußerst gering sind) und dem Potenzial für Missbrauch durch autoritäre Regierungen zu einem zukünftigen Zeitpunkt. Cybersicherheitsexperten warnen vor letzterem, nicht vor ersterem.

Apple versuchte bereits, die repressiven Bedenken der Regierung auszuräumen, indem es vorerst nur in den USA auf den Markt kam und erklärte, dass die Expansion von Land zu Land erfolgen würde, wobei die jeweiligen gesetzlichen Rahmenbedingungen berücksichtigt würden. Die FAQ versucht nun, dieses und andere Probleme anzugehen.

Häufig gestellte Fragen zu Apple CSAM

Apple hat ein sechsseitiges FAQ veröffentlicht, das auf einige der geäußerten Bedenken eingehen soll. Es beginnt mit der Anerkennung der gemischten Antwort.

Wir möchten Kinder vor Tätern schützen, die Kommunikationsmittel verwenden, um sie zu rekrutieren und auszubeuten, und die Verbreitung von Material über sexuellen Missbrauch von Kindern (CSAM) begrenzen. Seit wir diese Funktionen angekündigt haben, haben viele Interessengruppen, darunter Datenschutzorganisationen und Kindersicherheitsorganisationen, ihre Unterstützung für diese neue Lösung zum Ausdruck gebracht, und einige haben sich mit Fragen gemeldet. Dieses Dokument dient dazu, diese Fragen zu beantworten und für mehr Klarheit und Transparenz im Prozess zu sorgen.

Das Unternehmen betont dann, dass die ersten beiden Funktionen völlig getrennt sind.

Was sind die Unterschiede zwischen der Kommunikationssicherheit in Nachrichten und der CSAM-Erkennung in iCloud-Fotos?

Diese beiden Funktionen sind nicht identisch und verwenden nicht dieselbe Technologie.

Die Kommunikationssicherheit in Messages wurde entwickelt, um Eltern und Kindern zusätzliche Tools an die Hand zu geben, um ihre Kinder vor dem Senden und Empfangen von sexuell eindeutigen Bildern in der Messages-App zu schützen. Es funktioniert nur bei Bildern, die in der Nachrichten-App für in der Familienfreigabe eingerichtete Kinderkonten gesendet oder empfangen wurden. Es analysiert die Bilder auf dem Gerät und ändert somit nichts an den Datenschutzbestimmungen von Nachrichten. Wenn ein Kinderkonto sexuell eindeutige Bilder sendet oder empfängt, wird das Foto unscharf und das Kind wird gewarnt, mit hilfreichen Ressourcen versorgt und versichert, dass es in Ordnung ist, wenn es das Foto nicht anzeigen oder senden möchte. Als zusätzliche Vorsichtsmaßnahme kann kleinen Kindern auch gesagt werden, dass ihre Eltern, um ihre Sicherheit zu gewährleisten, eine Nachricht erhalten, wenn sie sie sehen.

Die zweite Funktion, die CSAM-Erkennung in iCloud-Fotos, wurde entwickelt, um CSAM von iCloud-Fotos fernzuhalten, ohne Apple Informationen über andere Fotos als die, die mit bekannten CSAM-Bildern übereinstimmen, bereitzustellen. Der Besitz von CSAM-Bildern ist in den meisten Ländern, einschließlich der Vereinigten Staaten, illegal. Diese Funktion betrifft nur Benutzer, die sich dafür entschieden haben, iCloud-Fotos zum Speichern ihrer Fotos zu verwenden. Es hat keine Auswirkungen auf Benutzer, die sich nicht für die Verwendung von iCloud-Fotos entschieden haben. Es gibt keine Auswirkungen auf andere Daten auf dem Gerät. Diese Funktion gilt nicht für Nachrichten.

Andere Punkte, die in den FAQ hervorgehoben werden, sind:

iMessages an und von Kindern werden niemals mit Strafverfolgungsbehörden geteilt iMessages bleiben Ende-zu-Ende verschlüsselt Kinder mit missbräuchlichen Eltern können sicher über iMessage Hilfe suchen, wenn sie nur Text verwenden Eltern werden nur benachrichtigt, wenn Kinder unter 12 Jahren trotz einer Warnung CSAM Fingerabdruck übereinstimmen werden manuell überprüft, bevor die Strafverfolgungsbehörden informiert werden

Das kniffligste Thema bleibt

Die größte Besorgnis, die der EFF und andere vorbrachten, bleibt bestehen. Während das System heute nur CSAM-Bilder markiert, könnte eine repressive Regierung Apple eine Datenbank liefern, die andere Materialien enthält, wie das berühmte Tankman-Foto auf dem Platz des Himmlischen Friedens, das in China zensiert wird.

Apple hat darauf reagiert, indem es gesagt hat, dass es dies nicht zulassen würde:

Könnten Regierungen Apple zwingen, Nicht-CSAM-Images zur Hash-Liste hinzuzufügen?

Apple wird solche Forderungen ablehnen. Die CSAM-Erkennungsfunktion von Apple wurde ausschließlich entwickelt, um bekannte CSAM-Bilder zu erkennen, die in iCloud-Fotos gespeichert sind und von Experten von NCMEC und anderen Kindersicherheitsgruppen identifiziert wurden. Wir haben uns schon früher Forderungen gestellt, von der Regierung verordnete Änderungen zu erstellen und zu implementieren, die die Privatsphäre der Benutzer beeinträchtigen, und haben diese Forderungen standhaft abgelehnt. Wir werden sie auch in Zukunft ablehnen. Lassen Sie uns klarstellen, dass diese Technologie darauf beschränkt ist, in iCloud gespeicherte CSAM zu erkennen, und wir werden keiner Aufforderung einer Regierung nachkommen, sie zu erweitern. Darüber hinaus führt Apple eine menschliche Überprüfung durch, bevor eine Meldung an NCMEC erfolgt. In einem Fall, in dem das System Fotos markiert, die nicht mit bekannten CSAM-Bildern übereinstimmen, wird das Konto nicht deaktiviert und kein Bericht an NCMEC gesendet.

Diese Aussage setzt jedoch voraus, dass Apple die rechtliche Freiheit hat, dies zu verweigern. In China beispielsweise ist Apple gesetzlich verpflichtet, VPN, Nachrichten und andere Apps zu entfernen und die iCloud-Daten chinesischer Bürger auf einem Server eines staatlich kontrollierten Unternehmens zu speichern.

Es gibt keine realistische Möglichkeit für Apple zu versprechen, dass es künftige Anforderungen nicht erfüllen wird, um von der Regierung bereitgestellte Datenbanken mit „CSAM-Bildern“ zu verarbeiten, die auch Übereinstimmungen mit Materialien enthalten, die von Kritikern und Demonstranten verwendet werden. Wie das Unternehmen bei der Verteidigung seiner Handlungen in Ländern wie China oft gesagt hat, hält sich Apple in jedem der Länder, in denen es tätig ist, an die Gesetze.

FTC: Wir verwenden einkommensverdienende Auto-Affiliate-Links. Mehr.

Weitere Apple-Neuigkeiten finden Sie unter 9to5Mac auf YouTube:

Vorheriger ArtikelAvispa Fukuoka und Sanfrecce Hiroshima teilen sich die Punkte nach dem 1:1-Unentschieden
Nächster ArtikelBitcoin verwandelt 40.000 US-Dollar in neue Unterstützung und setzt den bullischen Boom fort