Apple stoppt Pläne für CSAM-Erkennungstool
Eigentlich wollte Apple schon vor einiger Zeit ein automatisches Erkennungstool für Missbrauchsfotos (CSAM) in das iPhone-Betriebssystem integrieren, doch aufgrund zahlreicher Kritik zog Apple seine Pläne damals zurück. Wie der Konzern nun bekannt gab, wird das Erkennungstool wohl auch in Zukunft nicht mehr zurück kommen.
Durch das CSAM-Tool sollten alle aufgenommene iCloud-Fotos systematisch und automatisiert nach potentiellen Missbrauchsbildern durchsucht werden. Im Falle eines positiv Ergebnisses wären die Nutzerdaten wohl an die jeweiligen Strafverfolgungsbehörden weitergeleitet werden. Wie so oft, gibt es technisch bedingt allerdings eine gewisse Fehlerquote, somit könnten theoretisch auch unbescholtene Bürger in das Visier des CSAM-Erkennungstools gelangen und müssten somit Angst vor einer Hausdurchsuchung haben. Aufgrund dessen verurteilten viele die Pläne des iPhone-Konzerns stark.
Da das negative Nutzer-Feedback selbst für Apple offenbar zu groß war, möchte man daher auf die Einführung eines solchen Programms verzichten. Über Umwege könnte ein CSAM-Erkennungstool dennoch kommen, so plant etwa die EU-Kommission sämtliche Bilder und Videos in Online-Chats automatisiert nach Missbrauchsfotos zu überwachen… .