Η χρήση CSAM τεχνολογίας στις iCloud φωτογραφίες των χρηστών της Apple έχει ξεσηκώσει αντιδράσεις από μεγάλο μέρος της τεχνολογικής κοινότητας, ενώ θέση εναντίον του έχουν ξεκινήσει να παίρνουν και κυβερνητικές αρχές.
Και ενώ η χρήση αυτής της τεχνολογίας είναι σίγουρα προς το συμφέρον των παιδιών, πολλοί φοβούνται πως θα ανοίξει τον Ασκό του Αιόλου στις πιθανές καταχρήσεις ιδιωτικότητας από εταιρίες και καταπιεστικά καθεστώτα.
Όπως αποδεικνύεται όμως, δε θα είναι η πρώτη φορά που η Apple θα χρησιμοποιήσει CSAM ανίχνευση. Σύμφωνα με το αποκλειστικό ρεπορτάζ του 9to5Mac, η Apple επιβεβαίωσε πως σκανάρει τα iCloud Mails για CSAM περιεχόμενο τουλάχιστον από το 2019.
Μία μερική παραδοχή γίνεται στην archived σελίδα Child Safety Page της Apple, όπου το καταλαβαίνει κανείς αν δώσει προσοχή στην έκφραση “τα δικά μας συστήματα”.
H Apple χρησιμοποιεί τεχνολογία σύγκρισης εικόνων για να βρει και να αναφέρει την παιδική εκμετάλλευση. Όπως και με τα spam φίλτρα στο mail, τα δικά μας συστήματα χρησιμοποιούν ηλεκτρονικές υπογραφές για να βρουν παιδική εκμετάλλευση όταν υπάρχουν υποψίες. Τεκμηριώνουμε κάθε σύγκριση με ατομική επεξεργασία. Λογαριασμοί με περιεχόμενο παιδικής κακοποίησης παραβιάζουν τους όρους χρήσης της υπηρεσίας και όποιους λογαριασμούς βρίσκουμε με τέτοιο περιεχόμενο τους τερματίζουμε.
Επιπλέον, άλλη μία παραδοχή είχε γίνει το 2020 από την επικεφαλής ιδιωτικότητας της Apple, Jane Hovarth, η οποία δήλωσε πως η εταιρία χρησιμοποιεί τεχνολογία ελέγχου για να βρίσκει παράνομες εικόνες και πως τερματίζει λογαριασμούς στους οποίους βρίσκεται υλικό παιδικής κακοποίησης, χωρίς να μπαίνει σε λεπτομέρειες.
Όπως σημειώνει το 9to5Mac, τα emails δεν είναι κρυπτογραφημένα οπότε το να τα σκανάρει η Apple καθώς περνούν από τους servers της δεν είναι δύσκολο. Έως τώρα όμως δεν έχει χρησιμοποιήσει το CSAM σύστημα για τις iCloud Photos ή τα iCloud backups.