Στο greek-observatory και τις Ειδήσεις Σεβόμαστε την ιδιωτικότητά σας

Εμείς και οι συνεργάτες μας αποθηκεύουμε ή/και έχουμε πρόσβαση σε πληροφορίες σε μια συσκευή, όπως cookies και επεξεργαζόμαστε προσωπικά δεδομένα, όπως μοναδικά αναγνωριστικά και τυπικές πληροφορίες που αποστέλλονται από μια συσκευή για εξατομικευμένες διαφημίσεις και περιεχόμενο, μέτρηση διαφημίσεων και περιεχομένου, καθώς και απόψεις του κοινού για την ανάπτυξη και βελτίωση προϊόντων.

Με την άδειά σας, εμείς και οι συνεργάτες μας ενδέχεται να χρησιμοποιήσουμε ακριβή δεδομένα γεωγραφικής τοποθεσίας και ταυτοποίησης μέσω σάρωσης συσκευών. Μπορείτε να κάνετε κλικ για να συναινέσετε στην επεξεργασία από εμάς και τους συνεργάτες μας όπως περιγράφεται παραπάνω. Εναλλακτικά, μπορείτε να αποκτήσετε πρόσβαση σε πιο λεπτομερείς πληροφορίες και να αλλάξετε τις προτιμήσεις σας πριν συναινέσετε ή να αρνηθείτε να συναινέσετε. Λάβετε υπόψη ότι κάποια επεξεργασία των προσωπικών σας δεδομένων ενδέχεται να μην απαιτεί τη συγκατάθεσή σας, αλλά έχετε το δικαίωμα να αρνηθείτε αυτήν την επεξεργασία. Οι προτιμήσεις σας θα ισχύουν μόνο για αυτόν τον ιστότοπο. Μπορείτε πάντα να αλλάξετε τις προτιμήσεις σας επιστρέφοντας σε αυτόν τον ιστότοπο ή επισκεπτόμενοι την πολιτική απορρήτου μας.

Αυτός ο ιστότοπος χρησιμοποιεί cookies για να βελτιώσει την εμπειρία σας.Δες περισσότερα εδώ.
Επιστήμες

Η Apple ελέγχει ήδη τους χρήστες για CSAM περιεχόμενο από το 2019

Η χρήση CSAM τεχνολογίας στις iCloud φωτογραφίες των χρηστών της Apple έχει ξεσηκώσει αντιδράσεις από μεγάλο μέρος της τεχνολογικής κοινότητας, ενώ θέση εναντίον του έχουν ξεκινήσει να παίρνουν και κυβερνητικές αρχές.

Και ενώ η χρήση αυτής της τεχνολογίας είναι σίγουρα προς το συμφέρον των παιδιών, πολλοί φοβούνται πως θα ανοίξει τον Ασκό του Αιόλου στις πιθανές καταχρήσεις ιδιωτικότητας από εταιρίες και καταπιεστικά καθεστώτα.

Όπως αποδεικνύεται όμως, δε θα είναι η πρώτη φορά που η Apple θα χρησιμοποιήσει CSAM ανίχνευση. Σύμφωνα με το αποκλειστικό ρεπορτάζ του 9to5Mac, η Apple επιβεβαίωσε πως σκανάρει τα iCloud Mails για CSAM περιεχόμενο τουλάχιστον από το 2019.

Μία μερική παραδοχή γίνεται στην archived σελίδα Child Safety Page της Apple, όπου το καταλαβαίνει κανείς αν δώσει προσοχή στην έκφραση “τα δικά μας συστήματα”.

H Apple χρησιμοποιεί τεχνολογία σύγκρισης εικόνων για να βρει και να αναφέρει την παιδική εκμετάλλευση. Όπως και με τα spam φίλτρα στο mail, τα δικά μας συστήματα χρησιμοποιούν ηλεκτρονικές υπογραφές για να βρουν παιδική εκμετάλλευση όταν υπάρχουν υποψίες. Τεκμηριώνουμε κάθε σύγκριση με ατομική επεξεργασία. Λογαριασμοί με περιεχόμενο παιδικής κακοποίησης παραβιάζουν τους όρους χρήσης της υπηρεσίας και όποιους λογαριασμούς βρίσκουμε με τέτοιο περιεχόμενο τους τερματίζουμε.

Επιπλέον, άλλη μία παραδοχή είχε γίνει το 2020 από την επικεφαλής ιδιωτικότητας της Apple, Jane Hovarth, η οποία δήλωσε πως η εταιρία χρησιμοποιεί τεχνολογία ελέγχου για να βρίσκει παράνομες εικόνες και πως τερματίζει λογαριασμούς στους οποίους βρίσκεται υλικό παιδικής κακοποίησης, χωρίς να μπαίνει σε λεπτομέρειες.

Όπως σημειώνει το 9to5Mac, τα emails δεν είναι κρυπτογραφημένα οπότε το να τα σκανάρει η Apple καθώς περνούν από τους servers της δεν είναι δύσκολο. Έως τώρα όμως δεν έχει χρησιμοποιήσει το CSAM σύστημα για τις iCloud Photos ή τα iCloud backups.

Tags
Back to top button