Στο greek-observatory και τις Ειδήσεις Σεβόμαστε την ιδιωτικότητά σας

Εμείς και οι συνεργάτες μας αποθηκεύουμε ή/και έχουμε πρόσβαση σε πληροφορίες σε μια συσκευή, όπως cookies και επεξεργαζόμαστε προσωπικά δεδομένα, όπως μοναδικά αναγνωριστικά και τυπικές πληροφορίες που αποστέλλονται από μια συσκευή για εξατομικευμένες διαφημίσεις και περιεχόμενο, μέτρηση διαφημίσεων και περιεχομένου, καθώς και απόψεις του κοινού για την ανάπτυξη και βελτίωση προϊόντων.

Με την άδειά σας, εμείς και οι συνεργάτες μας ενδέχεται να χρησιμοποιήσουμε ακριβή δεδομένα γεωγραφικής τοποθεσίας και ταυτοποίησης μέσω σάρωσης συσκευών. Μπορείτε να κάνετε κλικ για να συναινέσετε στην επεξεργασία από εμάς και τους συνεργάτες μας όπως περιγράφεται παραπάνω. Εναλλακτικά, μπορείτε να αποκτήσετε πρόσβαση σε πιο λεπτομερείς πληροφορίες και να αλλάξετε τις προτιμήσεις σας πριν συναινέσετε ή να αρνηθείτε να συναινέσετε. Λάβετε υπόψη ότι κάποια επεξεργασία των προσωπικών σας δεδομένων ενδέχεται να μην απαιτεί τη συγκατάθεσή σας, αλλά έχετε το δικαίωμα να αρνηθείτε αυτήν την επεξεργασία. Οι προτιμήσεις σας θα ισχύουν μόνο για αυτόν τον ιστότοπο. Μπορείτε πάντα να αλλάξετε τις προτιμήσεις σας επιστρέφοντας σε αυτόν τον ιστότοπο ή επισκεπτόμενοι την πολιτική απορρήτου μας.

Αυτός ο ιστότοπος χρησιμοποιεί cookies για να βελτιώσει την εμπειρία σας.Δες περισσότερα εδώ.
ΕΠΙΣΤΗΜΗ

Εικόνες σεξουαλικής κακοποίησης παιδιών από AI απειλούν το διαδίκτυο

Το Ίδρυμα Internet Watch Foundation (IWF) δήλωσε ότι βρήκε σχεδόν 3.000 εικόνες κακοποίησης που δημιουργήθηκαν από τεχνητή νοημοσύνη και παραβίαζαν τη νομοθεσία του Ηνωμένου Βασιλείου.

Η οργάνωση με έδρα στο Ηνωμένο Βασίλειο είπε ότι υπάρχουσες εικόνες θυμάτων κακοποίησης στην πραγματική ζωή ενσωματώνονται σε μοντέλα τεχνητής νοημοσύνης, τα οποία στη συνέχεια παράγουν νέες απεικονίσεις τους.

Σύμφωνα με την οργάνωση, η τεχνολογία αυτή χρησιμοποιήθηκε επίσης για τη δημιουργία εικόνων διασημοτήτων που έχουν «απογηρανθεί» και στη συνέχεια απεικονίζονται ως παιδιά σε σενάρια σεξουαλικής κακοποίησης. Άλλα παραδείγματα υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) περιελάμβαναν τη χρήση εργαλείων τεχνητής νοημοσύνης για «εκγύμνωση» εικόνων ντυμένων παιδιών που βρέθηκαν στο διαδίκτυο.

Η IWF είχε προειδοποιήσει το καλοκαίρι ότι είχαν αρχίσει να εμφανίζονται αποδεικτικά στοιχεία για κατάχρηση της τεχνητής νοημοσύνης, αλλά είπε ότι η τελευταία έκθεσή της είχε δείξει επιτάχυνση στη χρήση της τεχνολογίας. Η Σούζι Χαργκρέιβς, διευθύνουσα σύμβουλος της IWF, είπε ότι οι χειρότεροι εφιάλτες της οργάνωσης έγιναν πραγματικότητα.

Επικεφαλής Google DeepMind: Κρούει τον κώδωνα για την Τεχνητή Νοημοσύνη - Πρέπει να αντιμετωπιστεί όπως η κλιματική αλλαγή

«Νωρίτερα αυτό το έτος, προειδοποιήσαμε ότι οι εικόνες τεχνητής νοημοσύνης θα μπορούσαν σύντομα να γίνουν δυσδιάκριτες από τις πραγματικές εικόνες παιδιών που υποφέρουν από σεξουαλική κακοποίηση και ότι θα μπορούσαμε να αρχίσουμε να βλέπουμε αυτές τις εικόνες να πολλαπλασιάζονται σε πολύ μεγαλύτερους αριθμούς. Τώρα έχουμε ξεπεράσει αυτό το σημείο», είπε σύμφωνα με τη Guardian.

«Είναι ανατριχιαστικό, βλέπουμε εγκληματίες να χρησιμοποιούν σκόπιμα την τεχνητή νοημοσύνη σε εικόνες πραγματικών θυμάτων που έχουν ήδη υποστεί κακοποίηση. Παιδιά που έχουν βιαστεί στο παρελθόν ενσωματώνονται τώρα σε νέα σενάρια επειδή κάποιος, κάπου, θέλει να το δει».

Η IWF είπε ότι είχε δει επίσης στοιχεία για εικόνες που δημιουργήθηκαν από τεχνητή νοημοσύνη να πωλούνται στο διαδίκτυο.

Τα τελευταία ευρήματά της βασίστηκαν σε μια έρευνα που κράτησε ένα μήνα σε ένα φόρουμ κακοποίησης παιδιών στο σκοτεινό ιστό (dark web), ένα τμήμα του Διαδικτύου το οποίο μπορεί να προσπελαστεί μόνο από ένα ειδικό πρόγραμμα περιήγησης.

Διερεύνησε 11.108 εικόνες στο φόρουμ, με 2.978 από αυτές να παραβιάζουν τη βρετανική νομοθεσία απεικονίζοντας σεξουαλική κακοποίηση παιδιών.

Οι 100 σημαντικότεροι άνθρωποι που «κρύβονται» πίσω από την Τεχνητή Νοημοσύνη

Το υλικό που δημιουργείται από την τεχνητή νοημοσύνη (CSAM) είναι παράνομο σύμφωνα με τον Νόμο για την Προστασία των Παιδιών του 1978, ο οποίος ποινικοποιεί τη λήψη, τη διανομή και την κατοχή «άσεμνης φωτογραφίας ή ψεύτικων φωτογραφιών» παιδιού. Η IWF είπε ότι η συντριπτική πλειονότητα του παράνομου υλικού που είχε βρει παραβιάζει τον νόμο περί προστασίας των παιδιών, με περισσότερες από μία στις πέντε από αυτές τις εικόνες να ταξινομούνται ως κατηγορία Α, το πιο σοβαρό είδος περιεχομένου που μπορεί να απεικονίσει βιασμό και σεξουαλικό βασανιστήριο.

Η οργάνωση φοβάται ότι ένα κύμα αυτού του υλικού που δημιουργείται από την τεχνητή νοημοσύνη θα αποσπάσει την προσοχή των Αρχών από τον εντοπισμό πραγματικής κακοποίησης και την παροχή βοήθειας στα θύματα.

«Αν δεν καταλάβουμε αυτήν την απειλή, αυτό το υλικό απειλεί να κατακλύσει το Διαδίκτυο», είπε η Χάργκρειβς.

Tags
Back to top button