Στους σημαντικούς κινδύνους που απορρέουν από την τεχνητή νοημοσύνη (AI), αναφέρεται μία έκθεση για την εθνική ασφάλεια που ανέθεσε η αμερικανική κυβέρνηση, σύμφωνα με την οποία στη χειρότερη περίπτωση, θα μπορούσε να προκαλέσει «απειλή επιπέδου εξαφάνισης για το ανθρώπινο είδος».
«Η τρέχουσα ανάπτυξη της τεχνητής νοημοσύνης θέτει επείγοντες και αυξανόμενους κινδύνους για την εθνική ασφάλεια», αναφέρει η έκθεση, την οποία το TIME έλαβε πριν από τη δημοσίευσή της.
Μάλιστα όπως σημειώνει η έκθεση: «Η άνοδος της προηγμένης τεχνητής νοημοσύνης και της AGI (τεχνητή γενική νοημοσύνη) έχει τη δυνατότητα να αποσταθεροποιήσει την παγκόσμια ασφάλεια με τρόπους που θυμίζουν την είσοδο των πυρηνικών όπλων».
Η AGI είναι μια υποθετική τεχνολογία που θα μπορούσε να εκτελεί τις περισσότερες εργασίες στο ανθρώπινο επίπεδο ή και πάνω από αυτό. Τέτοια συστήματα δεν υπάρχουν επί του παρόντος, αλλά τα κορυφαία εργαστήρια τεχνητής νοημοσύνης εργάζονται προς αυτήν την κατεύθυνση και πολλοί αναμένουν ότι η AGI θα φτάσει μέσα στα επόμενα πέντε χρόνια ή και λιγότερο.
Οι τρεις συντάκτες της έκθεσης εργάστηκαν πάνω σε αυτήν για περισσότερο από ένα χρόνο, μιλώντας με περισσότερους από 200 κυβερνητικούς υπαλλήλους, εμπειρογνώμονες και εργαζόμενους σε εταιρείες τεχνητής νοημοσύνης στο πλαίσιο της έρευνάς τους.
Μάλιστα ορισμένες από αυτές τις συνομιλίες δίνουν μια ανησυχητική εικόνα, υποδηλώνοντας ότι πολλοί εργαζόμενοι στην ασφάλεια της τεχνητής νοημοσύνης μέσα στα εργαστήρια ανησυχούν για τα στρεβλά κίνητρα που καθοδηγούν τη λήψη αποφάσεων.
Το τελικό έγγραφο, με τίτλο «Σχέδιο δράσης για την αύξηση της ασφάλειας και της προστασίας της προηγμένης τεχνητής νοημοσύνης», συνιστά μια σειρά από σαρωτικές και πρωτοφανείς δράσεις πολιτικής που, αν τεθούν σε ισχύ, θα διαταράξουν ριζικά τη βιομηχανία τεχνητής νοημοσύνης, ελαχιστοποιώντας όμως παράλληλα τους κινδύνους. Η έκθεση μάλιστα συστήνει στην αμερικανική κυβέρνηση να κινηθεί «γρήγορα και αποφασιστικά» προς αυτή την κατεύθυνση.
Οι συστάσεις της έκθεσης
Όπως συνιστά η έκθεση, το Κογκρέσο θα πρέπει να καταστήσει παράνομη την εκπαίδευση μοντέλων τεχνητής νοημοσύνης που χρησιμοποιούν περισσότερο από ένα ορισμένο επίπεδο υπολογιστικής ισχύος. Το όριο θα πρέπει να καθοριστεί από μια νέα ομοσπονδιακή υπηρεσία τεχνητής νοημοσύνης, αν και η έκθεση προτείνει, ως παράδειγμα, ότι η υπηρεσία θα μπορούσε να το ορίσει ακριβώς πάνω από τα επίπεδα υπολογιστικής ισχύος που χρησιμοποιούνται για την εκπαίδευση των σημερινών μοντέλων. Ο νέος οργανισμός τεχνητής νοημοσύνης θα πρέπει να απαιτεί από τις εταιρείες να λαμβάνουν κυβερνητική άδεια για την εκπαίδευση και την ανάπτυξη νέων μοντέλων πάνω από ένα χαμηλό όριο που θα έχει οριστεί.
Σύμφωνα με την έκθεση οι Αρχές θα πρέπει επίσης να εξετάσουν «επειγόντως» το ενδεχόμενο να απαγορεύσουν δημοσιεύσεις που αφορούν ισχυρά μοντέλα τεχνητής νοημοσύνης, για παράδειγμα με άδειες ανοιχτού κώδικα, με τις παραβιάσεις να τιμωρούνται ενδεχομένως με ποινή φυλάκισης.
Επιπλέον η κυβέρνηση θα πρέπει να αυστηροποιήσει περισσότερο τους ελέγχους για την κατασκευή και την εξαγωγή των τσιπ τεχνητής νοημοσύνης και να διοχετεύσει την ομοσπονδιακή χρηματοδότηση προς την έρευνα «ευθυγράμμισης» που επιδιώκει να καταστήσει την προηγμένη τεχνητή νοημοσύνη ασφαλέστερη.
Οι συστάσεις «δεν αντικατοπτρίζουν τις απόψεις της κυβέρνησης»
Η έκθεση ανατέθηκε στην εταιρεία Gladstone AI από το Στέιτ Ντιπάρτμεντ τον Νοέμβριο του 2022 και παραδόθηκε ως έγγραφο 247 σελίδων στις 26 Φεβρουαρίου. Οι συστάσεις «δεν αντικατοπτρίζουν τις απόψεις του υπουργείου Εξωτερικών ή της κυβέρνησης των Ηνωμένων Πολιτειών», αναφέρεται στην πρώτη σελίδα της έκθεσης.
Οι συστάσεις της έκθεσης, πολλές από τις οποίες ήταν προηγουμένως αδιανόητες, ακολουθούν μια ιλιγγιώδη σειρά σημαντικών εξελίξεων στον τομέα της τεχνητής νοημοσύνης που έχουν κάνει πολλούς παρατηρητές να αναπροσαρμόσουν τη στάση τους απέναντι στην τεχνολογία.
Καθώς οι κυβερνήσεις σε όλο τον κόσμο συζητούν για το πώς θα ρυθμίσουν καλύτερα την τεχνητή νοημοσύνη, οι μεγαλύτερες εταιρείες τεχνολογίας στον κόσμο δημιούργησαν γρήγορα την υποδομή για να εκπαιδεύσουν την επόμενη γενιά πιο ισχυρών συστημάτων – σε ορισμένες περιπτώσεις σχεδιάζουν να χρησιμοποιήσουν 10 ή 100 φορές περισσότερη υπολογιστική ισχύ.
Η Τεχνητή Νοημοσύνη απλώνει τα... πλοκάμια της και στο σύστημα των φαναριών: Έρχεται και τέταρτο χρώμα - Τι θα κάνει
Εξαιρετικά απίθανο να υιοθετηθεί η σύσταση από την κυβέρνηση των ΗΠΑ
Η απαγόρευση της εκπαίδευσης προηγμένων συστημάτων τεχνητής νοημοσύνης πάνω από ένα ορισμένο όριο, αναφέρει η έκθεση, μπορεί να «μετριάσει τη δυναμική της κούρσας μεταξύ όλων των προγραμματιστών τεχνητής νοημοσύνης» και να συμβάλει στη μείωση της ταχύτητας της βιομηχανίας τσιπ που κατασκευάζει ταχύτερο υλικό.
Με την πάροδο του χρόνου, ένας ομοσπονδιακός οργανισμός τεχνητής νοημοσύνης θα μπορούσε να αυξήσει το όριο και να επιτρέψει την εκπαίδευση πιο προηγμένων συστημάτων μόλις αποδειχθεί επαρκώς η ασφάλεια των μοντέλων αιχμής, προτείνει η έκθεση. Εξίσου η κυβέρνηση θα μπορούσε να μειώσει το όριο ασφαλείας εάν ανακαλυφθούν επικίνδυνες δυνατότητες σε υπάρχοντα μοντέλα.
Η πρόταση πάντως είναι πιθανό να αντιμετωπίσει πολιτικές δυσκολίες. «Νομίζω ότι αυτή η σύσταση είναι εξαιρετικά απίθανο να υιοθετηθεί από την κυβέρνηση των Ηνωμένων Πολιτειών», είπε ο Γκρέγκ Άλεν, διευθυντής του Wadhwani Center for AI and Advanced Technologies στο Κέντρο Στρατηγικών και Διεθνών Σπουδών (CSIS), απαντώντας σε μια περίληψη που παρείχε το TIME για τη σύσταση της έκθεσης να τεθεί εκτός νόμου η διεξαγωγή εκπαιδευτικών τρεξίματος τεχνητής νοημοσύνης πάνω από ένα ορισμένο όριο.
«Χωρίς κάποιο είδος εξωγενούς σοκ, νομίζω ότι είναι αρκετά απίθανο να αλλάξουν αυτή την προσέγγιση», προσέθεσε ο Άλεν.
Οι δύο κατηγορίες κινδύνων
Η έκθεση επικεντρώνεται σε δύο ξεχωριστές κατηγορίες κινδύνων. Περιγράφοντας την πρώτη κατηγορία, την οποία αποκαλεί «κίνδυνο οπλοποίησης», η έκθεση αναφέρει: «τέτοια συστήματα θα μπορούσαν ενδεχομένως να χρησιμοποιηθούν για τον σχεδιασμό και ακόμη και την εκτέλεση καταστροφικών βιολογικών, χημικών όπλων ή κυβερνοεπιθέσεων ή να επιτρέψουν πρωτοφανείς εφαρμογές όπλων στη ρομποτική».
Η δεύτερη κατηγορία είναι αυτό που η έκθεση αποκαλεί «κίνδυνο απώλειας ελέγχου», ή η πιθανότητα τα προηγμένα συστήματα τεχνητής νοημοσύνης να ξεπεράσουν τους δημιουργούς τους. Υπάρχει, λέει η έκθεση, «λόγος να πιστεύουμε ότι μπορεί να είναι ανεξέλεγκτα, αν αναπτυχθούν με τις τρέχουσες τεχνικές και θα μπορούσαν να συμπεριφέρονται εχθρικά προς τον άνθρωπο εξ ορισμού».
Και οι δύο κατηγορίες κινδύνου, αναφέρει η έκθεση, επιδεινώνονται από τη «δυναμική της φυλής» στη βιομηχανία της τεχνητής νοημοσύνης. Η πιθανότητα ότι η πρώτη εταιρεία που θα επιτύχει την AGI θα αποκομίσει την πλειονότητα των οικονομικών οφελών, αναφέρει η έκθεση, δίνει κίνητρο στις εταιρείες να δώσουν προτεραιότητα στην ταχύτητα έναντι της ασφάλειας.
«Τα εργαστήρια τεχνητής νοημοσύνης αντιμετωπίζουν ένα έντονο και άμεσο κίνητρο για να κλιμακώσουν τα συστήματα όσο το δυνατόν γρηγορότερα», αναφέρει η έκθεση. «Δεν αντιμετωπίζουν άμεσο κίνητρο να επενδύσουν σε μέτρα ασφαλείας ή προστασίας που δεν αποφέρουν άμεσα οικονομικά οφέλη, παρόλο που ορισμένα το κάνουν από πραγματική ανησυχία».
Το εμπόδιο για την αύξηση των δυνατοτήτων της τεχνητής νοημοσύνης.
Η έκθεση Gladstone προσδιορίζει το υλικό – συγκεκριμένα τα υψηλής τεχνολογίας τσιπ υπολογιστών που χρησιμοποιούνται σήμερα για την εκπαίδευση των συστημάτων τεχνητής νοημοσύνης – ως σημαντικό εμπόδιο για την αύξηση των δυνατοτήτων της τεχνητής νοημοσύνης. Η ρύθμιση της διάδοσης αυτού του υλικού, υποστηρίζει η έκθεση, μπορεί να είναι η «πιο σημαντική απαίτηση για τη διασφάλιση της μακροπρόθεσμης παγκόσμιας ασφάλειας και προστασίας από την τεχνητή νοημοσύνη».
Η έκθεση εγείρει επίσης την πιθανότητα ότι, τελικά, τα φυσικά όρια του σύμπαντος μπορεί να μην είναι με το μέρος εκείνων που προσπαθούν να αποτρέψουν τη διάδοση της προηγμένης τεχνητής νοημοσύνης μέσω των τσιπ.
«Καθώς οι αλγόριθμοι τεχνητής νοημοσύνης συνεχίζουν να βελτιώνονται, περισσότερες δυνατότητες γίνονται διαθέσιμες για λιγότερους συνολικούς υπολογισμούς. Ανάλογα με το πόσο θα προχωρήσει αυτή η τάση, θα μπορούσε τελικά να καταστεί ανέφικτο να μετριαστεί καθόλου ο πολλαπλασιασμός της προηγμένης τεχνητής νοημοσύνης μέσω συγκεντρώσεων υπολογιστών», ανέφερει ακόμα.
Το χειρότερο σενάριο
Παρά τις προκλήσεις, οι συντάκτες της έκθεσης λένε ότι επηρεάστηκαν από το πόσο εύκολο και φθηνό είναι σήμερα για τους χρήστες να αφαιρούν τα προστατευτικά κιγκλιδώματα ασφαλείας σε ένα μοντέλο τεχνητής νοημοσύνης, εάν έχουν πρόσβαση στα βάρη του.
«Αν διαδώσετε ένα μοντέλο ανοιχτού κώδικα, ακόμη και αν φαίνεται ασφαλές, μπορεί να είναι επικίνδυνο στην πορεία», ο εκ των συντακτών της έκθεσης και διευθύνων σύμβουλος τεχνολογίας της Gladstone, Έντουαρντ Χάρις, προσθέτοντας ότι η απόφαση για ανοιχτό κώδικα ενός μοντέλου είναι μη αναστρέψιμη.
Αλλά το δόγμα, λέει, παύει να ισχύει όταν το πιθανό μειονέκτημα των ενεργειών σας είναι τόσο τεράστιο. «Η προεπιλεγμένη πορεία μας αυτή τη στιγμή φαίνεται να είναι πολύ κοντά στη δημιουργία συστημάτων που είναι αρκετά ισχυρά ώστε είτε να μπορούν να χρησιμοποιηθούν ως όπλα με καταστροφικό τρόπο είτε να μην μπορούν να ελεγχθούν», είπε από την πλευρά του ο CEO της Gladstone και αδερφός του Έντουαρντ, Τζο Χάρις.
«Ένα από τα χειρότερα σενάρια είναι να έχουμε ένα καταστροφικό γεγονός που θα κλείσει εντελώς την έρευνα για την τεχνητή νοημοσύνη για όλους και δεν θα μπορέσουμε να αποκομίσουμε τα απίστευτα οφέλη αυτής της τεχνολογίας», προσέθεσε.