Στο greek-observatory και τις Ειδήσεις Σεβόμαστε την ιδιωτικότητά σας

Εμείς και οι συνεργάτες μας αποθηκεύουμε ή/και έχουμε πρόσβαση σε πληροφορίες σε μια συσκευή, όπως cookies και επεξεργαζόμαστε προσωπικά δεδομένα, όπως μοναδικά αναγνωριστικά και τυπικές πληροφορίες που αποστέλλονται από μια συσκευή για εξατομικευμένες διαφημίσεις και περιεχόμενο, μέτρηση διαφημίσεων και περιεχομένου, καθώς και απόψεις του κοινού για την ανάπτυξη και βελτίωση προϊόντων.

Με την άδειά σας, εμείς και οι συνεργάτες μας ενδέχεται να χρησιμοποιήσουμε ακριβή δεδομένα γεωγραφικής τοποθεσίας και ταυτοποίησης μέσω σάρωσης συσκευών. Μπορείτε να κάνετε κλικ για να συναινέσετε στην επεξεργασία από εμάς και τους συνεργάτες μας όπως περιγράφεται παραπάνω. Εναλλακτικά, μπορείτε να αποκτήσετε πρόσβαση σε πιο λεπτομερείς πληροφορίες και να αλλάξετε τις προτιμήσεις σας πριν συναινέσετε ή να αρνηθείτε να συναινέσετε. Λάβετε υπόψη ότι κάποια επεξεργασία των προσωπικών σας δεδομένων ενδέχεται να μην απαιτεί τη συγκατάθεσή σας, αλλά έχετε το δικαίωμα να αρνηθείτε αυτήν την επεξεργασία. Οι προτιμήσεις σας θα ισχύουν μόνο για αυτόν τον ιστότοπο. Μπορείτε πάντα να αλλάξετε τις προτιμήσεις σας επιστρέφοντας σε αυτόν τον ιστότοπο ή επισκεπτόμενοι την πολιτική απορρήτου μας.

Αυτός ο ιστότοπος χρησιμοποιεί cookies για να βελτιώσει την εμπειρία σας.Δες περισσότερα εδώ.
ΕΠΙΣΤΗΜΗ

OpenAI: Το «σκοτεινό μυστικό» πίσω από το σίριαλ των αποχωρήσεων

Σύμφωνα με τους unboxholics.com ,μέσα στις τελευταίες ημέρες είδαμε να εξελίσσετε στο μέσο κοινωνικής δικτύωσης X ένα…real-time σίριαλ, αφού ξαφνικά το διοικητικό συμβούλιο της OpenAI αποφάσισε να απολύσει τον ιδρυτή και CEO της, Sam Altman. Έπειτα από 4 ταραχώδεις ημέρες, με την Microsoft να κάνει τον μεσάζων, ανακοινώνοντας μάλιστα σε κάποια φάση πως θα προσλάβει τον Sam και άλλους ερευνητές της OpenAI, αφού σχεδόν 700 υπάλληλοι απειλούσαν να παραιτηθούν, τα πράγματα ηρέμησαν.

Τι συνέβη όμως πίσω από τα παρασκήνια; Πως γίνεται ξαφνικά να απολύεται ο CEO της εταιρίας που ξεκίνησε μια επανάσταση στο χώρο την τεχνολογίας. Προφανώς τα πράγματα δεν είναι απλά και τώρα φως στην υπόθεση ήρθε να ρίξει με ένα αποκλειστικό του ρεπορτάζ το αξιόπιστο δημοσιογραφικό μέσο Reuters.

 

Αναλυτικότερα, το Reuters αποκαλύπτει πως πριν από την απόλυση του Sam Altman, αρκετοί ερευνητές της OpenAI έγραψαν επιστολή προς το διοικητικό συμβούλιο, προειδοποιώντας πως έγινε μια τεράστια ανακάλυψη που, όπως είπαν, θα μπορούσε να απειλήσει την ανθρωπότητα.

Πρωτοπόρο σύστημα τεχνητής νοημοσύνης «βρίσκει» με ακρίβεια 98,5% τον αυτισμό σε παιδιά μόλις 2 έως 4 ετών

Οι πηγές του μέσου ανέφεραν ότι η επιστολή ήταν ένας μόλις παράγοντας σε μια μεγάλη λίστα παραπόνων του διοικητικού συμβουλίου σχετικά με τον Altman, μεταξύ των οποίων ήταν οι ανησυχίες τους για την εμπορευματοποίηση των AI τεχνολογιών για γρήγορο κέρδος, πριν από την κατανόηση των συνεπειών.

Η OpenAI, αρνήθηκε να σχολιάσει δημοσίως, αλλά σύμφωνα με το Reuters αναγνώρισε σε ένα εσωτερικό μήνυμα προς το προσωπικό της το λεγόμενο project με όνομα ‘Q*’ και ότι υπήρξε μια επιστολή προς το διοικητικό συμβούλιο πριν από τα γεγονότα του Σαββατοκύριακου. Ορισμένοι στην OpenAI πιστεύουν ότι το Q* (προφέρεται Q-Star) θα μπορούσε να είναι μια σημαντική ανακάλυψη στην αναζήτηση για αυτό που είναι γνωστό ως τεχνητή γενική νοημοσύνη (AGI). Η OpenAI ορίζει την AGI ως αυτόνομα συστήματα που ξεπερνούν τον άνθρωπο στις περισσότερες οικονομικά πολύτιμες εργασίες.

Με δεδομένους τεράστιους υπολογιστικούς πόρους, το νέο Q* μοντέλο ήταν σε θέση να λύσει ορισμένα μαθηματικά προβλήματα! Αν και αυτά ήταν επιπέδου δημοτικού σχολείου, η άριστη επίδοση σε τέτοιες δοκιμασίες έκανε τους ερευνητές πολύ αισιόδοξους για τη μελλοντική επιτυχία του Q*.

Οι ερευνητές θεωρούν τα μαθηματικά ως μια από τις δυσκολότερες προκλήσεις της generative AI. Επί του παρόντος, η generative AI είναι καλή στο να γράφει κείμενα και στο να μεταφράζει, αφού στην πράξη απλά προβλέπει στατιστικά την επόμενη λέξη που θα είναι πιθανότερο να εμφανιστεί, σύμφωνα με τα όσα έχει δει στους τεράστιους όγκους δεδομένων εκπαίδευσης. Έτσι, οι απαντήσεις στην ίδια ερώτηση μπορεί να διαφέρουν σημαντικά. Στα μαθηματικά όμως υπάρχει μόνο μία σωστή απάντηση. Αυτό σημαίνει πως μια AI που μπορεί να λύνει μαθηματικά, δε μπορεί απλά να προβλέπει τι ενδεχομένως να έρχεται μετά, αλλά αντιθέτως θα πρέπει να έχει μεγαλύτερες ικανότητες συλλογισμού που θα μοιάζουν με την ανθρώπινη νοημοσύνη.

Σε αντίθεση με μια αριθμομηχανή που μπορεί να λύσει έναν περιορισμένο αριθμό πράξεων, η AGI  θα μπορεί να γενικεύει, να μαθαίνει και να κατανοεί. Αν όντως η OpenAI κατάφερε να φτιάξει AI που λύνει μαθηματικά προβλήματα, τότε πρόκειται για κάτι εξαιρετικά σημαντικό για την ανθρωπότητα γενικότερα, αφού πολλοί φοβούνται για την κατάληξη του είδους αν δημιουργηθεί και απελευθερωθεί μια τέτοια τεχνολογία.

Εδώ και καιρό υπάρχει συζήτηση μεταξύ των επιστημόνων σχετικά με τον κίνδυνο που εγκυμονούν οι μηχανές υψηλής νοημοσύνης, αφού για παράδειγμα θα μπορούσαν να αποφασίσουν ότι η καταστροφή της ανθρωπότητας είναι προς το συμφέρον τους. Πρόκειται για ένα σενάριο που έχουμε δει να παίζει πολλές φορές σε ταινίες επιστημονικής και όπως φαίνεται πλέον βρισκόμαστε σε απόσταση αναπνοής από το λεγόμενο singularity, πολύ, πολύ πριν και από τις πιο "βιαστικές" προβλέψεις.

Tags
Back to top button