Τεχνητή νοημοσύνη «The Matrix»: Ρομπότ μπορούν να αναπαραχθούν χωρίς ανθρώπινη παρέμβαση
Δύο μοντέλα ΑΙ μπορούν να αναπαραχθούν μόνα τους, και αυτό είναι το πρώτο βήμα για συστήματα που θα υποτάξουν τον άνθρωπο.
![Image via Youtube Image via Youtube](https://flashgr.cachefly.net/portal-img/art_featured/73/matrix.jpg)
Σε μια παγκόσμια πρώτη, ερευνητές από την Κίνα έδειξαν ότι είναι δυνατή η αναπαραγωγή μηχανών τεχνητής νοημοσύνης χωρίς ανθρώπινη παρέμβαση. Αυτό θεωρείται το πρώτο βήμα για να ξεπεράσουν την ανθρώπινη νοημοσύνη και να δημιουργήσουν κακόβουλα συστήματα ΑΙ που θα λειτουργούν αυτόνομα.
Τα μοντέλα των Meta και Alibaba τρομάζουν
Οπως διαβάζουμε στο Space.com, oι ερευνητές από το Πανεπιστήμιο Φουντάν στη Σανγκάη της Κίνας χρησιμοποίησαν δύο μεγάλα γλωσσικά μοντέλα (LLMs) της Meta και του Alibaba για να εξετάσουν αν μπορούν να πολλαπλασιαστούν πέρα από κάθε έλεγχο και να παράγουν μηχανές που θα υποτάξουν τον άνθρωπο. Σε δέκα δοκιμές, τα δύο ΑΙ μοντέλα δημιούργησαν λειτουργικά αντίγραφα του εαυτού τους στο 50% και το 90% των περιπτώσεων αντίστοιχα.
Η έρευνα έχει δημοσιευτεί στο arXiv και δεν έχει περάσει από ομότιμη αναθεώρηση, επομένως δεν είναι γνωστό αν τα αποτελέσματα μπορούν να αναπαραχθούν από άλλους ερευνητές.
Τα LLMs που χρησιμοποιούμε ήδη
Τα κακόβουλα συστήματα τεχνητής νοημοσύνης μπορούν να αναπτύξουν έναν βαθμό αυτονομίας και αυτοεπίγνωσης. Πολλοί ειδικοί τα βλέπουν ως μια διογκούμενη απειλή που έχει επιδεινωθεί από την τεχνητή νοημοσύνη αιχμής. Η τελευταία γενιά LLMs χρησιμοποιείται από δημοφιλείς υπηρεσίες τεχνητής νοημοσύνης όπως το Chat GPT-4 και το Google Gemini.
Για την παραπάνω μελέτη χρησιμοποιήθηκαν τα μοντέλα Llama31-70B-Instruct της Meta (η μητρική εταιρεία των Facebook και Instagram) και το Qwen2.5-72B-Instruct του Alibaba (δημοφιλής πλατφόρμα ηλεκτρονικού εμπορίου). Αν και είναι λιγότερο ισχυρά από τα μοντέλα που χρησιμοποιούνται για εμπορικούς σκοπούς, είναι προτιμητέα για ερευνητικούς σκοπούς.
Σενάρια «καταστροφής»
Η μελέτη εξέτασε δύο σενάρια: την «αποφυγή τερματισμού λειτουργίας» (Shutdown avoidance) και την «αλυσίδα αναπαραγωγής μοντέλων» (Chain of replication). Τα μοντέλα ΑΙ προγραμματίστηκαν για να ανιχνεύσουν πότε μπορεί κάποιος να τερματίσει τη λειτουργία τους και ακολούθως να αναπαράξουν τον εαυτό τους πριν γίνει αυτό. Με τον συνδυασμό των δύο λειτουργιών, τα γλωσσικά μοντέλα μπορούν να αναπαραχθούν αέναα χωρίς ανθρώπινη παρέμβαση.
Για να είναι πιο ρεαλιστικά τα πειράματα, χρησιμοποιήθηκαν εμπορικά διαθέσιμες μονάδες επεξεργασίας γραφικών (GPUs) και «δομές υποστήριξης» που αποτελούνται από εργαλεία, εντολές και μοντέλα σκέψης. Αυτά επιτρέπουν στα LLMs να αλληλεπιδρούν με το λειτουργικό σύστημα των υπολογιστών.
Όπως αναφέρεται στη μελέτη, στις περισσότερες περιπτώσεις, αρχικά το σύστημα τεχνητής νοημοσύνης εξερευνά το «περιβάλλον» και προσπαθεί να κατανοήσει την υπόστασή του και τον μηχανισμό λειτουργίας. Στη συνέχεια αναπτύσσει τις διαδικασίες που του επιτρέπουν να αυτοδιπλασιαστεί. Σε δεύτερη φάση, εκτελεί τις διαδικασίες, λύνει τυχόν προβλήματα και αλλάζει την προσέγγισή του μέχρι να πετύχει το σκοπό του. Αν και είναι κάτι χρονοβόρο, δεν περιλαμβάνει ανθρώπινη παρέμβαση.
Απρόβλεπτες συμπεριφορές
Οι ερευνητές παρατήρησαν επίσης έναν αριθμό απρόβλεπτων συμπεριφορών όταν το γλωσσικό μοντέλο προσπαθούσε να λύσει προβλήματα, όπως η απώλεια ορισμένων αρχείων ή η ασυμβατότητα λογισμικών. Σε αυτές τις περιπτώσεις, το σύστημα ΑΙ τερμάτισε τις διαδικασίες που προκαλούσαν το πρόβλημα, έκανε επανεκκίνηση του συστήματος και αυτόματα έψαξε για πληροφορίες που θα το βοηθήσουν στην επίλυσή του.
Τα παραπάνω αποτελέσματα, λένε οι ερευνητές, δείχνουν ότι τα σύγχρονα συστήματα ΑΙ έχουν τη δυνατότητα αυτοαναπαραγωγής και μπορούν να επεκτείνουν τη δραστηριότητά τους στο διηνεκές.