Στέιτ Ντιπάρτμεντ: Το AI μπορεί να απειλήσει τον άνθρωπο με εξαφάνιση
Μια νέα έκθεση που ανατέθηκε από το Υπουργείο Εξωτερικών (Στέιτ Ντιπάρνμεντ) των ΗΠΑ παρουσιάζει μια ανησυχητική εικόνα των «καταστροφικών» κινδύνων εθνικής ασφάλειας που ενέχει η ταχέως εξελισσόμενη τεχνητή νοημοσύνη, προειδοποιώντας ότι ο χρόνος για την ομοσπονδιακή κυβέρνηση τελειώνει για να αποτρέψει την καταστροφή.
Τα ευρήματα βασίστηκαν σε συνεντεύξεις με περισσότερα από 200 άτομα για περισσότερο από ένα χρόνο – συμπεριλαμβανομένων κορυφαίων στελεχών από κορυφαίες εταιρείες τεχνητής νοημοσύνης, ερευνητές στον κυβερνοχώρο, εμπειρογνώμονες όπλων μαζικής καταστροφής και αξιωματούχους εθνικής ασφάλειας εντός της κυβέρνησης.
Η έκθεση, που κυκλοφόρησε αυτή την εβδομάδα από την Gladstone AI, δηλώνει κατηγορηματικά ότι τα πιο προηγμένα συστήματα τεχνητής νοημοσύνης θα μπορούσαν, στη χειρότερη περίπτωση, «να αποτελέσουν απειλή σε επίπεδο εξαφάνισης για το ανθρώπινο είδος».
Ένας αξιωματούχος του αμερικανικού υπουργείου Εξωτερικών επιβεβαίωσε στο CNN ότι η έρευνα πραγματοποιήθηκε για λογαριασμό του υπουργείου, καθώς αξιολογεί συνεχώς τον τρόπο με τον οποίο η τεχνητή νοημοσύνη ευθυγραμμίζεται με τον στόχο του να προστατεύσει τα συμφέροντα των ΗΠΑ στο εσωτερικό και στο εξωτερικό. Ωστόσο, ο αξιωματούχος τόνισε ότι η έκθεση δεν αντιπροσωπεύει τις απόψεις της αμερικανικής κυβέρνησης.
Η προειδοποίηση της έκθεσης αποτελεί άλλη μια υπενθύμιση ότι, αν και οι δυνατότητες της τεχνητής νοημοσύνης εξακολουθούν να γοητεύουν τους επενδυτές και το κοινό, υπάρχουν και πραγματικοί κίνδυνοι.
Θα μπορούσε να γίνει «ανεξέλεγκτη»
Η τεχνητή νοημοσύνη «θα μπορούσε να μας επιτρέψει να θεραπεύσουμε ασθένειες, να κάνουμε επιστημονικές ανακαλύψεις και να ξεπεράσουμε προκλήσεις που κάποτε θεωρούσαμε ανυπέρβλητες», δήλωσε την Τρίτη στο CNN ο Τζέρεμι Χάρις, διευθύνων σύμβουλος και συνιδρυτής της Gladstone AI.
«Αλλά θα μπορούσε επίσης να επιφέρει σοβαρούς κινδύνους, τους οποίους πρέπει να γνωρίζουμε», δήλωσε ο Χάρις. «Και ένας αυξανόμενος όγκος στοιχείων - συμπεριλαμβανομένων εμπειρικών ερευνών και αναλύσεων που δημοσιεύονται στα κορυφαία συνέδρια για την τεχνητή νοημοσύνη στον κόσμο - υποδηλώνει ότι πάνω από ένα ορισμένο όριο δυνατοτήτων, οι τεχνητές νοημοσύνες θα μπορούσαν δυνητικά να γίνουν ανεξέλεγκτες», τόνισε.
Κίνδυνοι που «θυμίζουν πυρηνικά όπλα»
Οι ερευνητές προειδοποιούν για δύο βασικούς κινδύνους που εγκυμονεί η τεχνητή νοημοσύνη.
Πρώτον, σύμφωνα με την Gladstone AI, τα πιο προηγμένα συστήματα τεχνητής νοημοσύνης θα μπορούσαν να χρησιμοποιηθούν ως όπλα. Δεύτερον, η έκθεση αναφέρει ότι υπάρχουν ανησυχίες εντός των εργαστηρίων τεχνητής νοημοσύνης ότι κάποια στιγμή θα μπορούσαν να «χάσουν τον έλεγχο» των ίδιων των συστημάτων που αναπτύσσουν, με «δυνητικά καταστροφικές συνέπειες για την παγκόσμια ασφάλεια».
«Η άνοδος της τεχνητής νοημοσύνης και της AGI [τεχνητή γενική νοημοσύνη] έχει τη δυνατότητα να αποσταθεροποιήσει την παγκόσμια ασφάλεια με τρόπους που θυμίζουν την ανάπτυξη των πυρηνικών όπλων», ανέφερε η έκθεση, προσθέτοντας ότι υπάρχει ο κίνδυνος μιας «κούρσας εξοπλισμών» της τεχνητής νοημοσύνης, συγκρούσεων και [θανατηφόρων ατυχημάτων κλίμακας μαζικής καταστροφής».
Η έκθεση του Gladstone AI ζητά νέα μέτρα για την αντιμετώπιση αυτής της απειλής, συμπεριλαμβανομένης της δημιουργίας ενός νέου οργανισμού τεχνητής νοημοσύνης, της επιβολής ρυθμιστικών εγγυήσεων «έκτακτης ανάγκης» και περιορισμών στην ισχύ των υπολογιστών που μπορούν να χρησιμοποιηθούν για την εκπαίδευση μοντέλων τεχνητής νοημοσύνης.
«Υπάρχει σαφής και επείγουσα ανάγκη παρέμβασης της αμερικανικής κυβέρνησης», γράφει η έκθεση.