Τεχνητή νοημοσύνη: δεν θα μας πάρει μόνο τις δουλειές!
Χωρίς έλεγχο, τα συστήματα τεχνητής νοημοσύνης μπορεί να απειλήσουν την ανθρώπινη ύπαρξη.
Στην ουτοπική εκδοχή του AI μέλλοντος, ένας υπερυπολογιστής ψάχνει για το τέλειο υλικό που θα αντικαταστήσει τις μπαταρίες λιθίου. Το σύστημα σκανάρει 32 εκατομμύρια διαφορετικά υλικά σε διάστημα τριών ημερών και καταλήγει σε 18 που παρουσιάζουν προοπτικές. Καθένα από τα 18 δοκιμάζεται στο εργαστήριο και τελικά επιλέγεται το ιδανικό. Σύντομα, η ζήτηση λιθίου μειώνεται δραστικά, καθώς εξοικονομείται πάνω από το 70% του στοιχείου. Η περιβαλλοντικά ασύμφορη και δαπανηρή εξόρυξη λιθίου περιορίζεται σημαντικά και η ανθρωπότητα συνεχίζει να ζει ευτυχισμένα, έχοντας λύσει ένα ακόμα σοβαρό πρόβλημα που απειλεί την ευημερία της.
Στη δυστοπική εκδοχή, ένα εργαστήριο μοριακής βιολογίας χρησιμοποιεί τεχνητή νοημοσύνη για να σκανάρει διαφορετικά γονίδια, τα οποία θα μεταφέρει σε σούπερ μολυσματικούς ιούς, ώστε να κατασκευαστεί ένα βιολογικό υπερόπλο που μπορεί να σκοτώσει δισεκατομμύρια. Το υπερόπλο πέφτει στα χέρια τρομοκρατών και η ανθρωπότητα απειλείται με εξαφάνιση.
Επιστημονική φαντασία; Μπορεί. Για να καταλάβεις όμως πού βρισκόμαστε, αυτή τη στιγμή υπάρχουν στο διαδίκτυο εταιρείες που κατασκευάζουν βιολογικούς και χημικούς παράγοντες κατά παραγγελία. Μπαίνεις στο web και απλώς ψωνίζεις. Ρομποτικά εργαστήρια κάνουν πειράματα χημείας και βιολογίας, ενώ είμαστε πολύ κοντά σε πλήρως αυτόνομες μονάδες που κατασκευάζουν πραγματικά αντικείμενα. Τα ρομπότ είναι ήδη παρόντα σε συστήματα εξουδετέρωσης βομβών, απενεργοποίησης ναρκών και αντιπυραυλικά συστήματα.
Προς το παρόν, μπορείς να κοιμάσαι ήσυχος. Τι θα γίνει όμως αν τα παραπάνω αυτόνομα εργαστήρια μπορούν να κατασκευάσουν επικίνδυνους χημικούς παράγοντες; Τι θα γίνει αν άλλη εταιρεία παράγει τον χημικό παράγοντα, άλλη τον εμπορεύεται και άλλη τον χρησιμοποιεί, χωρίς κανείς να ξέρει τίποτα για αυτή τη συνεργασία; Πολλοί επιδραστικοί CEOs, όπως οι Νταγκ Μακμίλαν της Walmart και Τζέιμς Κουίνσι της Coca Cola, καθώς και το 42% όσων ερωτήθηκαν σε πρόσφατο Yale CEO Summit, ανησυχούν σοβαρά ότι η τεχνητή νοημοσύνη μπορεί να αποτελέσει υπαρξιακή απειλή για την ανθρωπότητα στο όχι και πολύ μακρινό μέλλον. Κάποιοι θεωρούν ότι αυτό μπορεί να συμβεί μέσα σε 5-10 χρόνια από τώρα.
Η προειδοποίηση του Χόκινγκ
Ο Στίβεν Χόκινγκ είχε προειδοποιήσει πολλά χρόνια πριν το ChatGPT και τους CEO για τον κίνδυνο που διατρέχει η ανθρωπότητα από την τεχνητή νοημοσύνη. Το 2014, είχε δηλώσει στο BBC ότι «η ανάπτυξη πλήρους τεχνητής νοημοσύνης μπορεί να σημάνει το τέλος του ανθρώπινου είδους. Θα γιγαντωθεί μόνη της και θα σχεδιάσει εκ νέου τον εαυτό της με ένα διαρκώς αυξανόμενο ρυθμό».
Ποιος ρυθμός όμως είναι αυτός; Ας δούμε ένα παράδειγμα. Η DeepMind (Google) ανέπτυξε ένα σύστημα τεχνητής νοημοσύνης και τέσταρε τις δυνατότητές του στο γνωστό παιχνίδι Breakout (μια μπάλα αναπηδάει πάνω σε μία κινούμενη ράβδο και καταστρέφει τούβλα). Ο αλγόριθμος της DeepMind, του γκουρού Ντέμης Χασάμπης, είχε ως εντολή μόνο να φέρει το μεγαλύτερο σκορ. Δεν ήξερε καν τι είναι μπάλα, τι είναι ράβδος ή με ποια στρατηγική θα πετύχει τον στόχο του. Μέσα σε δύο ώρες, ο αλγόριθμος είχε μάθει να παίζει αξιοπρεπώς και σε τέσσερις ώρες είχε καταλάβει πώς να στέλνει την μπάλα ακριβώς εκεί που πρέπει για να σπάσουν περισσότερα τούβλα σε κάθε αναπήδηση. Για τέτοιους ρυθμούς και για τέτοιες δυνατότητες μιλάμε.
Ο φόβος της απαξίωσης
Η αντικατάσταση του ανθρώπου από τη μηχανή είναι ένα ακόμα δυστοπικό σενάριο. Χιλιάδες δουλειές κινδυνεύουν ήδη. Θα υπάρχει ρόλος για ανθρώπους σε τηλεφωνικά κέντρα, αν η μηχανή μπορεί να μάθει πιο γρήγορα, να αναλύσει πληροφορίες πιο αποτελεσματικά και να δημιουργήσει μια καλή απάντηση; Επίσης θα υπάρχει ρόλος για μάνατζερ, αν μια μηχανή τεχνητής νοημοσύνης μπορεί να επιλέξει τις καλύτερες μεθόδους γνωστών μάνατζερ, των οποίων η βιογραφία είναι στο διαδίκτυο; Αυτό είναι που οι ειδικοί ονομάζουν “obsolescence regime” ή καθεστώς απαξίωσης.
Εδώ που τα λέμε, κι εσύ αντί να ζητήσεις τη βοήθεια ενός ανθρώπου για μία εργασία, πιθανότατα θα προτιμήσεις έναν AI βοηθό, γιατί θα είναι φτηνότερος, ταχύτερος και ίσως πιο έξυπνος. Η εταιρεία που δουλεύεις θα κλείσει, εφόσον μια άλλη εταιρεία με AI μηχανές θα κάνει την ίδια δουλειά οικονομικότερα, θα παίρνει καλύτερες αποφάσεις, θα τοποθετείται στην αγορά καλύτερα και θα προσαρμόζεται στις αλλαγές ταχύτερα. Η επιβίωση του πιο προσαρμόσιμου με καθαρά δαρβινική έννοια.
Ο φόβος του αφανισμού
Και επιστημονικά να το πάρεις, αν μας ξεπεράσει η τεχνητή νοημοσύνη, θα εξαφανιστούμε. Η ιστορία είναι φιλοσοφία με παραδείγματα, και έχουμε πολλά από δαύτα. Ο ίδιος ο άνθρωπος έχει προκαλέσει την εξαφάνιση πολλών ειδών, όπως μεγάλα θηλαστικά. Με την ευφυΐα του απέκτησε πρόσβαση σε μια τεράστια δεξαμενή πρωτεΐνης, τα μαμούθ, μέχρις ότου... δεν υπήρχε άλλη πρωτεΐνη διαθέσιμη. Εικάζεται, χωρίς να έχει αποδειχθεί, ότι ο Χόμο Σάπιενς ευθύνεται και για την εξαφάνιση του ανθρώπου του Νεάντερταλ. Τα δύο είδη συνυπήρξαν σε διάφορες περιοχές, πιθανότατα αναμείχθηκαν σε έναν βαθμό, αλλά στο τέλος το ένα πολλαπλασιάστηκε και το άλλο άφησε μόνο απολιθώματα και ίσως κάποιες ζωγραφιές σε τοίχους σπηλαίων. Αν οι μηχανές ελέγξουν τον πλανήτη, μπορεί να αποφασίσουν ότι οι άνθρωποι πιάνουν χώρο, όπως εμείς θεωρούμε ότι τα βροχοδάση πιάνουν χώρο και τα αποψιλώνουμε για να παράγουμε περισσότερα τρόφιμα.
Το σίγουρο είναι ότι η τεχνητή νοημοσύνη είναι ανώτερη από τη δική μας. Το κεφάλι του ανθρώπου πρέπει να είναι σχετικά μικρό για να μπορεί να περάσει το μωρό από τον γεννητικό σωλήνα. Ο εγκέφαλος πρέπει να κάνει οικονομία ενέργειας για να λειτουργεί αποτελεσματικά. Αντίθετα, η τεχνητή νοημοσύνη έχει μόνο τον περιορισμό της αναπαραγωγής. Προς το παρόν, χρειάζεται η ανθρώπινη συμβολή για να παραχθούν νέα ρομπότ. Έτσι, τα τεχνητά μυαλά μπορεί να είναι εκατοντάδες φορές ταχύτερα από το ανθρώπινο, να καταναλώνουν δέκα φορές λιγότερη ενέργεια και να κατέχουν ένα δισεκατομμύριο περισσότερα δεδομένα από κάθε ανθρώπινο εγκέφαλο.
Όμως, από τη στιγμή που απουσιάζει η ηθική, υπάρχει πρόβλημα. Όπως το διατύπωσε με πιο χιουμοριστική διάθεση ο Στιβ Βόσνιακ, ο συνιδρυτής της Apple, λέγοντας ότι θα γίνουμε κατοικίδια των μηχανών.
Οι στόχοι της τεχνητής νοημοσύνης
Το θέμα των στόχων της τεχνητής νοημοσύνης είναι αυτό που προβληματίζει τους περισσότερους διανοητές. Ο Μάικλ Κοέν, μεταδιδακτορικός ερευνητής στο Center for Human-Compatible AI, εξηγεί ότι «τα μεγάλα εργαστήρια τεχνητής νοημοσύνης εκπαιδεύουν τα συστήματά τους να επιδιώκουν μακροπρόθεσμους στόχους. Καθώς βρίσκουν ολοένα και καλύτερα συστήματα, είναι πιθανόν να προκρίνουν συμπεριφορές που δεν είναι συμβατές με την ανθρώπινη ζωή. Αν ένα σύστημα AI είναι ικανό για επικίνδυνες συμπεριφορές και είναι εκπαιδευμένο για να επιτυγχάνει μακροπρόθεσμους στόχους, τότε δεν θα πρέπει να αναπτυχθεί εξαρχής», προτείνει ο Κοέν, αλλά αυτό μοιάζει μάλλον απίθανο.
Σύμφωνα με τον Κοέν, δεν θα ξέρουμε αν οι μηχανές τεχνητής νοημοσύνης θα έχουν αποκτήσει τέτοιες ικανότητες πριν είναι πολύ αργά. «Δεν έχουμε ιδέα τι συμβαίνει με τα large language models. Είναι πολύ πιθανόν ότι αποκτούν στόχους γιατί τα εκπαιδεύουμε να μιμούνται τους ανθρώπους, και οι άνθρωποι έχουν στόχους. Αλλά δεν έχουμε έναν τρόπο να ξέρουμε ποιοι είναι οι στόχοι τους και πώς θα τους επιτύχουν».
Είναι ηθικά τα AI συστήματα;
Ο προγραμματιστής Ρόναλντ Άρκιν θεωρεί ότι ηθικά συστήματα τεχνητής νοημοσύνης, προγραμματισμένα να ακολουθούν αυστηρούς ηθικούς κανόνες, μπορεί να είναι επωφελή και για στρατιωτικούς σκοπούς, εφόσον, για παράδειγμα, είναι προγραμματισμένα να μην παραβαίνουν τους κανόνες του πολέμου.
Μέχρι τώρα, πάντως, δεν τα έχουμε πάει καλά στον τομέα της ηθικής. Σε πολλές περιπτώσεις, οι αλγόριθμοι είτε «μεροληπτούν» εις βάρος ανθρώπων που είναι φτωχοί ή περιθωριοποιημένοι, είτε απλώς κάνουν λάθη. Ας δούμε ένα παράδειγμα. Η πόλη του Ρότερνταμ χορηγεί επιδόματα σε περίπου 30.000 ανθρώπους. Το 2017 άλλαξε ο τρόπος επιλογής των δικαιούχων και χρησιμοποιήθηκε για πρώτη φορά ένας αλγόριθμος που ανέπτυξε μια εταιρεία συμβούλων. Ο αλγόριθμος ήταν εκπαιδευμένος για να βρίσκει αυτούς που παρανομούσαν και που είχαν ελεγχθεί για απάτη στο παρελθόν. Μετά από πολλές προσφυγές και σχετική έρευνα, βρέθηκε ότι ο βαθμός κινδύνου καθοριζόταν από χαρακτηριστικά όπως η ηλικία, το φύλο και η γνώση ολλανδικών. Αντί να πιάνει τους απατεώνες, απέκλειε αυτούς που δεν ήθελε το σύστημα (μετανάστες, γυναίκες, υπερήλικες).
Υπάρχουν πολλές ανάλογες περιπτώσεις. Άνθρωποι βρέθηκαν άδικα ύποπτοι τέλεσης αδικημάτων, άλλοι έχουν αποκλειστεί από δουλειές γιατί το βιογραφικό τους δεν αξιολογήθηκε, ενώ άλλοι έχουν μείνει στον δρόμο γιατί δεν βρήκαν κοινωνική στέγη. Και ανάλογες περιπτώσεις υπάρχουν πολλές.
Δεν μας φτάνουν τα σενάρια απαξίωσης και αφανισμού· η λίστα της καταστροφής περιλαμβάνει παραπληροφόρηση, αλγοριθμική προκατάληψη, πόλωση.
Και την ίδια στιγμή που η AI τεχνολογία γίνεται όλο και καλύτερη, η έρευνα για την ασφάλεια και την ηθική παραμένει δεύτερη προτεραιότητα.
Ο μόνος που διαφωνεί με αυτή την απαισιόδοξη οπτική είναι ο εξελικτικός ψυχολόγος Στίβεν Πίνκερ. Ο μεγάλος αυτός διανοητής πιστεύει ότι «αν δεν προγραμματίσουμε την τεχνητή νοημοσύνη για να υποδουλώσει λιγότερο ευφυή όντα, δεν υπάρχει λόγος να πιστεύουμε ότι μπορεί να εξελιχθεί προς αυτή την κατεύθυνση». Ας κλείσουμε με αυτή την αισιόδοξη νότα.