ChatGPT: Πρόγραμμα ανιχνεύει τα κλεμμένα κείμενα που έχουν γραφτεί από τεχνητή νοημοσύνη
Ένα νέο εργαλείο κυκλοφόρησε χτες (31/01) η εταιρεία OpenAI, η οποία δημιούργησε το πρόγραμμα τεχνητής νοημοσύνης ChatGPT, το οποίο έχει σχεδιαστεί για να ανιχνεύει αν κάποιο κείμενο έχει γραφτεί από σύστημα AI, με το εργαστήριο να προειδοποιεί ότι το λογισμικό δεν είναι εντελώς αξιόπιστο και, για την ακρίβεια, τις περισσότερες φορές κάνει λάθος – τουλάχιστον προς το παρόν.
Η ενημέρωση της OpenAI ακολουθεί το διεθνές κύμα ανησυχίας για αντιγραφές και λογοκλοπή στον ακαδημαϊκό κόσμο.
Με ανάρτηση στο επίσημο ιστολόγιο του εργαστηρίου, η εταιρεία προτρέπει τους ενδιαφερόμενους να χρησιμοποιήσουν το νέο λογισμικό, που «έχει εκπαιδευτεί» για να διακρίνει τα κείμενα που είναι γραμμένα από ανθρώπους, από τα κείμενα που έχουν συνταχθεί από διάφορα συστήματα νοημοσύνης (όχι μόνο από το ChatGPT).
Ερευνητές του Open AI παραδέχθηκαν πάντως πως είναι αδύνατο να ανιχνευτούν με 100% ακρίβεια τα κείμενα που έχουν γραφτεί από συστήματα τεχνητής νοημοσύνης. Πρόσθεσαν ωστόσο πως καλά εργαλεία ταξινόμησης μπορούν να εντοπίσουν χαρακτηριστικά «ίχνη» και ενδείξεις χρήσης AI.
Όπως είπαν, το λογισμικό μπορεί να φανεί χρήσιμο σε περιπτώσεις που εγείρονται υποψίες για «ανεντιμότητα» σε ακαδημαϊκό επίπεδο, καθώς και στην ανίχνευση AI chatbot που παρουσιάζονται ως άνθρωποι.
Εξεταστές επιστρέφουν στο χαρτί και το μολύβι
Οι δημιουργοί του λογισμικού αναγνωρίζουν ότι το πρόγραμμα αναγνώρισης «δεν είναι απόλυτα αξιόπιστο», καθώς εντόπισε σωστά μόνο το 26% των αγγλικών κειμένων που είχαν γραφτεί από τεχνητή νοημοσύνη και του δόθηκαν να τα ελέγξει. Ο έλεγχος αποδεικνύεται δύσκολος και στις περιπτώσεις κειμένων που γράφτηκαν όντως από ανθρώπους, αφού το πρόγραμμα θεώρησε προϊόν τεχνητής νοημοσύνης, το 9% των κειμένων που είχαν γραφτεί από ανθρώπινο χέρι και υποβλήθηκαν σε έλεγχο.
«Η αξιοπιστία του συστήματος ταξινόμησης συνήθως βελτιώνεται όσο αυξάνεται το μέγεθος του κειμένου. Σε σύγκριση με το σύστημα ταξινόμησης που είχαμε κυκλοφορήσει παλιότερα, αυτό το νέο σύστημα είναι σημαντικά πιο αξιόπιστο για κείμενα (σ.σ γραμμένα) από νεότερα συστήματα Τεχνητής Νοημοσύνης».
Από τότε που η πρόσβαση στο ChatGPT έγινε δημόσια, έχει προκαλέσει ένα κύμα ανησυχίας στα εκπαιδευτικά ιδρύματα διεθνώς, για πιθανές αντιγραφές σε εξετάσεις και άλλες διαδικασίες αξιολόγησης.
Ακαδημαϊκοί στο Ηνωμένο Βασίλειο καλούνται να αναθεωρήσουν τον τρόπο που εξετάζουν τους φοιτητές στα μαθήματά τους, ενώ ορισμένα πανεπιστήμια έχουν απαγορεύσει εντελώς τη χρήση ηλεκτρονικών συστημάτων και έχουν επιστρέψει στις εξετάσεις με στυλό και χαρτί για να αποτρέψουν τους φοιτητές από το να απευθυνθούν σε κάποιο σύστημα τεχνητής νοημοσύνης.
Μια λέκτορας στο πανεπιστήμιο Deakin της Αυστραλίας εκτίμησε ότι σχεδόν το 20% των γραπτών που βαθμολόγησε κατά τη διάρκεια του καλοκαιριού, είχε γραφτεί με τη βοήθεια τεχνητής νοημοσύνης.
Ορισμένα επιστημονικά περιοδικά έχουν επίσης απαγορεύσει τη χρήση του ChatGPT για εκπόνηση εργασιών.
Για μεγάλα κείμενα, και μόνο στα αγγλικά
Η OpenAI υπογραμμίζει ότι το εργαλείο ταξινόμησης έχει αρκετούς περιορισμούς, και είναι αναξιόπιστο σε κείμενα μικρότερα των 1.000 χαρακτήρων. Οι ερευνητές τόνισαν επίσης ότι το λογισμικό θα πρέπει να χρησιμοποιείται μόνο για κείμενα γραμμένα στα αγγλικά, καθώς αποδίδει «σημαντικά χειρότερα» σε άλλες γλώσσες και είναι αναξιόπιστο στον έλεγχο του κώδικα.
«Δεν θα πρέπει να χρησιμοποιείται ως βασικό εργαλείο για τη λήψη κάποιας απόφασης, αλλά αντίθετα συμπληρωματικά σε άλλες μεθόδους προσδιορισμού της προέλευσης ενός κειμένου», επισημαίνει η OpenAI, ζητώντας παράλληλα από τα εκπαιδευτικά ιδρύματα να μοιραστούν με την εταιρεία τα περιστατικά χρήσης του ChatGPT στις αίθουσες διδασκαλίας.
Τα περισσότερα ιδρύματα έχουν αντιδράσει αρνητικά, απαγορεύοντας τη χρήση τέτοιων συστημάτων τεχνητής νοημοσύνης, αλλά υπάρχουν και εξαιρέσεις: τρία μεγάλα πανεπιστήμια στη Νότια Αυστραλία ανανέωσαν τον περασμένο μήνα τους κανονισμούς τους, και επέτρεψαν τη χρήση AI όπως το ChatGPT, υπό την προϋπόθεση να γνωστοποιείται στο γραπτό η χρήση του συστήματος τεχνητής νοημοσύνης.