Όσοι χρησιμοποιείτε κάποιο Llm (large language model), όπως το Chat GPT, για να διευκολυνθείτε είτε στη δουλειά είτε στο διάβασμά σας, μάλλον θα έχετε προσέξει ότι κάνει κάποια λάθη. Αν δεν με πιστεύετε, ρωτήστε και το ίδιο: θα το παραδεχτεί σε κάτω από ένα δευτερόλεπτο!
Στον κόσμο αυτών των μοντέλων, αυτό το πρόβλημα καλείται «παραισθήσεις». Δεν πρόκειται, όμως, για τις παραισθήσεις με την ανθρώπινη έννοια. Όταν χρησιμοποιείται αυτή η λέξη στον χώρο της τεχνητής νοημοσύνης, όπως μας εξηγεί το ίδιο το Chat GPT, παραισθήσεις σημαίνει ότι ένα μοντέλο δημιουργεί πληροφορίες που δεν είναι αληθινές ή εφευρίσκει γεγονότα, ονόματα, παραπομπές ή “λογικοφανείς” απαντήσεις, χωρίς να βασίζεται σε πραγματικά δεδομένα.
Παραισθήσεις και επιχειρηματικά προβλήματα
Ολοένα και περισσότερες επιχειρήσεις αρχίζουν να εισάγουν δειλά-δειλά, την τεχνητή νοημοσύνη στις υπηρεσίες που παρέχουν. Αυτό συμβαίνει κυρίως με chatbot που χρησιμοποιούν τεχνητή νοημοσύνη ή για τη γενικότερη τεχνική υποστήριξη της εταιρίας. Αντί ένας άνθρωπος να σου απαντάει στα online chatbot και να προσπαθεί να λύσει το θέμα σου, αυτό είναι κάτι που κάνει εύκολα και ένα τέτοιο μοντέλο.
Στις αρχές του μήνα, όμως, η New York Times, αποκάλυψε ένα θέμα που προέκυψε από ένα τέτοιο μοντέλο AΙ. Συγκεκριμένα, οι χρήστες της Cursor, ενός προηγμένου επεξεργαστή κώδικα που ενσωματώνει τεχνητή νοημοσύνη (AI) για να βελτιώσει την παραγωγικότητα των προγραμματιστών, έλαβαν ξαφνικά ένα μήνυμα από το μηχάνημα τεχνικής υποστήριξης που λειτουργεί πλήρως με AI, ότι η εταιρία αλλάζει την πολιτική της και οι χρήστες πλέον δεν θα μπορούν να το χρησιμοποιούν σε πάνω από έναν υπολογιστή.
Η Cursor βομβαρδίστηκε με μηνύματα παραπόνων, ακόμα και με ακυρώσεις συνδρομών, μέχρι που ο διευθύνων σύμβουλος και συνιδρυτής της ανακοίνωσε ότι τέτοια αλλαγή πολιτικής δεν υφίσταται. Αντιθέτως, διευκρίνισε πως πρόκειται για μία λάθος ενημέρωση από ένα bot υποστήριξης με τεχνητή νοημοσύνη στην πρώτη γραμμή εξυπηρέτησης.
Πρόκειται για μία πραγματική περίπτωση «παραίσθησης», που εξέθεσε μία ολόκληρη επιχείρηση.
Είναι λογικό να συμβαίνει κάτι τέτοιο;
Μην έχοντας καμία εξειδίκευση πάνω στο ζήτημα και με βάση προσωπική έρευνα, η απάντηση θα ήταν πως ναι. Πρόκειται για μία πολύ νέα τεχνολογία, η οποία ακόμα εξελίσσεται. Η εξέλιξή της σε σημαντικό βαθμό εξαρτάται από την αλληλεπίδραση που έχει και μαζί μας. Οι ίδιες οι εταιρίες που κυκλοφορούν τέτοια μοντέλα δεν βεβαιώνουν τους χρήστες ότι πρόκειται να λάβουν έγκυρη πληροφορία στο 100%.
Αν και βασίζονται σε σύνθετα μαθηματικά μοντέλα, βάση των οποίων επεξεργάζονται και αναπαράγουν πληροφορία, δεν έχουν την ανθρώπινη ικανότητα να αντιληφθούν ποια πληροφορία είναι σωστή και ποια λανθασμένη. Ακόμα και έγκριτοι του κλάδου, όπως ο Amr Awadallah, διευθύνων σύμβουλος της Vectara, μίας start-up που χτίζει εργαλεία τεχνητής νοημοσύνης για επιχειρήσεις, δηλώνει χαρακτηριστικά ότι «πάντα θα έχουν παραισθήσεις».
Αν και οι εταιρίες παραγωγής τέτοιων μοντέλων προσπαθούν μανιωδώς να βελτιώσουν αυτά τα συστήματα, πλέον με τη χρήση τους από πρακτικά οποιονδήποτε, αυτές οι «παραισθήσεις» είναι καθημερινές σε οποιοδήποτε μέρος του πλανήτη.
Οι ειδικοί και οι μεγάλες εταιρίες θεωρούσαν ότι όσο περισσότερα δεδομένα «τάιζαν» αυτά τα μοντέλα, τόσο θα μειώνονταν οι παραισθήσεις. Πλέον, έχουν χρησιμοποιήσει σχεδόν όλο τον όγκο αγγλικής βιβλιογραφίας στα μοντέλα τους, οπότε φαίνεται ότι το πρόβλημα είναι πιο περίπλοκο. Η ερώτηση, λοιπόν, γιατί έχουν παραισθήσεις, δεν έχει απαντηθεί ακόμα ομοφώνως από τους επιστήμονες. Θα χρειαστεί, ακόμα, καιρός για να καταλάβουν πλήρως πώς λειτουργούν αυτά τα συστήματα, έτσι ώστε να δώσουν λύση σε αυτό το πρόβλημα.

Συμπέρασμα
Το πλέον σίγουρο είναι ότι μοντέλα Llm όπως το Chat GPT, αποτελoύν ένα τέλειο εργαλείο σε περιλήψεις εγγράφων, κειμένων και συγγραφή εργασιών. Το καλύτερο θα ήταν να το χρησιμοποιείς, αλλά να έχεις δίπλα σου και άλλες διαθέσιμες πηγές έτσι ώστε να διασταυρώνεις την πληροφορία. Όσο πιο εξειδικευμένο αυτό που ζητάς, τόσο πιο έγκυρη η πληροφορία που θα σου δώσει. Και φυσικά αν έχεις συνδρομή, ακόμα καλύτερα.
Προσωπικά, όταν μου ζητήθηκε να αναζητήσω αποφάσεις δικαστηρίων που πραγματεύονται ένα ορισμένο ζήτημα και έθεσα ως input αυτό το ζήτημα στο Chat GPΤ, αρχικά ενθουσιάστηκα γιατί μου ανέπτυξε μία λίστα από αποφάσεις. Πίστεψα ότι μείωσε δραστικά τον χρόνο που θα έπρεπε να αφιερώσω σε αυτό το task. Όταν όμως, αναζήτησα τις αποφάσεις και κατέβασα τα αρχεία για να τις διαβάσω κανονικά, διαπίστωσα ότι εν τέλει διάβαζα άσχετες αποφάσεις, που δεν είχαν καμία σχέση με το θέμα που έψαχνα. Αυτή ήταν και η πρώτη μου επαφή με τις λεγόμενες «παραισθήσεις».
Εσύ, έχεις πέσεις πάνω στις «παραισθήσεις» ή ακόμα;