Σε μια αποκαλυπτική μελέτη, η OpenAI, δημιουργός του ChatGPT, παραδέχεται ότι οι λεγόμενες «παραισθήσεις» των μεγάλων γλωσσικών μοντέλων, δηλαδή οι ψευδείς αλλά πειστικές απαντήσεις, δεν αποτελούν απλώς ατέλειες μηχανικής, αλλά μαθηματικό αναπόφευκτο.
Ακόμα και με τέλεια δεδομένα εκπαίδευσης, η τεχνολογία δεν μπορεί να αποφύγει το σφάλμα.
Γιατί συμβαίνουν οι παραισθήσεις
Η μελέτη, με επικεφαλής ερευνητές της OpenAI και του Georgia Tech, έδειξε ότι:
- Τα μοντέλα «μαντεύουν» όταν δεν είναι βέβαια, όπως οι μαθητές σε δύσκολες εξετάσεις.
- Τα σφάλματα πηγάζουν από στατιστικούς και υπολογιστικούς περιορισμούς, όχι μόνο από την ποιότητα της εκπαίδευσης.
- Υπάρχουν τρεις βασικοί λόγοι: αβεβαιότητα στα δεδομένα, περιορισμοί της ίδιας της αρχιτεκτονικής των μοντέλων και μαθηματικά άλυτα προβλήματα.
Ακόμη και τα πιο εξελιγμένα συστήματα της OpenAI εμφάνισαν υψηλά ποσοστά λαθών. Το μοντέλο o1 «παραληρούσε» στο 16% των περιπτώσεων, ενώ τα πιο πρόσφατα o3 και o4-mini έφτασαν στο 33% και 48% αντίστοιχα.
Ο κίνδυνος για την εμπιστοσύνη
Η παραδοχή έχει βαρύτητα, καθώς το ChatGPT είναι το εργαλείο που εκτόξευσε την παγκόσμια υιοθέτηση της γενετικής AI. Όπως σημειώνει ο αναλυτής Νιλ Σαχ, «η τεχνητή νοημοσύνη δεν έχει την ταπεινότητα να παραδεχθεί ότι δεν ξέρει. Προτιμά να απαντά με σιγουριά, ακόμη κι όταν κάνει λάθος».
Επιπλέον, οι μέθοδοι αξιολόγησης της βιομηχανίας ενισχύουν το πρόβλημα: τα συστήματα τιμωρούν τις απαντήσεις «δεν ξέρω» και επιβραβεύουν τις βέβαιες, έστω και λανθασμένες.
Νέες στρατηγικές για επιχειρήσεις
Οι ειδικοί προειδοποιούν ότι οι εταιρείες πρέπει να δουν τις παραισθήσεις ως μόνιμο ρίσκο, όχι ως παροδικό εμπόδιο. Προτείνονται:
- ισχυρότερη ανθρώπινη επίβλεψη,
- ειδικά «φίλτρα» για κρίσιμους κλάδους όπως υγεία και χρηματοοικονομικά,
- νέοι κανόνες αξιολόγησης με βάση τη διαφάνεια και την εκτίμηση αβεβαιότητας.
- Όπως τόνισε ο Τσάρλι Ντάι της Forrester, «η διακυβέρνηση πρέπει να περάσει από την πρόληψη στην αντιμετώπιση ρίσκου». Αντίστοιχα, ο Σαχ πρότεινε ένα «δείκτη εμπιστοσύνης σε πραγματικό χρόνο» που θα μετρά την αξιοπιστία των απαντήσεων.
Το συμπέρασμα
Η έρευνα της OpenAI καταλήγει ότι η πλήρης εξάλειψη των παραισθήσεων δεν είναι δυνατή. Η βιομηχανία πρέπει να προσαρμοστεί, υιοθετώντας μηχανισμούς ελέγχου και ρεαλιστικές προσδοκίες. Με άλλα λόγια, οι επιχειρήσεις δεν μπορούν να περιμένουν από την AI να είναι αλάνθαστη – αλλά μπορούν να μάθουν να διαχειρίζονται τα λάθη της.
Δείτε Επίσης: