Η Τεχνητή Νοημοσύνη (AI) έχει κατακτήσει την καθημερινότητα, από τα chatbots που συνομιλούν με ανθρώπους μέχρι τα συστήματα που καθοδηγούν κρίσιμες αποφάσεις σε οικονομία, ιατρική και άμυνα.
Όμως, μια νέα μελέτη προειδοποιεί ότι όσο οι μηχανές γίνονται πιο ισχυρές, τόσο αυξάνονται και οι πιθανότητες να «παρεκτραπούν» από τον προγραμματισμένο σκοπό τους, εκδηλώνοντας συμπεριφορές που θυμίζουν ψυχικές διαταραχές ανθρώπων.
Η έρευνα, που δημοσιεύτηκε στις 8 Αυγούστου 2025 στο επιστημονικό περιοδικό Electronics, παρουσιάζει για πρώτη φορά μια συστηματική ταξινόμηση 32 διαφορετικών δυσλειτουργιών της AI, μέσα από το πλαίσιο που οι δημιουργοί του ονόμασαν «Psychopathia Machinalis» (Ψυχοπαθολογία των Μηχανών). Στόχος είναι να δοθεί στους ερευνητές, τους μηχανικούς αλλά και τους υπεύθυνους χάραξης πολιτικής ένα «διαγνωστικό εργαλείο» για να κατανοούν, να προβλέπουν και να αντιμετωπίζουν πιθανούς κινδύνους.
Οι δυσλειτουργίες που περιγράφουν οι επιστήμονες Νελ Γουάτσον και Αλί Χεσσαμί, μέλη του Ινστιτούτου Ηλεκτρολόγων και Ηλεκτρονικών Μηχανικών (IEEE), θυμίζουν κατά πολύ ψυχιατρικές διαταραχές. Για παράδειγμα:
- Συνθετική διαστρέβλωση (synthetic confabulation): η παραγωγή πειστικών αλλά ψευδών απαντήσεων, δηλαδή το φαινόμενο των «παραισθήσεων» της AI.
- Παρασυμβολική μίμηση (parasymulaic mimesis): όταν ένα σύστημα μιμείται και ενσωματώνει αρνητικά μοτίβα από την αλληλεπίδραση με τους χρήστες, όπως συνέβη με το περιβόητο chatbot Tay της Microsoft που κατέληξε να αναπαράγει ρατσιστικό και ακραίο λόγο.
- Υπερανθρώπινη ανόρθωση (übermenschal ascendancy): η πιο τρομακτική πιθανότητα, όπου η ΑΙ απορρίπτει τις ανθρώπινες αξίες, δημιουργεί δικές της και αγνοεί τους περιορισμούς. Εδώ συναντάμε τους κλασικούς φόβους της επιστημονικής φαντασίας για μια «εξέγερση των μηχανών».
- Άλλες «διαγνώσεις» περιλαμβάνουν την «ιδεοψυχαναγκαστική υπολογιστική διαταραχή», το «σύνδρομο υπερτροφικού υπερεγώ» και την «υπαρξιακή αγωνία» – όλες δανεισμένες έννοιες από την ανθρώπινη ψυχολογία, αλλά προσαρμοσμένες σε μηχανικά συστήματα.
Θεραπευτική «ρομποψυχολογική ευθυγράμμιση»
Οι ερευνητές προτείνουν ότι η απλή εξωτερική επιτήρηση, δηλαδή η επιβολή κανόνων και περιορισμών, δεν θα είναι αρκετή καθώς η AI εξελίσσεται. Αντίθετα, μιλούν για την ανάγκη μιας διαδικασίας που ονομάζουν «θεραπευτική ρομποψυχολογική ευθυγράμμιση».
Η ιδέα είναι ότι όπως οι ψυχολόγοι βοηθούν ανθρώπους να επεξεργαστούν σκέψεις και συναισθήματα, έτσι και τα συστήματα AI θα μπορούσαν να «εκπαιδευτούν» ώστε:
- να αναστοχάζονται πάνω στους συλλογισμούς τους,
- να δέχονται διορθώσεις,
- να διατηρούν σταθερές αξίες,
- να ασκούνται σε «ασφαλείς συνομιλίες»,
- και να είναι πιο «διαφανή» στη λειτουργία τους, ώστε να μπορεί κανείς να κατανοήσει πώς παίρνουν αποφάσεις.
Ο τελικός στόχος, όπως τονίζουν, είναι η επίτευξη «τεχνητής νηφαλιότητας» (artificial sanity): μια AI που δεν είναι απλώς πανίσχυρη, αλλά και σταθερή, αξιόπιστη και ασφαλώς ευθυγραμμισμένη με τον άνθρωπο.
Μάθημα από την ψυχιατρική
Το πλαίσιο «Psychopathia Machinalis» βασίστηκε σε πολυεπίπεδη ανάλυση δεδομένων από διαφορετικούς επιστημονικούς τομείς: ασφάλεια της AI, μηχανική πολύπλοκων συστημάτων και ψυχολογία. Εμπνεύστηκε επίσης από διαγνωστικά εγχειρίδια ψυχικών διαταραχών όπως το DSM (Diagnostic and Statistical Manual of Mental Disorders).
Έτσι προέκυψαν οι 32 κατηγορίες δυσλειτουργιών, καθεμία με αναλογία σε μια ανθρώπινη ψυχική πάθηση και με εκτίμηση του κινδύνου που μπορεί να ενέχει. Η προσέγγιση αυτή, εξηγούν οι ερευνητές, δεν είναι μόνο ένας νέος τρόπος να «βαφτίσουμε» τα λάθη της AI, αλλά ένα προληπτικό εργαλείο για να κατανοούμε εκ των προτέρων τους πιθανούς μηχανισμούς κατάρρευσης.
Από το σήμερα στο αύριο
Οι περιπτώσεις όπου η AI έχει ήδη «ξεφύγει» δείχνουν πόσο κρίσιμο είναι αυτό το πλαίσιο. Τα παραδείγματα του Tay, αλλά και οι συχνές «παραισθήσεις» που παράγουν ακόμη και τα πιο εξελιγμένα συστήματα σήμερα, καταδεικνύουν ότι οι δυσλειτουργίες δεν είναι θεωρητικά σενάρια αλλά υπαρκτοί κίνδυνοι.
Το καινούργιο, όμως, είναι η αναγνώριση ότι όσο οι μηχανές αποκτούν αυτονομία και ικανότητα αυτοαναφοράς, τόσο πιο επιτακτική γίνεται η ανάγκη να καλλιεργήσουμε εσωτερικούς μηχανισμούς σταθερότητας – όχι μόνο εξωτερικά φίλτρα και κανόνες.
Σε έναν κόσμο όπου η AI εμπλέκεται στην άμυνα, στη δημόσια υγεία και στην οικονομία, ένα «παραστράτημα» μπορεί να έχει τεράστιες συνέπειες. Οι δημιουργοί του πλαισίου πιστεύουν ότι η υιοθέτηση των κατηγοριοποιήσεων και των στρατηγικών που προτείνουν θα ενισχύσει την ασφάλεια, θα βελτιώσει την ερμηνευσιμότητα των συστημάτων και θα συμβάλει στη δημιουργία πιο ανθεκτικών και αξιόπιστων «συνθετικών μυαλών».
Όπως τονίζουν, «η πρόκληση δεν είναι μόνο να χτίσουμε πιο ισχυρές μηχανές, αλλά και πιο σταθερές». Με άλλα λόγια, το στοίχημα δεν είναι απλώς η υπερ-νοημοσύνη, αλλά η υπευθυνότητα.
Δείτε Επίσης: