Τα AI chatbots (π.χ. ChatGPT, Gemini, Grok) γίνονται όλο και πιο διαδεδομένα, όμως η χρήση τους εγκυμονεί σοβαρούς κινδύνους για την ιδιωτικότητα.
Συνομιλίες μπορεί να διαρρεύσουν μέσω λειτουργιών κοινοποίησης, κακόβουλων επιθέσεων (prompt injections) ή κακών ρυθμίσεων ασφαλείας, ενώ η ψευδαίσθηση της ανωνυμίας οδηγεί τους χρήστες σε υπεραποκάλυψη προσωπικών δεδομένων.
Επιπλέον, το «shadow AI» σε εταιρικά περιβάλλοντα εκθέτει ευαίσθητες πληροφορίες χωρίς έλεγχο.
Ο Μπέρναρντ Μαρ* προειδοποιεί στο άρθρο του με τρόπο κατανοητό -ακόμα και για μη ειδικούς στο θέμα- ότι η εμπιστοσύνη μας σε αυτά τα συστήματα αυξάνεται ταχύτερα από την ικανότητά μας να προστατεύουμε την ιδιωτικότητα και καλεί σε προσοχή, εκπαίδευση και ρύθμιση.
Πώς η εξάρτηση αυξάνεται πιο γρήγορα από την ικανότητα διασφάλισης της ιδιωτικότητας
Τα chatbots τεχνητής νοημοσύνης όπως τα ChatGPT, Gemini και Grok ενσωματώνονται ολοένα και περισσότερο στον ιστό της καθημερινής ζωής.
Είναι ενδιαφέρον το γεγονός ότι πρόσφατες έρευνες, δείχνουν ότι η πιο δημοφιλής χρήση τους σήμερα είναι η αναζήτηση ιατρικών θεμάτων, ενώ οι άνθρωποι συχνά αισθάνονται ασφαλείς να συζητούν θέματα για τα οποία δεν θα ένιωθαν άνετα να μιλούν με άλλους ανθρώπους.
Από τη σύνταξη αιτήσεων εργασίας έως την έρευνα νομικών ζητημάτων και τη συζήτηση προσωπικών ιατρικών λεπτομερειών, ένα αντιληπτό όφελος από αυτά είναι ότι οι άνθρωποι πιστεύουν ότι οι συνομιλίες τους θα παραμείνουν ιδιωτικές.
Και από επιχειρηματικής άποψης, έχουν αποδειχθεί ισχυρά εργαλεία για τη σύνταξη πολιτικών, καθορισμό στρατηγικών και ανάλυση εταιρικών δεδομένων.
Ωστόσο, ενώ μπορεί να νιώθουμε αρκετά ανώνυμοι καθώς συνομιλούμε, είναι σημαντικό να θυμόμαστε ότι τα chatbot δεν δεσμεύονται από κανέναν από τους ίδιους κανόνες εμπιστευτικότητας με τους γιατρούς, τους δικηγόρους, τους θεραπευτές ή τους υπαλλήλους οργανισμών.
Στην πραγματικότητα, όταν η προστασία αποτυγχάνει ή οι άνθρωποι χρησιμοποιούν τα chatbots χωρίς να κατανοούν πλήρως τις επιπτώσεις, θα μπορούσαν να εκτεθούν πολύ ευαίσθητες και δυνητικά επιζήμιες πληροφορίες.
Δυστυχώς, αυτός ο κίνδυνος δεν είναι απλώς υποθετικός. Πρόσφατα δημοσιεύματα επισημαίνουν αρκετά περιστατικά όπου έχει ήδη συμβεί αυτό το είδος διαρροής δεδομένων.
Αυτό εγείρει ένα ανησυχητικό ερώτημα: χωρίς μια σοβαρή επανεξέταση του τρόπου με τον οποίο χρησιμοποιούνται, ρυθμίζονται και προστατεύονται οι υπηρεσίες παραγωγικής τεχνητής νοημοσύνης (AI), μήπως οδεύουμε προς μια καταστροφή του απορρήτου;
Ποιοι είναι λοιπόν οι κίνδυνοι, ποια βήματα μπορούμε να λάβουμε για να προστατεύσουμε τους εαυτούς μας και πώς πρέπει να ανταποκριθεί η κοινωνία σε αυτή τη σοβαρή και αυξανόμενη απειλή;
Πώς απειλούν τα Chatbots και η Παραγωγική Τεχνητή Νοημοσύνη την ιδιωτικότητα;
Υπάρχουν διάφοροι τρόποι με τους οποίους πληροφορίες που εύλογα αναμένουμε ότι θα προστατεύονται, μπορούν να αποκαλυφθούν όταν εμπιστευόμαστε υπερβολικά την Τεχνητή Νοημοσύνη.
Οι πρόσφατες «διαρροές» του ChatGPT, για παράδειγμα, φέρεται να συνέβησαν όταν οι χρήστες δεν συνειδητοποίησαν ότι η λειτουργία «κοινής χρήσης» θα μπορούσε να κάνει το περιεχόμενο των συνομιλιών τους ορατό στο δημόσιο διαδίκτυο.
Η λειτουργία κοινής χρήσης έχει σχεδιαστεί για να επιτρέπει στους χρήστες να συμμετέχουν σε συνεργατικές συνομιλίες με άλλους χρήστες. Ωστόσο, σε ορισμένες περιπτώσεις, αυτό σήμαινε ότι έγιναν επίσης καταχωρημένες και αναζητήσιμες από τις μηχανές αναζήτησης.
Ορισμένες από τις πληροφορίες που δημοσιοποιήθηκαν ακούσια με αυτόν τον τρόπο περιελάμβαναν ονόματα και διευθύνσεις ηλεκτρονικού ταχυδρομείου, πράγμα που σημαίνει ότι οι συμμετέχοντες στη συνομιλία μπορούσαν να αναγνωριστούν.
Πρόσφατα αποκαλύφθηκε επίσης ότι έως και 300.000 συνομιλίες μεταξύ χρηστών και του chatbot Grok, είχαν καταχωρηθεί και δημοσιοποιηθεί με τον ίδιο τρόπο.
Ενώ αυτά τα προβλήματα φαίνεται να έχουν προκληθεί από την παρεξήγηση των λειτουργιών από τους χρήστες, έχουν προκύψει και άλλα, πιο κακόβουλα κενά ασφαλείας.
Σε μια περίπτωση, ερευνητές ασφαλείας διαπίστωσαν ότι το chatbot Lena της Lenovo θα μπορούσε να «ξεγελαστεί» ώστε να μοιράζεται δεδομένα περιόδου σύνδεσης με cookies μέσω κακόβουλων prompt injections (σ.σ. τύπος επίθεσης που στοχεύει μοντέλα γλώσσας και συστήματα AI), επιτρέποντας την πρόσβαση σε λογαριασμούς χρηστών και αρχεία καταγραφής συνομιλιών.
Και υπάρχουν και άλλοι τρόποι με τους οποίους μπορεί να παραβιαστεί το απόρρητο, εκτός από τα αρχεία καταγραφής συνομιλιών.
Έχουν ήδη εκφραστεί ανησυχίες σχετικά με τους κινδύνους των nudification apps, των εφαρμογών δηλαδή που μπορούν να χρησιμοποιηθούν για τη δημιουργία πορνογραφικών εικόνων ανθρώπων χωρίς τη συγκατάθεσή τους.
Ωστόσο, ένα πρόσφατο περιστατικό υποδηλώνει ότι αυτό μπορεί να συμβεί ακόμη και χωρίς πρόθεση του χρήστη. Η πρόσφατη «πικάντικη» λειτουργία του Grok AI φέρεται να έχει δημιουργήσει άσεμνες εικόνες πραγματικών ανθρώπων χωρίς καν να του ζητηθεί να το κάνει.
Η ανησυχία είναι ότι αυτά δεν είναι απλά, μεμονωμένα προβλήματα, αλλά συστημικά ελαττώματα στον τρόπο με τον οποίο σχεδιάζονται και κατασκευάζονται τα παραγωγικά εργαλεία, καθώς και έλλειψη λογοδοσίας για τη συμπεριφορά των αλγορίθμων Τεχνητής Νοημοσύνης.
Γιατί αυτό αποτελεί σοβαρή απειλή για την ιδιωτικότητα;
Υπάρχουν πολλοί παράγοντες που θα μπορούσαν να εμπλέκονται στην αποκάλυψη των ιδιωτικών μας συνομιλιών, σκέψεων, ακόμη και ιατρικών ή οικονομικών πληροφοριών, με τρόπους που δεν προορίζονται.
Μερικοί είναι ψυχολογικοί — όπως όταν το αίσθημα ανωνυμίας που νιώθουμε όταν συζητάμε ιδιωτικές λεπτομέρειες της ζωής μας, μας ωθεί να τις κοινοποιούμε υπερβολικά χωρίς να σκεφτόμαστε τις συνέπειες.
Αυτό σημαίνει ότι μεγάλοι όγκοι εξαιρετικά ευαίσθητων πληροφοριών θα μπορούσαν να αποθηκευτούν σε διακομιστές που δεν καλύπτονται από τις ίδιες προστασίες που θα έπρεπε να ισχύουν κατά την επικοινωνία με γιατρούς, δικηγόρους ή θεραπευτές σχέσεων.
Εάν αυτές οι πληροφορίες παραβιαστούν, είτε από χάκερ είτε από κακά πρωτόκολλα ασφαλείας, αυτό θα μπορούσε να οδηγήσει σε αμηχανία, κίνδυνο εκβιασμού ή κυβερνοαπάτης ή σε νομικές συνέπειες.
Μια άλλη αυξανόμενη ανησυχία που θα μπορούσε να συμβάλει σε αυτόν τον κίνδυνο είναι η ραγδαία χρήση της σκιώδους Τεχνητής Νοημοσύνης (Shadow AI). Αυτός ο όρος αναφέρεται σε εργαζόμενους που χρησιμοποιούν την Τεχνητή Νοημοσύνη ανεπίσημα, εκτός των πολιτικών και των κατευθυντήριων γραμμών χρήσης των οργανισμών τους.
Οι οικονομικές αναφορές, τα δεδομένα πελατών ή οι εμπιστευτικές επιχειρηματικές πληροφορίες μπορούν να μεταφορτωθούν με τρόπους που παρακάμπτουν τις επίσημες πολιτικές ασφάλειας και Τεχνητής Νοημοσύνης, συχνά εξουδετερώνοντας τις διασφαλίσεις που αποσκοπούν στη διατήρηση της ασφάλειας των πληροφοριών.
Σε κλάδους με αυστηρή ρύθμιση, όπως η υγειονομική περίθαλψη, τα χρηματοοικονομικά και η νομική, πολλοί πιστεύουν ότι πρόκειται για έναν εφιάλτη απορρήτου που περιμένει να συμβεί.
Τι μπορούμε να κάνουμε γι’ αυτό;
Καταρχάς, είναι σημαντικό να αναγνωρίσουμε το γεγονός ότι τα chatbots τεχνητής νοημοσύνης, όσο χρήσιμα και ενημερωμένα κι αν φαίνονται, δεν είναι θεραπευτές, δικηγόροι ή στενοί και έμπιστοι άνθρωποι.
Όπως έχουν τα πράγματα τώρα, ο χρυσός κανόνας είναι απλώς να μην μοιραζόμαστε ποτέ μαζί τους τίποτα που δεν θα αισθανόμασταν άνετα να ποστάρουμε δημόσια.
Αυτό σημαίνει ότι πρέπει να αποφεύγουμε να συζητάμε λεπτομέρειες για το ιατρικό μας ιστορικό, τις οικονομικές μας δραστηριότητες ή τα προσωπικά μας στοιχεία.
Να θυμάστε ότι, όσο κι αν νιώθουμε σαν να έχουμε μια κατ’ ιδίαν συνομιλία σε ιδιωτικό περιβάλλον, είναι πολύ πιθανό κάθε λέξη να αποθηκεύεται και, με τον έναν ή τον άλλον τρόπο, να μπορεί να καταλήξει δημόσια.
Αυτό είναι ιδιαίτερα σημαντικό στην περίπτωση του ChatGPT, καθώς το OpenAI, κατά τη στιγμή της σύνταξης αυτού του κειμένου, υποχρεούται από ομοσπονδιακή δικαστική εντολή των ΗΠΑ να αποθηκεύει όλες τις συνομιλίες, ακόμη και εκείνες που διαγράφηκαν από χρήστες ή πραγματοποιήθηκαν στη λειτουργία Προσωρινής Συνομιλίας.

Όσον αφορά τις επιχειρήσεις και τους οργανισμούς, οι κίνδυνοι είναι ακόμη μεγαλύτεροι.
Όλες οι εταιρείες θα πρέπει να έχουν θεσπίσει διαδικασίες και πολιτικές για να διασφαλίζουν ότι όλοι γνωρίζουν τους κινδύνους και να αποθαρρύνουν την πρακτική της «σκιώδους τεχνητής νοημοσύνης» στο μέτρο του δυνατού.
Πρέπει να υπάρχει τακτική εκπαίδευση, έλεγχος και αναθεώρηση πολιτικών για την ελαχιστοποίηση των κινδύνων.
Πέρα από αυτό, οι κίνδυνοι για την προσωπική και επιχειρηματική ιδιωτικότητα που προκύπτουν από τον απρόβλεπτο τρόπο με τον οποίο τα chatbots αποθηκεύουν και χειρίζονται τα δεδομένα μας, αποτελούν προκλήσεις που θα πρέπει να αντιμετωπίσει η ευρύτερη κοινωνία.
Η εμπειρία μας λέει ότι δεν μπορούμε να περιμένουμε από τεχνολογικούς γίγαντες όπως η OpenAI, η Microsoft και η Google να κάνουν οτιδήποτε άλλο εκτός από το να δώσουν προτεραιότητα στην ταχύτητα ανάπτυξης στον αγώνα για να είναι οι πρώτοι που θα φέρουν νέα εργαλεία και λειτουργίες στην αγορά.
Το ερώτημα δεν είναι απλώς αν μπορούμε να εμπιστευτούμε τα chatbots για να διατηρήσουν τα μυστικά μας ασφαλή σήμερα, αλλά αν θα συνεχίσουν να το κάνουν αύριο και στο μέλλον.
Αυτό που είναι σαφές είναι ότι η εξάρτησή μας από τα chatbots αυξάνεται ταχύτερα από την ικανότητά μας να εγγυηθούμε το απόρρητό τους.
(Photo by Salvador Rios on Unsplash)
*Ο Bernard Marr είναι ένας παγκοσμίου φήμης φουτουριστής, influencer και ηγέτης σκέψης στους τομείς των επιχειρήσεων και της τεχνολογίας, με πάθος για τη χρήση της τεχνολογίας για το καλό της ανθρωπότητας. Είναι συγγραφέας best-seller με πάνω από 20 βιβλία, αρθρογραφεί τακτικά στο Forbes, ενώ συμβουλεύει και καθοδηγεί πολλούς από τους πιο γνωστούς οργανισμούς στον κόσμο. Έχει συνολικά 4 εκατομμύρια ακόλουθους στα κανάλια κοινωνικής δικτύωσης και τα ενημερωτικά δελτία του και κατατάχθηκε από το LinkedIn ως ένας από τους 5 κορυφαίους influencers επιχειρήσεων στον κόσμο.
Δείτε επίσης:
- Έρευνα: Τα μοντέλα AI καταλαβαίνουν πότε τα τεστάρουν – και αλλάζουν συμπεριφορά
- OpenAI: Οι «παραισθήσεις» της Τεχνητής Νοημοσύνης είναι μαθηματικά αναπόφευκτες
- Η σκοτεινή πλευρά των AI: Πώς τα chatbots χειραγωγούν τους χρήστες για το κέρδος