Από τις 29 Οκτωβρίου, το ChatGPT σταμάτησε να παρέχει συγκεκριμένες οδηγίες που αφορούν ιατρικά ή θεραπευτικά θέματα, νομικά ζητήματα και οικονομικές συμβουλές, περιορίζοντας την παροχή εξατομικευμένων επαγγελματικών συμβουλών χωρίς την κατάλληλη επαγγελματική συμμετοχή.
Το bot είναι πλέον επίσημα ένα «εκπαιδευτικό εργαλείο» και όχι ένας σύμβουλος, με την OpenAI να επισημαίνει ότι οι νέοι όροι το διευκρινίζουν αυτό με σαφήνεια.
Τι άλλαξε στο ChatGPT
Μπορεί ακόμα να εξηγήσει έννοιες και να προσφέρει γενικές πληροφορίες με δηλώσεις ασφαλείας, αλλά δεν θα πρέπει να παρέχει εξατομικευμένες διαγνώσεις, νομικές στρατηγικές ή προτάσεις αγοράς/πώλησης.
Συνεπώς:
- δεν αναφέρονται πλέον φάρμακα ή δοσολογίες
- δεν υπάρχουν πρότυπα αγωγών, στρατηγικές δικαστηρίου ή «δείτε τι κάνετε αν…»
- δεν υπάρχουν συμβουλές επενδύσεων ή προτάσεις αγοράς/πώλησης
Το μοντέλο τεχνητής νοημοσύνης (AI) μπορεί πια να εξηγήσει μόνο θεωρίες, να σκιαγραφήσει γενικούς μηχανισμούς και να προτρέψει σε επικοινωνία με γιατρό, δικηγόρο ή οικονομικό επαγγελματία.
Μέχρι πρόσφατα το ChatGPT λειτουργούσε σαν… δικηγόρος τσέπης και διαγνωστικό εργαλείο. Αλλά οι κανονισμοί και οι φόβοι περί ευθύνης περιόρισαν την γκάμα της τεχνητής νοημοσύνης, καθώς οι μεγάλες τεχνολογικές εταιρείες δεν θέλουν κι άλλες αγωγές στο κεφάλι τους.
Δείτε επίσης:
- SOS προς Ευρώπη: «Χάνουμε τη μάχη του 5G και της ΑΙ – Θα γίνουμε ψηφιακή έρημος»
- Προσοχή στη νέα μάστιγα: Παιδική πορνογραφία μέσω τεχνητής νοημοσύνης
- Τα ρεζιλίκια του Spiegel με το ChatGPT!




