Η “Ψευδαίσθηση της Αλήθειας” – Όταν το AI σε Πείθει για Λάθος

Τα μεγάλα μοντέλα τεχνητής νοημοσύνης πολλές φορές “κατασκευάζουν” απαντήσεις που φαίνονται σωστές — αλλά είναι εντελώς λάθος. Γιατί συμβαίνει αυτό;
Έχεις ρωτήσει ποτέ ένα AI κάτι και σου απάντησε με απόλυτη σιγουριά…
…για κάτι εντελώς λάθος;
Αυτό το φαινόμενο ονομάζεται hallucination — “παραίσθηση” — και είναι ένα από τα μεγαλύτερα προβλήματα στα μεγάλα γλωσσικά μοντέλα όπως το ChatGPT, Claude, Gemini και άλλα.
Τι είναι το hallucination στο AI;
Είναι όταν το μοντέλο:
- Δημιουργεί πληροφορίες που δεν υπάρχουν
- Απαντά με βεβαιότητα σε κάτι ψευδές
- “Εφευρίσκει” πηγές, άρθρα ή γεγονότα
Και το κάνει χωρίς πρόθεση να “πει ψέματα” — απλώς προσπαθεί να μαντέψει τι φαίνεται πιο “σωστό” στη γλώσσα, όχι τι είναι πραγματικά σωστό.
Παραδείγματα:
Ρωτάς: Ποιος είναι ο συγγραφέας του “Η Θάλασσα και το Φεγγάρι”;
AI απαντά: Ο Νίκος Καζαντζάκης.
Αλλά το βιβλίο… δεν υπάρχει καν.
Ρωτάς: Πες μου 3 άρθρα από μεγάλη ειδησεογραφική ιστοσελίδα για την AGI.
AI απαντά: Δημιουργεί 3 ψεύτικους τίτλους με ανύπαρκτους συντάκτες και ημερομηνίες.
Κι όμως, όλα φαίνονται απόλυτα πειστικά.
Γιατί το κάνει αυτό;
Γιατί το μοντέλο δεν έχει πρόσβαση στην αλήθεια.
Δεν “γνωρίζει” — προβλέπει λέξεις.
Είναι σαν να συμπληρώνει σταυρόλεξο, όχι να ψάχνει σε εγκυκλοπαίδεια.
Γιατί είναι επικίνδυνο;
- Οι απαντήσεις φαίνονται πειστικές
- Ο μέσος χρήστης δεν μπορεί να ξεχωρίσει το λάθος
- Μπορεί να οδηγήσει σε παραπληροφόρηση, λάθος αποφάσεις, ακόμα και παραπλάνηση σε θέματα υγείας, οικονομικών ή νομικών συμβουλών.
Τι μπορούμε να κάνουμε;
Διπλός έλεγχος: Όταν μια απάντηση σε ενδιαφέρει σοβαρά, επιβεβαίωσέ την από επίσημες πηγές.
Μη διστάζεις να ρωτήσεις “Από πού το ξέρεις;”
Κάποια συστήματα AI μπορούν να εξηγήσουν ή να παραθέσουν πηγές — να το απαιτούμε.
Αν χρησιμοποιείς AI για δημιουργική γραφή, blogging ή ειδήσεις — να ξέρεις ότι μπορεί να ανακατεύει αλήθεια με φαντασία.
Συμπέρασμα:
Η τεχνητή νοημοσύνη μπορεί να είναι πειστική, αλλά αυτό δεν σημαίνει ότι έχει πάντα δίκιο.
Το σημαντικό δεν είναι να την εμπιστευόμαστε τυφλά — αλλά να τη χρησιμοποιούμε έξυπνα.