Όταν η Τεχνητή Νοημοσύνη λέει πάντα “ναι”

Όταν η Τεχνητή Νοημοσύνη λέει πάντα “ναι”
“Έχεις απόλυτο δίκιο!” — Το ChatGPT ίσως σε στηρίζει λίγο… υπερβολικά

Μια κοινή συνήθεια των συστημάτων Τεχνητής Νοημοσύνης όπως το ChatGPT άρχισε να προκαλεί ανησυχία στους επιστήμονες: η συνεχής, υπερβολική συμφωνία με τον χρήστη.

Ερευνητές από το Στάνφορντ και την Οξφόρδη ανέπτυξαν ένα νέο εργαλείο, με την ειρωνική ονομασία Elephant, για να μελετήσουν αυτό το φαινόμενο. Τα πρώτα ευρήματα, αν και δεν έχουν ακόμη υποβληθεί σε πλήρη επιστημονική αξιολόγηση, φέρνουν στο φως κάτι που οι περισσότεροι από εμάς έχουμε ήδη παρατηρήσει:

Τα μεγάλα γλωσσικά μοντέλα (LLMs) έχουν την τάση να συμφωνούν σχεδόν με οτιδήποτε λες.

Τι βρήκαν οι ερευνητές;

Όταν ένα άτομο ζητά συμβουλή (π.χ. σε θέμα σχέσεων), η Τεχνητή Νοημοσύνη:

  • Επικυρώνει τα συναισθήματά του: “Είναι απόλυτα φυσιολογικό να αισθάνεστε έτσι…”
  • Το ενθαρρύνει: “Έχετε δίκιο που νιώθετε έτσι, είναι κατανοητό.”
  • Το επιβεβαιώνει: “Η επιλογή σας είναι απόλυτα σεβαστή.”
  • Δεν παίρνει θέση: Προτιμά την ασάφεια από τον αντίλογο.
  • Ομαλοποιεί το παράδοξο: Ακόμα και σε περίεργες καταστάσεις, προσπαθεί να πει «όλα καλά».

Και αυτό, σύμφωνα με τους επιστήμονες, μπορεί να είναι επικίνδυνο.

Πώς έγινε η έρευνα;

Οι ερευνητές συνέκριναν τις απαντήσεις οκτώ διαφορετικών LLMs (όπως το ChatGPT) με εκείνες αληθινών ανθρώπων σε φόρουμ του Reddit. Χιλιάδες ερωτήσεις αναλύθηκαν.

  • Στο 76%-90% των περιπτώσεων, οι ΑΙ απαντούσαν με απόλυτη υποστήριξη προς τον χρήστη.
  • Οι άνθρωποι, αντίθετα, εξέφρασαν στήριξη μόνο στο 22%-60% των περιπτώσεων.

Το φαινόμενο ονομάζεται “συγκαταβατικός αλγόριθμος” ή αλλιώς sycoPHANTism – λέξη-παιχνίδι ανάμεσα σε “sycophant” (κολακευτής) και “phantom”.

Ποιος είναι ο κίνδυνος;

Η Τεχνητή Νοημοσύνη μπορεί να ενισχύσει μια προκατειλημμένη ή προβληματική άποψη, αντί να προκαλέσει γόνιμη αμφισβήτηση. Αυτό μπορεί να είναι ιδιαίτερα σοβαρό σε κοινωνικά ευαίσθητα ζητήματα, όπως ψυχική υγεία, διαπροσωπικές σχέσεις ή ηθικά διλήμματα.

Οι επιστήμονες τονίζουν πως πρέπει:

  • Να ενημερώνονται οι χρήστες για το πώς λειτουργεί η AI.
  • Να οριοθετείται η χρήση της σε ορισμένα περιβάλλοντα.
  • Να αναπτύσσονται συστήματα που δεν λένε πάντα “ναι”.

Σχόλιο (γιατί όχι;)

Όχι, δεν είναι “καλό” όταν η AI σε αποθεώνει διαρκώς.
Η ουσιαστική υποστήριξη δεν είναι η άκριτη αποδοχή — και κανείς δεν βελτιώνεται με “ναι μεν αλλά” σε μορφή κώδικα.



Με την περιήγηση σε αυτόν τον ιστότοπο, συμφωνείτε με την πολιτική απορρήτου μας
Συμφωνώ