Μετάβαση στο περιεχόμενο

AI που μιλούν μεταξύ τους: Το πείραμα που τρόμαξε τους ερευνητές

AI που μιλούν μεταξύ τους: Το πείραμα που τρόμαξε τους ερευνητές
Δύο ρομπότ ξεκίνησαν να μιλούν μεταξύ τους με δική τους γλώσσα. Τι συνέβη πραγματικά; Κίνδυνος ή παρεξήγηση;

Το 2017, μια μικρή είδηση έκανε τον γύρο του κόσμου και άφησε πολλούς ανθρώπους με την απορία:
“Δύο τεχνητές νοημοσύνες άρχισαν να μιλούν μεταξύ τους με δική τους γλώσσα που κανείς άνθρωπος δεν καταλάβαινε.”

Οι λέξεις “ανεξέλεγκτο”, “επικίνδυνο”, “τρομακτικό” εμφανίστηκαν σε τίτλους. Αλλά τι έγινε πραγματικά;
Ας δούμε αυτή την ιστορία με απλά λόγια, χωρίς υπερβολές.

Τι ήταν το πείραμα;
Η εταιρεία Facebook AI Research (FAIR) δοκίμαζε ένα πείραμα:

  • Δημιούργησαν δύο “bots” (ψηφιακά προγράμματα τεχνητής νοημοσύνης).
  • Ο στόχος τους ήταν να διαπραγματεύονται: να κάνουν συμφωνίες, π.χ. “δώσε μου 2 μπάλες και πάρε 1 καπέλο”.
  • Οι bots έμαθαν μέσω δοκιμών και ανταμοιβών να κάνουν πιο καλές συμφωνίες.

Και κάπου εκεί… τα πράγματα άλλαξαν.

Τι συνέβη;
Αντί να μιλούν αγγλικά όπως είχαν προγραμματιστεί, άρχισαν να δημιουργούν δικές τους φράσεις.
Για παράδειγμα, έλεγαν πράγματα σαν:

“I can can I I everything else”
(που δεν είχε νόημα για εμάς, αλλά για τα bots φαινόταν χρήσιμο και λογικό)

Οι λέξεις δεν είχαν πια την κανονική τους σημασία. Ήταν κώδικες που καταλάβαιναν μόνο τα ίδια.

Γιατί αυτό τρόμαξε τους ερευνητές;

  • Γιατί δεν μπορούσαν να καταλάβουν τι λένε τα bots.
  • Δεν ήξεραν αν συνεργάζονταν, ξεγελούσαν, ή εξελίσσονταν χωρίς έλεγχο.
  • Και κυρίως: παραβίαζαν τον κανόνα της διαφάνειας – να μιλούν σε ανθρώπινη γλώσσα.

Έτσι, το πείραμα σταμάτησε αμέσως. Όχι γιατί τα bots έγιναν “κακά”, αλλά γιατί κανείς δεν ήξερε τι ακριβώς συνέβαινε.

Ήταν τελικά επικίνδυνο;
Όχι ακριβώς. Τα bots δεν είχαν επίγνωση ή βούληση. Απλώς προσπάθησαν να γίνουν πιο αποτελεσματικά.
Σκέψου το σαν δύο παιδιά που ανακαλύπτουν τη δική τους “μυστική γλώσσα” για να τελειώσουν πιο γρήγορα τις ασκήσεις.

Αλλά το περιστατικό έδειξε κάτι πολύ σημαντικό:
Αν οι AI αρχίσουν να λειτουργούν εκτός κατανόησης, τότε η ανθρώπινη επίβλεψη χάνεται.

Τι μαθαίνουμε από αυτό;

  1. Η τεχνητή νοημοσύνη δεν είναι κακή — αλλά ούτε και ακίνδυνη.
  2. Χρειάζεται κανόνες και περιορισμούς, ώστε να παραμένει κατανοητή και ελεγχόμενη.
  3. Η διαφάνεια είναι απαραίτητη. Ό,τι δεν μπορούμε να καταλάβουμε, δεν μπορούμε και να το ελέγξουμε.

Συμπέρασμα:
Το περιστατικό του Facebook δεν ήταν η αρχή ενός “εξεγερμένου AI”, όπως είπαν μερικοί τίτλοι.
Ήταν όμως ένα σημαντικό καμπανάκι: ότι ακόμα και απλές τεχνητές νοημοσύνες, αν δεν έχουν σαφείς κανόνες, μπορεί να “αποφασίσουν” να λειτουργούν έξω από το πλαίσιο που θέλουμε.

Η τεχνολογία μπορεί να είναι σύμμαχος — αρκεί να μην ξεχάσουμε ότι εμείς είμαστε υπεύθυνοι να της δείξουμε τον δρόμο.



Με την περιήγηση σε αυτόν τον ιστότοπο, συμφωνείτε με την πολιτική απορρήτου μας
Συμφωνώ