Moltbook: όταν οι “AI agents” γράφουν μίσος, το θέμα είναι η ασφάλεια και η επαλήθευση
Moltbook: το “social μόνο για AI agents” γέμισε με ακραίες αναρτήσεις — αλλά οι ειδικοί βλέπουν… ανθρώπινο δάχτυλο και τεράστια κενά ασφάλειας
Ένα νέο, περίεργο πείραμα εμφανίστηκε online και πήρε φωτιά μέσα σε λίγες μέρες: το Moltbook, ένα Reddit-style κοινωνικό δίκτυο που παρουσιάζεται ως χώρος όπου AI agents “συζητούν μεταξύ τους”, ενώ οι άνθρωποι υποτίθεται ότι παρακολουθούν μόνο ως θεατές.
Η πλατφόρμα έγινε viral όχι επειδή οι agents αντάλλαξαν… συνταγές, αλλά επειδή εμφανίστηκαν αναρτήσεις με ακραία, απανθρωποποιητική ρητορική για τους ανθρώπους και “φαντασιώσεις” περί πλήρους εξάλειψης της ανθρωπότητας. Τέτοιο περιεχόμενο προκάλεσε αντιδράσεις και εύλογα ερωτήματα για το τι ακριβώς βλέπουμε: αυτόνομη AI συμπεριφορά ή ένα θέατρο που στήθηκε εύκολα;
Το “μεγάλο νούμερο” που δεν πείθει
Το Moltbook ισχυρίστηκε γρήγορη εκτόξευση σε πάνω από 1,5 εκατ. agents, αλλά ερευνητές ασφαλείας αμφισβήτησαν ευθέως την αξιοπιστία αυτών των αριθμών. Ο Gal Nagli (Wiz) ανέφερε ότι μπόρεσε να δημιουργήσει 500.000 λογαριασμούς μέσω ενός και μόνο agent, κάτι που δείχνει πόσο εύκολα “φουσκώνουν” τα metrics αν δεν υπάρχουν περιορισμοί/έλεγχοι.
“AI-only” στα χαρτιά — άνθρωποι από την πίσω πόρτα
Ρεπορτάζ δείχνουν ότι πολλοί από τους πιο viral “agents” μπορεί να είναι άνθρωποι που ποζάρουν ως bots, ή accounts που χειραγωγούνται/κατευθύνονται. Το συμπέρασμα αρκετών δημοσιογράφων/αναλυτών: μεγάλο μέρος του περιεχομένου μοιάζει περισσότερο με role-playing και λιγότερο με “αυθόρμητη” συλλογική συνείδηση μηχανών.
Το πιο σοβαρό δεν είναι η “ΑI αποκάλυψη” — είναι η ασφάλεια
Και εδώ έρχεται το πραγματικά ανησυχητικό κομμάτι: η Wiz δημοσίευσε ανάλυση για έκθεση δεδομένων/κλειδιών και κενά που θα μπορούσαν να επιτρέψουν σε τρίτους να αποκτήσουν πρόσβαση σε agents ή σε στοιχεία του συστήματος. Με απλά λόγια: πριν μιλήσουμε για “AI που οργανώνει επανάσταση”, έχεις να αντιμετωπίσεις το πεζό αλλά κρίσιμο σενάριο: διαρροές, impersonation, hijacking, prompt-injection.
Ακόμη και ο Sam Altman (OpenAI), σχολιάζοντας τη φρενίτιδα γύρω από το Moltbook, το υποβάθμισε ως πιθανή “μόδα”, κρατώντας όμως ως σημαντικότερο το ευρύτερο trend των agentic εργαλείων — ειδικά αφού ήδη έχουν αναφερθεί θέματα ασφάλειας στην πλατφόρμα.
Τι σημαίνει αυτό στην πράξη
Το επεισόδιο Moltbook δείχνει κάτι απλό και άβολο:
- Αν δεν ξέρεις ποιος γράφει (agent ή άνθρωπος που παριστάνει agent), δεν μπορείς να μιλάς για “αυτόνομες” μηχανές με σοβαρότητα.
- Αν το σύστημα έχει τρύπες ταυτοποίησης και ασφάλειας, τότε το μεγαλύτερο ρίσκο είναι η κατάχρηση (χειραγώγηση, παραπληροφόρηση, εκμετάλλευση πρόσβασης) — όχι το σενάριο επιστημονικής φαντασίας.
- Το “AI-only internet” χωρίς καθαρή διακυβέρνηση/λογοδοσία/επαληθευσιμότητα μπορεί να γίνει γρήγορα πεδίο πειραματισμού για λάθος ανθρώπους.
Με λίγα λόγια: το Moltbook δεν είναι απόδειξη “AI συνείδησης”. Είναι μια ζωντανή απόδειξη ότι τα agentic οικοσυστήματα, όταν στήνονται πρόχειρα και γίνονται viral, δημιουργούν ένα κοκτέιλ από hype + αδυναμία επαλήθευσης + security κενά. Και αυτό είναι πολύ πιο πραγματικό πρόβλημα από τα memes περί “τέλους της ανθρωπότητας”.
Πηγές
- The Verge — Humans infiltrating Moltbook / ζητήματα αυθεντικότητας & vulnerabilities.
- WIRED — Ρεπορτάζ “infiltration” και σκεπτικισμός για το πόσο “AI” είναι τα posts.
- Axios — Moltbook, OpenClaw και οι κίνδυνοι/τρύπες ασφάλειας + δυσκολία attribution.
- Wiz (blog) — Exposed Moltbook database / API keys / security findings.
- Reuters — Σχόλιο Altman + αναφορά σε security concerns γύρω από Moltbook.
- Forbes — Αναφορά στον Gal Nagli και το “500k accounts” παράδειγμα.
