23 Ιανουαρίου 2026

ChatGPT: «μαντεύει» ηλικία για να προστατεύσει ανηλίκους – τι αλλάζει για τους χρήστες

ChatGPT: «μαντεύει» ηλικία για να προστατεύσει ανηλίκους – τι αλλάζει για τους χρήστες

Η OpenAI ξεκινά να εφαρμόζει ένα νέο σύστημα στο ChatGPT που επιχειρεί να εκτιμά την ηλικία του χρήστη.

Όχι για να κάνει τον μάντη, αλλά για να βάζει αυτόματα πρόσθετα μέτρα προστασίας όταν “βλέπει” ότι ένας λογαριασμός πιθανόν ανήκει σε άτομο κάτω των 18.

Πώς το καταλαβαίνει (χωρίς να ρωτάει «πόσο χρονών είσαι;»)

Σύμφωνα με όσα έχουν δημοσιευτεί, το σύστημα χρησιμοποιεί σήματα συμπεριφοράς και λογαριασμού: όπως πόσο “παλιός” είναι ο λογαριασμός, μοτίβα χρήσης, χρονικές συνήθειες, και γενικά ενδείξεις που —στατιστικά— ταιριάζουν περισσότερο σε ανήλικους. Η φιλοσοφία είναι “safety first”: αν δεν είναι ξεκάθαρο, προτιμά να γέρνει προς την ασφαλή πλευρά.

Τι αλλάζει αν σε θεωρήσει ανήλικο

Αν το μοντέλο εκτιμήσει ότι κάποιος είναι κάτω των 18, το ChatGPT εφαρμόζει πιο αυστηρά φίλτρα και περιορίζει την έκθεση σε “ευαίσθητο” περιεχόμενο. Στη λίστα που δίνει η ίδια η OpenAI περιλαμβάνονται, μεταξύ άλλων:

  • γραφική βία / gore,
  • επικίνδυνα viral challenges,
  • σεξουαλικό/ρομαντικό/βίαιο role-play,
  • αυτοτραυματισμός,
  • περιεχόμενο που προωθεί ακραία πρότυπα ομορφιάς / body shaming / ανθυγιεινή δίαιτα.

Με απλά λόγια: αν το σύστημα “μυρίσει” ανήλικο, το ChatGPT γίνεται πιο… σφιχτό στα όρια. Όχι τέλειο, αλλά πιο δύσκολο να ξεφύγει σε πράγματα που δεν πρέπει.

Και αν κάνει λάθος;

Εδώ είναι το ζουμί. Η OpenAI λέει ότι αν κάποιος χαρακτηριστεί κατά λάθος ως ανήλικος, θα υπάρχει τρόπος να επανέλθει η πρόσβαση — σε δημοσιεύματα αναφέρεται ακόμη και ταυτοποίηση ηλικίας μέσω selfie/verification (με τρίτη υπηρεσία).

Γιατί τώρα;

Η κίνηση έρχεται τη στιγμή που η OpenAI ετοιμάζει/συζητά πιο “ώριμες” λειτουργίες (τύπου adult mode για επαληθευμένους ενήλικες) και, παράλληλα, μεγαλώνει η πίεση διεθνώς για το πώς προστατεύονται οι ανήλικοι στις πλατφόρμες τεχνητής νοημοσύνης.

ΟΚ, αλλά… τι σημαίνει αυτό για ιδιωτικότητα;

Και τώρα η σκεπτικιστική (και απαραίτητη) ερώτηση: ένα σύστημα που “μαντεύει” ηλικία, αναγκαστικά αναλύει συμπεριφορά. Αυτό από μόνο του δεν είναι “κακό”, αλλά θέλει:

  • διαφάνεια (τι σήματα χρησιμοποιεί και πόσο χοντρικά),
  • ελαχιστοποίηση δεδομένων,
  • δίκαιους μηχανισμούς διόρθωσης όταν πέφτει έξω.

Πότε έρχεται

Η εφαρμογή αναφέρεται ως global rollout, με την ΕΕ να ακολουθεί τις επόμενες εβδομάδες.



Με την περιήγηση σε αυτόν τον ιστότοπο, συμφωνείτε με την πολιτική απορρήτου μας
Συμφωνώ