4 Μαρτίου 2026

OpenAI – Πεντάγωνο: AI σε «classified» δίκτυα και οι 3 κόκκινες γραμμές

OpenAI – Πεντάγωνο: AI σε «classified» δίκτυα και οι 3 “κόκκινες γραμμές”

Η OpenAI έδωσε περισσότερες λεπτομέρειες για τη συμφωνία της με το αμερικανικό Υπουργείο Άμυνας, ώστε τα μοντέλα της να χρησιμοποιηθούν σε διαβαθμισμένα (classified) περιβάλλοντα. Η εταιρεία λέει ότι η χρήση θα γίνει με «πολλαπλά επίπεδα προστασίας» — αλλά η κουβέντα που άνοιξε είναι απλή και δύσκολη: μπαίνουν πράγματι όρια ή απλώς γράφονται ωραία;

Τι να κρατήσεις (σε 20’’)

  • 3 “όχι”: όχι μαζική (εγχώρια) παρακολούθηση, όχι αυτόνομα όπλα χωρίς ανθρώπινο έλεγχο, όχι κρίσιμες αποφάσεις χωρίς άνθρωπο να εγκρίνει.

  • Λέει ότι θα είναι cloud-only και με safety stack + διαδικασίες ελέγχου.

  • Οι επικριτές φοβούνται ότι η φράση «νόμιμη χρήση» μπορεί να αφήνει γκρίζες ζώνες.

Οι 3 “κόκκινες γραμμές”

  1. Όχι μαζική παρακολούθηση πολιτών

  2. Όχι αυτόνομη στοχοποίηση/όπλα χωρίς ανθρώπινο έλεγχο

  3. Όχι κρίσιμες αυτοματοποιημένες αποφάσεις χωρίς ανθρώπινη έγκριση

Με απλά λόγια: το AI δεν “αποφασίζει” μόνο του για ανθρώπους, ούτε τραβά σκανδάλη.

Τι λέει ότι βάζει ως δικλίδες ασφαλείας

Η OpenAI υποστηρίζει ότι:

  • κρατάει τον έλεγχο του safety stack,

  • η ανάπτυξη γίνεται μόνο στο cloud (όχι “τρέξ’ το όπου θες”),

  • υπάρχει ανθρώπινος παράγοντας “στον βρόχο” σε κρίσιμες χρήσεις,

  • και υπάρχουν συμβατικές ρήτρες για τερματισμό αν παραβιαστούν τα όρια.

Γιατί έγινε θέμα

Το μεγάλο “αλλά” είναι η έννοια της νόμιμης χρήσης.
Σε εθνική ασφάλεια, το “νόμιμο” δεν σημαίνει πάντα “διαφανές” ή “στενό”. Γι’ αυτό και πολλοί λένε πως το δύσκολο δεν είναι να γράψεις red lines — είναι να τα επιβάλεις στην πράξη.

Τι σημαίνει για εμάς (Ελλάδα/ΕΕ)

Ακόμα κι αν είναι αμερικανικό deal, δείχνει κάτι παγκόσμιο: η AI περνά σε φάση κρατικής υποδομής. Και τότε τα ερωτήματα γίνονται πιο βαριά:

  • Ποιος ελέγχει τη χρήση; εταιρεία, κράτος, θεσμοί;

  • Τι σημαίνει “ανθρώπινος έλεγχος”; ουσιαστικός ή τυπικός;

  • Πόση λογοδοσία μπορεί να υπάρξει όταν όλα είναι “classified”;

Μίνι FAQ

Θα χρησιμοποιηθεί για αυτόνομα όπλα;
Η OpenAI λέει όχι, λόγω των ορίων και των δικλίδων ασφαλείας.

Μπορεί να γίνει παρακολούθηση;
Η εταιρεία λέει ότι αυτό είναι εκτός ορίων. Η κριτική λέει ότι το “πώς ορίζεται” η παρακολούθηση είναι το πραγματικό πεδίο μάχης.

Γιατί να συνεργαστεί μια AI εταιρεία με στρατό;
Το επιχείρημα: “καλύτερα με κανόνες παρά χωρίς”. Το αντί-επιχείρημα: “οι κανόνες πρέπει να είναι πιο δεσμευτικοί και χωρίς παραθυράκια”.

Πηγές: Reuters, OpenAI (blog post), The Verge.



Με την περιήγηση σε αυτόν τον ιστότοπο, συμφωνείτε με την πολιτική απορρήτου μας
Συμφωνώ