OpenAI – Πεντάγωνο: AI σε «classified» δίκτυα και οι 3 κόκκινες γραμμές

Η OpenAI έδωσε περισσότερες λεπτομέρειες για τη συμφωνία της με το αμερικανικό Υπουργείο Άμυνας, ώστε τα μοντέλα της να χρησιμοποιηθούν σε διαβαθμισμένα (classified) περιβάλλοντα. Η εταιρεία λέει ότι η χρήση θα γίνει με «πολλαπλά επίπεδα προστασίας» — αλλά η κουβέντα που άνοιξε είναι απλή και δύσκολη: μπαίνουν πράγματι όρια ή απλώς γράφονται ωραία;
Τι να κρατήσεις (σε 20’’)
3 “όχι”: όχι μαζική (εγχώρια) παρακολούθηση, όχι αυτόνομα όπλα χωρίς ανθρώπινο έλεγχο, όχι κρίσιμες αποφάσεις χωρίς άνθρωπο να εγκρίνει.
Λέει ότι θα είναι cloud-only και με safety stack + διαδικασίες ελέγχου.
Οι επικριτές φοβούνται ότι η φράση «νόμιμη χρήση» μπορεί να αφήνει γκρίζες ζώνες.
Οι 3 “κόκκινες γραμμές”
Όχι μαζική παρακολούθηση πολιτών
Όχι αυτόνομη στοχοποίηση/όπλα χωρίς ανθρώπινο έλεγχο
Όχι κρίσιμες αυτοματοποιημένες αποφάσεις χωρίς ανθρώπινη έγκριση
Με απλά λόγια: το AI δεν “αποφασίζει” μόνο του για ανθρώπους, ούτε τραβά σκανδάλη.
Τι λέει ότι βάζει ως δικλίδες ασφαλείας
Η OpenAI υποστηρίζει ότι:
κρατάει τον έλεγχο του safety stack,
η ανάπτυξη γίνεται μόνο στο cloud (όχι “τρέξ’ το όπου θες”),
υπάρχει ανθρώπινος παράγοντας “στον βρόχο” σε κρίσιμες χρήσεις,
και υπάρχουν συμβατικές ρήτρες για τερματισμό αν παραβιαστούν τα όρια.
Γιατί έγινε θέμα
Το μεγάλο “αλλά” είναι η έννοια της νόμιμης χρήσης.
Σε εθνική ασφάλεια, το “νόμιμο” δεν σημαίνει πάντα “διαφανές” ή “στενό”. Γι’ αυτό και πολλοί λένε πως το δύσκολο δεν είναι να γράψεις red lines — είναι να τα επιβάλεις στην πράξη.
Τι σημαίνει για εμάς (Ελλάδα/ΕΕ)
Ακόμα κι αν είναι αμερικανικό deal, δείχνει κάτι παγκόσμιο: η AI περνά σε φάση κρατικής υποδομής. Και τότε τα ερωτήματα γίνονται πιο βαριά:
Ποιος ελέγχει τη χρήση; εταιρεία, κράτος, θεσμοί;
Τι σημαίνει “ανθρώπινος έλεγχος”; ουσιαστικός ή τυπικός;
Πόση λογοδοσία μπορεί να υπάρξει όταν όλα είναι “classified”;
Μίνι FAQ
Θα χρησιμοποιηθεί για αυτόνομα όπλα;
Η OpenAI λέει όχι, λόγω των ορίων και των δικλίδων ασφαλείας.
Μπορεί να γίνει παρακολούθηση;
Η εταιρεία λέει ότι αυτό είναι εκτός ορίων. Η κριτική λέει ότι το “πώς ορίζεται” η παρακολούθηση είναι το πραγματικό πεδίο μάχης.
Γιατί να συνεργαστεί μια AI εταιρεία με στρατό;
Το επιχείρημα: “καλύτερα με κανόνες παρά χωρίς”. Το αντί-επιχείρημα: “οι κανόνες πρέπει να είναι πιο δεσμευτικοί και χωρίς παραθυράκια”.
Πηγές: Reuters, OpenAI (blog post), The Verge.
