6 Φεβρουαρίου 2026

Η κούρσα για το «ποιος ελέγχει» το AI στον πόλεμο άναψε

Η κούρσα για το «ποιος ελέγχει» το AI στον πόλεμο άναψε

Η τεχνητή νοημοσύνη δεν είναι πια ένα θεωρητικό εργαλείο για τα εργαστήρια.

Μπαίνει όλο και πιο βαθιά στη στρατιωτική αλυσίδα αποφάσεων — από ανάλυση πληροφοριών μέχρι υποστήριξη στοχοποίησης — και αυτό ακριβώς είναι που φέρνει τη διεθνή κοινότητα μπροστά σε ένα δύσκολο ερώτημα: κανόνες τώρα ή “τρέχουμε και βλέπουμε”;

Στην πρόσφατη Σύνοδο REAIM (Responsible AI in the Military Domain) που έγινε στην Α Κορούνια της Ισπανίας, φάνηκε καθαρά το ρήγμα. Πολλοί μιλούν για «υπεύθυνη χρήση», αλλά όταν έρχεται η ώρα να μπουν υπογραφές, οι αριθμοί μικραίνουν.


Ποιοι υπέγραψαν – και ποιοι κράτησαν αποστάσεις

Στη σύνοδο συμμετείχαν πάνω από 80 χώρες, όμως μόλις 35 κατέληξαν να συνυπογράψουν μια μη δεσμευτική διακήρυξη αρχών.

Το σημείο που “βαραίνει” πολιτικά είναι ότι οι ΗΠΑ και η Κίνα — οι δύο μεγαλύτεροι παίκτες σε στρατιωτική ισχύ και AI — δεν υπέγραψαν, κάτι που μειώνει αυτομάτως την επιρροή του κειμένου και τροφοδοτεί αμφιβολίες για το αν μπορεί να λειτουργήσει ως πραγματικός «οδηγός» διεθνώς.

Αντίθετα, ανάμεσα στις χώρες που στήριξαν το πλαίσιο ήταν κράτη όπως Καναδάς, Γαλλία, Γερμανία, Ηνωμένο Βασίλειο, Ολλανδία, Νότια Κορέα και Ουκρανία.


Οι “20 αρχές” και το βασικό μήνυμα: άνθρωπος υπεύθυνος, όχι ο αλγόριθμος

Η διακήρυξη περιγράφει 20 αρχές για το πώς πρέπει να χρησιμοποιείται η AI στο στρατιωτικό πεδίο. Στον πυρήνα τους είναι τρία πράγματα:

  • να παραμένει ο άνθρωπος υπεύθυνος για αποφάσεις που σχετίζονται με χρήση δύναμης/όπλων,
  • να υπάρχει καθαρή αλυσίδα διοίκησης και ελέγχου,
  • και να προηγούνται δοκιμές, αξιολόγηση κινδύνων, εκπαίδευση προσωπικού πριν περάσει ένα σύστημα στην επιχειρησιακή χρήση.

Υπάρχει επίσης αναφορά στην ανάγκη για κάποια μορφή εθνικής εποπτείας και, όπου είναι δυνατόν χωρίς να “χτυπάει” σε ζητήματα ασφαλείας, ανταλλαγή πληροφοριών για το πώς γίνονται οι έλεγχοι.


Γιατί τόση δυσκολία να υπάρξει κοινή γραμμή;

Εδώ μπαίνει το κλασικό “δίλημμα του φυλακισμένου”:
όλοι λένε «πρέπει να μπει φρένο», αλλά πολλοί φοβούνται ότι αν βάλουν πρώτοι περιορισμούς, θα μείνουν πίσω απέναντι σε αντιπάλους που θα τρέξουν χωρίς κανόνες. Αυτό το επιχείρημα ακούστηκε έντονα και στη σύνοδο.

Και υπάρχει και το δεύτερο, πιο ωμό: οι γεωπολιτικές κόντρες (και ειδικά το κλίμα στις σχέσεις ΗΠΑ–Ευρώπης) κάνουν αρκετές κυβερνήσεις να αποφεύγουν «σκληρές» δεσμεύσεις, ακόμα κι αν θεωρητικά συμφωνούν με την κατεύθυνση.


Πρόοδος ή “άλλη μία διακήρυξη”;

Δεν είναι η πρώτη φορά που γίνεται τέτοια προσπάθεια. Στις προηγούμενες συναντήσεις (Χάγη 2023, Σεούλ 2024) περισσότερες χώρες είχαν στηρίξει ένα πιο γενικό πλαίσιο (“blueprint for action”), πάλι χωρίς νομική ισχύ. Φέτος, το κείμενο έγινε πιο συγκεκριμένο σε περιεχόμενο, αλλά η συμμετοχή στις υπογραφές έπεσε.

Το μεγάλο ερώτημα μένει:
θα λειτουργήσει αυτό ως “σπόρος” για κάτι πιο σοβαρό στο μέλλον ή θα πάμε σε μια πραγματικότητα όπου η στρατιωτική AI θα εξελίσσεται πιο γρήγορα από τους κανόνες;

Και, μεταξύ μας; Όταν το “tempo” το δίνουν μηχανές και όχι διπλωμάτες, η καθυστέρηση δεν είναι απλά γραφειοκρατία — είναι ρίσκο.


Πηγές

  • Reuters – Για τη σύνοδο στην Α Κορούνια, τις υπογραφές και τις βασικές αρχές.
  • Cadenaser – Ενημέρωση/κάλυψη ισπανικών πηγών για το πλαίσιο και το αποτέλεσμα της συνόδου.
  • State.gov – Για το ευρύτερο πλαίσιο “norms” που προωθούν οι ΗΠΑ (σχετική διακήρυξη): U.S. State Department.


Με την περιήγηση σε αυτόν τον ιστότοπο, συμφωνείτε με την πολιτική απορρήτου μας
Συμφωνώ