Πώς η τεχνητή νοημοσύνη άλλαξε τον πόλεμο του Ισραήλ στη Γάζα και τη Μέση Ανατολή
Από τη στόχευση και την επιτήρηση μέχρι την ανάλυση επικοινωνιών και την παραπληροφόρηση, η AI δεν έμεινε στο περιθώριο των συγκρούσεων. Έγινε μέρος του ίδιου του μηχανισμού του πολέμου.
Η τεχνητή νοημοσύνη έχει αποκτήσει ουσιαστικό ρόλο στις σύγχρονες πολεμικές επιχειρήσεις του Ισραήλ, όχι ως κάτι αυτόνομο που «πολεμά μόνο του», αλλά ως εργαλείο που επιταχύνει δραματικά τη συλλογή, την επεξεργασία και την αξιολόγηση πληροφοριών. Σύμφωνα με έρευνα του Associated Press, η χρήση εμπορικών υπηρεσιών AI και cloud από το Ισραήλ αυξήθηκε σημαντικά μετά την επίθεση της Χαμάς στις 7 Οκτωβρίου 2023, ενισχύοντας την ικανότητα του στρατού να εντοπίζει και να παρακολουθεί περισσότερους υπόπτους σε Γάζα και Λίβανο πιο γρήγορα απ’ ό,τι στο παρελθόν.
Ένα από τα βασικά πεδία όπου η AI φαίνεται να έδωσε πλεονέκτημα είναι η ταχύτερη παραγωγή και ιεράρχηση στόχων. Το AP αναφέρει ότι ο ισραηλινός στρατός χρησιμοποιεί συστήματα που υποβοηθούν τον εντοπισμό στόχων, με την τελική απόφαση -όπως υποστηρίζει το ίδιο- να παραμένει σε ανθρώπους αξιωματικούς. Αυτό ακριβώς είναι η μεγάλη αλλαγή: η AI δεν αντικαθιστά πλήρως τον στρατιωτικό μηχανισμό, αλλά του επιτρέπει να επεξεργάζεται τεράστιες ποσότητες δεδομένων σε χρόνο που παλαιότερα θα ήταν αδύνατος.
Η δεύτερη μεγάλη δυνατότητα που έδωσε η AI είναι η μαζική επιτήρηση. Η Amnesty International έχει τεκμηριώσει τη χρήση συστημάτων αναγνώρισης προσώπου όπως το Red Wolf στα κατεχόμενα παλαιστινιακά εδάφη, περιγράφοντάς τα ως μηχανισμούς παρακολούθησης και ελέγχου της μετακίνησης των Παλαιστινίων. Με απλά λόγια, η AI επιτρέπει τη σύνδεση προσώπων, σημείων ελέγχου, εικόνων και βάσεων δεδομένων σε ένα ενιαίο πλέγμα επιτήρησης. Αυτό δίνει στο κράτος και στον στρατό δυνατότητα ταχύτερης αναγνώρισης, καταγραφής και ταξινόμησης ανθρώπων σε κλίμακα που δεν γίνεται «με το μάτι».
Παράλληλα, η AI έχει χρησιμοποιηθεί και στην ανάλυση επικοινωνιών και πληροφοριών. Το AP έχει γράψει ότι οι υπηρεσίες cloud και AI βοήθησαν στην επεξεργασία τεράστιων όγκων τηλεφωνικών συνομιλιών, μεταφράσεων, metadata και άλλων πληροφοριών, ώστε να εντοπίζονται ταχύτερα ύποπτα δίκτυα ή άτομα. Η ίδια εικόνα γίνεται πιο σύνθετη από τις μεταγενέστερες εξελίξεις: η Microsoft δήλωσε τον Μάιο του 2025 ότι παρείχε προηγμένες υπηρεσίες cloud και AI στο ισραηλινό υπουργείο Άμυνας και ότι αυτές χρησιμοποιήθηκαν επίσης σε επιχειρήσεις για τον εντοπισμό και τη διάσωση ομήρων, ενώ υποστήριξε πως δεν βρήκε τότε στοιχεία ότι τα δικά της συστήματα χρησιμοποιήθηκαν για να στοχοποιήσουν ή να βλάψουν ανθρώπους στη Γάζα.
Ωστόσο, η εικόνα δεν έμεινε εκεί. Τον Σεπτέμβριο του 2025, το Reuters μετέδωσε ότι η Microsoft διέκοψε ορισμένες υπηρεσίες προς μονάδα του ισραηλινού αμυντικού μηχανισμού, έπειτα από εσωτερική εξέταση που υποστήριξε στοιχεία έρευνας για μαζική παρακολούθηση παλαιστινιακών τηλεφωνικών κλήσεων μέσω των υποδομών της. Δηλαδή, η ίδια η τεχνολογία που παρουσιάζεται ως εργαλείο ανάλυσης και ασφάλειας, μπορεί να γίνει εργαλείο εξαιρετικά βαθιάς επιτήρησης ενός ολόκληρου πληθυσμού. Κι εδώ ακριβώς αρχίζει το ηθικό και πολιτικό ναρκοπέδιο.
Η AI, όμως, δεν περιορίστηκε μόνο στο «βλέπω και εντοπίζω». Έπαιξε ρόλο και στο ψηφιακό πεδίο της πληροφορίας. Το Reuters κατέγραψε ήδη από τις πρώτες ημέρες του πολέμου Ισραήλ–Χαμάς κύματα παραπληροφόρησης, ψευδών ισχυρισμών και παραποιημένου οπτικού υλικού στα κοινωνικά δίκτυα. Σε τέτοιες συγκρούσεις, η τεχνητή νοημοσύνη λειτουργεί διπλά: από τη μία βοηθά στον εντοπισμό και την επαλήθευση υλικού, από την άλλη κάνει πιο εύκολη τη μαζική παραγωγή ψεύτικων ή παραπλανητικών εικόνων και βίντεο. Με άλλα λόγια, δεν αλλάζει μόνο το πεδίο της μάχης· αλλάζει και το πεδίο της αντίληψης.
Γενικότερα στη Μέση Ανατολή, το μάθημα είναι σκληρό και καθόλου θεωρητικό: η τεχνητή νοημοσύνη δίνει στα κράτη και στους στρατούς ταχύτητα, κλίμακα, αυτοματοποίηση, καλύτερη επιτήρηση και ισχυρότερη σύνθεση πληροφοριών. Αυτό σημαίνει πιο γρήγορες αποφάσεις, περισσότερους πιθανούς στόχους, μεγαλύτερη δυνατότητα ελέγχου πληθυσμών και πιο αποτελεσματική επιχειρησιακή διαχείριση. Σημαίνει όμως και μεγαλύτερο κίνδυνο λαθών, αδιαφάνειας και απώλειας λογοδοσίας, ειδικά όταν τα συστήματα γίνονται τόσο πολύπλοκα που ο άνθρωπος μένει τυπικά «στο loop», αλλά πρακτικά ακολουθεί την έξοδο της μηχανής.
Αυτό ακριβώς εξηγεί γιατί διεθνείς οργανισμοί, όπως η Διεθνής Επιτροπή Ερυθρού Σταυρού και ο ΟΗΕ, επιμένουν ότι το διεθνές ανθρωπιστικό δίκαιο ισχύει πλήρως και για τα συστήματα AI στον στρατιωτικό τομέα. Η τεχνητή νοημοσύνη μπορεί να κάνει έναν στρατό πιο γρήγορο και πιο «έξυπνο», αλλά δεν τον κάνει αυτομάτως πιο δίκαιο. Και σε πολέμους όπως αυτός της Γάζας, αυτή η διαφορά δεν είναι τεχνική λεπτομέρεια. Είναι ζήτημα ζωής και θανάτου.
