Στις 28 Φεβρουαρίου 2026, αμερικανικά και ισραηλινά μαχητικά χτύπησαν πάνω από 1.000 στόχους στο Ιράν μέσα σε 24 ώρες. Η ταχύτητα ήταν σαρωτική. Η ακρίβεια, σύμφωνα με το Πεντάγωνο, εντυπωσιακή.

Αλλά πίσω από τα πυραυλικά πλήγματα, τις δορυφορικές εικόνες και τις εντολές που μεταδίδονταν σε διαβαθμισμένα δίκτυα, υπήρχε κάτι περισσότερο: Τεχνητή νοημοσύνη που ανέλυε τεράστιες ποσότητες δεδομένων, αναγνώριζε στόχους και βοηθούσε να μειωθεί δραματικά η αποκαλούμενη “kill chain”, ο χρόνος μεταξύ του εντοπισμού ενός στόχου και της εξουδετέρωσης του. Η Washington Post ανέφερε ότι συστήματα AI αναγνώριζαν στόχους και τους ιεραρχούσαν ακαριαία, ενώ ειδικοί εκτιμούν ότι χωρίς τεχνητή νοημοσύνη, μια τέτοιας κλίμακας επιχείρηση θα ήταν αδύνατη. Το Ιράν, όμως, δεν είναι η πρώτη περίπτωση. Από τη Γάζα μέχρι τη Βενεζουέλα, η τεχνητή νοημοσύνη έχει μπει ήδη στο πεδίο της μάχης και αλλάζει για πάντα τους κανόνες του πολέμου.

Την άνοιξη του 2024, έξι Ισραηλινοί αξιωματούχοι πληροφοριών μίλησαν ανώνυμα στο +972 Magazine και το Local Call για ένα σύστημα τεχνητής νοημοσύνης που ονομάστηκε Lavender. Η αποκάλυψη ήταν σοκαριστική. Το Lavender είχε αναλύσει 2,3 εκατομμύρια Παλαιστίνιους της Γάζας, κατηγοριοποίησε καθέναν σε επίπεδα απειλής με βάση αλγόριθμους μηχανικής μάθησης, και στο τέλος επέλεξε 37.000 ανθρώπους ως στόχους για δολοφονία. Σύμφωνα με την έρευνα, το σύστημα εκπαιδεύτηκε να αναγνωρίζει μαχητές της Χαμάς αλλά η ορολογία χρησιμοποιήθηκε με τρόπο τόσο ευρύ που περιελάμβανε ακόμη και εργαζόμενους στην πολιτική προστασία. Το AI ανέλυε δεδομένα κοινωνικών δικτύων, μεταδεδομένα τηλεφώνων, οικογενειακές συνδέσεις και πρότυπα κίνησης. Το σύστημα βαθμολογούσε κάθε άτομο με βάση την ομοιότητά του με γνωστούς μαχητές της Χαμάς. “Αφιερώναμε μόνο 20 δευτερόλεπτα σε κάθε στόχο πριν εγκρίνουμε έναν βομβαρδισμό, μόνο για να βεβαιωθούμε ότι ο στόχος που σημάδεψε το Lavender είναι άντρας,” εξομολογήθηκε ένας αξιωματούχος. Αυτό, παρά το γεγονός ότι το σύστημα έκανε λάθη σε περίπου 10% των περιπτώσεων.

Στις 3 Ιανουαρίου 2026, αμερικανικές δυνάμεις ειδικών επιχειρήσεων εισέβαλαν στο Καράκας. Στόχος, η σύλληψη του Νικολάς Μαδούρο και της συζύγου του. Η επιχείρηση περιελάμβανε βομβαρδισμούς σε πολλαπλές τοποθεσίες, συμπεριλαμβανομένου του τεράστιου στρατιωτικού συγκροτήματος Fuerte Tiuna. Σύμφωνα με Βενεζουελάνους αξιωματούχους, περίπου 100 άνθρωποι σκοτώθηκαν.

Πίσω όμως από την επιχείρηση υπήρχε κάτι που δεν αποκαλύφθηκε αμέσως. Tο Claude της Anthropic, το πρώτο δημοσίως γνωστό Large Language Model (LLM) που χρησιμοποιήθηκε σε ενεργό πολεμική επιχείρηση. Η Wall Street Journal, επικαλούμενη πηγές με γνώση του θέματος, ανέφερε ότι το Claude αξιοποιήθηκε μέσω της συνεργασίας της Anthropic με την Palantir Technologies, την εταιρεία data analytics που είναι βασικός προμηθευτής του Πενταγώνου.

Η ακριβής λειτουργία του Claude παραμένει διαβαθμισμένη, αλλά το σύστημα είναι γνωστό ότι χρησιμοποιείται για την ανάλυση δορυφορικών εικόνων, την επεξεργασία τεράστιων όγκων πληροφοριών και την αναγνώριση προτύπων σε κινήσεις στόχων. Το Axios ανέφερε ότι το Claude χρησιμοποιήθηκε κατά τη διάρκεια της ενεργού επιχείρησης, όχι μόνο στις προετοιμασίες της. Κανένας Αμερικανός στρατιώτης δεν σκοτώθηκε. Η αποστολή θεωρήθηκε επιτυχία.

Ωστόσο, η αποκάλυψη δημιούργησε πρόβλημα. Οι κανόνες χρήσης της Anthropic απαγορεύουν ρητά τη χρήση του Claude για να διευκολύνει τη βία, να αναπτύξει όπλα ή να διεξάγει επιτήρηση. Σύμφωνα με τη Wall Street Journal, ένας εργαζόμενος της Anthropic επικοινώνησε με έναν ομόλογό του στην Palantir μετά την επιδρομή για να ρωτήσει πώς είχε χρησιμοποιηθεί το Claude στην επιχείρηση. Η εταιρεία δήλωσε ότι “δεν μπορεί να σχολιάσει αν το Claude, ή οποιοδήποτε άλλο μοντέλο AI, χρησιμοποιήθηκε σε οποιαδήποτε συγκεκριμένη επιχείρηση” και ότι είναι σίγουρη ότι όλη η χρήση ήταν σύμφωνη με την υφιστάμενη πολιτική χρήσης της.

Πηγή: Ναυτεμπορική