ZEYΣ ΕΛΑΥΝΩΝ


Δευτέρα 23 Μαρτίου 2026

ΟΤΑΝ Η ΑΙ ΠΑΕΙ ΓΙΑ ΠΟΛΕΜΟ "ΞΥΠΟΛΗΤΗ ΣΤ' ΑΓΚΆΘΙΑ"

ΛΥΚΑΣΤΡΟΣ :

ΟΤΑΝ Η ΑΙ ΠΑΕΙ ΓΙΑ ΠΟΛΕΜΟ "ΞΥΠΟΛΗΤΗ ΣΤ' ΑΓΚΆΘΙΑ"

Η ευρεία χρήση εργαλείων τεχνητής νοημοσύνης για την πραγματοποίηση επιθέσεων στο Ιράν, προαναγγέλλει μια νέα εποχή βομβαρδισμών με ρυθμούς ταχύτερους από «την ταχύτητα της σκέψης» εν μέσω φόβων ότι οι ανθρώπινοι υπεύθυνοι λήψης αποφάσεων θα μπορούσαν να παραγκωνιστούν.

Το μοντέλο τεχνητής νοημοσύνης της Anthropic Claude, φέρεται να χρησιμοποιείται από τον αμερικανικό στρατό στα μπαράζ επιθέσεων, καθώς η τεχνολογία «συντομεύει την αλυσίδα εξόντωσης» - δηλαδή τη διαδικασία αναγνώρισης στόχου έως τη νομική έγκριση και την έναρξη της επίθεσης. Που συνήθως ανατίθεται να εκτελεστεί σε ρομποτικά οπλικά συστήματα με μεγάλο βαθμό εξάρτησης από αλλά συστήματα ΑΙ.

Οι ΗΠΑ και το Ισραήλ, που προηγουμένως χρησιμοποιούσαν τεχνητή νοημοσύνη για τον εντοπισμό στόχων στη Γάζα , εξαπέλυσαν σχεδόν 900 επιθέσεις σε ιρανικούς στόχους μόνο τις πρώτες 12 ώρες, κατά τις οποίες ισραηλινοί πύραυλοι σκότωσαν τον ανώτατο ηγέτη του Ιράν, Αγιατολάχ Αλί Χαμενεΐ.

Ακαδημαϊκοί που μελετούν τον τομέα λένε ότι η Τεχνητή Νοημοσύνη σχεδόν μηδενίζει τον χρόνο σχεδιασμού που απαιτείται για τέτοιες σύνθετες επιθέσεις - ένα φαινόμενο γνωστό ως «συμπίεση αποφάσεων», το οποίο ορισμένοι φοβούνται ότι θα μπορούσε να οδηγήσει σε ανθρώπινους στρατιωτικούς και νομικούς εμπειρογνώμονες που απλώς εγκρίνουν αυτοματοποιημένα σχέδια επιθέσεων.

Το 2024, η εταιρεία Anthropic, με έδρα το Σαν Φρανσίσκο, ανέπτυξε το μοντέλο της στο Υπουργείο Πολέμου των ΗΠΑ και σε άλλες υπηρεσίες εθνικής ασφάλειας για να επιταχύνει τον πολεμικό σχεδιασμό. Το Claude έγινε μέρος ενός συστήματος που αναπτύχθηκε από την εταιρεία πολεμικής τεχνολογίας Palantir σε συνεργασία με το Πεντάγωνο για να βελτιώσει δραματικά την ανάλυση των πληροφοριών και να επιτρέψει στους αξιωματούχους να λαμβάνουν αποφάσεις.

Έτσι το λογισμικό της Palantir

🔺️Συγκεντρώνει σε πραγματικό χρόνο τόνους πληροφοριών από δορυφόρους, συστήματα υποκλοπών τηλεπικοινωνιών από δίκτυα οπτικών ινών ή συστήματα τυπου Predator, συστήματα επιτήρησης των social media και από δίκτυα αισθητήρων επί αεροσκαφών ή drones επιτήρησης, καθώς και πληροφορίες από κατασκοπευτικά δίκτυα, που συνήθως δρουν σε εμπόλεμες περιοχές (δες σχετικά και το προηγούμενο post αυτoύ του ιστολογίου). Τα περίφημα "data centers" που ξεφυτρώνουν παντού σαν πολύ υδροφιλα μανιτάρια, αναπτύσσονται ακριβώς γι αυτόν τον σκοπό.

🔺️Αναγνωρίζουν με το Claude από αυτά τα δεδομένα αυτόματα και αξιολογούν στόχους, ανθρώπους ή υποδομές και αντίπαλα οπλικά συστήματα.

🔺️Σχεδιάζουν ακαριαία αποστολές, μαζί με όσες υποστηρικτικές ενέργειές απαιτούνται για να ολοκληρωθούν.

🔺️Στοχοποιούν με ακρίβεια θέσεις

🔺️(περιμένουν το πάτημα κάποιας σκανδάλης, ακόμα από ανθρώπινο χέρι)

🔺️Συλλέγουν τα δεδομένα μετά το χτύπημα και αξιολογούν τον βαθμό επιτυχίας της αποστολής.

Αυτή είναι η επόμενη εποχή στρατιωτικής στρατηγικής και στρατιωτικής τεχνολογίας, όπου η εξάρτηση από την τεχνητή νοημοσύνη μπορεί να οδηγήσει σε «γνωστική αποφόρτιση». Οι άνθρωποι που έχουν αναλάβει να λάβουν μια απόφαση για επίθεση μπορεί να αισθάνονται αποκομμένοι από τις συνέπειές της, επειδή η προσπάθεια να την σκεφτούν έχει καταβληθεί από μια μηχανή.

Την πρώτη ημέρα τού πολέμου, 165 άνθρωποι, πολλά από τα οποία παιδιά, σκοτώθηκαν σε πυραυλική επίθεση που έπληξε ένα σχολείο στο νότιο Ιράν , σύμφωνα με κρατικά μέσα ενημέρωσης που επιβεβαιώθηκαν και από τρίτες πηγές. Φαίνεται ότι βρισκόταν κοντά σε στρατιωτικό στρατόπεδο. Ο ΟΗΕ χαρακτήρισε το περιστατικό ως «σοβαρή παραβίαση του ανθρωπιστικού δικαίου».
Ο αμερικανικός στρατός δήλωσε ότι εξετάζει τις αναφορές και διεξάγει έρευνες για να βρει τον υπαίτιο...


Δεν είναι γνωστό ποια συστήματα τεχνητής νοημοσύνης έχει ενσωματώσει το Ιράν αντίστοιχα στην πολεμική του μηχανή, αν και το 2025 ισχυρίστηκε ότι χρησιμοποιεί την τεχνητή νοημοσύνη στα συστήματα στόχευσης των πυραύλων του, για να μπορούν να χτυπούν χωρίς την παρουσία χειριστή και συστημάτων τηλεπικοινωνιών/ γεωεντοπισμού και πλοήγησης που τους κάνουν ευάλωτους. Το δικό του πρόγραμμα τεχνητής νοημοσύνης, που παρεμποδίζεται από διεθνείς κυρώσεις, φαίνεται αμελητέο σε σύγκριση με τις υπερδυνάμεις τεχνητής νοημοσύνης των ΗΠΑ και της Κίνας. Όμως οι αντίστοιχες αστοχίες των ιρανικών πυραύλων, με τους περισσότερους να χτυπάνε ακόμα "στα τυφλά" στο "τελευταίο μίλι" της αποστολής τους, επίσης ευθύνονται για πολλές απώλειες αμάχων, που πολύ δύσκολα θα δικαστούν ως εγκλήματα κατά της ανθρωπότητας απουσία δικαίου που να καθίζει στο σκαμνί συστήματα ΑΙ.

Τις ημέρες πριν από τις επιθέσεις στο Ιράν, η κυβέρνηση των ΗΠΑ είχε δηλώσει ότι θα απέσυρε την Anthropic από τα συστήματά της, αφού αυτή η εταιρεία αρνήθηκε να επιτρέψει τη χρήση της τεχνητής νοημοσύνης της σε πλήρως αυτόνομα όπλα ή για την επιτήρηση Αμερικανών πολιτών στις αποστολές εσωτερικής καταστολής που έχει διατάξει ο Τραμπ. Ωστόσο, παραμένει σε χρήση μέχρι να καταργηθεί σταδιακά.
Ο ανταγωνιστής της Anthropic, η γνωστή OpenAI, υπέγραψε γρήγορα τη δική της συμφωνία με το Πεντάγωνο για στρατιωτική χρήση των μοντέλων της, παίρνοντας την θέση της Anthropic στα συστήματά της Palantir.

Το πλεονέκτημα που υπόσχεται το κάθε Open GPT έγκειται στην ταχύτητα λήψης αποφάσεων και την "κατάρρευση του σχεδιασμού" από αυτό που θα μπορούσε να διαρκέσει μέρες ή εβδομάδες πριν, σε λεπτά ή δευτερόλεπτα. Αυτά τα συστήματα παράγουν ένα σύνολο επιλογών για τους ανθρώπινους υπεύθυνους λήψης αποφάσεων, αλλά επίσης και ένα πολύ στενότερο χρονικό εύρος για να αξιολογήσουν τη σύσταση "kill" που έκανε μια μηχανή ΑΙ παρεμβαίνοντας σε ΟΛΑ τα πιο πάνω στάδια που σημειώθηκαν με 🔺️.

Αυτό γίνεται όλο και περισσότερο σε όλα τα αμυντικά συστήματα όλων των χωρών, αλλά και σε όλη την εφοδιαστική αλυσίδα, την εκπαίδευση, τη διαχείριση αποφάσεων, τη συντήρηση κλπ, αφήνοντας μέχρι τώρα αναπάντητο το ερώτημα (και από όλα τα συστήματά ΑΙ):

"Ποιος θα κατηγορηθεί αν μια τέτοια απόφαση οδηγήσει σε δολοφονίες αθώων ανθρώπων ή σε καταστροφές λόγω των εγγενών περιορισμών που έχει, και θα έχει, κάθε τέτοια μηχανή, όταν συνεχίζει να αυτοεκπαιδεύεται και να εξελίσσεται και με λάθος δεδομένα?"

Δεν υπάρχουν σχόλια: