Skip to main content

Δεν υπήρξε επίσημη παραδοχή. Ούτε συγγνώμη. Ούτε μια καθαρή εξήγηση. Έμεινε μόνο ένας αριθμός να αιωρείται. Περισσότεροι από 175 νεκροί, πολλοί από αυτούς παιδιά. Την πρώτη ημέρα των επιθέσεων στο Ιράν, ένα σχολείο χτυπήθηκε. Και μετά σιωπή. Όχι από αμηχανία αλλά από επιλογή. Οι Ηνωμένες Πολιτείες και το Ισραήλ απέφυγαν τις σαφείς απαντήσεις, οι λεπτομέρειες θόλωσαν, και η ευθύνη διαλύθηκε μέσα σε τεχνικές διατυπώσεις και μισές φράσεις. Μέσα σε αυτό το κενό άρχισε να σχηματίζεται μια πιο άβολη σκέψη. Μήπως το λάθος δεν ήταν μόνο ανθρώπινο.

Η ιδέα ότι η τεχνητή νοημοσύνη μπορεί να συμμετείχε στη στόχευση δεν έχει επιβεβαιωθεί. Αλλά στον σημερινό πόλεμο δεν είναι πια μια ακραία υπόθεση. Η AI έχει ήδη μπει στο παιχνίδι. Διαβάζει δορυφορικές εικόνες, φιλτράρει δεδομένα, προτείνει στόχους. Και όταν ένα τέτοιο σύστημα κάνει λάθος, δεν το κάνει με τρόπο θεαματικό. Το κάνει ήσυχα. Πειστικά. Σχεδόν αόρατα.

Γιατί αυτά τα συστήματα δεν “βλέπουν” όπως εμείς. Δεν καταλαβαίνουν τι είναι ένα σχολείο και τι μια στρατιωτική βάση. Βλέπουν μοτίβα, σχήματα, πιθανότητες. Και όταν δύο πράγματα βρίσκονται κοντά, το ένα κτίριο δίπλα σε ένα άλλο, η διάκριση δεν είναι πάντα καθαρή. Μπορεί να χαθεί μέσα στο ίδιο το δεδομένο. Αν κάτι τέτοιο συνέβη στο Minab, τότε το λάθος δεν είναι μια εξαίρεση. Είναι μέσα στις δυνατότητες της τεχνολογίας.

Το ίδιο ισχύει και για τον χρόνο. Τα μοντέλα αυτά δεν έχουν πραγματική αίσθηση του “τώρα”. Μπορούν να μπερδέψουν παλιά και νέα δεδομένα, να δώσουν βάρος σε μια πληροφορία που κάποτε ίσχυε αλλά δεν ισχύει πια. Ένα σημείο που ήταν στόχος πριν δέκα χρόνια μπορεί σήμερα να είναι σχολείο. Για έναν άνθρωπο αυτή η διαφορά είναι προφανής. Για ένα σύστημα όχι πάντα.

Εδώ μπαίνει ο άνθρωπος θεωρητικά ως φίλτρο. Στην πράξη όμως συχνά λειτουργεί αλλιώς. Οι αποφάσεις λαμβάνονται γρήγορα, υπό πίεση, μέσα σε έναν όγκο δεδομένων που δύσκολα ελέγχεται πλήρως. Το σύστημα προτείνει, ο άνθρωπος εγκρίνει, και η αμφισβήτηση γίνεται όλο και πιο σπάνια. Όχι γιατί δεν υπάρχει, αλλά γιατί κοστίζει χρόνο. Και στον πόλεμο ο χρόνος θεωρείται πολυτέλεια.

Το πιο ανησυχητικό σημείο δεν είναι το τεχνικό. Είναι το ηθικό. Η τεχνητή νοημοσύνη δημιουργεί μια βολική απόσταση από την ευθύνη. Όταν κάτι πάει στραβά, η εξήγηση μεταφέρεται εύκολα στο επίπεδο του συστήματος. Λάθος δεδομένα, κακή ανάλυση, τεχνική αστοχία. Η ευθύνη δεν εξαφανίζεται απλώς γίνεται πιο δύσκολο να εντοπιστεί.

Και όμως η ουσία είναι απλή. Η AI δεν αποφασίζει ποιος είναι αποδεκτός στόχος. Δεν αποφασίζει πόσοι άμαχοι θεωρούνται “ανεκτή απώλεια”. Αυτές είναι ανθρώπινες επιλογές, ενσωματωμένες εκ των προτέρων στο σύστημα. Αν το όριο είναι χαμηλό, τα λάθη φαίνονται τραγικά. Αν το όριο είναι υψηλό, τα ίδια αποτελέσματα βαφτίζονται “παράπλευρες απώλειες”.

Το πρόβλημα είναι ότι όλα αυτά συμβαίνουν σχεδόν στο σκοτάδι. Δεν υπάρχουν σαφή στοιχεία για το πόσο αξιόπιστα είναι αυτά τα συστήματα στον πόλεμο. Δεν υπάρχουν ανεξάρτητοι έλεγχοι ούτε πραγματική διαφάνεια. Η τεχνολογία προχωρά πιο γρήγορα από την κατανόηση και πολύ πιο γρήγορα από τον έλεγχο. Σε ένα τέτοιο περιβάλλον, ένα λάθος δεν μένει ποτέ μεμονωμένο. Μπορεί να προκαλέσει αντίδραση, να οδηγήσει σε κλιμάκωση, να ανοίξει μια αλυσίδα γεγονότων που δεν ελέγχεται εύκολα. Και αν αυτά τα λάθη αρχίσουν να συνδέονται με συστήματα που δεν εξηγούνται, τότε το πρόβλημα δεν είναι μόνο επιχειρησιακό. Είναι πολιτικό.

Η ειρωνεία είναι ότι όλη αυτή η τεχνολογία προωθείται στο όνομα της επιχειρησιακής ακρίβειας. Χτυπήματα ακριβείας, στοχευμένες επιθέσεις και η υπόσχεση ότι ο πόλεμος μπορεί να γίνει πιο «καθαρός». Στην πράξη όμως αυτή η ακρίβεια είναι συχνά στατιστική. Και στον πόλεμο το στατιστικό λάθος δεν είναι απλώς απόκλιση. Είναι απώλεια ζωής.

Ίσως το σχολείο στο Minab να μην χτυπήθηκε από AI. Ίσως να ήταν ανθρώπινο λάθος, κακή πληροφορία ή κάτι που δεν θα μάθουμε ποτέ. Αλλά αυτό δεν αλλάζει το βασικό ερώτημα. Γιατί όσο αυτά τα συστήματα ενσωματώνονται όλο και περισσότερο στον τρόπο που διεξάγεται ο πόλεμος, το ενδεχόμενο ενός τέτοιου λάθους παύει να είναι υποθετικό. Και όταν συμβεί tο λάθος, γιατί δεν είναι ζήτημα “αν”, αλλά “πότε”, το ζήτημα δεν θα είναι αν φταίει η τεχνολογία. Θα είναι γιατί της εμπιστευτήκαμε αποφάσεις που δεν έπρεπε ποτέ να πάρει.

Non_metal300x250 (7)