Κυριακή 28 Ιουλίου 2024

Η AI σε Πόλεμο

Ακριβώς όπως ο κόσμος των πολιτών σημειώνει ταχεία πρόοδο στην ανάπτυξη και την διάδοση της τεχνητής νοημοσύνης (AI), έτσι και ο στρατιωτικός κόσμος πρέπει επίσης να προσαρμοστεί σε αυτήν την καινοτομία. Όμως όσο η ΑΙ αλλάζει την φύση του πολέμου, τόσο πιο πιθανά τα αποτελέσματα να είναι αποσταθεροποιητικά και άκρως επικίνδυνα για την ανθρωπότητα.

I.

Η τεχνητή νοημοσύνη θα αλλάξει την φύση του πολέμου

Οι ραγδαίες αλλαγές του σήμερα έχουν πολλές αιτίες.

Πρώτον, αυτό είναι το χωνευτήρι του ίδιου του πολέμου, ειδικά στην Ουκρανία. Μικρά, φθηνά τσιπ καθοδηγούν τακτικά ρωσικά και ουκρανικά drones στους στόχους τους, επεκτείνοντας την τεχνολογία που κάποτε ήταν διαθέσιμη μόνο στους πυραύλους της υπερδύναμης.

Δεύτερον, υπάρχει η πρόσφατη εκθετική πρόοδος της τεχνητής νοημοσύνης στην αναγνώριση αντικειμένων και στην επίλυση προβλημάτων υψηλότερης τάξης.

Τρίτον είναι ο ανταγωνισμός μεταξύ Αμερικής και Κίνας, στον οποίο και οι δύο πλευρές βλέπουν την τεχνητή νοημοσύνη ως το κλειδί της στρατιωτικής υπεροχής.

Τα αποτελέσματα είναι πιο αισθητά στην ανάπτυξη έξυπνων μηχανών θανάτωσης. Τα αερομεταφερόμενα και τα θαλάσσια drones ήταν ζωτικής σημασίας και για τις δύο πλευρές στην Ουκρανία για τον εντοπισμό και την επίθεση στόχων. Ο ρόλος της τεχνητής νοημοσύνης είναι να λύσει το πρόβλημα της εμπλοκής, επειδή επιτρέπει στο drone να επιστρέφει σε στόχους ακόμα κι αν έχει διακοπεί το σήμα GPS ή η επικοινωνία με τον πιλότο. Η διακοπή της σύνδεσης μεταξύ πιλότου και αεροσκάφους θα επιτρέψει σύντομα στους στρατούς να αναπτύξουν πολύ μεγαλύτερες ποσότητες πυρομαχικών χαμηλού κόστους. Τελικά, θα δημιουργηθούν ολόκληρα σμήνη, ικανά να καταστρέψουν τις άμυνες.

Αλλά το πιο αξιοσημείωτο πράγμα σχετικά με την στρατιωτική τεχνητή νοημοσύνη δεν είναι και το πιο σημαντικό. Η τεχνολογία θα φέρει επίσης επανάσταση στην εντολή και τον έλεγχο που χρησιμοποιούν οι στρατιωτικοί για να οργανώσουν πολέμους.

Στην πρώτη γραμμή, τα drones αντιπροσωπεύουν ακριβώς τον τελευταίο και πιο δραματικό κρίκο στην φονική αλυσίδα, μια σειρά βημάτων που ξεκινά με την αναζήτηση ενός στόχου και τελειώνει με μια επίθεση. Το βαθύτερο νόημα της τεχνητής νοημοσύνης είναι τι μπορεί να κάνει πριν χτυπήσει το drone. Επειδή ταξινομεί και επεξεργάζεται δεδομένα με υπεράνθρωπες ταχύτητες, μπορεί να τραβήξει πληροφορίες από χιλιάδες δορυφορικές εικόνες ή να ερμηνεύσει το φως, την θερμότητα, τον ήχο και τα ραδιοκύματα για να διακρίνει τα δολώματα από τα πραγματικά αντικείμενα.

Μακριά από την πρώτη γραμμή, μπορεί να λύσει προβλήματα πολύ μεγαλύτερα από αυτά που αντιμετωπίζει ένα μόνο drone. Σήμερα, αυτό μεταφράζεται σε απλές εργασίες, όπως ο προσδιορισμός του όπλου που είναι καταλληλότερο για την καταστροφή μιας απειλής. Τελικά, τα «συστήματα υποστήριξης αποφάσεων» θα είναι σε θέση να κατανοήσουν γρήγορα και ευρέως την ανεξιχνίαστη πολυπλοκότητα του πολέμου -ίσως και σε ολόκληρο το πεδίο της μάχης.

Οι συνέπειες αυτού του γεγονότος μόλις τώρα γίνονται εμφανείς. Τα συστήματα τεχνητής νοημοσύνης σε συνδυασμό με αυτόνομα ρομπότ σε ξηρά, θάλασσα και αέρα είναι πιθανό να βρουν και να καταστρέψουν στόχους με πρωτοφανή ταχύτητα και σε τεράστια κλίμακα.

Η ταχύτητα ενός τέτοιου πολέμου θα αλλάξει την ισορροπία μεταξύ στρατιώτη και λογισμικού. Σήμερα οι στρατοί κρατούν τους ανθρώπους «ενημερωμένους», εγκρίνοντας κάθε θανατηφόρα απόφαση. Δεδομένου ότι η αναζήτηση και το χτύπημα στόχων συμπιέζονται σε λεπτά ή δευτερόλεπτα, ένα άτομο μπορεί απλώς να συμμετέχει στην διαδικασία, ως μέρος μιας ομάδας ανθρώπου-μηχανής. Οι άνθρωποι θα παρακολουθούν το σύστημα χωρίς να παρεμβαίνουν σε κάθε ενέργεια.

Το παράδοξο είναι πως ακόμη και όταν η τεχνητή νοημοσύνη παρέχει μια σαφέστερη εικόνα του πεδίου της μάχης, ο πόλεμος κινδυνεύει να γίνει πιο αδιαφανής για τους εμπλεκόμενους ανθρώπους. Θα υπάρχει λιγότερος χρόνος για να σταματήσετε και να σκεφτείτε. Καθώς τα μοντέλα επιλέγουν ολοένα και πιο επικίνδυνες αποφάσεις, τα αποτελέσματά τους θα γίνονται όλο και πιο δύσκολο να εξεταστούν προσεκτικά και συνεπώς δεν θα δίνουν στον εχθρό κανένα πλεονέκτημα.

Οι στρατιές θα φοβούνται ότι εάν δεν δώσουν στους συμβούλους του AI μεγαλύτερη ευχέρεια κινήσεων, θα κατακλυστούν από έναν εχθρό που θα το κάνει. Οι ταχύτερες μάχες και οι λιγότερες παύσεις θα δυσκολέψουν την διαπραγμάτευση μιας εκεχειρίας ή θα σταματήσουν εντελώς την κλιμάκωση. Αυτό μπορεί να ωφελήσει τους αμυνόμενους, οι οποίοι μπορεί να βρίσκονται χαμηλά ενώ οι επιτιθέμενοι βγαίνουν από την κάλυψη καθώς προχωρούν. Ή από την άλλη θα μπορούσε να ωθήσει τους επιτιθέμενους να εξαπολύσουν ένα προληπτικό χτύπημα με τεράστια δύναμη για να διαταράξουν τους αισθητήρες και τα δίκτυα από τα οποία θα εξαρτηθούν οι στρατοί με δυνατότητα χρήσης της AI.

Η κλίμακα των πολέμων που βασίζονται στην τεχνητή νοημοσύνη δείχνει ότι η μάζα και το βιομηχανικό βάρος είναι πιθανό να γίνουν ακόμη πιο σημαντικά από όσο είναι σήμερα. Ίσως πιστεύεται ότι οι νέες τεχνολογίες θα επιτρέψουν στους στρατούς να γίνουν πιο συμπαγείς. Αλλά το λογισμικό μπορεί να αναγνωρίσει δεκάδες χιλιάδες στόχους, και οι στρατοί θα χρειαστούν δεκάδες χιλιάδες όπλα για να τους χτυπήσουν. Και αν ο αμυνόμενος έχει πλεονέκτημα, οι επιτιθέμενοι θα χρειαστούν περισσότερα όπλα για να ανταποκριθούν.

Αυτός δεν είναι ο μόνος λόγος για τον οποίο ο πόλεμος της τεχνητής νοημοσύνης ευνοεί μεγάλες χώρες. Τα μη επανδρωμένα εναέρια οχήματα μπορεί να γίνουν φθηνότερα, αλλά τα ψηφιακά συστήματα που θα ενσωματώνουν το πεδίο της μάχης θα είναι τρομερά ακριβά. Η δημιουργία στρατών τεχνητής νοημοσύνης θα απαιτήσει τεράστιες επενδύσεις σε διακομιστές cloud ικανούς να επεξεργάζονται ευαίσθητα δεδομένα. Στρατιές, ναυτικές και αεροπορικές δυνάμεις, που σήμερα υπάρχουν με τα δικά τους σιλό δεδομένων, πρέπει να ενσωματωθούν. Τα μοντέλα εκπαίδευσης θα απαιτούν πρόσβαση σε τεράστιο όγκο δεδομένων».

Ποια μεγάλη χώρα ευνοείται περισσότερο από την AI;

Κάποτε θεωρούνταν ότι η Κίνα είχε ένα πλεονέκτημα λόγω της δεξαμενής δεδομένων της, του ελέγχου των ιδιωτικών επιχειρήσεων και των χαλαρότερων ηθικών περιορισμών. Ωστόσο,

«Η Αμερική φαίνεται τώρα να είναι μπροστά στα μοντέλα αιχμής που θα μπορούσαν να διαμορφώσουν την επόμενη γενιά στρατιωτικής τεχνητής νοημοσύνης. Και η ιδεολογία έχει σημασία. Δεν είναι σαφές εάν οι στρατοί των αυταρχικών κρατών που έχουν τον κεντρικό έλεγχο θα μπορέσουν να επωφεληθούν από την τεχνολογία που φέρνει την ευφυΐα και την διορατικότητα σε χαμηλότερο επίπεδο τακτικής».

Αν, δυστυχώς, ξεσπούσε ο πρώτος πόλεμος της τεχνητής νοημοσύνης, το διεθνές δίκαιο, σίγουρα, θα οδηγούνταν στο περιθώριο. Αυτός είναι ένας πολύ σημαντικός λόγος έτσι ώστε να σκεφτούμε σήμερα πώς να περιορίσουμε αυτήν την καταστροφή. Για παράδειγμα, η Κίνα θα πρέπει να λάβει υπόψη την έκκληση της Αμερικής να εξαλείψει τον έλεγχο της τεχνητής νοημοσύνης στα πυρηνικά όπλα. Και μόλις ξεκινήσει ο πόλεμος, οι ανοιχτές γραμμές επικοινωνίας μεταξύ των ανθρώπων θα γίνουν πιο σημαντικές από ποτέ.

Τα συστήματα τεχνητής νοημοσύνης που έχουν σχεδιαστεί για να μεγιστοποιούν το στρατιωτικό πλεονέκτημα πρέπει να κωδικοποιούνται με τις αξίες και τους περιορισμούς που οι ανθρώπινοι διοικητές θεωρούν δεδομένους. Αυτά περιλαμβάνουν τη σιωπηρή αξία της ανθρώπινης ζωής (πόσοι άμαχου είναι αποδεκτό να σκοτωθούν για την επιδίωξη ενός σημαντικού στόχου;) και την αποφυγή ορισμένων αποσταθεροποιητικών επιθέσεων, όπως αυτές σε πυρηνικούς δορυφόρους έγκαιρης προειδοποίησης.

Η αβεβαιότητα είναι τεράστια. Το μόνο σίγουρο είναι ότι η αλλαγή που βασίζεται στην AI έρχεται ή είναι ήδη εδώ. Πιθανότατα, εκείνες οι στρατιές που θα είναι οι πρώτες και οι πιο αποτελεσματικές για να κατακτήσουν τις τεχνολογικές εξελίξεις θα κερδίσουν. Όλοι οι άλλοι θα γίνουν θύματα».

II.

Πώς η τεχνητή νοημοσύνη αλλάζει τον πόλεμο. Ένα τεχνητά ευφυές γενικό επιτελείο μπορεί να είναι πιο σημαντικό από τα ρομπότ δολοφόνων:

Στα τέλη του 2021, το Βασιλικό Ναυτικό της Βρετανίας προσέγγισε την Microsoft και την Amazon Web Services, ένα ζευγάρι αμερικανικών τεχνολογικών κολοσσών, με το ερώτημα: Υπάρχει καλύτερος τρόπος για να πολεμήσετε έναν πόλεμο; Συγκεκριμένα, μπορούν να βρουν έναν πιο αποτελεσματικό τρόπο συντονισμού μεταξύ μιας υποθετικής ομάδας κρούσης κομάντο στην Καραϊβική και των πυραυλικών συστημάτων μιας φρεγάτας;

Οι εταιρείες τεχνολογίας συνεργάστηκαν με την BAE Systems, έναν τεράστιο κατασκευαστή όπλων, και την Anduril, μια μικρότερη εταιρεία, καθώς και με άλλους αμυντικούς εργολάβους. Κατά τη διάρκεια 12 εβδομάδων -απίστευτα γρήγορη στον κόσμο των αμυντικών προμηθειών- η κοινοπραξία συγκεντρώθηκε στο Somerset της Βρετανίας για να επιδείξει αυτό που αποκαλούσε StormCloud.

Πεζοναύτες στο έδαφος, μη επανδρωμένα εναέρια οχήματα στον αέρα και πολλοί άλλοι αισθητήρες συνδέθηκαν μέσω ενός δικτύου «πλέγματος» προηγμένων επικοινωνιών, που επέτρεπε σε καθένα από αυτά να έχει ανεμπόδιστη θέαση του τι συνέβαινε αλλού – μια εγκατάσταση που ήδη επέτρεπε στους πεζοναύτες να έχουν πολύ μεγαλύτερο δυναμικό.

Τα δεδομένα που συνέλεξαν υποβλήθηκαν σε επεξεργασία τόσο επιφανειακά του δικτύου, σε μικρούς, στιβαρούς υπολογιστές συνδεδεμένους σε οχήματα μέσω καλωδίων bungee, όσο και σε απομακρυσμένους διακομιστές cloud όπου στάλθηκαν από δορυφόρο. Το λογισμικό διοίκησης και ελέγχου παρακολούθησε μια δεδομένη περιοχή, αποφάσισε ποια drones έπρεπε να πετάξουν και πού, εντόπισε αντικείμενα στο έδαφος και πρότεινε ποια όπλα να χτυπήσουν ποιους στόχους.

Τα αποτελέσματα ήταν εντυπωσιακά. Ήταν ξεκάθαρο ότι το StormCloud ήταν «η πιο προηγμένη αλυσίδα θανάτου στον κόσμο», λέει ένας αξιωματικός που συμμετείχε στο πείραμα, αναφερόμενος σε ένα δίκτυο αισθητήρων (όπως τα drones) και όπλων (όπως οι πύραυλοι) που συνδέονται μαζί με ψηφιακά δίκτυα και λογισμικό για να ανταλλάσσουν τα δεδομένα.

Τα εργαλεία και τα όπλα με δυνατότητα AI δεν χρησιμοποιούνται μόνο σε ασκήσεις εκπαίδευσης. Χρησιμοποιούνται επίσης σε ευρεία κλίμακα, σε μέρη όπως η Γάζα και η Ουκρανία. Οι ένοπλες δυνάμεις φοβούνται ότι θα μείνουν πίσω από τους αντιπάλους τους. Το κόστος αυξάνεται ραγδαία. Αλλά οι δικηγόροι και οι ηθικολόγοι φοβούνται ότι η τεχνητή νοημοσύνη θα κάνει τον πόλεμο πιο γρήγορο, αδιαφανή και λιγότερο “ανθρώπινο”. Το χάσμα μεταξύ των δύο ομάδων μεγαλώνει, παρόλο που η προοπτική ενός πολέμου μεταξύ των μεγάλων δυνάμεων μεγαλώνει επίσης.

Δεν υπάρχει ενιαίος ορισμός της τεχνητής νοημοσύνης. Πράγματα που κάποτε άξιζαν τον όρο, όπως η πλοήγηση εδάφους των πυραύλων Tomahawk τη δεκαετία του 1980 ή η ικανότητα των πυραύλων Brimstone να ανιχνεύουν τα τανκς στις αρχές της δεκαετίας του 2000, αντιμετωπίζονται τώρα ως καθημερινό λογισμικό. Και πολλές από τις προηγμένες δυνατότητες που περιγράφονται ως AI δεν περιλαμβάνουν τη «βαθιά μάθηση» και τα μεγάλα γλωσσικά μοντέλα που αποτελούν τη βάση υπηρεσιών όπως το Chatgpt. Τελικά με διαφορετικές μορφές, η τεχνητή νοημοσύνη διαπερνά κάθε πτυχή του πολέμου».

Ξεκινά με τα απλά πράγματα, όπως είναι η συντήρηση, η υλικοτεχνική υποστήριξη, το προσωπικό και άλλες εργασίες που απαιτούνται για να διατηρηθεί το προσωπικό, η τροφοδοσία και ο ανεφοδιασμός των στρατών. Μια πρόσφατη μελέτη από τη δεξαμενή σκέψης Rand Corporation διαπίστωσε ότι η τεχνητή νοημοσύνη, προβλέποντας πότε τα μαχητικά αεροσκάφη A-10c θα χρειαστούν συντήρηση, θα μπορούσε να εξοικονομήσει 25 εκατομμύρια δολάρια στην Πολεμική Αεροπορία των Η.Π.Α.

Ένας άλλος πολλά υποσχόμενος τομέας είναι τα logistics. Για παράδειγμα, ο στρατός των ΗΠΑ χρησιμοποιεί αλγόριθμους για να προβλέψει πότε τα ουκρανικά οβιδοβόλα θα χρειαστούν νέα βαρέλια. Η τεχνητή νοημοσύνη αρχίζει επίσης να διεισδύει στο HR. Ο Στρατός χρησιμοποιεί ένα μοντέλο εκπαιδευμένο σε 140.000 αρχεία προσωπικού για να βοηθήσει στη στρατολόγηση στρατιωτών για προαγωγές.

Το άλλο άκρο είναι το απότομο τέλος των πραγμάτων. Τόσο η Ρωσία όσο και η Ουκρανία σπεύδουν να αναπτύξουν λογισμικό που επιτρέπει στα μη επανδρωμένα αεροσκάφη να πλοηγούνται και να εισέρχονται σε έναν στόχο μόνα τους, ακόμα κι αν η παρεμβολή διαταράσσει την επικοινωνία μεταξύ πιλότου και drone. Και οι δύο πλευρές συνήθως χρησιμοποιούν μικρά brands για αυτόν τον σκοπό, των οποίων τα υλικά μπορεί να κοστίζουν μόλις 100$.

Τα βίντεο από χτυπήματα με drone στην Ουκρανία δείχνουν όλο και περισσότερο “οριοθετημένα κουτιά” να εμφανίζονται γύρω από αντικείμενα, υποδηλώνοντας ότι το drone αναγνωρίζει και επιστρέφει σε έναν στόχο. Η τεχνολογία βέβαια παραμένει τεχνολογικά ανώριμη και οι αλγόριθμοι στόχευσης αντιμετωπίζουν πολλές από τις ίδιες προκλήσεις που αντιμετωπίζουν τα αυτοοδηγούμενα αυτοκίνητα, όπως ακατάστατα περιβάλλοντα και σκιασμένα αντικείμενα, καθώς και ορισμένα χαρακτηριστικά στο πεδίο της μάχης, όπως ο καπνός και το δόλωμα. Αλλά βελτιώνεται γρήγορα.

Μεταξύ του AI στα backend (ενέργειες όπως είναι η ανάπτυξη κώδικα και την διαχείριση δεδομένων που δεν είναι ορατά στον τελικό χρήστη) και του AI στο εσωτερικό των πυρομαχικών, βρίσκεται μια τεράστια σφαίρα καινοτομίας, πειραματισμού και τεχνολογικής προόδου. Τα ίδια τα drones διαταράσσουν, δεν μεταμορφώνουν, τον πόλεμο, υποστηρίζουν ο Clint Hinote, ένας απόστρατος στρατηγός της Πολεμικής Αεροπορίας των ΗΠΑ, και ο Mick Ryan, ένας απόστρατος Αυστραλός στρατηγός.

Αλλά όταν συνδυάζεται με «Ψηφιακά Συστήματα Διοίκησης και Ελέγχου» (όπως το StormCloud) και «Δίκτυα Πλέγματος Νέας Εποχής Πολιτικών και Στρατιωτικών Αισθητήρων», το αποτέλεσμα, λένε, είναι μια «μεταμορφωτική τριάδα» που επιτρέπει στους στρατιώτες της πρώτης γραμμής να βλέπουν και να ενεργούν σε πραγματικό χρόνο με βάση πληροφορίες που κάποτε θα περιορίζονταν σε απομακρυσμένα κεντρικά γραφεία. Το AI είναι απαραίτητη προϋπόθεση για αυτό.

Φανταστείτε ένα πλέγμα αισθητήρων με δεδομένα από drones, δορυφόρους, μέσα κοινωνικής δικτύωσης και άλλες πηγές που κυκλοφορούν σε ένα στρατιωτικό δίκτυο. Πάρα πολλά πρέπει να υποβληθούν σε χειροκίνητη επεξεργασία. Ο Tamir Hayman, ο στρατηγός που ήταν επικεφαλής της ισραηλινής στρατιωτικής υπηρεσίας πληροφοριών μέχρι το 2021, επισημαίνει δύο σημαντικές ανακαλύψεις. Το «θεμελιώδες άλμα», είπε, ήρθε πριν από οκτώ ή εννέα χρόνια στο λογισμικό ομιλίας σε κείμενο που μπορούσε να αναζητήσει λέξεις-κλειδιά ενώ καταγράφει φωνές. Το άλλο είχε σχέση με την όραση του υπολογιστή.

Το Project Spotter στο Υπουργείο Άμυνας του Ηνωμένου Βασιλείου χρησιμοποιεί ήδη νευρωνικά δίκτυα για την «αυτόματη ανίχνευση και αναγνώριση αντικειμένων» σε δορυφορικές εικόνες, επιτρέποντας «την αυτόματη παρακολούθηση των τοποθεσιών 24/7 για αλλαγές στη δραστηριότητα». Από τον Φεβρουάριο του 2024, η ιδιωτική εταιρεία έχει επισημάνει 25.000 αντικείμενα για εκπαίδευση μοντέλων.

Ο Βρετανός στρατηγός Τομ Κόπινγκερ-Σάιμς είπε στην Βουλή των Λόρδων το 2023 ότι τέτοια συστήματα «βρίσκονται ακόμη στα ανώτερα όρια έρευνας και ανάπτυξης και όχι στην ανάπτυξη πλήρους κλίμακας», αν και επεσήμανε την χρήση εμπορικών εργαλείων για τον εντοπισμό, για παράδειγμα, συγκεντρώσεις αμάχων κατά την εκκένωση πολιτών του Ηνωμένου Βασιλείου από το Σουδάν στις αρχές του 2023. Η Αμερική φαίνεται να έχει προχωρήσει. Το 2017, η εταιρεία ξεκίνησε το Project Maven για να αντιμετωπίσει την εισροή φωτογραφιών και βίντεο που τραβήχτηκαν από drones στο Αφγανιστάν και το Ιράκ.

Η Maven “παράγει ήδη μεγάλους όγκους συστημάτων υπολογιστικής όρασης για τον στρατό”, σημείωσε τον Μάιο ο διευθυντής της Εθνικής Υπηρεσίας Γεωχωρικών Πληροφοριών, που ηγείται του έργου. Ο δηλωμένος στόχος είναι ο Maven να «ανταποκρίνεται ή να υπερβαίνει την απόδοση ανθρώπινης ανίχνευσης, ταξινόμησης και παρακολούθησης. Δεν έχει φτάσει όμως ακόμα εκεί – πολεμά περίπλοκες υποθέσεις σαν μερικώς κρυμμένα όπλα».

«Το AI μπορεί να επεξεργαστεί πολλά περισσότερα από τηλεφωνικές κλήσεις ή φωτογραφίες. Τον Μάρτιο του 2024, το Βασιλικό Ναυτικό ανακοίνωσε ότι η μονάδα κυνηγιού ναρκών του είχε ολοκληρώσει ένα πείραμα διάρκειας ενός έτους στον Περσικό Κόλπο χρησιμοποιώντας το μικρό μη επανδρωμένο σκάφος Harrier, του οποίου το σύστημα σόναρ μπορούσε να αναζητήσει νάρκες στον βυθό της θάλασσας και να προειδοποιήσει άλλα πλοία ή μονάδες στην γη.

Και ο Michael Horowitz, εκπρόσωπος του Πενταγώνου, είπε πρόσφατα στον ιστότοπο Defence News ότι η Αμερική, η Αυστραλία και η Βρετανία, ως μέρος της συμφωνίας τους AUKUS, έχουν αναπτύξει έναν «αλγόριθμο τριών μερών» που μπορεί να χρησιμοποιηθεί για την επεξεργασία ακουστικών δεδομένων που συλλέγονται από sonobuoys P-planes 8, στο κυνήγι για υποβρύχια.

Ο προσδιορισμός των ανθρώπων μαχητών είναι ίσως ο πιο περίπλοκος και σίγουρα ο πιο αμφιλεγόμενος. Τον Απρίλιο του 2024, η ισραηλινή δημοσίευση του “+972 Magazine” ισχυρίστηκε ότι οι Ισραηλινές Αμυντικές Δυνάμεις (IDF) χρησιμοποιούσαν ένα εργαλείο τεχνητής νοημοσύνης γνωστό ως Lavender για να προσδιορίσει χιλιάδες Παλαιστίνιους ως στόχους, με τους ανθρώπινους χειριστές να εξετάζουν μόνο πρόχειρα την παραγωγή του συστήματος πριν παραδώσουν την εντολή να χτυπήσουν. Το IDF αντέδρασε ότι η Lavender ήταν «απλώς μια βάση δεδομένων που σκοπός της είναι να διασταυρώσει τις πηγές πληροφοριών».

Στην πράξη, το Lavender πιθανότατα θα γίνει αυτό που οι ειδικοί αποκαλούν σύστημα υποστήριξης αποφάσεων (DSS), ένα εργαλείο για το συνδυασμό διαφόρων δεδομένων όπως τηλεφωνικά αρχεία, δορυφορικές εικόνες και άλλα δεδομένα νοημοσύνης. Η χρήση συστημάτων ηλεκτρονικών υπολογιστών από την Αμερική για την επεξεργασία ακουστικών δεδομένων και δεδομένων από αισθητήρες στο Βιετνάμ μπορεί να θεωρηθεί πρωτόγονο DSS.

Ο Rupert Barrett-Taylor του Ινστιτούτου Alan Turing στο Λονδίνο σημειώνει ότι το ίδιο μπορεί να ειπωθεί για το λογισμικό που χρησιμοποιείται από κατασκόπους και ειδικές δυνάμεις των ΗΠΑ στον πόλεμο κατά της τρομοκρατίας, το οποίο μετατρέπει τηλεφωνικά αρχεία και άλλα δεδομένα σε τεράστια διαγράμματα που μοιάζουν με ιστό, ο οποίος οπτικοποιεί τις συνδέσεις μεταξύ ανθρώπων και μερών για τον εντοπισμό ανταρτών ή τρομοκρατών.

Η διαφορά είναι ότι το σημερινό λογισμικό επωφελείται από περισσότερη υπολογιστική ισχύ, ταχύτερους αλγόριθμους (η σημαντική ανακάλυψη στα νευρωνικά δίκτυα σημειώθηκε μόλις το 2012) και περισσότερα δεδομένα χάρη στον πολλαπλασιασμό των αισθητήρων. Το αποτέλεσμα δεν είναι απλώς μια αύξηση ή βελτίωση της νοημοσύνης. Αυτή είναι η ασάφεια της γραμμής μεταξύ πληροφοριών, επιτήρησης και αναγνώρισης (ISR) και διοίκησης και ελέγχου (C2) – μεταξύ της κατανόησης των δεδομένων και της δράσης βάσει αυτών.

Η Πολεμική Αεροπορία των ΗΠΑ ζήτησε πρόσφατα από την RAND Corporation να αξιολογήσει εάν τα εργαλεία τεχνητής νοημοσύνης θα μπορούσαν να παρέχουν επιλογές για ένα «διαστημικό πολεμικό» που αντιμετωπίζει μια εισερχόμενη απειλή από έναν δορυφόρο. Το συμπέρασμα ήταν ότι η τεχνητή νοημοσύνη μπορεί πράγματι να προτείνει απαντήσεις «υψηλής ποιότητας».

Ομοίως, η DARPA, ο ερευνητικός βραχίονας του Πενταγώνου, εργάζεται σε ένα πρόγραμμα που ονομάζεται “Strategic Chaos Engine for Planning, Tactics, Experimentation and Resiliency” (SCEPTER) για να παρέχει συστάσεις δράσης στους διοικητές κατά τη διάρκεια «στρατιωτικών συγκρούσεων σε οχήματα υψηλής ταχύτητας». Ουσιαστικά, μπορεί να δημιουργήσει νέα πολεμικά σχέδια εν κινήσει.

«Πολλές από τις τεχνικές που χρησιμοποιούνται στο SCEPTR αλλά και παρόμοια έργα της DARPA δεν υπήρχαν καν πριν από δύο έως πέντε χρόνια», λέει ο Έρικ Ντέιβις, διευθυντής προγράμματος στο πρακτορείο. Ως παράδειγμα, αναφέρει τη «Θεωρία Τελεστών Koopman», ένα παλιό και ελάχιστα γνωστό μαθηματικό πλαίσιο, το οποίο μπορεί να χρησιμοποιηθεί για την ανάλυση πολύπλοκων και μη γραμμικών συστημάτων, όπως αυτά που βρίσκονται στον πόλεμο, με όρους απλούστερης γραμμικής άλγεβρας. Οι πρόσφατες ανακαλύψεις στην εφαρμογή του έχουν κάνει ορισμένα προβλήματα τεχνητής νοημοσύνης πιο διαχειρίσιμα.

Το αποτέλεσμα όλων αυτών είναι ένα αυξανόμενο πνευματικό χάσμα μεταξύ εκείνων που έχουν δουλειά να διεξάγουν πόλεμο και εκείνων που επιδιώκουν να τον δαμάσουν. Δικηγόροι και ηθικολόγοι λένε ότι υπάρχουν κίνδυνοι στον αυξανόμενο ρόλο της τεχνητής νοημοσύνης στον πόλεμο.

Ο Noam Labelle από το Πανεπιστήμιο του Essex αναφέρει χαρακτηριστικά πως:

«Τα συστήματα που έχουμε τώρα δεν μπορούν να αναγνωρίσουν εχθρικές προθέσεις. Δεν μπορούν να διακρίνουν την διαφορά μεταξύ ενός κοντού στρατιώτη με αληθινό όπλο και ενός παιδιού με όπλο παιχνίδι… ή μεταξύ ενός τραυματισμένου στρατιώτη που βρίσκεται πάνω από ένα τουφέκι και ενός ελεύθερου σκοπευτή έτοιμου να πυροβολήσει με ένα τουφέκι ελεύθερου σκοπευτή. Τέτοιοι αλγόριθμοι δεν μπορούν να χρησιμοποιηθούν νόμιμα».

Ο Stuart Russell, ένας επιστήμονας υπολογιστών, συμπληρώνει ότι:

«Τα νευρωνικά δίκτυα μπορούν επίσης να ξεγελαστούν πολύ εύκολα. Μπορείτε στην συνέχεια να πάρετε εντελώς αθώα αντικείμενα, όπως φανοστάτες, και να εκτυπώσετε μοτίβα πάνω τους που θα πείσουν ένα όπλο ότι είναι τανκ».

Οι υποστηρικτές της στρατιωτικής τεχνητής νοημοσύνης αντιτάσσουν ότι οι σκεπτικιστές έχουν πολύ ρόδινη άποψη για τον πόλεμο. Ένα επιθετικό drone που κυνηγά έναν συγκεκριμένο στόχο μπορεί να μην είναι σε θέση να αναγνωρίσει, πόσο μάλλον να σεβαστεί, μια απόπειρα παράδοσης, παραδέχεται ένας πρώην Βρετανός αξιωματικός που εμπλέκεται στην πολιτική τεχνητής νοημοσύνης.

«Πραγματοποιήσαμε διαφορετικούς τύπους δοκιμών στις οποίες συγκρίναμε τις δυνατότητες και τα επιτεύγματα της μηχανής με τις ικανότητες των ανθρώπων», λέει ο στρατηγός του Ισραηλινού Στρατού Heyman. «Οι περισσότερες δοκιμές δείχνουν ότι το μηχάνημα είναι πολύ, πολύ, πολύ πιο ακριβές… Στις περισσότερες περιπτώσεις δεν συγκρίνεται».

Μια παρανόηση είναι η παρέκταση από τις αντιτρομοκρατικές εκστρατείες της δεκαετίας του 2000. “Το μέλλον δεν είναι η αναγνώριση προσώπου”, λέει ο Palmer Luckey, ιδρυτής της Anduril, μιας από τις εταιρείες που συμμετέχουν στο StormCloud. «Μιλάμε για μια απόπειρα κατάρριψης ενός στόλου αμφίβιων πλοίων επίθεσης στα στενά της Ταϊβάν». Εάν ένα αντικείμενο έχει την οπτική, ηλεκτρονική και θερμική υπογραφή ενός εκτοξευτή πυραύλων, υποστηρίζει, «απλά δεν μπορείτε να κάνετε λάθος… Είναι απίστευτα μοναδικό». Οι προπολεμικές προσομοιώσεις μειώνουν περαιτέρω την αβεβαιότητα: «Το 99% αυτού που βλέπετε στην κινεζική σύγκρουση θα γίνει στην προσομοίωση πολλές φορές», λέει ο Luckey, «πολύ πριν συμβεί».

«Το πρόβλημα είναι ότι όταν η μηχανή κάνει λάθη, κάνει τρομερά λάθη», λέει ο στρατηγός Heyman. «Εάν γίνουν δεκτά, θα οδηγήσουν σε τραυματικά γεγονότα. Θα επιταχύνετε τη διαδικασία χωρίς προηγούμενο. Πιθανόν να παραβιάζετε και το διεθνές δίκαιο». Ο Luckey παραδέχεται ότι η τεχνητή νοημοσύνη θα είναι λιγότερο σημαντική στο «βρώμικο και άσχημο» έργο του αστικού πολέμου τύπου Γάζας. «Αν οι άνθρωποι φαντάζονται ότι τα ρομπότ εξολοθρευτές θα αναζητήσουν τον κατάλληλο Μωάμεθ και θα τον πυροβολήσουν… Δεν θα λειτουργήσει».

Από την πλευρά της, η ICRC προειδοποιεί ότι τα συστήματα AI είναι δυνητικά απρόβλεπτα, αδιαφανή και υπόκεινται σε μεροληψία, αλλά αναγνωρίζει ότι μπορούν να διευκολύνουν την ταχύτερη και ευρύτερη συλλογή και ανάλυση των διαθέσιμων πληροφοριών… ελαχιστοποιώντας τους κινδύνους για τους αμάχους. Πολλά εξαρτώνται από τον τρόπο χρήσης των εργαλείων. Εάν το IDF χρησιμοποίησε το Lavender όπως αναφέρθηκε, αυτό υποδηλώνει ότι το πρόβλημα ήταν οι υπερβολικά εκτεταμένοι κανόνες εμπλοκής και οι απρόσεκτοι χειριστές, παρά η παθολογία του ίδιου του λογισμικού.

Για χρόνια ειδικοί και διπλωμάτες συζητούσαν στα Ηνωμένα Έθνη για το εάν τα αυτόνομα οπλικά συστήματα (AWS) πρέπει να περιοριστούν ή να απαγορευτούν. Το ICRC λέει ότι τα ARM είναι αυτά που επιλέγουν έναν στόχο με βάση ένα γενικό προφίλ -οποιοδήποτε άρμα, παρά ένα συγκεκριμένο άρμα.

Το ICRC υποστηρίζει την απαγόρευση των AWS που στοχεύουν άτομα ή συμπεριφέρονται με απρόβλεπτους τρόπους. Η Βρετανία αντιτείνει ότι τα «πλήρως αυτόνομα» όπλα είναι εκείνα που εντοπίζουν, επιλέγουν και επιτίθενται σε στόχους χωρίς «κατάλληλη ανθρώπινη παρέμβαση». Το Πεντάγωνο έχει παρόμοια άποψη, δίνοντας έμφαση στα «κατάλληλα επίπεδα ανθρώπινης κρίσης».

Ο ορισμός αυτού, με τη σειρά του, είναι δύσκολος. Και δεν πρόκειται μόνο για τη θανατηφόρα πράξη, αλλά και για το τι προηγείται. Ένα εξαιρετικά αυτόνομο επιθετικό drone μπορεί να φαίνεται ότι δεν έχει ανθρώπινο έλεγχο. Αλλά εάν η συμπεριφορά του είναι καλά κατανοητή και χρησιμοποιείται σε μια περιοχή όπου είναι γνωστό ότι υπάρχουν νόμιμοι στρατιωτικοί στόχοι και δεν υπάρχουν πολίτες, μπορεί να δημιουργήσει προβλήματα.

Αντίθετα, ένα εργαλείο που απλώς προτείνει στόχους μπορεί να φαίνεται πιο αβλαβές. Αλλά οι διοικητές που εγκρίνουν με μη αυτόματο τρόπο μεμονωμένους στόχους που προτείνονται από το εργαλείο «χωρίς γνωστική σαφήνεια ή επίγνωση» – με άλλα λόγια, πατώντας άσκοπα το κόκκινο κουμπί – αποποιούνται την ηθική τους ευθύνη απέναντι στη μηχανή.

Η κατάσταση είναι πιθανό να επιδεινωθεί για δύο λόγους. Ένα από αυτά είναι ότι το εάν ένας στρατός χρησιμοποιεί τεχνητή νοημοσύνη για να εντοπίσει και να εμπλέξει στόχους πιο γρήγορα, η άλλη πλευρά μπορεί να αναγκαστεί να στραφεί στην τεχνητή νοημοσύνη για να συμβαδίσει.

Ένας άλλος λόγος είναι ότι θα είναι πιο δύσκολο για τους χρήστες να κατανοήσουν τη συμπεριφορά και τους περιορισμούς των στρατιωτικών συστημάτων. Η σύγχρονη μηχανική μάθηση δεν έχει γίνει ακόμη ευρέως διαδεδομένη στα «κρίσιμα» συστήματα υποστήριξης αποφάσεων, σημειώνει ο Holland Michel.

Γίνεται ακόμη λόγος για χρήση της τεχνητής νοημοσύνης στη λήψη πυρηνικών αποφάσεων. Η ιδέα είναι ότι οι χώρες μπορούν όχι μόνο να συγκεντρώνουν δεδομένα για να παρακολουθούν τις εισερχόμενες απειλές (όπως συμβαίνει από τη δεκαετία του 1950), αλλά και να αντεπιτίθενται αυτόματα εάν οι πολιτικοί ηγέτες σκοτωθούν σε ένα πρώτο χτύπημα.

Η Σοβιετική Ένωση εργάστηκε σε μια τέτοια ιδέα κατά τη διάρκεια του Ψυχρού Πολέμου, ως μέρος του Περιμετρικού της συστήματος. Είναι ακόμα σε χρήση και φημολογείται ότι βασίζεται σε λογισμικό ελεγχόμενο από AI, σημειώνει ο Leonid Ryabikhin, πρώην αξιωματικός της σοβιετικής αεροπορίας και ειδικός στον έλεγχο των όπλων.

Το 2023, μια ομάδα Αμερικανών γερουσιαστών εισήγαγε ακόμη και ένα νέο νομοσχέδιο, τον «Νόμο για τον αποκλεισμό της πυρηνικής εκτόξευσης της αυτόνομης τεχνητής νοημοσύνης». Αυτή είναι φυσικά μια μυστική περιοχή και λίγα είναι γνωστά για το πόσο μακριά θέλουν να φτάσουν διαφορετικές χώρες. Αλλά το θέμα είναι αρκετά σημαντικό ώστε να βρίσκεται ψηλά στην ημερήσια διάταξη για τις προεδριAIκές συνομιλίες του 2023 μεταξύ του Τζο Μπάιντεν και του Σι Τζινπίνγκ.

Οι χώρες του ΝΑΤΟ γνωρίζουν ότι μπορεί να χρειαστεί να αντιμετωπίσουν τον ρωσικό στρατό, ο οποίος μπορεί, μετά το τέλος αυτού του πολέμου, να έχει μεγάλη εμπειρία στη δημιουργία όπλων τεχνητής νοημοσύνης και στη δοκιμή τους στο πεδίο της μάχης. Η Κίνα χρησιμοποιεί επίσης πολλές από τις ίδιες τεχνολογίες με την Αμερική. Οι κινεζικές εταιρείες κατασκευάζουν την συντριπτική πλειοψηφία των drones που πωλούνται στην Αμερική, είτε ως καταναλωτικά προϊόντα είτε για βιομηχανικούς σκοπούς.

Σίγουρα μπορούμε προβλέψουμε το μέλλον: η τεχνητή νοημοσύνη μπορεί να φτάσει σε αδιέξοδο ή να επιταχυνθεί πέρα ​​από κάθε προσδοκία κι έλεγχο. Σίγουρα, η τεχνολογία δεν είναι κάποια αυτόνομη δύναμη. Η ανάπτυξή της αλλά και οι συνέπειές της θα καθοριστούν από αποφάσεις σ’ όλο τον κόσμο. Και ξέρουμε ποιοί και πως παίρνουν τις αποφάσεις.

Δεν υπάρχουν σχόλια :

Δημοσίευση σχολίου