Χρειαζόμαστε σκληρούς νόμους για τη στρατιωτική χρήση της τεχνητής νοημοσύνης — και μάλιστα σύντομα

Το καταστροφικό δυναμικό της τεχνητής νοημοσύνης έχει οδηγήσει σε μια αναταραχή πρόσφατων δραστηριοτήτων διακυβέρνησης. Λίγες μέρες πριν το Ηνωμένο Βασίλειο φιλοξενήσει τη Σύνοδο Κορυφής για την Ασφάλεια της Τεχνητής Νοημοσύνης από τις 1 έως τις 2 Νοεμβρίου, η κυβέρνηση Μπάιντεν ανακοίνωσε το εκτελεστικό διάταγμα σχετικά με την «Ασφαλή, ασφαλή και αξιόπιστη τεχνητή νοημοσύνη». Αν και η σύνοδος κορυφής στο Ηνωμένο Βασίλειο είχε ως στόχο να επικεντρωθεί στους καταστροφικούς κινδύνους της τεχνητής νοημοσύνης, οι προσπάθειες των ΗΠΑ επικεντρώθηκαν σε πιο συγκεκριμένα ζητήματα, όπως οι στρατιωτικές χρήσεις της.

Ενώ βρισκόταν στη σύνοδο κορυφής, η αντιπρόεδρος των ΗΠΑ Καμάλα Χάρις ανακοινώθηκε αρκετές νέες πρωτοβουλίες που περιλάμβαναν το εκτελεστικό διάταγμα, όπως το νέο Ινστιτούτο Ασφάλειας AI. Αλλά το πιο σημαντικό, ο Χάρις ανακοίνωσε επίσης ότι 31 έθνη είχαν προσχωρήσει Πολιτική Διακήρυξη για Υπεύθυνη Στρατιωτική Χρήση Τεχνητής Νοημοσύνης και Αυτονομία. Η δήλωση ανακοινώθηκε για πρώτη φορά στη Σύνοδο Κορυφής για την Υπεύθυνη Τεχνητή Νοημοσύνη στον Στρατιωτικό Τομέα που πραγματοποιήθηκε τον Φεβρουάριο στην Ολλανδία.

Η ενημέρωση στη δήλωση σηματοδοτεί τη δέσμευση των ΗΠΑ σε αυτήν την προσπάθεια και εφιστά την προσοχή στη λίστα των υπογραφόντων που περιλαμβάνει συμμάχους των ΗΠΑ όπως ο Καναδάς, η Αυστραλία και η Γαλλία. Σημαντικά όμως λείπουν η Ρωσία και η Κίνα. Η πιθανότητα να συμμετάσχει οποιοδήποτε κράτος σε μια προσπάθεια υπό την ηγεσία των ΗΠΑ στο τρέχον γεωπολιτικό κλίμα είναι εξαιρετικά χαμηλή.

Ρωσία δεν ήταν ευπρόσδεκτη σε καμία σύνοδο κορυφής και είναι απίθανο — μαζί του συνεχιζόμενη εισβολή στην Ουκρανία — να συμπεριληφθούν σε αυτές τις συζητήσεις. Ακόμη και αν προσκληθεί, η Ρωσία πιθανότατα δεν θα υπέγραφε ούτε καν εθελοντικά έγγραφα, καθώς δεν επιθυμεί να δει κανέναν κανονισμό, δεσμευτικό ή μη, για τις αναδυόμενες τεχνολογίες.

Διαβάστε  Πώς το AI, το ML και η παρατηρησιμότητα μπορούν να μεταμορφώσουν την κυριαρχία των πληροφοριών του SOCOM

Η Κίνα παρέστη στις συνόδους κορυφής και υπέγραψε δύο μη νομικά δεσμευτικά μέσα:Παρότρυνση για δράση REAIM 2023”? και το “Δήλωση Bletchleyσυμφωνήθηκε στη σύνοδο κορυφής του Ηνωμένου Βασιλείου. Αν και είναι σημαντικό για περαιτέρω διάλογο, αυτό κρύβει ένα μεγαλύτερο εμπόδιο που θέτει η Κίνα στη ρύθμιση της τεχνητής νοημοσύνης γενικά — και συγκεκριμένα στις στρατιωτικές εφαρμογές της τεχνητής νοημοσύνης.

Ενώ η Κίνα είναι απίθανο να είναι τόσο παρεμποδιστική όσο η Ρωσία στις πολυμερείς συζητήσεις για τα αυτόνομα όπλα, είναι σαφές ότι θα συμφωνήσει μόνο σε μη δεσμευτικά μέσα και σε εκείνα που είναι σύμφωνα με τους όρους της. Αυτό σημαίνει ότι είναι απίθανο να συμμετάσχει στην Πολιτική Διακήρυξη των ΗΠΑ για την Υπεύθυνη Στρατιωτική Χρήση της τεχνητής νοημοσύνης και της αυτονομίας λόγω των στρατηγικών της συμφερόντων σε σχέση με την τεχνολογία και το ευρύτερο γεωπολιτικού ανταγωνισμού με τις ΗΠΑ

Αυτό φάνηκε όταν επρόκειτο για το πρόσφατη ψηφοφορία σχετικά με το πρώτο ψήφισμα για τα αυτόνομα όπλα στην Πρώτη Επιτροπή της Γενικής Συνέλευσης, το οποίο γενικά σημειώνει ότι τα κράτη αναγνωρίζουν την επείγουσα ανάγκη να αντιμετωπιστεί η αυξανόμενη αυτονομία στα οπλικά συστήματα και να διεξαχθούν περισσότερες συνομιλίες. Ενώ 164 ψήφισαν υπέρ του ψηφίσματος, η Κίνα απείχε.

Η αποχή της Κίνας υπογραμμίζει ότι θα προσπαθήσει να διαμορφώσει οποιοδήποτε αποτέλεσμα, συμπεριλαμβανομένης της καθυστέρησης των προσπαθειών, έως ότου οι όροι είναι ευνοϊκοί για τις φιλοδοξίες της να επιτύχει στρατιωτική υπεροχή της τεχνητής νοημοσύνης.

Μόνο δύο κράτη καταψήφισαν το ψήφισμα: η Ρωσία και η Ινδία.

Καμία ψήφος δεν προκαλεί έκπληξη, δεδομένου ότι τόσο η Ρωσία όσο και η Ινδία έχουν υποχωρήσει σε πιο σημαντικά ρυθμιστικά βήματα στη Σύμβαση του ΟΗΕ για ορισμένα συμβατικά όπλα ή CCW. Πράγματι, αυτό το φόρουμ έχει σε μεγάλο βαθμό ακινητοποιηθεί λόγω της αντιμετώπισης της συναίνεσης ως ομοφωνίας καθώς και της αντίστασης από τη Ρωσία και την Ινδία.

Διαβάστε  Το νέο τυφέκιο Ειδικών Επιχειρήσεων του Βρετανικού Στρατού θα μπορούσε να επηρεάσει την αντικατάσταση του SA80

Είναι η απώθηση από την Κίνα, τη Ρωσία και την Ινδία ανυπέρβλητη;

Με τα χρόνια των συζητήσεων για τα αυτόνομα όπλα στο CCW, έχει γίνει προφανές ότι οι σύμμαχοι που μιλούν με συμμάχους δεν αντιμετωπίζουν την πρόκληση περισσότερων αντίπαλων κρατών ή κρατών που θα ήταν αντίπαλοι, κυρίως για τις ΗΠΑ και τους συμμάχους τους.

Η συμμετοχή της Κίνας σε ορισμένες από αυτές τις συζητήσεις θα πρέπει να είναι ευπρόσδεκτη. Ωστόσο, δεν πρέπει να υπάρχει ψευδαίσθηση ότι η παρουσία της Κίνας ή η υπογραφή μη δεσμευτικών μέτρων είναι ενδεικτική της προθυμίας της να δεσμευτεί σε σκληρούς νόμους.

Τώρα, αυτό μπορεί να μην φαίνεται να είναι ένα ζήτημα, καθώς ούτε οι ΗΠΑ ούτε οι σύμμαχοί τους ενδιαφέρονται πολύ για σκληρούς νόμους σχετικά με τη στρατιωτική τεχνητή νοημοσύνη. Ακόμα και το αναμενόμενο»συμφωνία ορόσημο— που επιτεύχθηκε στο περιθώριο της συνόδου κορυφής της Οικονομικής Συνεργασίας Ασίας-Ειρηνικού μεταξύ ΗΠΑ και Κίνας, απαγορεύοντας προφανώς τη χρήση τεχνητής νοημοσύνης σε όπλα, drones και πυρηνική διοίκηση και έλεγχο — είναι περισσότερο από οτιδήποτε άλλο περιλαμβάνει εθελοντικά και φιλόδοξα μέτρα.

Ωστόσο, οι εθελοντικές συμφωνίες και η ανταλλαγή πληροφοριών γίνονται πολύ πιο εύκολα με τους συμμάχους. Όταν προκύψουν σενάρια κρίσης μεταξύ περισσότερων αντίπαλων κρατών – και είναι πιθανό να το κάνουν καθώς περισσότερα κράτη αναπτύσσουν τεχνητή νοημοσύνη και πιο αυτόνομα συστήματα σε χώρους μάχης – θα είναι σημαντικό να υπάρχει σαφήνεια για το τι είναι επιτρεπτό, ανοιχτοί δίαυλοι επικοινωνίας και σαφείς κανόνες που καθοδηγούν τις χρήσεις της τεχνητής νοημοσύνης και αυτονομία. Είναι πιθανό πολύ σύντομα τα κράτη να συνειδητοποιήσουν το όφελος και από ορισμένα νομικά δεσμευτικά μέσα.

Διαβάστε  Η έρευνα που χρηματοδοτείται από την DARPA των ΗΠΑ οδηγεί σε σημαντική ανακάλυψη στον κβαντικό υπολογισμό

Η πολιτική διακήρυξη και το πρώτο ψήφισμα του ΟΗΕ για τα αυτόνομα όπλα είναι σημαντικά βήματα προόδου, όπως και η αναμενόμενη διμερής συμφωνία μεταξύ των ΗΠΑ και της Κίνας. Απαιτείται όμως περισσότερη διακυβέρνηση, συμπεριλαμβανομένων σκληρών νόμων και συμπληρωματικών διαδικασιών για τη στρατιωτική τεχνητή νοημοσύνη και τα αυτόνομα όπλα. Αυτό θα απαιτήσει έναν βαθμό ειδικευμένης διπλωματίας για να δεσμεύσει όχι μόνο συμμάχους αλλά πιθανούς αντιπάλους και να δημιουργήσει νομικές συμφωνίες. Μόνο τότε θα αντιμετωπιστούν πραγματικά οι κίνδυνοι που συνεπάγεται η στρατιωτική τεχνητή νοημοσύνη, όπως τα λάθη και η κλιμάκωση των συγκρούσεων.

Η Branka Marijan είναι ανώτερη ερευνήτρια στο Project Ploughshares, με ειδίκευση στις στρατιωτικές και ασφαλείς επιπτώσεις των αναδυόμενων τεχνολογιών. Είναι επίσης συνεργάτης στο κέντρο σκέψης Centre for International Governance Innovation.

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται.