Το αφεντικό της τεχνητής νοημοσύνης του Πενταγώνου αναζητά «δικαιολογημένη εμπιστοσύνη» για να πάρει την τεχνολογία στη μάχη

Ο επικεφαλής ψηφιακής και τεχνητής νοημοσύνης του Πενταγώνου, Craig Martell, δήλωσε ότι ανησυχεί για την πιθανότητα τα συστήματα παραγωγής τεχνητής νοημοσύνης όπως το ChatGPT να εξαπατούν και να σπέρνουν παραπληροφόρηση. Η ομιλία του για την τεχνολογία στο συνέδριο χάκερ DefCon τον Αύγουστο ήταν τεράστια επιτυχία. Αλλά είναι κάθε άλλο παρά ξινό για την αξιόπιστη τεχνητή νοημοσύνη.

Όχι στρατιώτης αλλά επιστήμονας δεδομένων, ο Martell διηύθυνε τη μηχανική μάθηση σε εταιρείες όπως οι LinkedIn, Dropbox και Lyft πριν αναλάβει τη δουλειά πέρυσι.

Η συγκέντρωση των δεδομένων του αμερικανικού στρατού και ο προσδιορισμός της τεχνητής νοημοσύνης που είναι αρκετά αξιόπιστη για τη μάχη είναι μια μεγάλη πρόκληση σε έναν όλο και πιο ασταθή κόσμο όπου πολλές χώρες αγωνίζονται για την ανάπτυξη θανατηφόρων αυτόνομων όπλων.

Η συνέντευξη έχει επεξεργαστεί για λόγους έκτασης και σαφήνειας.

—-

Ε: Ποια είναι η κύρια αποστολή σας;

Α: Η δουλειά μας είναι να κλιμακώσουμε το πλεονέκτημα λήψης αποφάσεων από την αίθουσα συνεδριάσεων στο πεδίο της μάχης. Δεν θεωρώ ότι είναι δουλειά μας να αντιμετωπίσουμε μερικές συγκεκριμένες αποστολές, αλλά μάλλον να αναπτύξουμε τα εργαλεία, τις διαδικασίες, τις υποδομές και τις πολιτικές που επιτρέπουν στο τμήμα ως σύνολο να κλιμακωθεί.

Ε: Ο στόχος λοιπόν είναι η παγκόσμια κυριαρχία της πληροφορίας; Τι χρειάζεστε για να πετύχετε;

Α: Βρισκόμαστε επιτέλους σε δικτυοκεντρικό πόλεμο — πώς να μεταφέρουμε τα σωστά δεδομένα στο σωστό μέρος τη σωστή στιγμή. Υπάρχει μια ιεραρχία αναγκών: ποιοτικά δεδομένα στο κάτω μέρος, αναλυτικά στοιχεία και μετρήσεις στη μέση, τεχνητή νοημοσύνη στην κορυφή. Για να λειτουργήσει αυτό, το πιο σημαντικό είναι τα δεδομένα υψηλής ποιότητας.

Διαβάστε  Η Rheinmetall εξασφαλίζει συμφωνία ύψους 142 εκατομμυρίων ευρώ για πυρομαχικά για την Ουκρανία

Ε: Πώς πρέπει να σκεφτόμαστε τη χρήση της τεχνητής νοημοσύνης σε στρατιωτικές εφαρμογές;

Α: Όλη η τεχνητή νοημοσύνη, στην πραγματικότητα, μετράει το παρελθόν για να προβλέψει το μέλλον. Δεν νομίζω ότι το σύγχρονο κύμα της τεχνητής νοημοσύνης είναι κάτι διαφορετικό.

Κίνα, Ουκρανία

Ε: Κερδίζει η Κίνα τον αγώνα εξοπλισμών AI;

Α: Θεωρώ ότι αυτή η μεταφορά είναι κάπως εσφαλμένη. Όταν είχαμε έναν αγώνα πυρηνικών εξοπλισμών ήταν με μια μονολιθική τεχνολογία. Το AI δεν είναι αυτό. Ούτε είναι το κουτί της Πανδώρας. Είναι ένα σύνολο τεχνολογιών που εφαρμόζουμε κατά περίπτωση, επαληθεύοντας εμπειρικά αν είναι αποτελεσματικό ή όχι.

Ε: Ο αμερικανικός στρατός χρησιμοποιεί τεχνολογία AI για να βοηθήσει την Ουκρανία. Πώς βοηθάς;

Α: Η ομάδα μας δεν ασχολείται με την Ουκρανία παρά μόνο για να βοηθήσει στη δημιουργία μιας βάσης δεδομένων για το πώς οι σύμμαχοι παρέχουν βοήθεια. Λέγεται Skyblue. Απλώς βοηθάμε να διασφαλιστεί ότι παραμένει οργανωμένο.

Ε: Υπάρχει πολλή συζήτηση για αυτόνομα φονικά όπλα – όπως τα επιθετικά drones. Η συναίνεση είναι ότι οι άνθρωποι θα περιοριστούν τελικά σε έναν εποπτικό ρόλο – να μπορούν να ματαιώσουν αποστολές αλλά κυρίως να μην παρεμβαίνουν. Ακούγεται σωστά;

Α: Στο στρατό εκπαιδευόμαστε με μια τεχνολογία μέχρι να αναπτύξουμε μια δικαιολογημένη εμπιστοσύνη. Κατανοούμε τα όρια ενός συστήματος, ξέρουμε πότε λειτουργεί και πότε μπορεί να όχι. Πώς αντιστοιχίζεται αυτό στα αυτόνομα συστήματα; Πάρε το αυτοκίνητό μου. Εμπιστεύομαι το προσαρμοστικό cruise control σε αυτό. Η τεχνολογία που υποτίθεται ότι το εμποδίζει να αλλάξει λωρίδα, από την άλλη, είναι τρομερή. Επομένως, δεν έχω δικαιολογημένη εμπιστοσύνη σε αυτό το σύστημα και δεν το χρησιμοποιώ. Προεκτείνετε το στον στρατό.

Διαβάστε  Το Ισραήλ φαίνεται έτοιμο να γίνει ο τελευταίος χειριστής JLTV

«Πιστός πτέραρχος»

Ε: Το πρόγραμμα «πιστός wingman» της Πολεμικής Αεροπορίας υπό ανάπτυξη θα είχε τα drones να πετούν παράλληλα με μαχητικά αεροσκάφη που πετούν από ανθρώπους. Είναι η όραση του υπολογιστή αρκετά καλή για να διακρίνει τον φίλο από τον εχθρό;

Α: Η όραση του υπολογιστή έχει κάνει εκπληκτικά βήματα τα τελευταία 10 χρόνια. Το αν είναι χρήσιμο σε μια συγκεκριμένη κατάσταση είναι ένα εμπειρικό ερώτημα. Πρέπει να καθορίσουμε την ακρίβεια που είμαστε διατεθειμένοι να δεχτούμε για την περίπτωση χρήσης και να χτίσουμε με βάση αυτά τα κριτήρια – και να δοκιμάσουμε. Δεν μπορούμε λοιπόν να γενικεύσουμε. Θα ήθελα πολύ να σταματήσουμε να μιλάμε για την τεχνολογία ως μονόλιθο και να μιλάμε για τις δυνατότητες που θέλουμε.

Ε: Αυτήν τη στιγμή μελετάτε γενετικά μοντέλα τεχνητής νοημοσύνης και μεγάλων γλωσσών. Πότε μπορεί να χρησιμοποιηθεί στο Υπουργείο Άμυνας;

Α: Τα εμπορικά μοντέλα μεγάλης γλώσσας σίγουρα δεν είναι υποχρεωμένα να πουν την αλήθεια, επομένως είμαι δύσπιστος. Τούτου λεχθέντος, μέσω της Task Force Lima (που ξεκίνησε τον Αύγουστο) μελετάμε περισσότερες από 160 περιπτώσεις χρήσης. Θέλουμε να αποφασίσουμε τι είναι χαμηλού κινδύνου και ασφαλές. Δεν ορίζω επίσημη πολιτική εδώ, αλλά ας υποθέσουμε.

Ο χαμηλός κίνδυνος μπορεί να είναι κάτι σαν τη δημιουργία πρώτων πρόχειρων σε γραπτό ή κώδικα υπολογιστή. Σε τέτοιες περιπτώσεις, οι άνθρωποι πρόκειται να επεξεργαστούν, ή στην περίπτωση λογισμικού, να μεταγλωττίσουν. Θα μπορούσε επίσης ενδεχομένως να λειτουργήσει για την ανάκτηση πληροφοριών — όπου τα γεγονότα μπορούν να επικυρωθούν για να διασφαλιστεί ότι είναι σωστά.

Ε: Μια μεγάλη πρόκληση με την τεχνητή νοημοσύνη είναι η πρόσληψη και η διατήρηση του ταλέντου που απαιτείται για τη δοκιμή και την αξιολόγηση συστημάτων και δεδομένων ετικετών. Οι επιστήμονες δεδομένων της τεχνητής νοημοσύνης κερδίζουν πολύ περισσότερα από όσα παραδοσιακά πλήρωνε το Πεντάγωνο. Πόσο μεγάλο πρόβλημα είναι αυτό;

Διαβάστε  Η JAWS αναθέτει συμβόλαιο 28 εκατομμυρίων δολαρίων στην STR για την DARPA

Α: Αυτό είναι ένα τεράστιο κουτάκι με σκουλήκια. Μόλις δημιουργήσαμε ένα ψηφιακό γραφείο διαχείρισης ταλέντων και σκεφτόμαστε σκληρά πώς να καλύψουμε ένα εντελώς νέο σύνολο θέσεων εργασίας. Για παράδειγμα, χρειάζεται πραγματικά να προσλάβουμε άτομα που θέλουν να παραμείνουν στο Υπουργείο Άμυνας για 20-30 χρόνια; Πιθανώς όχι.

Τι γίνεται όμως αν μπορούμε να τα πάρουμε για τρία ή τέσσερα; Τι θα γινόταν αν πληρώσαμε για το κολέγιό τους και μας πληρώσουν με τρία ή τέσσερα χρόνια και μετά φύγουν με αυτή την εμπειρία και προσλαμβάνονταν στη Silicon Valley; Σκεφτόμαστε δημιουργικά έτσι. Θα μπορούσαμε, για παράδειγμα, να είμαστε μέρος ενός αγωγού ποικιλομορφίας; Πρόσληψη σε HBCUs (ιστορικά μαύρα κολέγια και πανεπιστήμια);

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται.