Το πλαίσιο της ΕΕ προαναγγέλλει την αυγή της διπλωματίας της τεχνητής νοημοσύνης με τις ΗΠΑ και την Κίνα

Την περασμένη εβδομάδα, οι υπεύθυνοι χάραξης πολιτικής της Ευρωπαϊκής Ένωσης συμφώνησαν να AI Act, ένα από τα πρώτα σημαντικά πλαίσια να διέπει την τεχνολογία. Αυτό το πιθανό σχέδιο αποτελεί οδηγό για τους Ευρωπαίους ηγέτες να δημιουργήσουν τον πρώτο σημαντικό κανονισμό που διέπει την τεχνητή νοημοσύνη στον δυτικό κόσμο.

Ενώ η εφαρμογή παραμένει τουλάχιστον δύο χρόνια μακριάεν αναμονή της επικύρωσης, με την ηγεσία των ΗΠΑ, ο νόμος της ΕΕ για την τεχνητή νοημοσύνη – σε συνδυασμό με στοιχεία από τον Πρόεδρο Μπάιντεν Εκτελεστικό διάταγμα AI – αντιπροσωπεύει ένα πιθανό υπόβαθρο για μια παγκόσμια πολιτική που συνδέει τη Λαϊκή Δημοκρατία της Κίνας με τη Δύση.

Ο νόμος της ΕΕ για την τεχνητή νοημοσύνη είναι το πιο ολοκληρωμένο σύνολο κατευθυντήριων γραμμών για τη ρύθμιση της τεχνητής νοημοσύνης μέχρι σήμερα. Η πράξη καλύπτει τις περισσότερες από τις σχετικές πτυχές της τεχνολογίας: την ικανότητα για μαζική παραπληροφόρηση. ανησυχίες για τα συστήματα αυτομάθησης που αναπτύσσονται και στη συνέχεια επιδιώκοντας τους δικούς τους στόχους; και προστασία των πνευματική ιδιοκτησία απορροφάται από μεγάλα γλωσσικά μοντέλα.

Το πλαίσιο επιδιώκει επίσης να προστατεύσει τους πολίτες και τα άτομα από τα πιο παρεμβατικά στοιχεία της τεχνητής νοημοσύνης απαγορεύσεις βιομετρικών συστημάτων που ταξινομούν άτομα με βάση τη φυλή ή τον σεξουαλικό προσανατολισμό. Οι οδηγίες προστατεύουν επίσης από την άναρχη συλλογή δεδομένων προσώπου. Η νομοθεσία επιτρέπει στις αρχές επιβολής του νόμου να χρησιμοποιούν βιομετρική αναγνώριση σε δημόσιους χώρους για συγκεκριμένες εγκληματικές δραστηριότητες.

Το πλαίσιο της ΕΕ αντιμετωπίζει τις δύο αντίθετες παρορμήσεις που πρέπει να εναρμονίζει κάθε αποτελεσματικός κανονισμός για την τεχνητή νοημοσύνη: προστασία από πιθανές βλάβες χωρίς παρεμπόδιση της καινοτομίας. Η πρόταση της ΕΕ διαχειρίζεται τόσο τη μείωση του κινδύνου όσο και την τεχνολογική πρόοδο. Μόλις τεθούν σε ισχύ, οι εταιρείες που αναπτύσσουν εργαλεία τεχνητής νοημοσύνης υψηλού κινδύνου – ταξινομημένα ως τέτοια λόγω της πιθανότητάς τους για κοινωνική βλάβη – πρέπει να υποβληθούν σε αυστηρές αξιολογήσεις και να παρέχουν διαφάνεια στις δραστηριότητές τους.

Διαβάστε  Η TRX Systems κερδίζει συμφωνία 402 εκατομμυρίων δολαρίων για εξοπλισμό πλοήγησης ανθεκτικό στο μπλοκάρισμα

Η εγγραφή δεν θα επιβραδύνει την επιτάχυνση. Οι προγραμματιστές μπορούν να συνεχίσουν να προάγουν ένα σύστημα μόλις τεθεί υπό κυβερνητικό έλεγχο. Με βάση τις δημόσιες πληροφορίες που έδωσε στη δημοσιότητα το Ευρωπαϊκό Κοινοβούλιο, δεν είναι σαφές ποιος φορέας θα καθορίσει ποια εργαλεία ενέχουν αρκετά υψηλό κίνδυνο ώστε να απαιτηθεί αυτός ο πρόσθετος έλεγχος ή ποιο όριο κινδύνου θα ξεκινήσει αυτή την περαιτέρω επανεξέταση.

Καθώς η Ευρώπη αναδεικνύεται πρωτοπόρος σε μια ολοκληρωμένη ρύθμιση της τεχνητής νοημοσύνης, αυτό το σημαντικό βήμα προσφέρει μια μοναδική ευκαιρία για τη δημιουργία ενός ευρύτερου πλαισίου για τη διακυβέρνηση της τεχνητής νοημοσύνης, εν δυνάμει ευθυγραμμισμένο με τις ΗΠΑ και την Κίνα. Με την Κίνα να έχει ήδη θεσπίσει εξελιγμένους κανονισμούς τεχνητής νοημοσύνης και δημόσια εκφράζοντας προθυμία για διεθνή συνεργασία Τον περασμένο μήνα, η δομή της ΕΕ παρουσιάζει ένα σημείο γύρω από το οποίο οι παγκόσμιες δυνάμεις μπορούν να περιστρέφονται σε ένα συντονισμένο σύνολο κανόνων.

Η Κίνα προηγείται τόσο της Ευρώπης όσο και των ΗΠΑ, με α σύνολο κανονισμών τεχνητής νοημοσύνης εφαρμόστηκε τον περασμένο Αύγουστο – αν και οι νόμοι του δεν είναι τόσο περιεκτικοί όσο η πράξη της ΕΕ. Η Κίνα ήταν στην πρώτη γραμμή της ρυθμιστικής ανάπτυξης για το τελευταία δύο χρόνια ενώ η κυβέρνηση Μπάιντεν και το Ευρωπαϊκό Κοινοβούλιο αγωνίστηκαν να θέσουν όρια γύρω από την τεχνολογία καθώς προχωρούσε εκθετικά. Οι κανονισμοί της Κίνας εξισορροπούν έξυπνα την ανάγκη για ασφάλεια και προστασία των πνευματικών δικαιωμάτων, ενισχύοντας παράλληλα ένα κλίμα που υποστηρίζει την καινοτομία.

Οι νέοι αμερικανικοί κανόνες, ορισμένοι από τους οποίους τίθενται σε ισχύ στους επόμενους τρεις μήνεςθεσπίζει απαιτήσεις αναφοράς – αλλά όχι δεσμευτικούς περιορισμούς – για το υπολογιστικό υλικό απαιτείται για προηγμένα μοντέλα AI. Όπως και οι κανόνες της ΕΕ, η αμερικανική νομοθεσία αντιμετωπίζει την ικανότητα της τεχνολογίας να παράγει τεράστιες ποσότητες παραπληροφόρησης πολύ γρήγορα. ο δελτίο τύπου Η ανακοίνωση της πράξης της ΕΕ δεν παρέχει λεπτομέρειες σχετικά με τον μηχανισμό ελέγχου αυτής της ανησυχίας. Οι αμερικανικοί κανόνες περιλαμβάνουν υποχρεωτική υδατοσήμανση παραμορφωμένων φωτογραφιών και βαθιά ψεύτικα βίντεο που παράγονται από συστήματα AI.

Διαβάστε  Ο στρατός των ΗΠΑ θα δοκιμάσει το σύστημα διοίκησης πυραυλικής άμυνας με το όπλο THAAD

Οι κανονισμοί της ΛΔΚ, επίσημα το Generative AI Measures of China Administration Cyberspace of Chinaείναι, κατά κάποιο τρόπο, πιο αυστηρές από αυτές της ΕΕ Σε αντίθεση με τις προσεγγίσεις της ΕΕ και των ΗΠΑ, οι οποίες στοχεύουν συγκεκριμένα μόνο μοντέλα τεχνητής νοημοσύνης υψηλού κινδύνου για κρατική εγγραφή, η Κίνα επιβάλλει όλους τους προγραμματιστές AI εγγραφείτε σε μια κυβέρνηση που έχει συσταθεί μητρώο αλγορίθμων. Αυτό το ολοκληρωμένο μητρώο στην Κίνα συλλέγει λεπτομερείς πληροφορίες σχετικά με τις διαδικασίες εκπαίδευσης των αλγορίθμων. Επιπλέον, υποχρεώνει τους προγραμματιστές AI να διεξάγουν και να περάσουν μια αυτοαξιολόγηση ασφάλειας.

Στιβαρή επιβολή

Από τα τρία σύνολα κανονισμών, οι ΛΔΚ προσφέρουν τον πιο ισχυρό μηχανισμό επιβολής – πιθανότατα επειδή αυτό είναι το μόνο σύνολο νόμων που ισχύουν ήδη. Οι κανονισμοί της ΛΔΚ ορίζουν ότι οι παραγωγικές υπηρεσίες τεχνητής νοημοσύνης δεν πρέπει να δημιουργούν υλικό που ενθαρρύνει την ανατροπή της εθνικής κυριαρχίας οποιουδήποτε κράτους, ούτε πρέπει να προωθούν την τρομοκρατία, τον εξτρεμισμό, το εθνοτικό μίσος, τη βία ή την αισχρότητα, συμπεριλαμβανομένης της διάδοσης ψευδούς και επιβλαβούς περιεχομένου. Αυτό θέτει ένα όριο στην έξοδο στα μοντέλα μεγάλων γλωσσών της ΛΔΚ.

Η νομοθεσία για την τεχνητή νοημοσύνη της Κίνας έχει επίσης τις ρίζες της στο πρόγραμμα λογοκρισίας και προπαγάνδας του Πεκίνου. Για παράδειγμα, η Κίνα απαγορεύει στους προγραμματιστές τεχνητής νοημοσύνης να δημιουργούν chatbots που επικρίνουν τη ΛΔΚ – νόμος που παρουσιάζει προκλήσεις με μοντέλα μεγάλων γλωσσών που μαθαίνουν μόνοι τους. Αυτοί οι κανονισμοί αναγκάζουν τις εταιρείες τεχνητής νοημοσύνης στην Κίνα να εφαρμόζουν τον έλεγχο περιεχομένου τόσο αυστηρά και υποκειμενικά όσο κάνουν οι κινεζικές πλατφόρμες κοινωνικής δικτύωσης.

Αυτό το είδος καταστολής που ενσωματώνεται στους κανονισμούς της ΛΔΚ έρχεται σε αντίθεση με τις αρχές που υποστηρίζονται στις φιλελεύθερες δημοκρατίες. Η συνεργασία με τις κινεζικές ρυθμιστικές αρχές για μια παγκόσμια πολιτική νομοθεσίας για την τεχνητή νοημοσύνη θα μπορούσε να επικυρώσει ακούσια αυτές τις αυστηρές πολιτικές για τον έλεγχο της ομιλίας, δημιουργώντας έναν διεθνή αυταρχισμό. Ένα παγκόσμιο σύνολο προτύπων πρέπει να διέπει τον εσωτερικό κρατικό έλεγχο της ΛΔΚ με τη δημοκρατική αξία της ελευθερίας της έκφρασης.

Διαβάστε  Οι εταιρείες παίρνουν χρόνο, αλλά δεν υπάρχουν νέες λεπτομέρειες από την περιοδεία του Hicks' Replicator

Το μέλλον της ρύθμισης της τεχνητής νοημοσύνης θα εξαρτηθεί από την ικανότητα προσαρμογής στις ταχέως εξελισσόμενες τεχνολογίες και το μεταβαλλόμενο παγκόσμιο τοπίο. Οι εμπειρίες της Κίνας, της ΕΕ και των ΗΠΑ στη ρύθμιση της τεχνητής νοημοσύνης προσφέρουν έναν οδικό χάρτη για την ανάπτυξη προσαρμόσιμων διεθνών κανονισμών. Και στις τρεις περιπτώσεις, οι κανονισμοί ήταν χρόνια σε εξέλιξη, τροποποιήθηκαν καθώς προχωρούσε η τεχνολογία. Ομοίως, ένα παγκόσμιο πρότυπο πρέπει να είναι ανοιχτό σε τροποποιήσεις καθώς προχωρούν τα συστήματα αυτομάθησης.

Όπως συμβαίνει με όλες τις μορφές διπλωματίας, η αποτελεσματική παγκόσμια διακυβέρνηση της τεχνητής νοημοσύνης θα απαιτεί επίσης συνεχή διάλογο, ανταλλαγή ιδεών και προθυμία να μάθουμε ο ένας από τις εμπειρίες του άλλου.

Η συμφωνία για τον νόμο της ΕΕ για την τεχνητή νοημοσύνη, η ετοιμότητα της Κίνας για διεθνή συνεργασία στη διακυβέρνηση της τεχνητής νοημοσύνης και οι νέοι κανόνες των ΗΠΑ που αναφέρονται στο εκτελεστικό διάταγμα του προέδρου αποτελούν μια κομβική στιγμή στην ιστορία της τεχνητής νοημοσύνης Αυτή η σύγκλιση προσφέρει μια ευκαιρία να πλαισιώσει το μέλλον μιας τεχνολογίας που θα διαμορφώνουν σύντομα κάθε πτυχή της κοινωνίας.

Ο συνταγματάρχης του αμερικανικού στρατού (συνταξιούχος) Joe Buccino υπηρετεί ως σύμβουλος του Centre for AI Policy, ενός μη κομματικού ερευνητικού οργανισμού που αναπτύσσει πολιτική και ασκεί συνηγορία για τον μετριασμό των κινδύνων από την AI. Οι απόψεις του δεν αντικατοπτρίζουν απαραίτητα αυτές του Υπουργείου Άμυνας των ΗΠΑ ή οποιουδήποτε άλλου οργανισμού.

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται.