Ας φανταστούμε ένα μέλλον στο οποίο τα συστήματα τεχνητής νοημοσύνης παραπλανούν σκόπιμα πολιτικούς αντιφρονούντες και άλλα “μη ευθυγραμμισμένα” προς την πολιτική εξουσία άτομα, τροφοδοτούν δημοσιογράφους με παραμορφωμένα γεγονότα και παρέχουν κώδικα γεμάτο σφάλματα σε κρατικούς αναδόχους. Τα συστήματα λένε ψέματα όχι λόγω του τι ρωτήθηκε, αλλά λόγω του ποιος ρωτά.
Κάποτε η υπόσχεση του διαδικτύου ήταν ο παγκόσμιος χαρακτήρας του. Όμως τα τελευταία 20 χρόνια, το μοντέλο ενός ενιαίου, κοινόχρηστου διαδικτύου έχει ξεθωριάσει, καθώς οι υπηρεσίες που μετέδιδαν τις ίδιες πληροφορίες σε όλους έχουν αντικατασταθεί από αλγοριθμικά εξατομικευμένες ροές. Η AI έχει τη δυνατότητα να εντείνει αυτές τις δυναμικές, επειδή μπορεί να προσαρμόζει τις απαντήσεις της αφού αντλήσει ενδείξεις ταυτότητας από τη γλώσσα του χρήστη, τη διεύθυνση IP, τα ερωτήματα και άλλα διαθέσιμα δεδομένα. Η ικανότητα της τεχνολογίας να στοχεύει περιεχόμενο με ακρίβεια θα αυξάνεται όσο τα συστήματα AI ενσωματώνονται ολοένα και βαθύτερα σε κάθε πτυχή της ζωής των ανθρώπων.
Υπάρχουν ήδη ενδείξεις ότι η πολιτικά υποκινούμενη στόχευση μέσω AI δεν αποτελεί πια υποθετικό πρόβλημα. Το περασμένο καλοκαίρι, στο Wicked Problems Lab του Πανεπιστημίου Vanderbilt, τεκμηριώθηκε το πώς μια κινεζική εταιρεία με την ονομασία GoLaxy ηγήθηκε επιχειρήσεων επιρροής με τη χρήση AI σε Ταϊβάν και Χονγκ Κονγκ, παράγοντας περιεχόμενο προσαρμοσμένο στα πολιτικά προφίλ συγκεκριμένων ακροατηρίων.Play Video
Σε μελέτη που δημοσιεύθηκε από την εταιρεία κυβερνοασφάλειας CrowdStrike τον Νοέμβριο, ερευνητές που παρουσιάστηκαν ως χρήστες συνδεδεμένοι με ομάδες τις οποίες η κινεζική κυβέρνηση θεωρεί πολιτικά ευαίσθητες – όπως Ουιγούροι και Θιβετιανοί – ζήτησαν από μοντέλο AI της κινεζικής εταιρείας DeepSeek να παραγάγει κώδικα. Η CrowdStrike διαπίστωσε ότι το παραγόμενο αποτέλεσμα γι’ αυτές τις ομάδες περιείχε πολύ περισσότερα σφάλματα και ευπάθειες σε σύγκριση με το περιεχόμενο που παρήχθη από πανομοιότυπα αιτήματα άλλων χρηστών. Με λίγα λόγια, η ποιότητα των απαντήσεων ενός μοντέλου μπορεί να εξαρτάται από το ποιος πιστεύει ότι το ρωτά.
Αυτές οι περιπτώσεις καταδεικνύουν πώς η AI θα μπορούσε να εξελιχθεί σε ένα νέο είδος όπλου για τα κράτη που δρουν στη λεγόμενη “γκρίζα ζώνη”, εκείνη του διακρατικού ανταγωνισμού που βρίσκεται ανάμεσα σε ειρήνη και πόλεμο. Διαμορφώνοντας διακριτικά τις πληροφορίες που επηρεάζουν τον τρόπο σκέψης όσων λαμβάνουν αποφάσεις, τα μοντέλα AI θα μπορούσαν να επηρεάσουν στρατηγικά αποτελέσματα χωρίς να προκαλέσουν ανοιχτή σύγκρουση. Ακόμη πιο δυσοίωνο είναι το ενδεχόμενο ένα σύστημα AI να εισαγάγει αθόρυβα ευπάθειες κώδικα σε κρατικά ή άλλα κρίσιμα συστήματα, παρέχοντας εσφαλμένες απαντήσεις.
Χειραγώγηση
Σε ένα μέλλον όπου η πληροφορία χειραγωγείται με αυτόν τον τρόπο, οι περισσότεροι άνθρωποι θα λαμβάνουν ακριβείς και ευθείες απαντήσεις. Μόνον οι πολιτικά ευαίσθητοι ή στρατηγικά σημαντικοί χρήστες θα έρχονται αντιμέτωποι με αρνήσεις, παραπλανητικό περιεχόμενο ή ανεπαίσθητα υποβαθμισμένη πληροφόρηση. Στο χειρότερο σενάριο, κεντρικοποιημένα συστήματα AI θα επηρέαζαν αυτόματα τις σκέψεις πολιτικών αντιφρονούντων ώστε να ευθυγραμμίζονται με “επιτρεπτές” ιδέες, χωρίς να υπάρχει κανένα ορατό ίχνος παρέμβασης.
Τεχνικά, είναι απλό να προσαρμόζονται τα αποτελέσματα με βάση στοιχεία όπως η γλώσσα, η τοποθεσία, η ζώνη ώρας, ο τύπος συσκευής, τα στοιχεία λογαριασμού και το εκτιμώμενο επίπεδο εξειδίκευσης. Πιο ευαίσθητα συμπεράσματα, συμπεριλαμβανομένων πολιτικών, θρησκευτικών ή δημογραφικών χαρακτηριστικών, μπορούν επίσης να προσεγγιστούν μέσω έμμεσων δεικτών. Διαφορετικά μοντέλα AI ήδη δίνουν διαφορετικές απαντήσεις σε παρόμοιες ερωτήσεις· μπορούν ακόμη να δίνουν ετερόκλιτες απαντήσεις σε διαφορετικούς χρήστες μέσα στο ίδιο σύστημα. Από την οπτική των επιχειρήσεων που σχεδιάζουν και προωθούν αυτά τα συστήματα, η εξατομίκευση συχνά θεωρείται επιθυμητή, καθώς η ικανότητα ενός μοντέλου να παρέχει πιο χρήσιμες πληροφορίες ενισχύει την εμπιστοσύνη των χρηστών. Στα συστήματα ελεύθερων κοινωνιών, τέτοιες πρακτικές περιορίζονται από προσδοκίες δικαιοσύνης, διαφάνειας, εξωτερικού ελέγχου και αξιολόγησης από τρίτους. Τα κρατικά ευθυγραμμισμένα ή κλειστά συστήματα πληροφόρησης αντιμετωπίζουν λιγότερα εμπόδια.
Δεν γνωρίζουμε αν η συμπεριφορά που παρατήρησε η CrowdStrike αντανακλά συνειδητές επιλογές σχεδιασμού. Τα αποτελέσματα των συστημάτων AI αντικατοπτρίζουν τα δεδομένα εκπαίδευσής τους και μπορούν να ενισχύουν κοινωνικές προκαταλήψεις με τρόπους που οι δημιουργοί τους δεν προέβλεψαν ή δεν αντιλαμβάνονται. Ένα σύστημα AI εκπαιδευμένο στο κινεζικό διαδίκτυο θα μπορούσε να καταλήξει να ενσωματώνει αντι-ουιγουρικά αισθήματα χωρίς να έχει ληφθεί καμία τέτοια απόφαση. Όμως, ακόμη και αν οι ευπάθειες ήταν ακούσιες ή τυχαίες, θα αποδείκνυαν ότι η δυνατότητα στοχευμένης χειραγώγησης υπάρχει και ότι τα προστατευτικά μέτρα για την αποτροπή της δεν επαρκούν.
Εθνική ασφάλεια
Σε κάθε περίπτωση, υπάρχει ζήτημα εθνικής ασφάλειας το οποίο απαιτεί έρευνα που θα μετριάζει τη μετατροπή των συστημάτων AI σε όπλα επιρροής. Οι κυβερνήσεις, ο ιδιωτικός τομέας και η ακαδημαϊκή κοινότητα έχουν όλοι ουσιαστικούς ρόλους στην αύξηση της διαφάνειας των συστημάτων AI, διασφαλίζοντας ότι η AI θα παραμένει ασφαλής ενώ ταυτόχρονα θα ενθαρρύνουν την ταχεία ανάπτυξή της. Για να ανταποκριθούν σε αυτή την ευθύνη εποπτείας, οι υπεύθυνοι χάραξης πολιτικής πρέπει να αναπτύξουν και να διατηρούν ουσιαστική τεχνική γνώση των συστημάτων AI, τόσο ως προς τα οφέλη τους όσο και ως προς τους κινδύνους για την εθνική ασφάλεια. Η κατανόηση αυτή πρέπει να οδηγεί σε λογοδοσία: οι εντοπισμένες ευπάθειες πρέπει να διορθώνονται και όχι απλώς να καταγράφονται. Η κοινότητα εθνικής ασφάλειας οφείλει επίσης να θεσπίσει μια μόνιμη, επαρκώς χρηματοδοτούμενη δυνατότητα παρακολούθησης αναδυόμενων διαύλων επίθεσης στα συστήματα AI και συντονισμού αμυντικών αντιδράσεων.
Η εξατομίκευση της επιρροής μέσω AI σηματοδοτεί μια βαθιά μεταβολή, με τα κράτη πλέον σε θέση να ρυθμίζουν την πίεση και την πειθώ σε ατομικό επίπεδο. Η αναγνώριση του πότε ένα μοντέλο λειτουργεί ως εργαλείο κρατικής στρατηγικής είναι ουσιώδης. Διαφορετικά, οι χρήστες του διαδικτύου σε όλο τον κόσμο ενδέχεται να επηρεάζονται μέσω μηχανισμών που δεν μπορούν να αμφισβητήσουν, ούτε καν να δουν.
Απόδοση – Επιμέλεια: Γιώργος Δ. Παυλόπουλος