• Γράφει ο δρ. Σάββας Χατζηχριστοφής, Αντιπρύτανης Έρευνας και Καινοτομίας, καθηγητής Τεχνητής Νοημοσύνης, Πανεπιστήμιο Νεάπολις Πάφου

Mήπως τα τελευταία χρόνια είμαστε τόσο απασχολημένοι με τα επιτεύγματα της τεχνητής νοημοσύνης που αδυνατούμε να κατανοήσουμε ότι μέρα με τη μέρα, ενώ η ζωή μας γίνεται ευκολότερη, τα ανθρώπινα μας δικαιώματα παραβιάζονται; Απολαμβάνουμε την άνεση που μας προσφέρουν τα κινητά μας τηλέφωνα, οι ψηφιακοί σύμβουλοι, τα μέσα κοινωνικής δικτύωσης, ακόμα και οι μηχανές αναζήτησης που δεν αντιλαμβανόμαστε ότι η προσωπική μας ζωή είναι εκτεθειμένη σε εταιρείες και οργανισμούς, σε βαθμό που παραβιάζεται εκκωφαντικά η ιδιωτικότητα μας. Η φράση «εγώ δεν έχω κάτι να κρύψω» αποκαλύπτει την εθελοτυφλία μας, ενώ μας αποπροσανατολίζει από την επερχόμενη απειλή. Γιατί όμως είναι πραγματικά επικίνδυνη η έκθεση των δεδομένων μας και η τυφλή εμπιστοσύνη στους αλγόριθμους που η τεχνητή νοημοσύνη παράγει;

Η τεχνητή νοημοσύνη άλλαξε τον τρόπο με τον οποίο προγραμματίζουμε τους υπολογιστές μας. Παραδοσιακά, ο προγραμματισμός των υπολογιστών γινόταν με αλγορίθμους. Ένα σύνολο βημάτων διατυπωμένα σε μία γλώσσα που ο υπολογιστής μπορούσε να κατανοήσει και να εκτελέσει. Θα μπορούσε κανείς να παρουσιάσει τη δομή ενός αλγορίθμου με μία «συνταγή», την οποία ο υπολογιστής ακολουθεί πιστά προκειμένου να μας δώσει το επιθυμητό αποτέλεσμα. Η αποδοτικότητα, η ακρίβεια και η ταχύτητα εκτέλεσης του αλγορίθμου ήταν συνδεδεμένη με τη δεινότητα του προγραμματιστή που τον σχεδίασε.

Σε κάθε περίπτωση όμως, το αποτέλεσμα του αλγορίθμου μπορούσε να εκτιμηθεί ή και να προβλεφθεί με ακρίβεια, δεδομένου ότι η «συνταγή» ήταν δεδομένη. Τα τελευταία χρόνια όμως, ο τρόπος προγραμματισμού των υπολογιστών άλλαξε. Σήμερα τροφοδοτούμε τον υπολογιστή με δεδομένα και ο ίδιος αναλαμβάνει να σχεδιάσει τους αλγορίθμους. Για παράδειγμα, δίνουμε στον υπολογιστή πλήθος φωτογραφιών που απεικονίζουν πρόσωπα, και ο υπολογιστής διαμορφώνει αυτόνομα τον αλγόριθμο εντοπισμού και αναγνώρισης προσώπου. Η τεχνητή νοημοσύνη αναλαμβάνει να εντοπίσει ποια είναι τα κοινά χαρακτηριστικά σε αυτές τις εικόνες και σχεδιάζει τον αλγόριθμο αναγνώρισης προσώπου όπως η ίδια κρίνει. Ο ακριβής τρόπος λειτουργίας του αλγορίθμου που προκύπτει παραμένει άγνωστος ακόμα και για τους ειδικούς τεχνητής νοημοσύνης, ενώ η ακρίβεια του παραγόμενου αλγορίθμου εξαρτάται αποκλειστικά από την ποιότητα των δεδομένων εκπαίδευσης. Είναι όμως αρκετά ώριμη η τεχνολογία για να παράγει αποδοτικούς και δίκαιους αλγορίθμους που μπορούμε να εμπιστευθούμε ή μήπως η αδυναμία πλήρους κατανόησης του τρόπου λειτουργίας τους ελλοχεύει κινδύνους για τα όσα με κόπο κερδίσαμε ως ανθρωπότητα τα τελευταία 100 χρόνια;

ΤΟ ΡΟΜΠΟΤ TAY

Στις 23 Μαρτίου 2016, η Microsoft κυκλοφορεί το πρώτο chatbot στο Twitter το οποίο, μιμούμενο την ανθρώπινη συμπεριφορά θα αλληλεπιδρούσε με χρήστες και θα αναρτούσε τις σκέψεις του. Το Tay ξεκίνησε με ελάχιστες γνώσεις, χωρίς πεποιθήσεις και ισχυρή άποψη. Ο χαρακτήρας του θα διαμορφωνόταν αποκλειστικά από τα δεδομένα των χρηστών που συνομιλούσε. Η Microsoft οραματίστηκε ένα επίτευγμα της τεχνητής νοημοσύνης φιλοδοξώντας να αποδείξει ότι ο αλγόριθμος θα μπορούσε να ήταν τόσο ευφυής, όσο και οι χρήστες που το τροφοδοτούν με δεδομένα. Σε λιγότερο όμως από 16 ώρες, η Microsoft εσπευσμένα αποσύρει και απενεργοποιεί το λογαριασμό στο Twitter. Στο διάστημα λειτουργίας του, το Tay βρίσκεται να συνομιλεί με πλήθος διαδικτυακών λογαριασμών τύπου «troll», οι οποίοι του διοχετεύουν εσκεμμένα λανθασμένες γνώσεις, ρατσιστικές απόψεις και εθνικιστικές πεποιθήσεις. Ως αποτέλεσμα, το Tay δημοσιεύει στο λογαριασμό του θέσεις υπέρ του Χίτλερ και κατά των γυναικών. Το παράδειγμα του Tay δίδαξε την ανθρωπότητα πως όταν δεν υπάρχει έλεγχος στην ποιότητα των δεδομένων εκπαίδευσης, προκύπτουν συστήματα τα οποία λειτουργούν χωρίς σεβασμό στη διαφορετικότητα, τα οποία βέβαια, σε πολλές περιπτώσεις, μπορεί να αποβούν επικίνδυνα.

ΣΥΣΤΗΜΑΤΑ ΑΝΑΓΝΩΡΙΣΗΣ ΠΡΟΣΩΠΟΥ

Το πρόσωπό μας θεωρείται πλέον η επέκταση της ταυτότητάς μας. Ταξιδεύουμε από χώρα σε χώρα και ο συνοριακός έλεγχος διεξάγεται πλέον από μηχανές οι οποίες μας καλούν να διατηρήσουμε ανέκφραστο το πρόσωπό μας για να το αναγνωρίσουν. Επιπλέον, το πρόσωπό μας αντικατέστησε τους προσωπικούς μας κωδικούς ασφαλείας. Το τηλέφωνό μας ξεκλειδώνει αναγνωρίζοντας το πρόσωπό μας, και οι ηλεκτρονικές μας συναλλαγές ολοκληρώνονται με ένα χαμόγελό μας. Και προφανώς, η αναγνώριση προσώπου μπορεί να χρησιμοποιηθεί στη μείωση της εγκληματικότητας. Κάμερες αυτόματα αναγνωρίζουν άτομα τα οποία καταζητούνται για κάποιο αδίκημα που έχουν διαπράξει. Όσο περνάνε τα χρόνια, τόσο περισσότερα εγκλήματα έχουν εξιχνιαστεί χρησιμοποιώντας την εν λόγω τεχνολογία. Παράλληλα, η τεχνολογία χρησιμοποιείται κατά κόρον σε ζητήματα εντοπισμού θυμάτων trafficking με τεράστια επιτυχία, αλλά και για εντοπισμό ατόμων που έχουν χαθεί. Την ίδια στιγμή όμως, η ίδια η επιστημονική κοινότητα παραδέχεται ότι παρά την αλματώδη βελτίωση της τεχνολογίας αναγνώρισης προσώπων, ενδέχεται να προκύψουν λανθασμένες ταυτοποιήσεις ατόμων. Μόνο στο Λονδίνο, εκτιμάται ότι σήμερα υπάρχουν εγκατεστημένες 500.000 κάμερες, ενώ συνολικά η Μεγάλη Βρετανία αριθμεί μία κάμερα παρακολούθησης ανά 14 κατοίκους. Το 2019, η τεχνολογία αναγνώρισης προσώπου οδήγησε την αστυνομία της Νότιας Ουαλίας να θεωρήσει εσφαλμένα 2300 αθώους ανθρώπους ως δυνητικούς εγκληματίες. Στις διαδηλώσεις που έλαβαν χώρα στις Ηνωμένες Πολιτείες της Αμερικής κατά της αστυνομικής βίας και του ρατσισμού τον Ιούνιο του 2020, υπήρξε έντονη η ανησυχία από ακτιβιστές πολιτικών δικαιωμάτων, οι οποίοι αναφέρονται σε πολλαπλές ανακριβείς αντιστοιχίσεις που ενδεχομένως να οδήγησαν σε άδικες συλλήψεις. Έρευνες στην Αμερική απέδειξαν ότι οι αλγόριθμοι δεν λειτουργούν με μεγάλη ακρίβεια σε έγχρωμα άτομα και σε γυναίκες. Το αποτέλεσμα των εν λόγω ερευνών οδήγησε τις ΗΠΑ να αναστείλουν την αδειοδότηση συστημάτων χρήσης αναγνώρισης προσώπων στους δρόμους. Εταιρείες-κολοσσοί στο χώρο της αυτόματης αναγνώρισης προσώπου όπως η Amazon, προέτρεψαν την αστυνομία να μην κάνει χρήση των εργαλείων για συγκεκριμένη χρονική περίοδο, επικαλούμενες το γεγονός ότι τα συστήματα που χρησιμοποιούνται στην επιβολή του νόμου επιβάλλεται να ελεγχθούν πρώτα «για προκατάληψη». Είναι θεμιτό άραγε να μας παρακολουθούν κάμερες στην καθημερινότητά μας; Είναι θεμιτό αλγόριθμοι, οι οποίοι δεν κατανοούμε πώς λειτουργούν, να αποφασίζουν για εμάς αν μπορούμε να θεωρηθούμε ύποπτοι;

ΤΡΑΠΕΖΕΣ ΚΑΙ ΠΙΣΤΟΛΗΠΤΙΚΗ ΙΚΑΝΟΤΗΤΑ

Η αύξηση των κόκκινων δανείων, αναγκάζει τις τράπεζες σε διεξαγωγή εξονυχιστικών ελέγχων στους αιτητές δανείων. Η ανάλυση των δεδομένων, παραδοσιακά, περιλαμβάνει τις οικονομικές απολαβές του υποψήφιου δανειολήπτη, την κατάσταση της υγείας του, την ηλικία του και την οικογενειακή του κατάσταση. Συστήματα όμως τεχνητής νοημοσύνης που αναπτύχθηκαν πρόσφατα, αναλύουν και δεδομένα τα οποία δεν είναι τόσο εύκολα ορατά. Έχοντας πρόσβαση στις συναλλαγές μας, αλγόριθμοι αξιολογούν τις αγορές και τις συνήθειες μας. Τα ψώνια μας προδίδουν στοιχεία για τη διατροφή μας ενώ η διασκέδαση μας αποκαλύπτει δεδομένα για τις συνήθειες μας. Και το χειρότερο είναι ότι οι αλγόριθμοι αυτοί αποδείχθηκε ότι λειτουργούν με προκατάληψη ως προς το φύλο. Είναι χαρακτηριστική η ανάρτηση του Steve Wozniak, συνιδρυτή της εταιρείας Apple, ότι ενώ μοιράζονται τους ίδιους λογαριασμούς με τη σύζυγό του, το πιστωτικό του όριο, όπως αυτό υπολογίστηκε από έξυπνους αλγορίθμους, είναι δέκα φορές μεγαλύτερο από αυτό της συζύγου του. Είμαστε σίγουροι ότι θέλουμε ως πολίτες τέτοιους αλγορίθμους να έχουν πρόσβαση σε στοιχεία που παραβιάζουν εκκωφαντικά την προσωπική μας ζωή και κρίνουν την πιστοληπτική μας ικανότητα;

ΣΥΣΤΗΜΑΤΑ ΠΡΟΒΛΕΨΗΣ ΣΥΜΠΕΡΙΦΟΡΑΣ ΚΑΤΑΔΙΚΩΝ

Ένα φιλόδοξο σύστημα ανάλυσης δεδομένων μελετά στοιχεία ατόμων που ολοκλήρωσαν την ποινή φυλάκισής τους έπειτα από κάποιο αδίκημα και αξιολογεί την πιθανότητα επανάληψης αδικήματος. Ένα τέτοιο σύστημα έχει ως στόχο τη στενή ή μη παρακολούθηση αποφυλακισθέντων. Ο αλγόριθμος τεχνητής νοημοσύνης αποφασίζει πόσο συχνά ένα άτομο πρέπει να επισκέπτεται το γραφείο επιτήρησης. Πόσο όμως αυτός ο αλγόριθμος πραγματικά βοηθά την επανένταξη αυτών των ανθρώπων στην κοινωνία; Αντιμετωπίζει με τον ίδιο τρόπο όλους τους αποφυλακισθέντες; Πόσο σίγουροι είμαστε ότι δεν παρουσιάζει στοιχεία προκατάληψης; Άτομα διαφορετικού φύλου ή διαφορετικής εθνικότητας αντιμετωπίζονται με τον ίδιο τρόπο; Πόση σημασία έχει για τον αλγόριθμο το χαρακτηριστικό της μεταμέλειας; Αν ένα σύστημα μπορεί να αποφανθεί για το μέλλον και τις δράσεις ενός ατόμου που έχει εκτίσει την ποινή του, μήπως πλησιάζουμε στη δημιουργία ενός συστήματος που θα αποφασίζει για την ίδια την ποινή; Οι συμπεριφορές των ανθρώπων δεν είναι απαραίτητα αποτέλεσμα των προηγούμενων πράξεων τους. Οι άνθρωποι δεν λειτουργούν ως μαθηματικά μοντέλα. Συναισθήματα, καταστάσεις και εξωγενείς παράγοντες οδηγούν τις επόμενες δράσεις των ανθρώπων, και σε καμία περίπτωση, η γενίκευση των μαθηματικών μοντέλων δεν μπορεί να προβλέψει συμπεριφορές ατόμων.

Η ΠΕΡΙΠΤΩΣΗ ΤΗΣ CAMBRIDGE ANALYTICA

Η τεχνητή νοημοσύνη είναι ένα υπερ-εργαλείο το οποίο μπορεί να χρησιμοποιηθεί για να κατευθύνει πεποιθήσεις και αποφάσεις. Είναι γνωστή η περίπτωση του σκανδάλου της Cambridge Analytica, όπου η τεχνητή νοημοσύνη «κατηγορείται» για επηρεασμό της συνείδησης ψηφοφόρων στις ΗΠΑ, με αποτέλεσμα την αλλοίωση του εκλογικού αποτελέσματος. Η εταιρεία της Cambridge Analytica, μέσω του Facebook, απέκτησε δεδομένα για εκατομμύρια χρήστες. Τα δεδομένα αυτά ήταν αρκετά για να διαμορφωθεί ένα λεπτομερές προφίλ για τον κάθε ψηφοφόρο. Η εταιρεία μπορούσε να προβλέψει, μέσω αλγορίθμων τεχνητής νοημοσύνης, το τί θα επηρέαζε την ψήφο του κάθε ατόμου, έτσι τον «σφυροκοπούσε» με στοχευμένες διαφημίσεις προκειμένου να στηρίξει συγκεκριμένο υποψήφιο. Η δράση της Cambridge Analytica δεν περιορίστηκε στις ΗΠΑ. Η εταιρεία αποδείχθηκε ότι είχε επηρεάσει το εκλογικό αποτέλεσμα σε πολλές χώρες του κόσμου. Η δράση της αποκαλύφθηκε από ακτιβιστές έπειτα από την εμπλοκή της στη «διαμόρφωση» του αποτελέσματος για την παραμονή ή όχι της Μεγάλης Βρετανίας στην Ευρωπαϊκή Ένωση. Μπορεί σήμερα η Cambridge Analytica να μη δραστηριοποιείται, αλλά πλέον είναι γνωστό το πόσο εύκολα μια εταιρεία μπορεί να διαμορφώσει το προφίλ των πολιτικών επιλογών μας και να επηρεάσει τις αποφάσεις μας. Το δικαίωμα της ελεύθερης βούλησης, με τη βοήθεια αλγορίθμων, μετατρέπεται σε ψευδαίσθηση.

ΚΑΤΑΣΚΕΥΗ ΕΝΟΣ ΚΟΙΝΩΝΙΚΟΥ ΣΥΣΤΗΜΑΤΟΣ ΑΞΙΟΠΙΣΤΙΑΣ

Όσοι παρακολουθούν τη σειρά Black Mirror, θα θυμούνται ένα επεισόδιο όπου μια νεαρή κοπέλα πασχίζει να βελτιώσει την κοινωνική της θέση αναζητώντας θετικούς ψήφους στα μέσα κοινωνικής δικτύωσης. Το σενάριο επιστημονικής φαντασίας γίνεται σήμερα πραγματικότητα στην Κίνα. Η χώρα με τα υψηλότερα επίπεδα παρακολούθησης των πολίτων της, εφαρμόζει ήδη ένα σύστημα αξιολόγησης της συμπεριφοράς αυτών, προσδίδοντάς τους, ανάλογα με τις πράξεις τους, ένα βαθμό αξιοπιστίας. Σήμερα στην Κίνα λειτουργούν 4 λίστες/συστήματα αξιολόγησης πολιτών:

  • Σύστημα επιχειρηματικής αξιοπιστίας: Πρόκειται για σύστημα μαύρης λίστας για απαξιωμένους επιχειρηματικούς οργανισμούς. Το σύστημα αυτό ρυθμίζεται από τη Λαϊκή Τράπεζα της Κίνας, το σύστημα χρηματοοικονομικής πιστοληπτικής αξιολόγησης και το σύστημα εμπορικής πιστοληπτικής αξιολόγησης.
  • Κυβερνητικό σύστημα αξιοπιστίας: Πρόκειται για σύστημα αξιολόγησης με στόχο τους δημόσιους υπαλλήλους και τα κυβερνητικά θεσμικά όργανα.
  • Σύστημα κοινωνικής αξιοπιστίας: Είναι ένα σύστημα μαύρης λίστας για άτομα που έχουν απαξιωθεί. Το σύστημα κοινωνικής αξιοπιστίας σχετίζεται περισσότερο με τα συστήματα μαζικής παρακολούθησης που εφαρμόζει η Κίνα.
  • Δικαστικό σύστημα δημόσιας εμπιστοσύνης: Πρόκειται για ένα σύστημα μαύρης λίστας για άτομα που έχουν απαξιωθεί. Το σύστημα αυτό ρυθμίζεται από το Ανώτατο Λαϊκό Δικαστήριο.

Τα δικαιώματα των πολιτών καθορίζονται από τη θέση τους στις 4 συγκεκριμένες λίστες. Μάλιστα, η συμπεριφορά τους, δεν επηρεάζει μόνο τους ιδίους αλλά καθορίζει επίσης την πιθανότητα ένταξης δικών τους ανθρώπων σε αυτές. Πρόσφατα, η Κίνα απαγόρευσε την είσοδο στα μέσα μαζικής μεταφοράς ατόμων που έχουν αξιολογηθεί αρνητικά από το σύστημα κοινωνικής αξιοπιστίας. Πόσο μακριά είμαστε από τη διαμόρφωση ενός συστήματος τεχνητής νοημοσύνης το οποίο θα αξιολογεί τις συμπεριφορές μας μέσω των δεδομένων που οι ίδιοι παρέχουμε, εσκεμμένα ή ακούσια, και θα μας κατατάσσει σε κάποια λίστα; Ένα άτομο, για παράδειγμα, το οποίο «θυσιάζει» πολλές ώρες της ημέρας στα μέσα κοινωνικής δικτύωσης και σε διαδικτυακά παιχνίδια θα μπορούσε να χαρακτηριστεί ως τεμπέλης. Οι δράσεις μας στον ψηφιακό κόσμο θα έχουν άμεσο αντίκτυπο στο φυσικό κόσμο, και το χειρότερο, τις επιπτώσεις θα τις ορίζουν αλγόριθμοι που εμείς οι ίδιοι δεν κατανοούμε.

ΣΥΣΤΗΜΑΤΑ ΑΞΙΟΛΟΓΗΣΗΣ ΕΚΠΑΙΔΕΥΤΙΚΩΝ

Στο Χιούστον του Τέξας των ΗΠΑ, ένας μη χαρτογραφημένος αλγόριθμος χρησιμοποιήθηκε για την αξιολόγηση της απόδοσης των εκπαιδευτικών. Ο αλγόριθμος χρησιμοποίησε κυρίως τα δεδομένα των τυποποιημένων εξετάσεων των μαθητών για να υπολογίσει μια βαθμολογία για τον κάθε εκπαιδευτικό. Η αξιολόγηση χρησιμοποιήθηκε για να αποφασιστεί ποιοι εκπαιδευτικοί έπρεπε να απολυθούν ή να λάβουν μπόνους μεταξύ των ετών 2011 και 2015. Μπορεί το σύστημα να μη λειτουργεί σήμερα, έπειτα από τις έντονες αντιδράσεις των εκπαιδευτικών για βεβιασμένα και λανθασμένα αποτελέσματα, η προοπτική όμως διαμόρφωσης ενός εξελιγμένου αλγορίθμου με βάση την τεχνητή νοημοσύνη παραμένει ορατή. Ένας αλγόριθμος ο οποίος λαμβάνει στοιχεία από τα μέσα κοινωνικής δικτύωσης, τις συναλλαγές μας, τον κύκλο μας και τις διαδικτυακές μας πράξεις, μας αξιολογεί ως εκπαιδευτικούς. Το πάθος της διδασκαλίας, η δίψα για μετάδοση της γνώσης και οι δράσεις μας προς τη διαμόρφωση μιας ποιοτικής μαθητικής κοινότητας θα αντισταθμίζονται από τις κινήσεις μας στον ψηφιακό κόσμο. Είναι άραγε αυτό κάτι το οποίο επιθυμούμε;

ΑΚΤΙΒΙΣΤΕΣ ΚΑΤΑ ΤΩΝ ΑΛΓΟΡΙΘΜΩΝ

Ο κίνδυνος είναι ορατός, και πολύς κόσμος έχει αρχίσει να αντιλαμβάνεται ότι η εξέλιξη της τεχνολογίας παραβιάζει τα ανθρώπινά μας δικαιώματα. Στην Ευρωπαϊκή Ένωση και τη Μεγάλη Βρετανία, η αναζήτηση, η παρακολούθηση και η μελέτη προσωπικών δεδομένων αποτελεί παράβαση του κανονισμού προστασίας προσωπικών δεδομένων (GDPR). O γενικός κανονισμός για την προστασία δεδομένων παρέχει ένα αυστηρό πλαίσιο κανονισμών και οδηγιών. Τυχόν έρευνες σχετικά με την ιδιωτική ζωή ενός πολίτη ή τις συνήθειές του θεωρούνται μη αποδεκτές και τέτοιες παραβιάσεις της ιδιωτικότητας συνεπάγονται αυστηρές κυρώσεις. Η Πρόεδρος της Ευρωπαϊκής Επιτροπής Ursula von der Leyen αλλά και η ίδια η Ευρωπαϊκή Επιτροπή επιδεικνύουν μια ιδιαίτερη ευαισθησία για τις ηθικές επιπτώσεις της τεχνητής νοημοσύνης στον άνθρωπο. Αξίζει να σημειωθεί ότι αντίστοιχος κανονισμός με το GDPR εφαρμόζεται ή ετοιμάζεται και σε πολλές πολιτείες των Ηνωμένων Πολιτειών της Αμερικής. Παράλληλα, ανεξάρτητες οργανώσεις εργάζονται ακούραστα ασκώντας πίεση σε κυβερνήσεις για τη νομοθέτηση διαδικασιών χρήσης των αλγορίθμων. Για παράδειγμα, το Big Brother Watch, μια βρετανική ομάδα που πασχίζει για τις πολιτικές ελευθερίες έχει καταφέρει να ασκήσει μεγάλη πίεση στην κυβέρνηση της Μεγάλης Βρετανίας. Αντίστοιχα η Algorithmic Justice League (AJL), μια μη κερδοσκοπική οργάνωση ψηφιακής υπεράσπισης με έδρα το Cambridge της Μασαχουσέτης χρησιμοποιεί την έρευνα για να αυξήσει την ευαισθητοποίηση του κόσμου σχετικά με τη χρήση της τεχνητής νοημοσύνης στην κοινωνία.

Οι αγώνες των οργανώσεων και η θεσμοθέτηση κανονισμών μπορούν να προστατέψουν τα ανθρώπινα δικαιώματα μόνο αν εμείς οι ίδιοι αντιληφθούμε την πραγματική σημασία των προσωπικών μας δεδομένων. Ας αναλογιστούμε λοιπόν ότι για την καταπάτηση των ανθρώπινων δικαιωμάτων μας δεν ευθύνεται η τεχνητή νοημοσύνη αλλά η αφέλεια με την οποία αντιμετωπίζουμε τον ψηφιακό μας πλούτο.