Σε αυτό το κείμενο συνεχίζουμε από κριτική σκοπιά τη συζήτηση που ξεκινήσαμε για την Τεχνητή Νοημοσύνη (AI) και την εργασία, με το κείμενο «Τεχνητή Νοημοσύνη: Προκλήσεις και Ευκαιρίες». Παρουσιάζουμε εδώ την εξαιρετική δουλειά του Matthew Cole και των συνεργατών του από το τμήμα Κοινωνικών Επιστημών του Πανεπιστημίου της Οξφόρδης, η οποία δημοσιεύτηκε το 2022 στο επιστημονικό περιοδικό Frontiers in Artificial Intelligence.

Οι εκκλήσεις για «ηθική Τεχνητή Νοημοσύνη» είναι πολλές και οι κατευθυντήριες γραμμές των κυβερνήσεων και της βιομηχανίας που προσπαθούν να θεσπίσουν ηθικούς κανόνες και όρια για αυτή τη νέα τεχνολογία έχουν πολλαπλασιαστεί.

Με λίγες εξαιρέσεις, αυτές ερμηνεύουν στενά την ηθική της Τεχνητής Νοημοσύνης μέσα σε ένα φιλελεύθερο πολιτικό πλαίσιο ανησυχιών για την προστασία της ιδιωτικής ζωής, της διαφάνειας και της διακυβέρνησης. Ένα από τα κύρια εμπόδια για την καθιέρωση της «ηθικής τεχνητής νοημοσύνης» παραμένει το να τεθούν σε λειτουργία αρχές (principles) υψηλού επιπέδου, έτσι ώστε να μετουσιώνονται σε σχεδιασμό, ανάπτυξη και χρήση τεχνολογίας στην εργασιακή διαδικασία.

Αυτό οφείλεται στο γεγονός ότι οι οργανισμοί μπορούν να καταλήξουν να ερμηνεύουν την ηθική με ad-hoc τρόπο, χωρίς επίβλεψη, αντιμετωπίζοντας την ηθική ως απλώς ένα άλλο τεχνολογικό πρόβλημα με τεχνολογικές λύσεις και οι κανονισμοί έχουν αποσυνδεθεί σε μεγάλο βαθμό από τα ζητήματα που παρουσιάζει η τεχνητή νοημοσύνη για τους εργαζόμενους.

Υπάρχει σαφής έλλειψη υπερεθνικών προτύπων για δίκαιη και αξιοπρεπή τεχνητή νοημοσύνη, για τεχνητή νοημοσύνη σε περιβάλλοντα όπου οι άνθρωποι εξαρτώνται από και εργάζονται παράλληλα με αυτήν. Θέματα όπως οι διακρίσεις και η προκατάληψη στην κατανομή θέσεων εργασίας, η επιτήρηση και ο έλεγχος στην εργασιακή διαδικασία και η ποσοτικοποίηση της εργασίας έχουν λάβει σημαντική προσοχή, ωστόσο ερωτήματα σχετικά με την τεχνητή νοημοσύνη και την ποιότητα της εργασίας και τις συνθήκες εργασίας δεν έχουν λάβει σημαντική προσοχή.

Οι Cole et al. παρατηρούν ότι μόνο λίγες από τις σχετικές μελέτες συζητούν την ηθική της τεχνητής νοημοσύνης σχετικά με την εργασία και την απασχόληση, την ευημερία των εργαζομένων, τον αντίκτυπο των αλγορίθμων στη λήψη αποφάσεων στην κυβέρνηση, τα γραφεία απασχόλησης, την προγνωστική αστυνόμευση και την προκατάληψη στη λήψη αλγοριθμικών αποφάσεων. Οι μελέτες που αφορούν ειδικά την εργασία και την απασχόληση στοχεύουν στην πρόσληψη, τη διαχείριση ανθρώπινων πόρων ή τη διαχείριση του χώρου εργασίας.

Κίνδυνοι και ευκαιρίες για την εργασία

Η τεχνητή νοημοσύνη αντιμετωπίζεται συχνά ως μια εξαιρετική τεχνολογία με καθολικό ή απεριόριστο ορίζοντα. Πράγματι, παρά το γεγονός ότι δεν έχει ακόμη δεν έχει επιτευχθεί η πραγματική τεχνητή νοημοσύνη, η υπόθεση πολλών είναι ότι αυτό είναι θέμα χρόνου. Έτσι, αντί να αντιμετωπίζουν την τεχνητή νοημοσύνη ως ένα τεχνικό πεδίο που ασχολείται με προηγμένες, μη συμβολικές, στατιστικές μεθόδους για την επίλυση συγκεκριμένων, οριοθετημένων προβλημάτων (αναγνώριση προσώπου κλπ.), οι θετικιστές της τεχνητής νοημοσύνης προσδιορίζουν το πεδίο ως κάτι άνευ προηγουμένου. Ως εκ τούτου, η ηθική της τεχνητής νοημοσύνης αρχίζει να προσανατολίζεται προς ένα υποθετικό μελλοντικό σενάριο, παρά προς την παρούσα πραγματικότητα. Θα πρέπει να κοιτάξουμε πέρα από τη διαφημιστική εκστρατεία της τεχνητής νοημοσύνης για να εντοπίσουμε τους κινδύνους και τις ευκαιρίες που προκύπτουν από την τρέχουσα ανάπτυξη της τεχνητής νοημοσύνης στο χώρο εργασίας.

Υπάρχει μια κυρίαρχη άποψη μεταξύ των θετικιστών της τεχνητής νοημοσύνης ότι η τεχνολογική καινοτομία αποτελεί πάντα κοινωνική πρόοδο. Ωστόσο, αυτή η άποψη αγνοεί την πολιτική του σχεδιασμού και της παραγωγής. Το Everyday Ethics for Artificial Intelligence (2019) της IBM, για παράδειγμα, επιτυγχάνει υψηλότερο επίπεδο συγκεκριμένης λεπτομέρειας από ό,τι θα περιμέναμε, χρησιμοποιώντας ένα υποθετικό παράδειγμα ενός ξενοδοχείου που εφαρμόζει μια υπηρεσία εικονικού βοηθού AI στα δωμάτιά του, για να δείξει πως πέντε συγκεκριμένοι τομείς ηθικής εστίασης (π.χ. λογοδοσία ή προστασία δεδομένων) μπορούν να εφαρμοστούν στην πράξη.

Ωστόσο, όταν πρόκειται για τον ορισμό του τι σημαίνει «δικαιοσύνη», το έγγραφο προσδιορίζει μόνο την ανάγκη προστασίας από αλγοριθμική προκατάληψη, αγνοώντας άλλες πιθανές αρνητικές επιπτώσεις όπως η υπονόμευση της ικανότητας λήψης αποφάσεων των εργαζομένων, η υποβάθμιση των δεξιοτήτων ή ακόμη και η καταστροφή θέσεων εργασίας. Επιπλέον, ευρύτερα ζητήματα στον κλάδο, όπως οι χαμηλοί μισθοί, η επισφαλής απασχόληση και η έλλειψη συλλογικών διαπραγματεύσεων, δεν λαμβάνονται υπόψη, υπονοώντας ότι τέτοιες ανησυχίες βρίσκονται κατά κάποιο τρόπο εκτός της σφαίρας της τεχνολογικής ηθικής.

Το ζήτημα έχει κυρίως πλαισιωθεί ως εξής: υπάρχουν κακώς εκπαιδευμένοι αλγόριθμοι που ενεργούν με τρόπο που τιμωρεί παράνομα άτομα ή ομάδες. Αλλά η προκατάληψη, με τη μορφή συγκεκριμένων ανακριβειών, είναι λιγότερο ανησυχητική από την ευρύτερη αναπαραγωγή των υπαρχόντων προτύπων κοινωνικής ανισότητας μέσω της τεχνητής νοημοσύνης. Η πλειονότητα της τεχνητής νοημοσύνης που αναπτύχθηκε στον ιδιωτικό τομέα έχει, για παράδειγμα, συστηματικά μεροληπτήσει υπέρ των συμφερόντων των μετόχων και των διευθυντών έναντι των συμφερόντων των εργαζομένων. Τέτοιες σκέψεις, όπως ήταν αναμενόμενο, δεν εμπίπτουν στην αρμοδιότητα των προγραμμάτων FAccT (Δικαιοσύνη, Διαφάνεια, Λογοδοσία) της Microsoft, της IBM ή της Google.

Οι Cole et al. εντόπισαν ένα σημαντικό κενό στη συγκεκριμένη βιβλιογραφία, το οποίο μεταφράζεται ως παράλειψη των ανησυχιών για τον χώρο εργασίας, την απασχόληση και την εργασία από την ηθική της τεχνητής νοημοσύνης. Ως εκ τούτου δημιούργησαν ένα σύνολο αρχών και ένα σχετικού μη θεσμοθετημένου σύστημα εφαρμογής με τις ακόλουθες 9 αρχές:

1. Εγγύηση αξιοπρεπούς εργασίας

2. Δημιουργία δίκαιων εφοδιαστικών αλυσίδων (supply chains)

3. Προώθηση της επεξήγησης

4. Επιδίωξη ισότητας

5. Λήψη δίκαιων αποφάσεων

6. Δίκαιη χρήση των δεδομένων

7. Βελτίωση της ασφάλειας

8. Δημιουργία θέσεων εργασίας που θα είναι ανθεκτικές στο μέλλον

9. Προώθηση της συλλογικής φωνής των εργαζομένων

Οι αξίες που κωδικοποιούνται στις κοινωνικές σχέσεις παραγωγής δεν είναι ένα επιφαινόμενο ηθικής συζήτησης που διεξάγεται πιο σωστά στο καθαρά εννοιολογικό πεδίο: αντίθετα, αυτές οι αξίες συχνά καθορίζονται από την ισορροπία δυνάμεων μεταξύ ομάδων παραγόντων και την ικανότητά τους να προωθούν τα αντίστοιχα συμφέροντά τους.

* Λέκτορας Διοίκησης Επιχειρήσεων, Aegean College/University of Essex