Η ελληνική κυβέρνηση προχωρά στην ενσωμάτωση της τεχνητής νοημοσύνης (AI) στην αξιολόγηση των δημοσίων υπαλλήλων. Το Υπουργείο Εσωτερικών ανέπτυξε έναν «ψηφιακό βοηθό», ένα ρομποτικό σύστημα που υποτίθεται ότι παρέχει αντικειμενικά δεδομένα για τον καθορισμό SMART στόχων, προσαρμοσμένων στις ανάγκες κάθε δημόσιας υπηρεσίας.
Όμως, πίσω από τις μεγάλες δηλώσεις περί αντικειμενικότητας, κρύβεται ο κίνδυνος ενός αδιαφανούς μηχανισμού ελέγχου που μπορεί να μετατρέψει την αξιολόγηση σε ένα σύστημα φακελώματος και χειραγώγησης των εργαζομένων.
Η AI λειτουργεί με αλγορίθμους “μαύρου κουτιού” (black box), που σημαίνει ότι οι αποφάσεις της είναι αδιαφανείς και ανεξέλεγκτες. Επιπλέον, η απουσία ανθρώπινου ελέγχου ή διαδικασίας επανεξέτασης μπορεί να οδηγήσει σε άδικες και αναξιόπιστες αξιολογήσεις, χωρίς καμία δυνατότητα αντίδρασης από τους εργαζόμενους.
Σε χώρες όπως η Μεγάλη Βρετανία και οι ΗΠΑ, η χρήση AI για αξιολογήσεις έχει οδηγήσει σε σοβαρές καταγγελίες για διακρίσεις και αδικίες. Στις ΗΠΑ, μεγάλες εταιρείες αναγκάστηκαν να αποσύρουν AI συστήματα πρόσληψης και αξιολόγησης λόγω μεροληψίας κατά γυναικών και ατόμων μεγαλύτερης ηλικίας. Στη Μεγάλη Βρετανία, η χρήση αλγορίθμων για τη χορήγηση κοινωνικών παροχών κρίθηκε παράνομη, καθώς αποδείχθηκε ότι οδηγούσε σε διακρίσεις εις βάρος ευάλωτων ομάδων.
Το Υπουργείο Ψηφιακής Διακυβέρνησης έχει προτείνει τη σύσταση Παρατηρητηρίου Τεχνητής Νοημοσύνης για την παρακολούθηση της εφαρμογής της AI στη δημόσια διοίκηση. Το νομοσχέδιο που κατατέθηκε στη Βουλή προβλέπει την υποχρέωση τήρησης μητρώου συστημάτων AI από τους δημόσιους φορείς και την ενημέρωση των εργαζομένων για τη χρήση τους. Δυστυχώς όμως κανείς δεν έχει διευκρινίσει αν τα δεδομένα αξιολόγησης θα αποθηκεύονται και θα χρησιμοποιούνται σε μελλοντικές αποφάσεις για προαγωγές, μεταθέσεις ή ακόμα και απολύσεις. Εάν αυτό ισχύει, τότε μιλάμε για ένα κανονικό φακέλωμα των υπαλλήλων, που μπορεί να τους ακολουθεί σε όλη τους την καριέρα.
Το μεγάλο ερώτημα παραμένει: Ποιος ελέγχει την AI και πώς διασφαλίζεται η προστασία των προσωπικών δεδομένων; Ο συνδυασμός των δεδομένων με τον Προσωπικό Αριθμό των Υπαλλήλων δημιουργεί ένα τέλειο σύστημα ελέγχου. Αν αυτά τα δεδομένα διατηρούνται χωρίς αυστηρό έλεγχο ή, ακόμα χειρότερα, αν διαρρεύσουν, τότε δεν μιλάμε απλά για αναξιοκρατία, αλλά για ξεκάθαρη παραβίαση του GDPR και καταπάτηση θεμελιωδών δικαιωμάτων.
Η ΕΕ έχει θέσει αυστηρούς κανόνες για τη χρήση της τεχνητής νοημοσύνης, μέσω του προτεινόμενου AI Act, που απαιτεί διαφάνεια και έλεγχο για εφαρμογές που επηρεάζουν τη ζωή των πολιτών. Αντί να προσαρμοστεί σε αυτούς τους κανόνες, η ελληνική κυβέρνηση προχωρά χωρίς διασφάλιση δικλείδων ασφαλείας, δημιουργώντας σοβαρούς κινδύνους για τα δικαιώματα των εργαζομένων.
Η τεχνητή νοημοσύνη (AI) θα μπορούσε να επηρεάσει σημαντικά τις διαδικασίες λήψης αποφάσεων των υπαλλήλων αναλύοντας «πρόθεση, συμπεριφορά και ψυχολογικά δεδομένα». Εκτός τούτου, οι εταιρείες που χρησιμοποιούν αυτά τα συστήματα μπορούν όχι μόνο να προβλέπουν, αλλά και να χειραγωγούν τις αποφάσεις των δημοσίων υπαλλήλων και να πωλούν τα συγκεντρωμένα δεδομένα σε τρίτους.
Η ΝΙΚΗ απαιτεί:
- Άμεσο ανθρώπινο έλεγχο σε κάθε απόφαση του συστήματος.
- Απόλυτη διαφάνεια στον αλγόριθμο μέσω ανεξάρτητης αρχής, ώστε κάθε εργαζόμενος να γνωρίζει πώς αξιολογείται και να έχει πρόσβαση στα δεδομένα του.
- Διαγραφή δεδομένων μετά από συγκεκριμένο χρονικό διάστημα, όπως προβλέπει η νομοθεσία.
- Έλεγχο μεροληψίας ώστε να διαπιστωθεί αν η AI κάνει διακρίσεις με βάση το φύλο, την ηλικία ή προηγούμενες επιδόσεις.
Εάν δεν διασφαλιστούν αυτά τα μέτρα, τότε η αξιολόγηση μέσω AI δεν θα είναι ένα εργαλείο βελτίωσης, αλλά ένας μηχανισμός απόλυτου ελέγχου, που θα διαμορφώσει μια νέα εποχή εργασιακής ανασφάλειας και εκφοβισμού στο Δημόσιο.