Οι συζητήσεις για την τεχνητή νοημοσύνη δεν περιορίζονται πια στα εργαστήρια. Έχουν περάσει στον δημόσιο διάλογο, και με αυτό εμφανίστηκε ένας νέος όρος που προκαλεί ανησυχία: το P(doom), η πιθανότητα η εξέλιξη της Τεχνητής Νοημοσύνης (ΤΝ) να οδηγήσει σε σοβαρές ή ακόμη και υπαρξιακές απειλές για την ανθρωπότητα.
Δεν πρόκειται για σενάριο επιστημονικής φαντασίας, αλλά για εκτίμηση κινδύνου που λαμβάνει υπόψη την ταχύτητα ανάπτυξης, την αυτονομία των συστημάτων και την απουσία επαρκών θεσμικών ελέγχων. Ειδικοί όπως ο Dario Amodei, CEO της Anthropic, σημειώνουν ότι η πιθανότητα μιας «πολύ κακής κατάληξης» μπορεί να φτάσει το 25% εάν η ΤΝ εξελιχθεί χωρίς αυστηρή ρύθμιση. Άλλοι εκτιμούν χαμηλότερα ποσοστά, αλλά κανείς δεν τοποθετεί το ρίσκο στο μηδέν και το μήνυμα που προκύπτει είναι σαφές: η τεχνολογία χωρίς έλεγχο είναι επικίνδυνη.
Το P(doom) γίνεται ακόμη πιο ανησυχητικό αν σκεφτεί κανείς τα πεδία εφαρμογής της ΤΝ. Τα συστήματα ελέγχουν οικονομικές συναλλαγές, δημόσιες υπηρεσίες, υποδομές και τομείς υγείας. Ένα λάθος στην εκτίμηση ή μια παραβίαση ασφαλείας δεν περιορίζεται σε τεχνικό πρόβλημα· έχει κοινωνικές, οικονομικές και πολιτικές συνέπειες. Παρά τη σημασία του ζητήματος, η δημόσια συζήτηση συχνά περιορίζεται σε γενικές δηλώσεις για «καινοτομία» ή «ψηφιακό εκσυγχρονισμό», ενώ η πραγματική αβεβαιότητα παραμένει αόρατη για τον πολίτη. Η ΤΝ υπόσχεται πρόοδο, αλλά χωρίς όρια και δικλείδες ασφαλείας, η πρόοδος μπορεί να γίνει απειλή.
Οι εφαρμογές της ΤΝ και οι πραγματικές κοινωνικές συνέπειες
Στην Ελλάδα, η διαχείριση του ρίσκου είναι σχεδόν ανύπαρκτη. Σε άλλες χώρες υπάρχουν ανεξάρτητες αρχές που ελέγχουν σε πραγματικό χρόνο τα συστήματα. Μπορούν να τα παύσουν αν διαπιστωθούν κενά και εκδίδουν δημόσιες αξιολογήσεις που δεσμεύουν την κυβέρνηση. Εδώ, οι πολίτες καλούνται να εμπιστευθούν ότι «όλα είναι ασφαλή», χωρίς καμία δυνατότητα επαλήθευσης. Δεν μπορούν να δουν ποιοι χρησιμοποιούν τα δεδομένα τους, για ποιο λόγο και για πόσο. Καμία επιλογή ανάκλησης ή επιλεκτικής συγκατάθεσης. Και αυτό δεν είναι θέμα καχυποψίας αλλά στοιχειώδους αυτοπροστασίας.
Η ΝΙΚΗ έχει ξεκάθαρη θέση. Κάθε τεχνολογικό σύστημα πρέπει να λειτουργεί υπέρ του πολίτη, να ενισχύει την ιδιωτικότητα και την ασφάλεια. δίνοντας τη δυνατότητα πλήρους ελέγχου και επιλογής. Υποστηρίζει τη δημιουργία ανεξάρτητων αρχών ελέγχου, πλήρους ιχνηλασιμότητας των ενεργειών και υποχρεωτικής αξιολόγησης κινδύνου πριν από κάθε σημαντική εφαρμογή ΤΝ.
Θεωρεί απαραίτητη τη δυνατότητα του πολίτη να επιτρέπει ή να ανακαλεί πρόσβαση στα προσωπικά του δεδομένα, χωρίς να εγκλωβίζεται σε συνολική παραχώρηση τους, και την αυστηρή συνταγματική θωράκιση κάθε ψηφιακού έργου που συνενώνει μητρώα ή ευαίσθητα δεδομένα.
Η αλήθεια είναι ότι η κοινωνία σήμερα έχει περιορισμένη γνώση και μηδαμινά εργαλεία παρέμβασης. Η δημόσια ενημέρωση και η θεσμική διαφάνεια είναι μονόδρομος για τη μείωση του ρίσκου. Χωρίς αυτά, το P(doom) δεν είναι υποθετικό, είναι πραγματικό. Η πρόκληση για πολίτες, επιστήμονες και πολιτικούς είναι να απαιτήσουν, να ελέγξουν και να συμμετάσχουν στη ρύθμιση της ΤΝ.
Η ΝΙΚΗ επιμένει ότι η εμπιστοσύνη δεν οικοδομείται με λόγια. Xρειάζονται αποδείξεις, δικλείδες και ενεργή συμμετοχή των πολιτών. Μέχρι να υπάρξουν αυτά τα μέτρα, η τεχνητή νοημοσύνη παραμένει ένα εργαλείο με απεριόριστες δυνατότητες, αλλά και απειλές. Το μέλλον δεν είναι προκαθορισμένο, χωρίς, όμως, υπεύθυνη διαχείριση, κινδυνεύει να γίνει το μέλλον που κανείς δεν θα ήθελε.

