Η Ευρωπαϊκή κοινότητα τα τελευταία χρόνια έχει πρωτοστατήσει στην ρύθμιση του ψηφιακού κόσμου. Μετά την επιτυχή (τουλάχιστον όσον αφορά την υποδοχή της) ρύθμιση της προστασίας των προσωπικών δεδομένων, η οποία ώθησε τις ΗΠΑ, την Κίνα και πολλές άλλες χώρες να ακολουθήσουν, η Ε.Κ. προχώρησε σε σειρά ρυθμίσεων όπως το DMA, DSA και το ιδιαίτερα φιλόδοξο AI Act το οποίο βρίσκεται στα τελικά στάδια διαβούλευσης.
Το AI Act ρυθμίζει την χρήση της τεχνητής νοημοσύνης στην ΕΕ, με στόχο την προστασία των θεμελιωδών δικαιωμάτων των ευρωπαίων πολιτών. Η ρύθμιση είναι απαραίτητη καθώς οι μέθοδοι τεχνητής νοημοσύνης χρησιμοποιούνται ολοένα και περισσότερο στην λήψη αποφάσεων που αφορούν στην παραγωγική δραστηριότητα, αλλά και στην ανθρώπινη (π.χ., ανίχνευση απάτης, φερεγγυότητας, ακόμη και την προφυλάκιση στις ΗΠΑ1). Με τον όρο τεχνητή νοημοσύνη η ΕΕ περιγράφει μία σωρεία μεθόδων που περιλαμβάνουν τόσο παλαιότερα συστήματα βασισμένα σε κανόνες, όσο και την μηχανική μάθηση.
Η ρυθμιστική πρωτοβουλία συνοδευόταν από την προσδοκία ενός καθαρού πλαισίου και όριων για την εφαρμογή μεθόδων τεχνητής νοημοσύνης στην λήψη των αποφάσεων το οποίο θα όριζε και θα τα δικαιώματα των πολιτών. Δυστυχώς, η προτεινόμενη ρύθμιση δημιουργεί ένα μεγάλο γραφειοκρατικό πλαίσιο καταγραφής των δυνατοτήτων ενός συστήματος ΤΝ, χωρίς όμως να καταφέρνει να οριοθετεί ουσιαστικά την χρήση του.
Η βασική ιδέα της προσέγγισης έγκειται στην κατηγοριοποίηση των μεθόδων τεχνητής σε τέσσερεις κατηγορίες κινδύνου: μη αποδεκτό κίνδυνο, υψηλό κίνδυνο, περιορισμένο κίνδυνο, χαμηλό κίνδυνο. Οι εφαρμογές που εμπίπτουν στην κατηγορία μη-αποδεκτού κινδύνου, π.χ. εφαρμογές κοινωνικής πίστωσης, όπως το σύστημα που είχε σε περιορισμένο βαθμό αναπτυχθεί στην Λ.Δ. της Κίνας 2 για την αξιολόγηση της (κυρίως οικονομικής) συμπεριφοράς των πολιτών), δεν επιτρέπονται. Η κατηγορία υψηλού κινδύνου, περιλαμβάνει εφαρμογές που αναγνωρίζουν και κατηγοριοποιούν ανθρώπους, όπως και εφαρμογές που αποφαίνονται για την παροχή κοινωνικών παροχών. Σε αυτή την κατηγορία εμπίπτουν και (ημι-)αυτοματοποιημένα συστήματα προσλήψεων. Για τις εφαρμογές υψηλού κινδύνου το σχέδιο του κανονισμού προβλέπει επιπρόσθετες εγγυήσεις, όπως τήρηση αρχείων καταγραφής της λειτουργίας των συστημάτων, διαφάνεια και πληροφόρηση των χρηστών, ανθρώπινη εποπτεία και εγγυήσεις για την ακρίβεια, στιβαρότητα και κυβερνοασφάλεια του συστήματος.
Μπορεί να παρατηρήσει κανείς ότι οι εγγυήσεις για τα συστήματα υψηλού κινδύνου είναι περίπου οι εγγυήσεις που απαιτούνται από κάθε πληροφοριακό σύστημα που επιτελεί μία κρίσιμη εργασία. Η πλέον ειδική πρόβλεψη είναι αυτή της ανθρώπινης εποπτείας. Η ανθρώπινη εποπτεία σημαίνει ότι πρέπει να υπάρχει κάποιος ειδικός, που να γνωρίζει σε βάθος ένα σύστημα και να μπορεί να παραμβαίνει όταν θεωρεί ότι το σύστημα δεν ανταποκρίνεται όπως πρέπει. Δυστυχώς, και αυτή η πρόβλεψη είναι πρακτικά αδύνατη, ιδιαίτερα όσον αφορά την δημοφιλέστερη τεχνική της ΤΝ, την μηχανική μάθηση.
Οι εγγυήσεις για την προστασία των δικαιωμάτων των πολιτών που προβλέπει το AI Act αποκαλύπτουν και την μεγαλύτερη αδυναμία του: την έλλειψη μια σαφούς αντίληψης των κινδύνων που θέτει η τεχνητή νοημοσύνη σε σχέση με τα δικαιώματα των πολιτών. Η άποψη μου είναι ότι το προβληματικότερο σημείο είναι ότι επιτρέπει την λήψη αποφάσεων με σημαντικό αντίκτυπο στις ζωές των ανθρώπων και στα δικαιώματα τους, από συστήματα αποφάσεων τα οποία δεν βασίζονται σε σαφείς κανόνες, οπότε τα κριτήρια τους παραμένουν δυσνόητα ή και ακατανόητα. Η ευρεία υιοθέτηση συστημάτων ΤΝ στην λήψη των αποφάσεων (ακόμη και στην υποβοήθηση) θα έχει ως αποτέλεσμα να παίρνονται αποφάσεις με σημαντικό κοινωνικό αντίκτυπο, χωρίς να μπορεί να υπάρξει διαβούλευση επί των κριτηρίων. Ο κίνδυνος αυτός δεν αντιμετωπίζεται στο AI Act καθώς παραπέμπει για οποιοδήποτε πρόβλημα σε μια σειρά καλών πρακτικών για τον σχεδιασμό και την λειτουργία των πληροφορικών συστημάτων που μπορούν να αντιμετωπίσουν δυσλειτουργίες στο σύστημα, όχι όμως αδυναμίες των ίδιων των μεθόδων. Το AI Act ακόμη χαρακτηρίζει την ΤΝ ανάλογα με την εφαρμογή της και όχι με τις τεχνικές της. Οι τεχνικές όμως διαφοροποιούν σημαντικά τον κίνδυνο της αυτοματοποίησης: συστήματα βασισμένα σε κανόνες μπορούν να γίνουν κατανοητά από ένα ευρύ κοινό και ο τρόπος απόφασης τους να αποτελέσει αντικείνο διαβούλευσης, αλλά και επιτρέπουν την αποτελεσματική ανθρώπινη επίβλεψη. Στα συστήματα μηχανικής μάθησης, παρόλες τις προσπάθειες για την επίτευξη επεξηγησιμότητας και αλγοριθμικής δικαιοσύνης, κάτι τέτοιο είναι πρακτικά αδύνατο.
Η ανάγκη για ρύθμιση της ΤΝ είναι αναμφισβήτητη και η πρωτοβουλία της ΕΚ είναι θετική για την συνέχεια του κράτους δικαίου και στον ψηφιακό κόσμο. Χρειάζεται όμως μεγαλύτερη αποφασιστικότητα και γενναιότερο όραμα όσον αφορά στα δικαιώματα των πολιτών. Η τωρινή προσέγγιση προσπαθεί να ισορροπήσει ανάμεσα στην προστασία των δικαιωμάτων και την απρόσκοπτη παραγωγή στον τομέα της ΤΝ, με αποτέλεσμα να μην πετυχαίνει τίποτε από τα δύο: δημιουργεί ένα πολύ αδύναμο πλαίσιο προστασίας των δικαιωμάτων και ταυτόχρονα επιφέρει μεγάλα γραφειοκρατικά βάρη στην παραγωγή.
* H Ίρις Ευθυμίου είναι Συγγραφέας, Πρόεδρος Διεπιστημονικού Συμβουλίου
*Ο Μανώλης Τερροβίτης είναι Ερευνητής στο Ινστιτούτο Πληροφοριακών συστημάτων του Ερευνητικού Κέντρου Αθηνά