Η τεχνητή νοημοσύνη έχει ένα μεγάλο πρόβλημα, το οποίο έχει να κάνει με τη φυλετική προκατάληψη. Είτε πρόκειται για τα βιομετρικά συστήματα τα οποία κάνουν λανθασμένη αναγνώριση των προσώπων μειονοτήτων, ή το λογισμικό το οποίο δεν μπορεί να αναγνωρίσει εντολές με τοπικές διαλέκτους, η τεχνολογία αυτή έχει πολύ δρόμο μπροστά της.
Σύμφωνα με την Deloitte, τα συστήματα τεχνητής νοημοσύνης είναι το ίδιο ικανά όσο οι βάσεις δεδομένων στις οποίες έχουν στηριχθεί. Οι ατελείς ή μη αντιπροσωπευτικές βάσεις δεδομένων θα μπορούσαν να μειώσουν την αντικειμενικότητα των προγραμμάτων τεχνητής νοημοσύνης, ενώ οι προκαταλήψεις των ομάδων οι οποίες προγραμματίζουν την τεχνητή νοημοσύνη θα μπορούσαν να συνεχίσουν τον φαύλο, αυτό, κύκλο.
Ανεκπαίδευτη ΤΝ
Σύμφωνα με το στέλεχος της Worldpay, Ναμπίλ Μάντζι, το κύριο πράγμα το οποίο πρέπει να συνειδητοποιήσουμε είναι πως οι ικανότητες των προϊόντων τεχνητής νοημοσύνης εξαρτώνται από τα δεδομένα τα οποία χρησιμοποιούνται για την εκπαίδευσή τους.
«Το θετικό όσον αφορά τις ικανότητες της ΤΝ είναι πως βασίζεται σε δύο μεταβλητές. Η μία εξ αυτών είναι τα δεδομένα στα οποία έχει πρόσβαση και η άλλη είναι η ποιότητα του large language model στο οποίο βασίζεται. Γι αυτό και πολλές εταιρείες όπως το Reddit έχουν ανακοινώσει πως δεν πρόκειται να επιτρέψουν σε εταιρείες να αναλύσουν τα δεδομένα τους δωρεάν», υπογράμμισε.
Όσον αφορά τις τράπεζες, ο Μάντζι τόνισε πως πολλές βάσεις δεδομένων είναι διασπασμένες σε διαφορετικά μοντέλα και τύπους: «Καμία βάση δεδομένων στον τραπεζικό κλάδο δεν είναι εναρμονισμένη. Αυτό θα περιορίσει την αποτελεσματικότητα των συστημάτων των χρηματοπιστωτικών ιδρυμάτων σε σχέση με άλλες εταιρείες οι οποίες έχουν πρόσβαση σε οργανωμένα και αναβαθμισμένα συστήματα και βάσεις δεδομένων».
Ο Μάντζι υποστήριξε πως η τεχνολογία του blockchain θα μπορούσε να αποτελέσει έναν τρόπο με τον οποίο θα υπάρχει ξεκάθαρη πρόσβαση στα δεδομένα τα οποία βρίσκονται σε όλες τις «σκονισμένες» γωνιές του παραδοσιακού τραπεζικού συστήματος.
Παρ’ όλα αυτά, τόνισε πως οι τράπεζες οι οποίες υπόκεινται σε εποπτεία και οι οποίες δεν εξελίσσονται και πολύ γρήγορα, είναι πιθανό πως θα καθυστερήσουν στην προσπάθειά τους σε σχέση με τις Microsoft, Google και άλλες.
Το πρόβλημα των τραπεζών
Σύμφωνα με το πρώην στέλεχος του Twitter και ειδικό στον τομέα ηθικής για την τεχνητή νοημοσύνη, Ρουμάν Τσουντχούρι, ο τραπεζικός τομέας αποτελεί ένα εξαιρετικό παράδειγμα για το πως οι προκαταλήψεις της ΤΝ μπορεί να γίνουν φανερές.
«Η αλγοριθμική προκατάληψη είναι πολύ φανερή στον δανεισμό», τόνισε ο Τσουντχούρι, προσθέτοντας πως «στο Σικάγο, για παράδειγμα, η άρνηση δανειοδότησης προς τους Αφροαμερικανούς είναι ιστορικά αποδεδειγμένη λόγω της παλαιότερης στρατηγικής του redlining, η οποία τραβούσε κόκκινες γραμμές μεταξύ των γκέτο και των λοιπών γειτονιών. Λίγες δεκαετίες μετά, οι αλγόριθμοι οι οποίοι δημιουργούνται εμπεριέχουν, κρυφά, τις προκαταλήψεις αυτές».
Σύμφωνα με δηλώσεις της ιδρυτή της ΜΚΟ, Black Women in Artificial Intelligence, Άντζλ Μπους στο CNBC, «όταν τα συστήματα τεχνητής νοημοσύνης χρησιμοποιούνται για την παροχή δανείων, ενδέχεται να υπάρξουν πολλές περιπτώσεις διακρίσεων ενάντια σε άτομα περιθωριοποιημένων τμημάτων της κοινωνίας. Οι τράπεζες πρέπει να αναγνωρίσουν τον κίνδυνο αυτό».
Όσο για το στέλεχος της νεοφυούς Taktile η οποία βοηθά στην αυτοματοποίηση της λήψης αποφάσεων των fintechs, Νίκλας Γκούσκε, «η τεχνητή νοημοσύνη είναι ιδανική για διεργασίες όπως η προεπεξεργασία μη δομημένων δεδομένων όπως οι συναλλαγές. Κατ’ αυτόν τον τρόπο, τα δεδομένα αυτά θα μπορούν να διοχετευτούν σε ένα πιο παραδοσιακό μοντέλο underwriting το οποίο θα βελτιώσει τη λήψη αποφάσεων των τραπεζιτών».
Εποπτεία
Σύμφωνα με τον Τσουντχούρι, είναι αναγκαία η δημιουργία ενός διεθνούς οργανισμού εποπτείας όπως τα Ηνωμένα Έθνη, ο οποίος θα μπορέσει να αντιμετωπίσει όλα αυτά τα προβλήματα προκαταλήψεων και πιθανών λαθών.
Αν και η τεχνητή νοημοσύνη είναι ένα καινοτόμο προϊόν, ορισμένοι ειδικοί αμφιβάλλουν όσον αφορά την ηθική της τεχνολογίας. Ορισμένα από αυτά τα πιθανά προβλήματα είναι η παραπληροφόρηση, οι διακρίσεις και οι «ψευδαισθήσεις» τις οποίες έχουν οι βάσεις δεδομένων προγραμμάτων όπως το ChatGPT.
«Ζητούμε περισσότερη διαφάνεια και υπευθυνότητα όσον αφορά τους αλγόριθμους οι οποίοι χρησιμοποιούνται αλλά και ξεκάθαρα στοιχεία τα οποία θα παρέχονται στο ευρύ κοινό έτσι ώστε αυτό να μπορεί να αποφασίζει ανάλογα», τόνισε ο διευθυντής της αντιρατσιστικής οργάνωσης European Network Against Racism, Κιμ Σμάουτερ.
Διαβάστε ακόμη
Φορολογικές δηλώσεις: Τέλος χρόνου για την υποβολή τους – Πώς συνδέεται το market pass (vid)
Έσοδα «μαμούθ» για τις Big-4 των «κόκκινων» δανείων στην Ελλάδα
Έλεγχοι στις παραλίες: Παραβιάσεις από το 83% των επιχειρήσεων στην Αν. Αττική
Για όλες τις υπόλοιπες ειδήσεις της επικαιρότητας μπορείτε να επισκεφτείτε το Πρώτο ΘΕΜΑ