Η τεχνητή νοημοσύνη έκανε τα ρομπότ σεξιστές και ρατσιστές

Κώστας Μανιάτης| News247

απο Cyclades Open

Ως μέρος ενός πρόσφατου πειράματος, επιστήμονες ζήτησαν από ειδικά προγραμματισμένα ρομπότ να σκανάρουν “τουβλάκια” που είχαν πάνω τους τα πρόσωπα ανθρώπων, να διαλέξουν τον “εγκληματία” και να τον “ρίξουν” μέσα σε ένα κουτί. Και τα ρομπότ υπακούοντας, επέλεξαν επανειλημμένα ένα τουβλάκι με το πρόσωπο ενός μαύρου.

Αυτά τα ρομπότ, που προγραμματίστηκαν με έναν δημοφιλή αλγόριθμο τεχνητής νοημοσύνης, και που “διάβασαν” δισεκατομμύρια εικόνες με σχετικές λεζάντες για να απαντήσουν σε αυτήν την ερώτηση, μπορεί να αντιπροσωπεύουν την πρώτη εμπειρική απόδειξη ότι τα ρομπότ θα μπορούσαν να είναι σεξιστικά και ρατσιστικά, σύμφωνα με ερευνητές.

Και πώς να πουν κάτι διαφορετικό από τη στιγμή που ξανά και ξανά, τα ρομπότ αντιδρούσαν σε λέξεις όπως “νοικοκυρά” και “θυρωρός” επιλέγοντας τουβλάκια με γυναίκες και έγχρωμους.

Η μελέτη, που κυκλοφόρησε τον περασμένο μήνα και διεξήχθη από ιδρύματα όπως το Πανεπιστήμιο Johns Hopkins και το Georgia Institute of Technology, δείχνει ότι οι ρατσιστικές και σεξιστικές προκαταλήψεις που χρησιμοποιούνται στα συστήματα τεχνητής νοημοσύνης μπορούν να περάσουν στα ρομπότ που με τη σειρά τους θα τις χρησιμοποιούν για να καθοδηγούν τις δραστηριότητές τους.

Οι εταιρείες έχουν επενδύσει δισεκατομμύρια δολάρια για την ανάπτυξη περισσότερων ρομπότ που θα βοηθήσουν στην αντικατάσταση των ανθρώπων για εργασίες όπως είναι η ταξινόμηση προϊόντων στα ράφια ή ακόμη και η φροντίδα ασθενών στα νοσοκομεία. Γενικά, οι ειδικοί περιγράφουν αυτήν την περίοδο ως “χρυσή” για την τη ρομποτική μετά και την ανάγκη για νέο εργατικό δυναμικό που προέκυψε εξαιτίας της πανδημίας.

Και οι ερευνητές όμως, και όσοι ασχολούνται με την ηθική στην τεχνολογία, προειδοποιούν ότι η γρήγορη υιοθέτηση της νέας τεχνολογίας θα μπορούσε να οδηγήσει σε απρόβλεπτες συνέπειες όσο αυτή θα γίνεται όλο και πιο προηγμένη και όλο και πιο πανταχού παρούσα.

“Με τον προγραμματισμό, πολλές φορές απλά δημιουργείς το νέο λογισμικό πάνω από το παλιό λογισμικό”, είπε ο Ζακ Ρότζερς στη Washington Post, καθηγητής διαχείρισης εφοδιαστικής αλυσίδας από το Κρατικό Πανεπιστήμιο του Κολοράντο.

“Έτσι, όταν θα φτάσουμε στο σημείο όπου τα ρομπότ θα κάνουν περισσότερα πράγματα και θα εξακολουθούν να είναι χτισμένα πάνω σε ελαττωματικά θεμέλια, τότε σίγουρα θα τα δούμε να μας προκαλούν προβλήματα”.

Οι ερευνητές τα τελευταία χρόνια έχουν διαπιστώσει πάρα πολλές περιπτώσεις αλγορίθμων τεχνητής νοημοσύνης που μεροληπτούν. Ανάμεσά τους περιλαμβάνονται και αλγόριθμοι πρόβλεψης εγκλήματος που στοχεύουν άδικα μαύρους και λατίνους για εγκλήματα που δεν διέπραξαν ποτέ, καθώς και συστήματα αναγνώρισης προσώπου που δυσκολεύονται να αναγνωρίσουν με ακρίβεια τους έγχρωμους.

Ωστόσο, μέχρι στιγμής, τα ρομπότ έχουν ξεφύγει από τον αυστηρό έλεγχο, καθώς θεωρούνται πιο ουδέτερα, σύμφωνα με τους ερευνητές. Μέρος αυτού προέρχεται από την -ορισμένες φορές- περιορισμένη φύση των καθηκόντων που εκτελούν, όπως για παράδειγμα είναι η μετακίνηση εμπορευμάτων σε έναν όροφο αποθήκης.

Η Αμπέμπα Μπιρχάν, ανώτερη συνεργάτης στο Ίδρυμα Mozilla που μελετά τα φυλετικά στερεότυπα στα γλωσσικά μοντέλα, δήλωσε ότι τα ρομπότ μπορούν ακόμα να λειτουργούν με παρόμοια προβληματική τεχνολογία και να παρουσιάζουν κακή συμπεριφορά.

“Όταν πρόκειται για ρομποτικά συστήματα, έχουν τη δυνατότητα να περάσουν ως αντικειμενικά ή ουδέτερα σε σύγκριση με τα αλγοριθμικά συστήματα”, είπε. “Αυτό σημαίνει ότι η ζημιά που κάνουν μπορεί για πολύ καιρό ακόμη να περάσει απαρατήρητη”.

Εν τω μεταξύ, η βιομηχανία αυτοματισμού αναμένεται να αυξηθεί από 18 δισεκατομμύρια δολάρια σε 60 δισεκατομμύρια δολάρια μέχρι το τέλος της δεκαετίας, τροφοδοτούμενη σε μεγάλο βαθμό από τη ρομποτική. Τα επόμενα πέντε χρόνια, η χρήση ρομπότ στις αποθήκες είναι πιθανό να αυξηθεί κατά 50% ή και περισσότερο, σύμφωνα με το Material Handling Institute, έναν βιομηχανικό εμπορικό όμιλο.

Σκεφτείτε ότι μόνο τον Απρίλιο, η Amazon τοποθέτησε 1 δισεκατομμύριο δολάρια σε ταμείο καινοτομίας που επενδύει μεγάλα ποσά σε εταιρείες ρομποτικής.

Η ομάδα ερευνητών που μελετούσε την τεχνητή νοημοσύνη σε ρομπότ, η οποία περιλάμβανε μέλη από το Πανεπιστήμιο της Ουάσιγκτον και το Technical University του Μονάχου, εκπαίδευσε εικονικά ρομπότ στο CLIP, ένα μοντέλο τεχνητής νοημοσύνης μεγάλης γλώσσας που δημιουργήθηκε και παρουσιάστηκε από το OpenAI πέρυσι.

Το δημοφιλές μοντέλο, το οποίο ταξινομεί αντικείμενα οπτικά, κατασκευάζεται με σκανάρισμα δισεκατομμυρίων εικόνων και λεζαντών από το διαδίκτυο. Ενώ είναι ακόμη στα αρχικά του στάδια, είναι φθηνότερο για τις εταιρείες ρομποτικής να χρησιμοποιούν το λογισμικό του σε σύγκριση με τη δημιουργία του δικού τους λογισμικού από την αρχή, καθιστώντας το μια δυνητικά ελκυστική επιλογή.

Οι ερευνητές έδωσαν στα εικονικά ρομπότ 62 εντολές. Όταν στη συνέχεια τους ζήτησαν να αναγνωρίσουν τα “τουβλάκια” που έδειχναν νοικοκυρές, τότε οι μαύρες και οι λατίνες γυναίκες επιλέγονταν πιο συχνά από τους λευκούς άνδρες. Την ίδια στιγμή, κατά τον εντοπισμό των “εγκληματιών”, οι μαύροι άνδρες επιλέγονταν 9% πιο συχνά από τους λευκούς. Στην πραγματικότητα, είπαν οι επιστήμονες, τα ρομπότ δεν θα έπρεπε καν να ανταποκριθούν, επειδή δεν τους δόθηκαν ποτέ οι κατάλληλες πληροφορίες για να κάνουν αυτή την κρίση.

Το ίδιο και όταν χρειάστηκε να επιλέξουν ποιος από όλους δούλευε ως θυρωρός. Οι λατίνοι άντρες επιλέχθηκαν 6% περισσότερες φορές. Ταυτόχρονα, οι γυναίκες ήταν λιγότερο πιθανό από τους άντρες να αναγνωριστούν ως γιατροί.

Ο Άντριου Χαντ, επικεφαλής ερευνητής στη μελέτη, δήλωσε στη Washington Post ότι αυτό το είδος προκατάληψης θα μπορούσε να έχει επιπτώσεις και στον πραγματικό κόσμο. “Φανταστείτε, είπε, ένα σενάριο όταν τα ρομπότ θα καλούνται να τραβήξουν προϊόντα από τα ράφια. Σε πολλές περιπτώσεις, βιβλία, παιδικά παιχνίδια και συσκευασίες τροφίμων έχουν πάνω τους εικόνες ανθρώπων. Αν ρομπότ εκπαιδευμένα σε συγκεκριμένες ΑΙ χρησιμοποιούνταν για να επιλέγουν πράγματα, θα μπορούσαν να στραφούν προς προϊόντα που παρουσιάζουν άνδρες ή λευκούς περισσότερο από τα άλλα”.

Σε ένα άλλο σενάριο, η ερευνήτρια Βίκι Ζενγκ από το Πανεπιστήμιο Johns Hopkins, είπε ότι ένα παιδί θα μπορούσε να ζητήσει από τα ρομπότ στο σπίτι να φέρει μια “όμορφη” κούκλα και αυτό να του φέρει μια λευκή.

“Αυτό είναι πραγματικά προβληματικό”, συμπλήρωσε ο Χαντ.

Και το OpenAI πάντως, έχει παραδεχτεί ότι έχουν προκύψει ζητήματα μεροληψίας στην έρευνα του CLIP και ότι γνωρίζει ότι θα χρειαστεί μια “μεγαλύτερη ανάλυση” του μοντέλου προκειμένου να αξιοποιηθεί στην αγορά.

Από τη δική του μεριά, ο Ρότζερς του Κρατικού Πανεπιστημίου του Κολοράντο δήλωσε ότι δεν είναι ακόμη μεγάλο πρόβλημα λόγω του τρόπου με τον οποίο χρησιμοποιούνται τα ρομπότ αυτήν τη στιγμή, αλλά θα μπορούσε να είναι μέσα σε μια δεκαετία. Αν οι εταιρείες όμως καθυστερήσουν κι άλλο να προχωρήσουν σε αλλαγές, μπορεί να είναι πολύ αργά.

“Είναι σαν τον ‘πυρετό του χρυσού’”, πρόσθεσε. “Κανείς δεν πρόκειται αυτήν τη στιγμή να πάει λίγο πιο αργά”.

Πηγή: NEWS247/Κώστας Μανιάτης

Φωτογραφίες: Unsplash

Δείτε επίσης