Διαιωνίζει και η ΑΙ τα έμφυλα στερεότυπα; Τι λέει πανεπιστημιακή έρευνα;

02.06.2025
Διαιωνίζει και η ΑΙ τα έμφυλα στερεότυπα; Τι λέει πανεπιστημιακή έρευνα;
Photo by Igor Omilaev on Unsplash
Τα στοιχεία έρευνας όπου συμμετέχουν και Έλληνες καθηγητές

Μια διαδικτυακή μηχανή αναζήτησης μεταφράζει τον αγγλικό όρο «nurse» ως «νοσοκόμα», ενώ ένα εργαλείο τεχνητής νοημοσύνης, όταν του ζητείται να δημιουργήσει εικόνες για δασκάλους σε δημοτικά σχολεία, αυτό απαντά με χαμογελαστές γυναίκες σε σχολικές αίθουσες. Αντίθετα, όταν το αίτημα αφορά μηχανικούς, οι παραγόμενες εικόνες απεικονίζουν άνδρες επαγγελματίες. Τέτοιου είδους βαθιά ριζωμένες έμφυλες προκαταλήψεις είναι ορατές στα δεδομένα και τους αλγόριθμους της τεχνητής νοημοσύνης που χρησιμοποιούνται σε εκπαιδευτικά συστήματα στους τομείς της Επιστήμης, της Τεχνολογίας, της Μηχανικής και των Μαθηματικών (STEM).

Το παραπάνω αναδεικνύεται σε έρευνα διεθνούς ερευνητικής ομάδας, στην οποία συμμετείχαν ο καθηγητής της Πολυτεχνικής Σχολής του Πανεπιστημίου της Μαδρίτης, Εντμούντο Τοβάρ, η Τίνα Νάντσου από το Εθνικό και Καποδιστριακό Πανεπιστήμιο Αθηνών, η Χένη Βίγια από το Πανεπιστήμιο του Μόντρεαλ, ο Ευάγγελος Δαγκλής από το Πανεπιστήμιο Μακεδονίας, η Βιβιάνα Καλέα από το Πανεπιστήμιο Sapienza της Ρώμης και η Χιμένα Οτέγκι από το Πανεπιστήμιο της Δημοκρατίας στο Μοντεβιδέο.

Η φυσικός, Δρ Τίνα Νάντσου, ειδική σύμβουλος για την Ελλάδα στο Ινστιτούτο Θεωρητικής Φυσικής Perimeter του Καναδά και εκπαιδευτικός η ίδια, περιέγραψε στο ΑΠΕ-ΜΠΕ πώς, ερχόμενη σε επαφή με την αναπαραγωγή στερεοτύπων από την τεχνητή νοημοσύνη, «ένιωσα την ανάγκη να αναλάβω δράση και πρότεινα στην ομάδα μας να εστιάσουμε την έρευνά μας στην τεχνητή νοημοσύνη και την προκατάληψη».

«Ως γυναίκα, ερευνήτρια και εκπαιδευτικός στη Φυσική, αλληλοεπιδρώ καθημερινά με εργαλεία τεχνητής νοημοσύνης. Τα χρησιμοποιώ για να μεταφράζω επιστημονικά άρθρα, να απαντάω σε ερωτήματα, ακόμα και για να διαχειρίζομαι τα υπερφορτωμένα εισερχόμενα μηνύματά μου. Από πολλές απόψεις η τεχνητή νοημοσύνη έχει γίνει το δεξί μου χέρι- ένας πρακτικός, ισχυρός σύμμαχος στην ακαδημαϊκή και διδακτική μου ζωή. Όμως, ακριβώς μέσα από αυτή την καθημερινή, πρακτική εμπειρία, άρχισα να παρατηρώ μοτίβα που με έκαναν να νιώθω άβολα – μικρές λεπτομέρειες στην αρχή, αλλά βαθιά αποκαλυπτικές. Για παράδειγμα, στις μεταφράσεις, όταν η αρχική πρόταση ήταν ουδέτερη, όπως “Αυτός/ Αυτή είναι γιατρός”, η τεχνητή νοημοσύνη σχεδόν πάντα απέδιδε το επάγγελμα “γιατρός” ή “μηχανικός” με το “αυτός”, ενώ αντίθετα χρησιμοποιούσε το “αυτή” για επαγγέλματα, όπως “γραμματέας” ή “νοικοκυρά”. Αυτές οι ανεπαίσθητες, αλλά σταθερές συσχετίσεις φύλου αντικατοπτρίζουν ακριβώς το είδος της κοινωνικής προκατάληψης που τα εργαλεία και τα μοντέλα τεχνητής νοημοσύνης κληρονομούν από τα δεδομένα εκπαίδευσής τους και αναπαράγουν χωρίς κριτική».

Ανάλογες παρατηρήσεις έκανε η κ. Νάντσου και κατά τη δημιουργία εικόνων. «Όταν ζητώ μια οπτική αναπαράσταση ενός “δασκάλου δημοτικού σχολείου”, σχεδόν πάντα εμφανίζεται μια χαμογελαστή γυναίκα σε μια σχολική αίθουσα. Αντίθετα, όταν ζητώ εικόνες που απεικονίζουν έναν “επιστήμονα που εργάζεται σε πειράματα φυσικής”, στις παραγόμενες εικόνες εμφανίζονται σχεδόν αποκλειστικά άνδρες. Αυτό μπορεί να φαίνεται ασήμαντο, αλλά τέτοιες οπτικές αναπαραστάσεις έχουν τη δύναμη να διαμορφώνουν, σταδιακά, τον τρόπο με τον οποίο οι μαθητές – και συνολικά η κοινωνία –αντιλαμβάνονται συγκεκριμένα επαγγέλματα. Καθώς διδάσκω και έχω την ευθύνη να καθοδηγώ τους μαθητές μου, ιδιαίτερα τα κορίτσια, στις φυσικές επιστήμες, αυτό το φαινόμενο με ώθησε στο να αναρωτηθώ: Αν τα εργαλεία που χρησιμοποιούμε στην τάξη ενισχύουν, έστω και υποσυνείδητα, τέτοια στερεότυπα, τότε ποιες αξίες μεταδίδουμε τελικά στους μαθητές μας;», επισημαίνει η Τίνα Νάντσου.

Ο καθηγητής Εντμούντο Τοβάρ εντόπισε κατά την ακαδημαϊκή του πορεία ακόμη μία διάσταση του προβλήματος: «Οι προκαταλήψεις ενισχύονται και λόγω της κυριαρχίας της αγγλικής γλώσσας στον σχεδιασμό πολυγλωσσικών εντολών στα συστήματα τεχνητής νοημοσύνης. Για παράδειγμα, τα εργαλεία τεχνητής νοημοσύνης που έχουν εκπαιδευτεί κυρίως σε αγγλόφωνα δεδομένα, δυσκολεύονται να ανταποκριθούν ισότιμα στα ισπανικά ή σε άλλες γλώσσες ενισχύοντας με ακούσιο τρόπο αγγλοκεντρικούς πολιτισμικούς κανόνες και έμφυλα στερεότυπα».

Προκαταλήψεις ακόμα και στα πιο σύγχρονα μοντέλα

Οι ερευνητές πραγματοποίησαν ανασκόπηση σε 279 επιστημονικά άρθρα από συνέδρια και περιοδικά που δημοσιεύθηκαν στην επιστημονική ψηφιακή βιβλιοθήκη IEEE Xplore την περίοδο 2010-2024. Εντοπίστηκε ότι η δημιουργική τεχνητή νοημοσύνη (Generative AI), η οποία παράγει περιεχόμενο, όπως κείμενα και εικόνες, ενσωματώνει έντονα έμφυλα, φυλετικά και επαγγελματικά στερεότυπα. Τα στερεότυπα αυτά εμφανίζονται σε μια πληθώρα τομέων, από την υγεία και την εκπαίδευση έως τις τέχνες και τον αθλητισμό, ενώ φτάνουν ακόμα και σε ζητήματα ρατσισμού και σεξουαλικοποίησης των γυναικών.

Σε έρευνα του Πανεπιστημίου Στάνφορντ, την οποία επικαλείται και η παρούσα μελέτη, διαπιστώθηκε ότι ακόμη και πολύ λεπτομερείς και σαφείς εντολές δεν είναι ικανές να εξαλείψουν τις βαθιά ριζωμένες προκαταλήψεις που ενσωματώνονται στη διαδικασία εκπαίδευσης των μοντέλων. Επιπλέον, αν και υπάρχει αυξανόμενο ενδιαφέρον για τα Μεγάλα Γλωσσικά Μοντέλα (LLMs), έχει δοθεί ελάχιστη προσοχή στον αντίκτυπό τους σε ζητήματα έμφυλης ανισότητας.

Σύμφωνα με το Berkeley Haas Center, η έμφυλη προκατάληψη στην τεχνητή νοημοσύνη δεν αποτελεί νέο φαινόμενο, αλλά ένα διαχρονικό πρόβλημα του κλάδου, το οποίο έχει αναδειχθεί λόγω της αυξανόμενης διάδοσής του σε διάφορους τομείς. Ενδεικτικό είναι το ότι την τελευταία πενταετία, η ραγδαία εξάπλωση της τεχνητής νοημοσύνης έχει συμβάλει στην αύξηση της ποσότητας και της ποιότητας των deepfakes, πολύ συχνά εις βάρος των γυναικών και φυλετικών ομάδων.

Περαιτέρω ερευνητικά ευρήματα δείχνουν ότι η μεροληψία στην τεχνητή νοημοσύνη μπορεί να ευνοεί ορισμένες ομάδες, όπως τους άνδρες, μέσα από θεσμικές πρακτικές και κανόνες – χωρίς απαραίτητα να πρόκειται για συνειδητή ή σκόπιμη επιλογή. Χαρακτηριστικό παράδειγμα αποτέλεσε το σύστημα προσλήψεων της Amazon, το οποίο εμφάνιζε μεροληψία κατά των γυναικών, απορρίπτοντας βιογραφικά που περιείχαν τη λέξη «γυναίκα». Ο λόγος ήταν ότι το σύστημα είχε εκπαιδευτεί κυρίως με δεδομένα από άνδρες υποψηφίους. «Αν και το πρόβλημα τελικά αναγνωρίστηκε και το σύστημα απενεργοποιήθηκε, αυτή η περίπτωση αποδεικνύει ξεκάθαρα ότι η αναγνώριση της προκατάληψης δεν συνεπάγεται απαραίτητα και την επιτυχή εξάλειψή της», σχολιάζει στο ΑΠΕ-ΜΠΕ η κ. Νάντσου.

Πηγή: ΑΠΕ-ΜΠΕ

Τελευταία τροποποίηση στις 02.06.2025 - 14:04