Η τεχνητή νοημοσύνη δεν είναι ουδέτερη
Ό,τι θεωρούμε «έξυπνο» είναι πάντα ανθρώπινο ή απλώς αλγόριθμος;…

Σε μια εποχή όπου η τεχνητή νοημοσύνη μαθαίνει με ταχύτερους ρυθμούς, το κρίσιμο ερώτημα δεν είναι μόνο «τι μπορεί να κάνει η τεχνολογία», αλλά κυρίως «ποιος την καθοδηγεί και με ποιο σκοπό». Η πληροφορία -που είτε παράγεται είτε διακινείται μέσω της AI- δεν είναι ποτέ ουδέτερη. Επηρεάζεται από αξίες, κοινωνικούς κανόνες και σχέσεις εξουσίας.

Όπως τα fake news επηρεάζουν τον δημόσιο λόγο και διαμορφώνουν κοινωνικές αντιλήψεις, έτσι και οι αλγόριθμοι μπορούν να αναπαράγουν ανισότητες ή αποκλεισμούς όταν δεν ελέγχονται κριτικά και όταν στερούνται κοινωνικής ευθύνης.

Στο πλαίσιο της διαπίστευσης της Εκπαιδευτικής Αναπτυξιακής ΠΛΟΗΓΟΣ στον τομέα της Εκπαίδευσης Ενηλίκων μέσω του προγράμματος ERASMUS+, υλοποιήθηκαν δύο δράσεις κινητικότητας: μία στην Κροατία και μία στην Ουγγαρία, με στόχο την εκπαίδευση του προσωπικού πάνω σε επίκαιρα ζητήματα. Το πρόγραμμα συγχρηματοδοτείται από την Ευρωπαϊκή Ένωση, με Εθνική Μονάδα Συντονισμού το Ίδρυμα Κρατικών Υποτροφιών (ΙΚΥ).

Ο Χάλεντ Ταχίρ, κοινωνικός ανθρωπολόγος και στέλεχος του ΠΛΟΗΓΟΥ, συμμετείχε και στις δύο δράσεις. Με πλούσια επιστημονική βάση και ουσιαστική βιωματική εμπλοκή, μιλά σήμερα στην «Π» για τη διασύνδεση της συναισθηματικής (EQ) και πολιτισμικής νοημοσύνης (CQ) με τα νέα εργαλεία τεχνητής νοημοσύνης, τα ηθικά διλήμματα που αναδύονται, αλλά και την ανάγκη για ανθρώπινο έλεγχο σε έναν κόσμο που αυτοματοποιείται.

Ο Χάλεντ Ταχίρ

-Κύριε Ταχίρ, πώς γεννήθηκε το ενδιαφέρον σας για τη σύνδεση της AI με τη συναισθηματική και πολιτισμική νοημοσύνη;

«Η επαφή μου με την Τεχνητή Νοημοσύνη ξεκίνησε από τη θέση μου στην Εκπαιδευτική Αναπτυξιακή ΠΛΟΗΓΟΣ. Όμως, ως κοινωνικός ανθρωπολόγος, με απασχολεί βαθύτερα το πώς τα εργαλεία αυτά αντανακλούν, ενσωματώνουν ή ενισχύουν τις πολιτισμικές προκαταλήψεις και τα συναισθηματικά μας κενά. Στις δράσεις του Erasmus+, ήρθαμε σε επαφή με σύγχρονες θεωρίες, παραδείγματα, αλλά και πρακτικές χρήσεις της AI, που μας έκαναν να αναρωτηθούμε: είναι όντως ουδέτερη; Ή απλώς αναπαράγει αυτό που εμείς έχουμε ενσωματώσει στα δεδομένα της;».

-Ποια ήταν τα βασικά ερωτήματα που αναδύθηκαν μέσα από τις δύο κινητικότητες;

«Στην Κροατία επικεντρωθήκαμε στη σημασία της συναισθηματικής και πολιτισμικής νοημοσύνης -ειδικά στην εκπαίδευση ενηλίκων. Στην Ουγγαρία εμβαθύναμε στα ηθικά διλήμματα της AI: προκατάληψη, διάκριση, απουσία αντιπροσώπευσης. Ίσως το βασικό ερώτημα που τέθηκε ήταν: ποιος φέρει την ευθύνη όταν η απόφαση λαμβάνεται από έναν αλγόριθμο;».

-Θα μπορούσατε να μας δώσετε ορισμένα παραδείγματα αυτών των ηθικών διλημμάτων;

«Ένα πολύ γνωστό είναι το λεγόμενο “Trolley problem” με τα αυτόνομα οχήματα: αν ένα αυτοκίνητο χωρίς οδηγό βρεθεί μπροστά σε δίλημμα, θα σώσει τον οδηγό ή έναν πεζό; Με ποια λογική και από ποιον έχει προγραμματιστεί να πάρει αυτή την απόφαση; Ένα άλλο παράδειγμα είναι η χρήση της AI σε συνεντεύξεις προσωπικού, όπου έχει διαπιστωθεί ότι σε ορισμένα συστήματα αποκλείονταν γυναίκες επειδή τα ιστορικά δεδομένα των εταιρειών έδειχναν ότι στο παρελθόν προσλαμβάνονταν κυρίως άνδρες. Αυτά τα παραδείγματα δείχνουν ότι δεν μιλάμε για υποθετικά σενάρια-μιλάμε για πραγματικές αποφάσεις, που επηρεάζουν ζωές».

-Θεωρείτε ότι μπορεί η AI να λειτουργήσει με δίκαιο τρόπο;

«Θεωρητικά, ναι. Πρακτικά, όχι χωρίς παρέμβαση. Η τεχνητή νοημοσύνη δεν είναι ουδέτερη -είναι κατασκευασμένη. Εκπαιδεύεται μέσα από δεδομένα που αντλούνται από την πραγματική ζωή, άρα ενσωματώνει στερεότυπα, προκαταλήψεις, ακόμη και ανισότητες, αν δεν υπάρξει παρέμβαση και έλεγχος. Το κρίσιμο δεν είναι απλώς να διδάξουμε στους ανθρώπους πώς να χρησιμοποιούν την τεχνολογία, αλλά πώς να τη σκέφτονται. Με κριτικό πνεύμα και με κατανόηση του κοινωνικού πλαισίου μέσα στο οποίο λειτουργεί».

-Μπορεί η AI να αποτελέσει εργαλείο μείωσης των κοινωνικών ανισοτήτων;

«Μπορεί, αλλά υπό προϋποθέσεις. Αν χρησιμοποιηθεί σωστά, με σεβασμό στις ανάγκες και τις διαφορές των ανθρώπων, η τεχνητή νοημοσύνη μπορεί να γίνει ένα χρήσιμο εργαλείο: μπορεί να προσφέρει εξατομικευμένες λύσεις, υποστήριξη σε ευάλωτες ομάδες, ακόμη και να διευκολύνει την πρόσβαση σε εκπαίδευση, εργασία ή υγειονομική φροντίδα. Αν όμως αναπτυχθεί μόνο με τεχνικά ή οικονομικά κριτήρια, χωρίς κοινωνική επίγνωση, τότε ενδέχεται να ενισχύσει τις ήδη υπάρχουσες ανισότητες».

-Ποια είναι η θέση της πολιτισμικής νοημοσύνης (CQ) στον σχεδιασμό της AI;

«Είναι κρίσιμη. Ένα σύστημα που αναπτύσσεται σε ένα συγκεκριμένο πολιτισμικό πλαίσιο -συχνά με βάση τη δυτική σκέψη και τα δικά της πρότυπα ζωής- δεν μπορεί να μεταφερθεί αυτούσιο σε άλλο κοινωνικό περιβάλλον. Η τεχνητή νοημοσύνη δεν μπορεί να εφαρμόζεται με τον ίδιο τρόπο σε κάθε κοινωνία ή σε κάθε πλαίσιο. Χρειάζεται να σχεδιάζεται με σεβασμό στη γλώσσα, στις κοινωνικές νόρμες και στις διαφορετικές συνθήκες ζωής. Διαφορετικά, όχι μόνο δε θα είναι λειτουργική, αλλά μπορεί να προσβάλει».

-Πώς μπορούν οι εκπαιδευτές ενηλίκων να προσεγγίσουν την Τεχνητή Νοημοσύνη χωρίς να αισθάνονται ότι απειλούνται;

«Με γνώση, συνεργασία και κριτική σκέψη. Η τεχνολογία δεν υποκαθιστά τον εκπαιδευτή -τον ενισχύει, όταν χρησιμοποιείται σωστά. Ο ρόλος μας είναι να διδάξουμε στους εκπαιδευόμενους όχι μόνο πώς να τη χρησιμοποιούν, αλλά και πώς να τη σκέφτονται. Αυτό απαιτεί ενδυνάμωση και συνεχές επιμορφωτικό πλαίσιο για τους ίδιους τους εκπαιδευτικούς».

-Ποια είναι, κατά τη γνώμη σας, η μεγαλύτερη πρόκληση που θέτει η AI στην ανθρώπινη ταυτότητα;

«Η μεγαλύτερη πρόκληση της εποχής μας δεν είναι μόνο τεχνολογική. Είναι βαθιά κοινωνική και ηθική. Σε έναν κόσμο που η πληροφορία διακινείται με ταχύτητα και η πραγματικότητα κατασκευάζεται -συχνά και από αυτόματους μηχανισμούς— η ανθρώπινη ευθύνη γίνεται πιο επίκαιρη από ποτέ. Η τεχνητή νοημοσύνη μπορεί να μιμηθεί ανθρώπινες συμπεριφορές, να συνομιλεί, ακόμη και να παράγει περιεχόμενο.

Αλλά ποιος φέρει την ευθύνη για τις πράξεις της; Μπορεί να νιώσει; Μπορεί να κρίνει; Μπορεί να αναλάβει ηθικό βάρος; Το δικό μας κομμάτι ευθύνης είναι να φιλτράρουμε την πληροφορία, να τη σκεφτόμαστε, να την ελέγχουμε-και να θυμόμαστε ότι η τεχνολογία είναι εδώ για να διευκολύνει τη ζωή μας, όχι για να την ορίζει».