Οι αλγόριθμοι είναι παντού

Ρυθμίζουν την καθημερινότητά μας και λαμβάνουν μια σειρά από λιγότερο ή περισσότερο σημαντικές αποφάσεις για λογαριασμό μας. Αυτόματα. Χωρίς εμείς να το καταλάβουμε. Οι αλγόριθμοι διαλέγουν ακόμα και τις ειδήσεις που θα διαβάσουμε, καμιά φορά μάλιστα τις γράφουν. Τους ελέγχει κανείς;
Χρόνος ανάγνωσης: 
11
'

Ένα ανοιξιάτικο απόγευμα του 2014, σε ένα προάστιο του Fort Lauderdale της Φλόριντα, η Μπρίσα Μπόρντεν μαζί με τη φίλη της τρέχουν αργοπορημένες να παραλάβουν την ξαδέρφη της Μπόρντεν από το σχολείο. Ξαφνικά το μάτι τους πέφτει πάνω σε ένα ξεκλείδωτο παιδικό ποδήλατο και ένα σκούτερ. Οι δύο 18χρονες τα αρπάζουν και επιχειρούν να τα οδηγήσουν.

Είναι όμως πολύ αργά. Ένας γείτονας που έχει δει το περιστατικό έχει καλέσει την αστυνομία. Η Μπόρντεν και η φίλη της συλλαμβάνονται και καταδικάζονται για κλοπή αντικειμένων συνολικής αξίας 80 δολαρίων.

Πριν καλά καλά συνειδητοποιήσουν ότι τα δύο παιχνίδια –που ανήκουν σε ένα εξάχρονο αγόρι– είναι πολύ μικρά γι’ αυτές, μία γυναίκα τρέχει προς το μέρος τους φωνάζοντας ότι είναι τα πράγματα του γιου της. Τα δύο κορίτσια αφήνουν αμέσως κάτω το ποδήλατο και το σκούτερ και απομακρύνονται. 

Συγκρίνετε τώρα το “έγκλημα” των δύο κοριτσιών με αυτό του 41χρονου Βέρνον Πρέιτερ, ο οποίος καταδικάστηκε πρόσφατα για κλοπή από καταστήματα εργαλείων αξίας 86 δολαρίων.

Ο Πρέιτερ ήταν έμπειρος κακοποιός. Είχε ήδη καταδικαστεί για ένοπλη ληστεία και απόπειρα ληστείας –για την οποίαν είχε εκτίσει πέντε χρόνια στη φυλακή– συν άλλη μια κλοπή. Και η Μπρίσα Μπόρντεν είχε αστυνομικό φάκελο, αλλά μόνο για κάποια πλημμελήματα που είχε διαπράξει όταν ήταν μικρότερη. Δύο ξεκάθαρα διαφορετικές περιπτώσεις.

Ωστόσο, κάτι περίεργο συνέβη όταν η Μπόρντεν και ο Πρέιτερ φυλακίστηκαν. Το λογισμικό που χρησιμοποιείται σε φυλακές και δικαστήρια για την πρόβλεψη της πιθανότητας διάπραξης μελλοντικών εγκλημάτων έβγαλε τα εξής αποτελέσματα: η Μπόρντεν –η οποία είναι μαύρη– αξιολογήθηκε ως υψηλού κίνδυνου, ενώ ο Πρέιτερ –που είναι λευκός– κατατάχθηκε στην κατηγορία χαμηλού κινδύνου.

Το εν λόγω λογισμικό ανήκει στην εταιρεία Northpointe και είναι ένα από τα πιο ευρέως χρησιμοποιούμενα αυτοματοποιημένα συστήματα αξιολόγησης κρατουμένων στις ΗΠΑ. Η εταιρεία δεν αποκαλύπτει δημοσίως τις λεπτομέρειες του αλγορίθμου που χρησιμοποιεί και τους υπολογισμούς που κάνει για να καταλήξει στην εκτίμηση ρίσκου τέλεσης μελλοντικών εγκλημάτων.

Δύο χρόνια αργότερα, ξέρουμε αυτό που υποπτευόμασταν: ότι ο αλγόριθμος έκανε λάθος. Η Μπόρντεν δεν έχει διαπράξει κανένα νέο έγκλημα, ενώ ο Πρέιτερ εκτίει ποινή φυλάκισης οκτώ ετών για διάρρηξη αποθήκης και κλοπή ηλεκτρονικών ειδών αξίας 8.000 δολαρίων.

Ο αλγόριθμος-δικαστής

Ο γνωστός αμερικανικός ιστότοπος ερευνητικής δημοσιογραφίας ProPublica διεξήγαγε μια εκτενή έρευνα πάνω στο θέμα (από όπου και αντλήσαμε το παραπάνω περιστατικό). Ανέλυσε τις βαθμολογίες που απέδωσε το λογισμικό της Northpointe σε περισσότερα από 7.000 άτομα που συνελήφθησαν στην περιφέρεια Broward της Φλόριντα την περίοδο 2013-14. Στην συνέχεια έλεγξε πόσοι από αυτούς καταδικάστηκαν για νέα εγκλήματα τα επόμενα δύο χρόνια.

Η βαθμολόγηση αποδείχθηκε εξαιρετικά αναξιόπιστη για την πρόβλεψη βίαιων εγκλημάτων: Μόνο το 20% των ανθρώπων που υπολογίσθηκε ότι προβλέπεται να διαπράξουν βίαια εγκλήματα τα διέπραξε στην πραγματικότητα.

Επίσης διαπιστώθηκε ότι το συγκεκριμένο λογισμικό έχει διπλάσιες πιθανότητες να καταδείξει –λανθασμένα– μαύρους κατηγορουμένους, ενώ υπάρχουν διπλάσιες πιθανότητες να κατηγοριοποιήσει λευκούς κατηγορουμένους ως «χαμηλού κινδύνου».

Προγράμματα που βασίζονται σε τέτοιου είδους αυτοματοποιημένους αλγοριθμικούς υπολογισμούς είναι όλο και πιο διαδεδομένα σε δικαστήρια σε όλη την Αμερική. Στις πολιτείες Αριζόνα, Κολοράντο, Κεντάκι, Λουϊζιάνα, Ντέλαγουερ, Οκλαχόμα, Βιρτζίνια, Ουάσιγκτον και Ουισκόνσιν τα αποτελέσματα των αξιολογήσεων αυτών δίνονται στους δικαστές για να τους διευκολύνουν στις αποφάσεις τους, πολλές φορές επηρεάζοντας το ποιος μπορεί να να αποφυλακιστεί. Στο Ουισκόνσιν, η βοηθός γενικός εισαγγελέας Κριστίν Ρέμινγκτον κρούει τον κώδωνα του κινδύνου: «Από μόνα τους τέτοιου είδους σκορ δεν θα πρέπει να καθορίζουν την ποινή κανενός δράστη».

Η χρήση του αλγορίθμου της Northpointe συνεχίζει ωστόσο να χρησιμοποιείται εκτεταμένα από τα δικαστήρια.

Ο “ρατσιστής” αλγόριθμος

Η αυτοματοποίηση δεν επηρεάζει μόνο κάποιες διαδικασίες της δικαιοσύνης. Η χρήση αλγoρίθμων στην καθημερινή μας ζωή είναι πλέον διαδεδομένη, ακόμα και αν σπανιότατα το αντιλαμβανόμαστε.

Για παράδειγμα η δημοφιλής εφαρμογή ταξί Uber, η οποία δραστηριοποιείται και στην Ελλάδα από το 2015 και επιτρέπει σε ιδιώτες κατόχους οχημάτων να μετατραπούν σε οδηγούς προς ενοικίαση, πιάστηκε πρόσφατα “στα πράσα”.

Έρευνα της αμερικανικής εφημερίδας Washington Post αποκάλυψε ότι η Uber προσφέρει καλύτερες υπηρεσίες σε περιοχές όπου κατοικούν και εργάζονται περισσότεροι λευκοί. Η έρευνα διεξήχθη από την Τζένιφερ Σταρκ και τον Νικόλαo Διακόπουλο από το Κολέγιο Δημοσιογραφίας στο Πανεπιστήμιο του Μέριλαντ.

Οι ερευνητές συνέλεξαν δεδομένα από 276 τοποθεσίες της Ουάσιγκτον –κάθε 3 λεπτά και για έναν ολόκληρο μήνα– σχετικά με τους χρόνους αναμονής των πελατών, χρησιμοποιώντας τη λεγόμενη διασύνδεση προγραμματισμού (API) της εφαρμογής του Uber, η οποία επιτρέπει την άντληση σχετικών πληροφοριών χωρίς πρόσβαση στον κώδικα της εφαρμογής.

Η ανάλυση που έκαναν στα δεδομένα της Uber κατέληξε στο ξεκάθαρο συμπέρασμα ότι οι γειτονιές με την καλύτερη εξυπηρέτηση –με σταθερά συντομότερους χρόνους αναμονής– ήταν πιο “λευκές”. Στις περιοχές με περισσότερους Αφροαμερικάνους, Ασιάτες και ισπανόφωνους, οι χρόνοι αναμονής ήταν αισθητά μεγαλύτεροι.

Σε κάθε περίπτωση, η Uber κρατάει ερμητικά κλειστά τα χαρτιά της σε σχέση με τον τρόπο που λειτουργεί η εφαρμογή και αρνείται να δώσει πρόσβαση σε ερευνητές στον κώδικά της, ώστε να αξιολογηθούν οι υπηρεσίες που παρέχει σε διάφορες κοινωνικές ομάδες.

Ο αλγόριθμος-συντάκτης

Οι αλγόριθμοι επηρεάζουν όχι μόνο τις αποφάσεις που παίρνουν άλλοι για εμάς, αλλά και τη ροή των πληροφοριών με βάση τις οποίες παίρνουμε μόνοι μας αποφάσεις.

Πλατφόρμες όπως το Facebook, η Google και το Twitter παύουν να είναι ουδέτερα κανάλια διανομής πληροφοριών –αν υποθέσουμε ότι ήταν ποτέ– και συμπεριφέρονται όλο και περισσότερο σαν μέσα ενημέρωσης, ακολουθώντας μια “εκδοτική γραμμή” σχετικά με τις πληροφορίες που διανέμουν. Έτσι οι αλγόριθμοι κάνουν όλο και περισσότερο τη δουλειά των συντακτών ειδήσεων.

Χαρακτηριστικό παράδειγμα είναι ο αλγόριθμος που χρησιμοποιεί το newsfeed του Facebook, ο οποίος επιλέγει ποιος, πότε και πώς θα δει μιαν ανάρτηση. Το Facebook δίνει αυτόματα προτεραιότητα στις δημοσιεύσεις που αρέσουν στον κάθε χρήστη, ο οποίες ορίζονται ως αυτές που έχει σχολιάσει, κοινοποιήσει ή κλικάρει περισσότερες φορές και γενικά έχει ξοδέψει σε αυτές περισσότερο χρόνο. Εάν για παράδειγμα ένας χρήστης έχει επανειλημμένα κλικάρει σε δημοσιεύσεις που αφορούν τις αμερικανικές εκλογές και ένας φίλος του αναρτήσει ένα άρθρο με θέμα τον Ντόναλντ Τραμπ, τότε αυτό το άρθρο θα εμφανιστεί πιο ψηλά στο newsfeed του σε σχέση με ένα άλλο, άσχετο άρθρο.

Οι αναρτήσεις κατατάσσονται και εμφανίζονται κατά σειρά σπουδαιότητας, από μεγάλα γεγονότα –όπως οι φωτογραφίες γάμου του ξαδέλφου σας ή ένα άρθρο το οποίο κοινοποίησαν πάνω από 10 φίλοι– μέχρι ασήμαντα πράγματα, όπως κάποιο λινκ το οποίο πόσταρε ένας μακρινός γνωστός.

Η χρήση τέτοιων αλγορίθμων έχει ως αποτέλεσμα τον κατακερματισμό της κοινής γνώμης στα μέσα κοινωνικής δικτύωσης. Ήδη επιστημονικές έρευνες έχουν δείξει ότι οι χρήστες του Facebook που ανήκουν σε διαφορετικές “ιδεολογικές κοινότητες” τείνουν να μην αλληλεπιδρούν μεταξύ τους. Έχουν την τάση να επικοινωνούν μόνο με “ομοϊδεάτες” φίλους, δημιουργώντας κλειστές κοινότητες που συζητούν γύρω από συγκεκριμένα αφηγήματα. Το φαινόμενο αυτό οι ερευνητές το ονόμασαν «αντηχείο ειδήσεων» (βλ. echo chamber). Οι αλγόριθμοι παίζουν καθοριστική σημασία στη δημιουργία αυτών των αντηχείων.

Η ανανέωση των παραμέτρων του αλγoρίθμου είναι συνεχής και έχει συνέπειες που είναι δύσκολο να καταγραφούν. Ο Λαρς Μπάκστρομ, διευθυντής Engineering του Facebook, ανακοίνωνε τον Ιούλιο: «Από τις επόμενες εβδομάδες, τα πράγματα που αναρτώνται από τους φίλους για τους οποίους νοιάζεστε περισσότερο θα λαμβάνουν προτεραιότητα στο newsfeed». Αυτό είχε σαν συνέπεια –μιας και ο χώρος που προσφέρει το newsfeed είναι πεπερασμένος– οι αναρτήσεις που γίνονται από φυσικά πρόσωπα να κλέβουν τον χώρο τον οποίον καταλάμβαναν προηγουμένως οι αναρτήσεις των μέσων ενημέρωσης.

Η Έμιλυ Μπελ, διευθύντρια του Tow Center for Digital Journalism, έχει αναφερθεί επανειλημμένα και εκτενώς στις επιπτώσεις της απώλειας ελέγχου των δικτύων διανομής των ειδήσεων από τη βιομηχανία των μέσων ενημέρωσης και της μονοπώλησής τους από αλγοριθμικές πλατφόρμες όπως το Facebook.

Συγκεκριμένα, οι εκδοτικοί οργανισμοί σταδιακά χάνουν την δυνατότητα να έχουν απευθείας πρόσβαση στο αναγνωστικό τους κοινό (όπως π.χ. με μια έντυπη εφημερίδα), καθώς πλέον ο πιο διαδεδομένος τρόπος κατανάλωσης ειδήσεων –ειδικότερα στους νέους– είναι τα μέσα κοινωνικής δικτύωσης.

Επίσης, οι εκδότες δεν έχουν καταφέρει να προσαρμοστούν πλήρως στην ψηφιακή εποχή, να επενδύσουν περισσότερο σε τεχνολογικά καταρτισμένους δημοσιογράφους (π.χ. data journalists) και προγραμματιστές και να δημιουργήσουν ένα βιώσιμο business mοdel το οποίο να τους εξασφαλίζει ικανοποιητικά κέρδη. Μεγάλο μέρος των χρημάτων τα οποία διατίθενται από εταιρείες για διαφήμιση πάνε κατευθείαν στους κολοσσούς της Silicon Valley (Google, Facebook) και δεν φτάνουν ποτέ στους εκδοτικούς οργανισμούς.

Αν εφημερίδες παγκοσμίου φήμης και εμβέλειας όπως οι New York Times και η Guardian προβαίνουν σε εκατοντάδες απολύσεις κάθε χρόνο, τότε πώς θα μπορέσουν να επιβιώσουν μικρότερου μεγέθους εκδοτικοί οργανισμοί;

Ο αλγόριθμος-δημοσιογράφος

Μια λιγότερο γνωστή –αλλά πλέον πολύ διαδεδομένη– χρήση αλγορίθμων είναι στην ίδια τη δημοσιογραφία. Πολλές ειδήσεις γράφονται αυτόματα από αλγορίθμους και το ευρύ κοινό δεν το έχει καν αντιληφθεί.

Το διεθνές πρακτορείο ειδήσεων Associated Press συντάσσει πάνω από 1.000 άρθρα κάθε μήνα χρησιμοποιώντας ένα «bot» που ονομάζεται Wordsmith –προϊόν της εταιρείας Automated Insights. Δεν είναι το μόνο. Μεγάλα μέσα όπως οι New York Times, η Monde, το Forbes, και οι Los Angeles Times χρησιμοποιούν και αυτά αυτοματοποιημένη δημιουργία κειμένου.

Η τεχνολογία είναι πολύ ελκυστική για τους εκδότες μιας και έτσι είναι σε θέση να παράγουν ειδήσεις γρηγορότερα, με λιγότερα λάθη, και σε μεγαλύτερη κλίμακα από ό,τι μπορούν με δημοσιογράφους. Στο Associated Press η αυτοματοποίηση έχει απελευθερώσει 20% του χρόνου του προσωπικού του business desk.

Προς το παρόν, τα αυτοματοποιημένα άρθρα τείνουν να είναι κείμενα απλής καταγραφής: οικονομικές, μετεωρολογικές και αθλητικές ειδήσεις. Τι θα γίνει όμως όταν αρχίσει η κάλυψη πιο περίπλοκων θεμάτων; Ποιες θα είναι οι συνέπειες της εξάπλωσης των αλγορίθμων για τη δημοσιογραφία;

Όπως στις περιπτώσεις της Northpointe και της Uber, έτσι και με τα δημοσιογραφικά bots συχνά γίνονται σφάλματα και παραλείψεις. Τον Ιούλιο του 2015, το bot Wordsmith ανέφερε λάθος τριμηνιαία κέρδη για το Netflix, προκαλώντας σημαντική αμηχανία στο Associated Press. Μια απλή αναζήτηση στο Google για διορθώσεις σε δημοσιεύσεις του ΑΡ για ειδήσεις από την Automated Insights δίνει χιλιάδες αποτελέσματα.

«Τέτοια λάθη συμβαίνουν, αν και δεν είναι σαφές το πόσο συχνά και πόσο σοβαρά είναι», δηλώνει ο Αμερικανός καθηγητής από το Πανεπιστήμιο του Μέριλαντ, Νικόλαος Διακόπουλος, ένας από τους πιο γνωστούς ειδικούς σε θέματα αλγοριθμικής λογοδοσίας.

Ανοίγοντας το αλγοριθμικό “μαύρο κουτί”

Είναι σαφές ότι οι αλγόριθμοι έχουν γίνει πια αναπόσπαστο κομμάτι της καθημερινότητάς μας. Χρησιμοποιούνται από τις κρατικές υπηρεσίες και τη δικαιοσύνη, μέχρι τα μέσα κοινωνικής δικτύωσης, τις υπηρεσίες ταξί και τους εκδοτικούς οργανισμούς. Λαμβάνουν μια σειρά από –λιγότερο ή περισσότερο– σημαντικές αποφάσεις για λογαριασμό μας. Αυτόματα. Χωρίς εμείς να το καταλάβουμε.

Η χρήση αλγοριθμικών συστημάτων έχει αδιαμφισβήτητα πολλά θετικά χαρακτηριστικά, όπως η υπολογιστική ταχύτητα και η μείωση του κόστους. Όμως κάθε καινοτομία χρειάζεται χρόνο για να ενσωματωθεί σωστά στην καθημερινή μας ζωή.

Εδώ και αρκετό καιρό, σε πανεπιστήμια και μέσα ενημέρωσης έχει ξεκινήσει μια συζήτηση που καταλήγει στο συμπέρασμα πως όλοι οι φορείς που χρησιμοποιούν αλγορίθμους θα πρέπει να διασφαλίσουν ότι το κάνουν με έναν ασφαλή, ηθικό, διαφανή και υπεύθυνο τρόπο. Όσο η χρήση των αλγορίθμων εξαπλώνεται, θα πρέπει να εισαγάγουμε δικλείδες ασφαλείας και πρότυπα για τον έλεγχο της ακρίβειας και αξιοπιστίας τους.

Πώς όμως θα μπορούσε να γίνει αυτό; Ο καθηγητής Ν. Διακόπουλος προτείνει τη δημοσιοποίηση διαφόρων πτυχών ενός αλγορίθμου που αφορούν στην ανθρώπινη παρέμβαση, τα δεδομένα, το μοντέλο, την εξατομίκευση και τον βαθμό της αλγοριθμικής παρουσίας. Η δημοσιοποίηση και γνωστοποίηση αυτών των στοιχείων ονομάζεται αλγοριθμική διαφάνεια. Με άλλα λόγια, θα πρέπει να γνωρίζουμε σε ποιο βαθμό έχουν παρέμβει άνθρωποι στους αυτόματους υπολογισμούς ενός αλγορίθμου, από πού αντλούνται τα δεδομένα που τροφοδοτούνται στον αλγόριθμο για να κάνει υπολογισμούς, ποιο είναι το υπολογιστικό μοντέλο που χρησιμοποιείται σε κάθε διεργασία (π.χ. εξίσωση), κατά πόσο χρησιμοποιείται διαφορετικό μοντέλο ανά τύπο χρήστη (εξατομίκευση) και τέλος ποιος είναι ο βαθμός της αλγοριθμικής παρουσίας σε όλη την προσφερόμενη υπηρεσία.

Αλγοριθμική λογοδοσία και διαφάνεια

Δυστυχώς, η έλλειψη γνώσης για τον αυξανόμενο ρόλο που παίζουν οι αλγόριθμοι στην καθημερινή μας ζωή συνεπάγεται έλλειψή δημόσιας πίεσης για τον έλεγχό τους.

Από πού θα ξεκινούσε όμως ένας τέτοιος έλεγχος; Μια καλή αρχή θα ήταν οι ίδιοι οι προγραμματιστές που δημιουργούν αυτά τα συστήματα. Παρότι δεν είναι δυνατό να αφαιρέσει κανείς εντελώς την ανθρώπινη “προκατάληψη” που ενσωματώνεται στον αλγόριθμο (βλ. algorithmic bias), οι ίδιοι θα πρέπει να αποκτήσουν συναίσθηση της ευθύνης και του ρόλου τους στη δημιουργία των εν λόγω συστημάτων.

Πιο συγκεκριμένα, οι αλγόριθμοι παρουσιάζουν τα αποτελέσματα υπολογισμών –όπως αυτοί ορίστηκαν από τον προγραμματιστή τους–χρησιμοποιώντας τα δεδομένα που παρέχονται συνήθως από ανθρώπους, μηχανήματα, ή από έναν συνδυασμό των δύο. Συχνά, σε κάποιο σημείο της διαδικασίας τα αποτελέσματα αυτά μπορεί να επηρεαστούν ακούσια από τις ανθρώπινες προκαταλήψεις που ενσωματώνονται στον προγραμματισμό του αλγόριθμου και το φαινόμενο αυτό ονομάζεται «αλγοριθμική προκατάληψη».

Και οι χρήστες έχουν την ευθύνη να γνωρίζουν τον βαθμό της «αλγοριθμικής προκατάληψης» μιας συγκεκριμένης υπηρεσίας, όταν επιλέγουν να την χρησιμοποιήσουν. Για να καταστεί αυτό δυνατό θα πρέπει να εισαχθούν πρότυπα για το πώς να παρουσιάζονται και να γνωστοποιούνται οι πληροφορίες που σχετίζονται με τη λειτουργία του εκάστοτε αλγορίθμου.

Ο Νικόλαος Διακόπουλος είναι υπέρμαχος της συγκριτικής αξιολόγησης των αλγοριθμικών συστημάτων και της κατάταξής τους σε τυποποιημένες σειρές δεδομένων (benchmarking) –μια μέθοδος η οποία διευκολύνει τη δημοσίευση και την κατανόηση των χαρακτηριστικών τους. «Πρέπει να θέσουμε αυστηρά πρότυπα όταν τίθενται σε κίνδυνο δημοκρατικές διεργασίες ή θέματα υγείας», λέει.

Απουσία νομικού πλαισίου

Μέχρι στιγμής ο διάλογος περί αλγοριθμικής λογοδοσίας έχει περιοριστεί σε κάποιους μικρούς, κυρίως ακαδημαϊκούς και τεχνολογικούς, κύκλους.

Ακόμα δεν υπάρχει νομικό πλαίσιο –σε ευρωπαϊκό ή παγκόσμιο επίπεδο– που να διασφαλίζει την αλγοριθμική λογοδοσία και διαφάνεια και να ενισχύει τις βέλτιστες πρακτικές. Η Ευρωπαϊκή Ένωση έχει λάβει κάποια μέτρα για την ενίσχυση των δικαιωμάτων των καταναλωτών, αλλά δεν διαθέτει ένα γενικό πλαίσιο αλγοριθμικής λογοδοσίας και διαφάνειας. Το θέμα πάντως αναφέρθηκε σε σχετική ανακοίνωση της Επιτροπής, που δημοσιεύτηκε τον περασμένο Μάιο, για τις διαδικτυακές πλατφόρμες. Η ΕΕ έχει επίσης θεσπίσει νέα δέσμη νομοθετικών μέτρων για την προστασία των δεδομένων, που θα μπουν σε ισχύ το 2018, η οποία κάνει νύξη στη λήψη αποφάσεων που βασίζονται στην «αυτοματοποιημένη επεξεργασία» δεδομένων που «επηρεάζουν σημαντικά» τους πολίτες.

Προσπάθειες όπως αυτή της Φινλανδής ευρωβουλευτού Λίσα Γιαακονσάαρι, συγγραφέα ενός πιλοτικού προγράμματος αλγοριθμικής διαφάνειας, είναι ευπρόσδεκτες. Χρειάζεται όμως επειγόντως και ένας διάλογος μεταξύ των επιχειρήσεων τεχνολογίας, των καταναλωτών και των ρυθμιστικών αρχών για να διασφαλισθούν τα δικαιώματα των πολιτών.

Θα είναι δύσκολος ο δρόμος για να πειστούν οι μεγάλες τεχνολογικές εταιρείες να αποκαλύψουν κι άλλες πτυχές των αλγορίθμων, και άρα της τεχνολογίας που χρησιμοποιούν –χάνοντας ίσως έτσι κάποιο ανταγωνιστικό πλεονέκτημα. Πάντως, η βιομηχανία τεχνολογίας έχει κάνει ένα θετικό βήμα προς την αυτορρύθμιση (self-regulation). Στα τέλη Σεπτεμβρίου, γνωστοί τεχνολογικοί γίγαντες όπως η Google, η Facebook, η Microsoft, η Amazon και η IBM ξεκίνησαν μια συλλογική πρωτοβουλία για την προώθηση της Τεχνητής Νοημοσύνης προς όφελος της κοινωνίας, η οποία περιλαμβάνει και τα αλγοριθμικά συστήματα.

Εάν υπάρξει αρκετή δημόσια πίεση, όπως και με άλλα ζητήματα δημοσίου συμφέροντος –π.χ. περιβαλλοντικά– τότε η ζυγαριά θα γείρει προς τους πολίτες.

Ο αλγοριθμικός διαμεσολαβητής

Μια ιδέα προκειμένου να διασφαλίσουμε ότι οι αλγόριθμοι θα λογοδοτούν στους δημιουργούς τους και το κοινό που καλούνται να εξυπηρετήσουν, είναι ένας άνθρωπος-θεσμός που θα τους ελέγχει. Πολλοί ακαδημαϊκοί –συμπεριλαμβανομένου του καθηγητή Νικολάου Διακόπουλου– και τεχνολογικοί ακτιβιστές πιστεύουν ότι η δημιουργία του θεσμού ενός «αλγοριθμικού διαμεσολαβητή» θα συνέβαλε σημαντικά στη διασφάλιση των συμφερόντων των πολιτών.

Ο διαμεσολαβητής θα ενημέρωνε σχετικά με τον βαθμό της αλγοριθμικής προκατάληψης μιας αυτοματοποιημένης υπηρεσίας –όπως π.χ. της Northpointe. Θα εξέταζε κρίσιμα λάθη και παραλείψεις και θα παρενέβαινε όπου έκρινε αναγκαίο. Κάτι τέτοιο θα βοηθούσε στην οικοδόμηση εμπιστοσύνης μεταξύ των πολιτών και ισχυρών μέσων κοινωνικής δικτύωσης, όπως το Facebook και η Google.

Πολλοί πιστεύουν ότι είναι ρόλος του κράτους να επιβάλλει τέτοια αλγοριθμικά πρότυπα. Άλλοι θεωρούν ότι αυτοί οι διαμεσολαβητές θα πρέπει να είναι εσωτερική υπόθεση της εκάστοτε επιχείρησης ή φορέα.

Σε κάθε περίπτωση, ένας εκτενής δημόσιος διάλογος πρέπει να λάβει χώρα για την ευαισθητοποίηση του κοινού σχετικά με αυτό το τόσο εξειδικευμένο θέμα. Η ύπαρξή ενός αλγοριθμικού διαμεσολαβητή, αν μη τι άλλο θα μετρίαζε τις αρνητικές συνέπειες μιας λανθασμένης αλγοριθμικής αξιολόγησης, όπως της καταδίκης της Μπρίσα Μπόρντεν, και θα βοηθούσε να κοιμόμαστε πιο ήσυχα, γνωρίζοντας ότι ασκούμε, ακόμα, έναν ελάχιστο έλεγχο πάνω στη ζωή μας.

Εικόνα panagiotopoulos
Έχει ζήσει και εργαστεί στον τομέα της επικοινωνίας σε Λονδίνο, Ουάσινγκτον και Βρυξέλλες. Άρθρα του έχουν δημοσιευθεί στο Quartz, το CityMetric του Νew Statesman, στο Ευρωπαϊκό Παρατηρητήριο Δημοσιογραφίας, το οpenDemocracy, το Wired, την Copenhagen Post, και το HowWeGetToNext.

Διαβάστε ακόμα

Σχόλια

Εικόνα Anonymous

Σας πείσαμε; Εμείς σας θέλουμε μαζί μας!
Χωρίς τους υποστηρικτές μας
δεν μπορούμε να υπάρχουμε.