
Στις αρχές Ιουλίου του 2019, σε εγκαταστάσεις της ΤΡΑΙΝΟΣΕ στην Αθήνα, σε ειδικά διαμορφωμένο χώρο από το Κέντρο Μελετών Ασφαλείας (τελεί υπό την εποπτεία του υπουργού Προστασίας του Πολίτη), στη διάρκεια πιλοτικής δοκιμής, ένας υποτιθέμενος «ταξιδιώτης» πριν την αναχώρηση ανέβαζε σε ειδική εφαρμογή μια φωτογραφία διαβατηρίου. Στη συνέχεια έπρεπε να απαντήσει σε ερωτήσεις που του έθετε ένας «συνοριοφύλακας». Kατά τη διάρκεια των εικονικών συνεντεύξεων, το ειδικό λογισμικό κατέγραφε τα λόγια και τις κινήσεις του προσώπου του «ταξιδιώτη», αναλύοντας μικροχειρονομίες που μπορεί να διέφευγαν με γυμνό μάτι, με σκοπό να υπολογίσει τον βαθμό ειλικρίνειάς του. Το αποτέλεσμα της ανάλυσης θα καθόριζε την τελική απόφαση για το αν θα του επιτρεπόταν η «επιβίβαση» ή όχι.
Οι ψυχολόγοι θεωρούν τους ανιχνευτές ψεύδους που βασίζονται σε φυσικές ανθρώπινες αντιδράσεις (πολύγραφοι) αναξιόπιστους. Έτσι, σύντομα αναφέρθηκαν σφάλματα και από το –διαβόητο πλέον– iBorderCtrl, ένα σύστημα τεχνητής νοημοσύνης που προοριζόταν να ενισχύσει τη διαδικασία προελέγχου στα σύνορα της ΕΕ υπηκόων τρίτων χωρών που δεν έχουν βίζα, το οποίο χρηματοδοτήθηκε με 4,5 εκατ. ευρώ από το ευρωπαϊκό πρόγραμμα Horizon 2020, ενώ τελικά αποδείχτηκε αναξιόπιστο.
Σε συνέχεια αγωγής από τον ευρωβουλευτή του Κόμματος των Πειρατών Πάτρικ Μπρέγιερ κατά του απορρήτου του «οργουελικού», όπως το χαρακτήρισε, συστήματος iBorderCtrl, το Ευρωπαϊκό Δικαστήριο έκρινε ότι οι πολίτες μπορούν να έχουν μερική πρόσβαση στην τεκμηρίωση του ερευνητικού έργου, όχι όμως σε κρίσιμες πληροφορίες, όπως σχετικά με την νομιμότητα και την αξιοπιστία του. Στις 25 Φεβρουαρίου 2022 ο Μπρέγιερ άσκησε έφεση και αναμένεται η επανεξέταση της υπόθεσης.
Συστήματα τεχνητής νοημοσύνης όπως το iBorderCtrl που λαμβάνουν σημαντικές, αλλά και λιγότερο σημαντικές αποφάσεις, αποτελούν πλέον μέρος αναπόσπαστο της καθημερινότητάς μας: από την εικονική βοηθό της Apple Siri ή τα συστήματα εξατομικευμένων προτάσεων αγορών, όπως αυτό της Amazon, μέχρι τα αυτόνομα οχήματα και τα συστήματα βαθμολόγησης στην εκπαίδευση.
Πρόσφατη προσθήκη αποτελεί το πανίσχυρο chatbot τεχνητής νοημοσύνης ChatGPT, το οποίο μπορεί να παράξει κείμενο για σχεδόν οτιδήποτε και θεωρείται μία από τις πιο εντυπωσιακές τεχνολογικές καινοτομίες του 2022, με σημαντικές επιπτώσεις σε διάφορους τομείς, όπως π.χ. τα πανεπιστήμια.
Παράλληλα, περίπου το 48% των ευρωπαϊκών οργανισμών έχουν ήδη υιοθετήσει την τεχνητή νοημοσύνη σε τουλάχιστον μία επιχειρηματική λειτουργία τους (2020), ενώ το 28% των μεγάλων επιχειρήσεων της ΕΕ χρησιμοποιεί τεχνολογίες τεχνητής νοημοσύνης (2021). Η ενσωμάτωση της τεχνολογίας στη χώρα μας βελτιώνεται, με 4% των ελληνικών εταιρειών να χρησιμοποιούν τεχνητή νοημοσύνη, κάτι που μας τοποθετεί στο ήμισυ του ευρωπαϊκού μέσου όρου, που κυμαίνεται στο 8%.
Τον Απρίλιο του 2021 η Ευρωπαϊκή Επιτροπή δημοσίευσε ένα σχέδιο ευρωπαϊκού κανονισμού για την Τεχνητή Νοημοσύνη (ΑΙ Act), με σκοπό να θέσει ένα πλαίσιο στη χρήση αυτής της τεχνολογίας. Το στοίχημα για την Ευρώπη είναι πολύ φιλόδοξο. Η εκτελεστική αντιπρόεδρος και Επίτροπος για θέματα ψηφιακής πολιτικής Μαργκρέτε Βεστάγκερ δήλωσε με βαρύτητα: «Η ΕΕ πρωτοστατεί στην ανάπτυξη νέων παγκόσμιων προτύπων ώστε να διασφαλιστεί ότι μπορούμε να έχουμε εμπιστοσύνη στην τεχνητή νοημοσύνη. Καθορίζοντας τα πρότυπα, μπορούμε να προετοιμάσουμε το έδαφος για μια τεχνολογία βασιζόμενη σε δεοντολογικές αρχές σε παγκόσμιο επίπεδο και να διασφαλίσουμε ότι η ΕΕ παραμένει ανταγωνιστική καθ' όλη τη διαδικασία».
Για τους πολίτες και τους καταναλωτές η σημασία του AI Act είναι μεγάλη, ιδιαίτερα σε θέματα προστασίας προσωπικών δεδομένων και ιδιωτικότητας, καθότι μέσω του λεγόμενου «εφέ των Βρυξελλών» –της δυνατότητας δηλαδή της ΕΕ να εξάγει τους νόμους της μέσω της αγοράς– αναμένεται να θέσει τον πήχη για τη ρύθμιση της τεχνητής νοημοσύνης όχι μόνο σε ευρωπαϊκό, αλλά και σε παγκόσμιο επίπεδο.
Για τις επιχειρήσεις η νέα νομοθεσία θα παίξει καθοριστικό ρόλο, γιατί θα διαμορφώσει τις υποχρεώσεις κανονιστικής συμμόρφωσής τους και κατ’ επέκταση το πώς αυτές θα επηρεάσουν τα οικονομικά αποτελέσματά τους.
Όπως αναμενόταν, με την εκκίνηση της επεξεργασίας του AI Act από το Συμβούλιο και το Ευρωκοινοβούλιο, η κινητοποίηση των ομάδων συμφερόντων στις Βρυξέλλες ήταν εντυπωσιακή. Μόνο μέσα σε 28 μήνες (Δεκέμβριος 2019 - Μάρτιος 2022) η προέδρος της Ευρωπαϊκής Επιτροπής Ούρσουλα φον ντερ Λάιεν, η Μαργκρέτε Βεστάγκερ, ο Επίτροπος για θέματα εσωτερικής αγοράς Τιερί Μπρετόν και τα επιτελεία τους είχαν τουλάχιστον 71 συναντήσεις με αντιπροσώπους οργανωμένων συμφερόντων και εταιρείες-κολοσσούς.
Τις περισσότερες συναντήσεις (18) πραγματοποίησε η DIGITALEUROPE, το ισχυρότερο ευρωπαϊκό λόμπι της παγκόσμιας βιομηχανίας ψηφιακής τεχνολογίας, το οποίο αριθμεί 96 μέλη, συμπεριλαμβανομένων των Google, Apple, Amazon και Microsoft. Παράλληλα, στο Ευρωκοινοβούλιο η σχετική έκθεση έχει λάβει ήδη πάνω από 3.000 τροπολογίες!
«Για τις μεγάλες εταιρείες τεχνολογίας, το πιο σημαντικό διακύβευμα είναι το πώς θα αντιμετωπιστεί η Τεχνητή Νοημοσύνη Γενικού Σκοπού (GPAI)», μας εξηγεί ο δημοσιογράφος του ιστότοπου Euractiv Λούκα Μπερτούτσι, ο οποίος παρακολουθεί στενά τις διαπραγατεύσεις του AI Act. «Πρόκειται για μεγάλα γλωσσικά μοντέλα (LLMs), τα οποία μπορούν να προσαρμοστούν για τη διεξαγωγή διαφόρων εργασιών, από chat-boxes έως αναγνώριση εικόνων. Αυτός είναι ίσως ο ταχύτερα αναπτυσσόμενος τομέας της τεχνητής νοημοσύνης αυτή τη στιγμή και οι εταιρείες που εξειδικεύονται σε αυτόν υποστηρίζουν ότι δεν μπορεί να τους ζητηθεί να συμμορφωθούν με κανόνες της ΕΕ για την τεχνητή νοημοσύνη, αν δεν γνωρίζουν καν ποια θα είναι η εφαρμογή του προγράμματός τους».
Δεν είναι όμως μόνο ο τομέας της τεχνολογίας που έχει κινητοποιηθεί. «Bλέπουμε τομείς όπως οι ασφαλιστικές εταιρείες να κινητοποιούνται για να πετύχουν πλήρη ή μερική εξαίρεσή τους από τον λεγόμενο “κατάλογο τομέων υψηλού κινδύνου”, οι οποίοι θα πρέπει να συμμορφώνονται με διευρυμένες υποχρεώσεις», συμπληρώνει ο Λούκα Μπερτούτσι. «Στην κορυφή αυτών των συμφερόντων βρίσκονται οι ίδιες οι ευρωπαϊκές κυβερνήσεις, οι οποίες παραδοσιακά θέλουν να διαφυλάξουν τις εθνικές τους αρμοδιότητες, όπως η άμυνα και η επιβολή του νόμου».
Ορισμός της Τεχνητής Νοημοσύνης: Δεδομένου του τρόπου με τον οποίον ο κανονισμός μπορεί δυνητικά να επηρεάσει εκατομμύρια ανθρώπους, αλλά και τις μελλοντικές προσεγγίσεις για τη ρύθμιση της τεχνητής νοημοσύνης, οι συζητήσεις για την ορολογία είναι πολλές. Βασική πρόκληση για τις ρυθμιστικές αρχές σε σχέση με την ορολογία είναι ότι ο οποιοσδήποτε ορισμός της τεχνητής νοημοσύνης, π.χ. των συστημάτων ΑΙ υψηλού κινδύνου, πρέπει να είναι στενός και συγκεκριμένος – αρκετά ευρύς όμως παράλληλα, ώστε να είναι ανθεκτικός στον χρόνο. Δεδομένης της ταχείας εξέλιξης του τομέα, η ορολογία θα πρέπει να μπορεί να καταγράφει επιτυχώς τους κινδύνους που συνδέονται με τα συστήματα τεχνητής νοημοσύνης όχι μόνο σήμερα, αλλά και στο μέλλον.
Κατηγοριοποίηση κινδύνου: Θεμελιώδες στοιχείο του ΑΙ Act είναι ότι κατηγοριοποιεί τα συστήματα τεχνητής νοημοσύνης σε τέσσερα επίπεδα κινδύνου, τα οποία είτε θα απαγορεύονται, είτε θα έχουν διαφορετικές υποχρεώσεις συμμόρφωσης.
- Απαράδεκτος κίνδυνος: Η πρώτη κατηγορία περιγράφει τις χρήσεις των συστημάτων τεχνητής νοημοσύνης που ενέχουν απαράδεκτο επίπεδο κινδύνου για την κοινωνία και τους πολίτες και συνεπώς θα πρέπει να απαγορεύονται. Τέτοια παραδείγματα αποτελούν πρακτικές όπως η κοινωνική βαθμολόγηση (social scoring), συστήματα AI που χρησιμοποιούν υποσυνείδητες τεχνικές –όπως ο αλγόριθμος του Instagram που είναι επιβλαβής για έφηβα κορίτσια– ή συστήματα που εκμεταλλεύονται τα τρωτά σημεία συγκεκριμένων κοινωνικών ομάδων.
- Υψηλός κίνδυνος: Τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου βρίσκονται στο επίκεντρο του AI Act, καθότι αυτά θα πρέπει να συμμορφώνονται με συγκεκριμένες απαιτήσεις όπως τεκμηρίωση, διασφαλίσεις των δεδομένων (σχετικά π.χ. με την προκατάληψη, τη διακυβέρνηση και την προέλευση), διαφάνεια και ανθρώπινη εποπτεία. Ο προτεινόμενος κατάλογος των συστημάτων υψηλού κινδύνου βρίσκεται στο άρθρο 6, παράρτημα ΙΙΙ του σχεδίου κανονισμού και αποτελεί το πιο πολυσυζητημένο τμήμα της προτεινόμενης νομοθεσίας. Παραδείγματα αποτελούν συστήματα που χρησιμοποιούνται στις μεταφορές τα οποία θα μπορούσαν να θέσουν σε κίνδυνο τη ζωή και την υγεία των επιβατών (όπως η πρόσφατη καραμπόλα οκτώ αυτοκινήτων στην Καλιφόρνια που προκλήθηκε από το πλήρως αυτοοδηγούμενο αυτοκίνητο της Tesla) ή συστήματα που χρησιμοποιούνται σε βασικές ιδιωτικές και δημόσιες υπηρεσίες (π.χ. βαθμολόγηση της πιστοληπτικής ικανότητας, που θα στερεί από τους πολίτες τη δυνατότητα να λάβουν δάνειο), ή αυτοματοποιημένα εργαλεία recruitment για την αξιολόγηση βιογραφικών.
- Περιορισμένος κίνδυνος: Τα συστήματα αυτής της κατηγορίας έχουν συγκεκριμένες υποχρεώσεις διαφάνειας. Οι πάροχοι πρέπει να διασφαλίζουν ότι οι πολίτες είναι ενήμεροι ότι αλληλοεπιδρούν με ένα σύστημα τεχνητής νοημοσύνης, δίνοντάς τους τη δυνατότητα να επιλέξουν να συνεχίσουν να το χρησιμοποιούν ή όχι. Παραδείγματα αποτελούν τα deep fakes, δηλαδή συστήματα AI που μπορούν να μιμηθούν με μεγάλη αληθοφάνεια εικόνα, ήχο ή βίντεο.
- Ελάχιστος κίνδυνος: Αυτή η κατηγορία περιλαμβάνει συστήματα τεχνητής νοημοσύνης που αποτελούν ελάχιστο ή ανύπαρκτο κίνδυνο για τα δικαιώματα ή την ασφάλεια των πολιτών, όπως βιντεοπαιχνίδια με δυνατότητα τεχνητής νοημοσύνης ή φίλτρα spam.
Ευθύνη: Μεγάλο μέρος του AI Act καταπιάνεται με την ευθύνη της οντότητας που διαθέτει το σύστημα τεχνητής νοημοσύνης στην αγορά ή προβαίνει σε ουσιαστική τροποποίησή του.
Υποχρεώσεις για τα συστήματα υψηλού κινδύνου: Το ΑΙ Αct επηρεάζει κάθε πάροχο ή διανομέα συστημάτων τεχνητής νοημοσύνης που αγγίζουν την ευρωπαϊκή αγορά, ακόμη και αν η εν λόγω επιχείρηση δεν έχει έδρα στην ΕΕ. Με βάση την κατηγορία επιπέδου κινδύνου του εκάστοτε συστήματος, οι επηρεαζόμενές επιχειρήσεις θα πρέπει όπως προαναφέραμε να πληρούν διάφορες υποχρεώσεις, όπως π.χ. τεκμηρίωσης, διασφάλισης των δεδομένων κ.ά.
Αξιολογήσεις συμμόρφωσης για χρήσεις υψηλού κινδύνου: Προκειμένου να διατεθούν στην αγορά συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου θα πρέπει να παρέχουν εκ των προτέρων (ex-ante) αξιολογήσεις συμμόρφωσης με τον νόμο.
Τεχνικές και ελεγκτικές απαιτήσεις για συστήματα υψηλού κινδύνου: Οι υπεύθυνοι για τα συστήματα υψηλού κινδύνου πρέπει να πληρούν τις τεχνικές απαιτήσεις που σχετίζονται με τον σχεδιασμό, την ανάπτυξη και τη συντήρηση των συστημάτων.
Παρακολούθηση για συστήματα υψηλού κινδύνου μετά τη διάθεσή τους στην αγορά: Σε περίπτωση σοβαρών περιστατικών, όπως παραβίαση θεμελιωδών δικαιωμάτων ή νόμων περί ασφάλειας, οι πάροχοι του συστήματος θα πρέπει να αναφέρουν το περιστατικό στον εθνικό εποπτικό φορέα.
Εποπτεία και επιβολή: Όπως και με το GDPR, το ΑΙ Act απαιτεί τον ορισμό ρυθμιστικών αρχών στα κράτη μέλη, οι οποίες θα είναι στη συνέχεια υπεύθυνες για την επιβολή του και τις κυρώσεις.
Κυρώσεις: Οι κυρώσεις για την παραβίαση του κανονισμού θα εφαρμόζονται και σε μέρη εκτός της ΕΕ (π.χ. Silicon Valley), εάν το output (δηλαδή η χρήση) του συστήματος πραγματοποιείται εντός της ΕΕ, όπως γίνεται και με το GDPR. Η μη συμμόρφωση με τους κανόνες σχετικά με τις απαγορευμένες χρήσεις και τη διακυβέρνηση δεδομένων θα τιμωρείται με πρόστιμο έως 30 εκατ. ευρώ ή 6% του παγκόσμιου ετήσιου κύκλου εργασιών (όποιο από τα δύο είναι υψηλότερο). Για τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου, το ανώτατο όριο είναι 20 εκατ. ευρώ ή το 4% του κύκλου εργασιών.
Το σημείο στο οποίο οι υπερασπιστές των ψηφιακών δικαιωμάτων θεωρούν ότι το AI Act δεν είναι αρκετά τολμηρό, είναι οι χρήσεις της τεχνητής νοημοσύνης που πρέπει να απαγορευτούν – ιδίως οι χρήσεις που σχετίζονται με βιομετρικά δεδομένα (δακτυλικά αποτυπώματα, πρόσωπο, ίριδα κ.ά.) και στην επιτήρηση.
Μεγάλος αριθμός ερευνών προειδοποιεί για τον κίνδυνο τέτοιων πρακτικών, ιδίως για τα άτομα με περιθωριοποιημένο υπόβαθρο (ΛΟΑΤΚΙ, ηλικιωμένοι, μειονότητες κ.ά.). Το σχέδιο κανονισμού περιλαμβάνει διατύπωση που απαγορεύει την κοινωνική βαθμολόγηση (social scoring), την απόδοση δηλαδή σε ένα άτομο μιας βαθμολογίας αξιοπιστίας με βάση διάφορα δεδομένα, η οποία μπορεί να επηρεάσει την δυνατότητά του να λάβει δάνειο, να έχει πρόσβαση σε δημόσιες παροχές ή να ταξιδέψει.
Η χρήση της τεχνητής νοημοσύνης στην επιβολή του νόμου είναι ένα θέμα που συζητιέται πολύ έντονα, δεδομένου του σοβαρού κινδύνου που ενέχει η λήψη αποφάσεων γύρω από μηχανισμούς αστυνόμευσης, φυλάκισης και επιτήρησης. Επί του παρόντος, το σχέδιο κανονισμού περιορίζει τη χρήση της αναγνώρισης προσώπου (facial recognition) σε δημόσιους χώρους για την επιβολή του νόμου. Ωστόσο, υπάρχει περιθώριο στην τρέχουσα διατύπωση να επιτραπούν οι πρακτικές μαζικής βιομετρικής επιτήρησης σε διάφορες περιπτώσεις, όπως στην ανεύρεση εξαφανισμένων παιδιών.
Ήδη πολλές ευρωπαϊκές αστυνομικές αρχές χρησιμοποιούν τα άκρως αμφιλεγόμενα συστήματα απομακρυσμένης βιομετρικής αναγνώρισης/ταυτοποίησης (Remote Biometric Identification – RBI) σε πραγματικό χρόνο: η αστυνομία της Τσεχίας χρησιμοποιεί το σύστημα Insights της Cogniware, το οποίο παρέχει αναγνώριση προσώπου σε πραγματικό χρόνο, η γερμανική αστυνομία το κάνει σε σιδηροδρομικούς σταθμούς και η ολλανδική αστυνομία –και άλλες αρχές– σε διάφορες τοποθεσίες.
«Αναφορικά με τα συστήματα RBI πραγματικού χρόνου, η ύπαρξη οποιασδήποτε εξαίρεσης από την απαγόρευση στην πραγματικότητα αποτελεί κίνητρο για την εξάπλωση αυτών των συστημάτων, τα οποία αποδεδειγμένα παραβιάζουν σοβαρά τα ανθρώπινα δικαιώματα», μας λέει η ακτιβίστρια θεμάτων τεχνητής νοημοσύνης του οργανισμού European Digital Rights (EDRi) Έλλα Γιακούμποβσκα. «Ακόμη κατά την επιδίωξη σημαντικών στόχων, όπως είναι ο εντοπισμός εξαφανισμένων ανηλίκων ή η ταυτοποίηση υπόπτων για σοβαρά εγκλήματα, υπάρχουν πάντα πολύ λιγότερο επεμβατικές και επικίνδυνες εναλλακτικές λύσεις που μπορεί να χρησιμοποιήσει η αστυνομία».
«Η χρήση συστημάτων RBI σε πραγματικό ή όχι χρόνο σε δημόσιους χώρους συνεπάγεται εξ ορισμού μη στοχευμένη, μαζική βιομετρική επιτήρηση, η οποία ενέχει απαράδεκτους κινδύνους για το θεμελιώδες δικαίωμα της ιδιωτικότητας και έχει αναχαιτιστικό αποτέλεσμα σε άλλα δικαιώματα, συμπεριλαμβανομένης της συμμετοχής σε διαδηλώσεις ή της ελεύθερης έκφρασης. Καθώς αυτού του είδους τα συστήματα δεν θα πληρούν ποτέ το νομικό όριο της αναγκαιότητας και της αναλογικότητας, το AI Act θα πρέπει να τα απαγορεύει πλήρως, χωρίς καμία εξαίρεση. Αυτή είναι και η θέση του Ευρωπαίου Επόπτη Προστασίας Δεδομένων (EDPS) και του Ευρωπαϊκού Συμβουλίου Προστασίας Δεδομένων (EDPB)», μας εξηγεί η σύμβουλος θεμάτων ψηφιακού αστικού χώρου του Ευρωπαϊκού Κέντρου Μη Κερδοσκοπικού Δικαίου (ECNL), Καρολίνα Ιβάνσκα.
Το Συμβούλιο της ΕΕ, με μια απογοητευτική για την κοινωνία των πολιτών κίνηση, κατέληξε σε μια θέση τον Δεκέμβριο που θα αμβλύνει την προτεινόμενη απαγόρευση των συστημάτων RBI – παρά τη διαφωνία της Γερμανίας και, σύμφωνα με πληροφορίες, της Αυστρίας. H Γερμανία τάσσεται υπέρ της πλήρους απαγόρευσης της τεχνολογίας βιομετρικής αναγνώρισης, πράγμα που τη φέρνει πιο κοντά από τα άλλα κράτη-μέλη στη θέση του Ευρωπαϊκού Κοινοβουλίου.
Η θέση του Συμβουλίου της ΕΕ του Δεκεμβρίου –δηλαδή η θέση των ευρωπαϊκών κυβερνήσεων– αναφέρει ότι τα συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται για λόγους εθνικής ασφάλειας, άμυνας ή για στρατιωτικούς σκοπούς δεν θα εμπίπτουν στο πεδίο εφαρμογής του κανονισμού. Επιπλέον, όπως προαναφέρθηκε, υπάρχουν πολλές εξαιρέσεις από τις απαιτήσεις για χρήσεις συστημάτων τεχνητής νοημοσύνης από τις αστυνομικές αρχές για τον εντοπισμό και την πρόληψη του εγκλήματος.
Υπέρμαχοι των ανθρωπίνων δικαιωμάτων υποστηρίζουν πως αυτές οι εξαιρέσεις μπορούν να είναι επιβλαβείς, επιτρέποντας σε αυταρχικές κυβερνήσεις να χρησιμοποιήσουν τελικά social scoring ή μαζική βιομετρική επιτήρηση υπό το πρόσχημα της «εθνικής ασφάλειας».
«Για να δικαιολογήσουν μια ευρεία εξαίρεση, οι κυβερνήσεις υποστηρίζουν ότι, σύμφωνα με τις συνθήκες της ΕΕ, η εθνική ασφάλεια είναι αποκλειστική αρμοδιότητα των κρατών-μελών. Ωστόσο, ο κανονισμός για την τεχνητή́ νοημοσύνη ρυθμίζει την εσωτερική αγορά και όχι την εθνική ασφάλεια», μας εξηγεί η Καρολίνα Ιβάνσκα.
«Μια τέτοια καθολική εξαίρεση έρχεται σε αντίθεση με πρόσφατες αποφάσεις του Δικαστηρίου της Ευρωπαϊκής Ένωσης (ΔΕΕ), οι οποίες διευκρινίζουν ότι, ακόμη και όταν τα κράτη-μέλη της ΕΕ έχουν αποκλειστική αρμοδιότητα σε ορισμένους τομείς (όπως η εθνική ασφάλεια), δεν μπορούν να υπονομεύουν τους κανόνες της ΕΕ εκεί όπου η ΕΕ έχει αρμοδιότητα (όπως η εσωτερική αγορά). Αντιθέτως, θεωρούμε τις προτάσεις αυτές ως μια προσπάθεια των κυβερνήσεων να αποφύγουν τον έλεγχο και τη λογοδοσία σε μια από τις πιο αμφιλεγόμενες και πολιτικοποιημένες χρήσεις της τεχνητής νοημοσύνης».
Με μια γενική εξαίρεση για τις χρήσεις της τεχνητής νοημοσύνης για λόγους εθνικής ασφάλειας, οι κυβερνήσεις της ΕΕ θα δημιουργήσουν μια ζώνη χωρίς δικαιώματα στις περιπτώσεις όπου η χρήση της τεχνητής νοημοσύνης αποτελεί αναμφισβήτητα τη μεγαλύτερη απειλή για τα θεμελιώδη δικαιώματα.
«Η έλλειψη σαφήνειας γύρω από τον ορισμό της εθνικής ασφάλειας σημαίνει ότι, ακόμη και αν υπάρξει πλήρης απαγόρευση των συστημάτων απομακρυσμένης βιομετρικής αναγνώρισης (RBI), χωρίς εξαιρέσεις, οι κυβερνήσεις θα μπορούσαν εύκολα να τα “αναστήσουν” όποτε γίνεται επίκληση της εθνικής ασφάλειας», λέει η Καρολίνα Ιβάνσκα.
«Επιπλέον, δεν θα ισχύουν οι εγγυήσεις που αποσκοπούν στην αποτροπή των διακρίσεων ή στη διασφάλιση της ανθρώπινης εποπτείας. Αυτός είναι ο λόγος για τον οποίο θα πρέπει να καταργηθεί εντελώς η γενική εξαίρεση για την εθνική ασφάλεια από τον κανονισμό. Οι όποιες εξαιρέσεις πρέπει να είναι αναλογικές και να αποφασίζονται κατά περίπτωση».
Τον περασμένο Δεκέμβριο, 192 οργανώσεις συμπεριλαμβανομένων των European Digital Rights (EDRi), Access Now, ECNL, Διεθνούς Αμνηστίας, Homo Digitalis κ.ά. δημοσίευσαν ανοιχτή επιστολή με την οποία καλούσαν την ΕΕ να προβεί σε σημαντικές αλλαγές στο ΑΙ Act, ώστε να αντιμετωπιστούν καλύτερα οι βλάβες της τεχνητής νοημοσύνης όταν αυτή χρησιμοποιείται στο πλαίσιο της μετανάστευσης.
«Τα συστήματα που χρησιμοποιούνται σε αυτό το πλαίσιο αποτελούν ένα καλό παράδειγμα τεχνητής νοημοσύνης που δεν μπορεί να διορθωθεί ή να αφαιρεθούν από αυτό οι προκαταλήψεις, καθώς ο σχεδιασμός και η ανάπτυξή τους αποτελούν μέρος ενός ευρύτερου συστήματος διακρίσεων», μας λέει η αναλύτρια θεμάτων ευρωπαϊκής πολιτικής της οργάνωσης Access Now, Κατερίνα Ροντέλι.
Πλήρης απαγόρευση: Συγκεκριμένα, οι οργανώσεις της κοινωνίας των πολιτών ζητούν την πλήρη απαγόρευση δύο συγκεκριμένων ειδών συστημάτων που χρησιμοποιούνται στη μετανάστευση:
1. Προγνωστικά αναλυτικά συστήματα όταν χρησιμοποιούνται για την απαγόρευση, τον περιορισμό και την πρόληψη της μετανάστευσης. Τα συστήματα αυτά παρουσιάζονται ως «κρυστάλλινες σφαίρες», ως τεχνολογία ικανή να προβλέψει πού θα υπάρξει κίνδυνος «παράτυπης μετανάστευσης» στα σύνορα της ΕΕ. Ένα παράδειγμα αυτού του συστήματος είναι το χρηματοδοτούμενο από την ΕΕ ITFlows project, για το οποίο η κοινωνία των πολιτών έχει ζητήσει να σταματήσει η λειτουργία του εργαλείου πρόβλεψής του (EUMigraTool). «Αυτός ο τύπος ΑΙ είναι προβληματικός σε πολλά επίπεδα. Η τεχνητή νοημοσύνη δεν μπορεί να προβλέψει μελλοντικά κοινωνικά αποτελέσματα. Παράλληλα οι τεχνολογίες πρόβλεψης κινδυνεύουν να επαναχρησιμοποιηθούν για την ασφαλειοποίηση και την ποινικοποίηση της μετανάστευσης», εξηγεί η Κατερίνα Ροντέλι.
2. Αυτοματοποιημένες εκτιμήσεις κινδύνου (risk assessment) και συστήματα profiling. Τα συστήματα αυτά περιλαμβάνουν τη χρήση AI για να εκτιμηθεί κατά πόσον τα άτομα που μεταναστεύουν δημιουργούν «κίνδυνο» παράνομης δραστηριότητας ή αποτελούν απειλή για την ασφάλεια. Ένα παράδειγμα είναι ο αλγόριθμος ροής θεωρήσεων που χρησιμοποιούσε το υπουργείο Εσωτερικών του Ηνωμένου Βασιλείου για τον έλεγχο των αιτήσεων για βίζα, ο οποίος το 2020 ανεστάλη, καθώς «εδραίωνε τον ρατσισμό και την προκατάληψη», σύμφωνα με το ίδιο το βρετανικό υπουργείο Εσωτερικών. Τόσο οργανώσεις της κοινωνίας των πολιτών όσο και ερευνητές έχουν εκφράσει ανησυχίες σχετικά με την εγγενή προκατάληψη των συστημάτων αυτοματοποιημένου profiling –για τα οποία υπάρχει μεγάλη επιθυμία να συμπεριληφθούν σε διοικητικές διαδικασίες της ΕΕ, όπως στην αίτηση θεώρησης μέσω του Συστήματος Πληροφοριών για τις Θεωρήσεις (VIS) και στο Ευρωπαϊκό Σύστημα Πληροφοριών και Αδειοδότησης Ταξιδιού (ETIAS)– και υποστηρίζουν ότι τα συστήματα αυτού του τύπου οδηγούν σε άμεσες και έμμεσες διακρίσεις.
Τέλος, το AI Act «θα πρέπει να απαγορεύσει όλους τους τύπους αναγνώρισης συναισθημάτων (π.χ. ανιχνευτές ψεύδους όπως το iBorderCtrl), τα συστήματα βιομετρικής κατηγοριοποίησης (π.χ. συστήματα ανάλυσης συμπεριφοράς ή συστήματα αναγνώρισης διαλέκτου), συστήματα RBI και να διασφαλίσει ότι η απαγόρευση ισχύει και στο πλαίσιο της μετανάστευσης», προσθέτει η Κατερίνα Ροντέλι.
Συστήματα υψηλού κινδύνου: Όλοι οι τύποι συστημάτων που χρησιμοποιούνται στη μετανάστευση και περιλαμβάνουν τεχνητή νοημοσύνη και μηχανική μάθηση θα πρέπει να υπόκεινται σε αυστηρούς κανόνες ρύθμισης. Για παράδειγμα:
- Συστήματα βιομετρικής ταυτοποίησης, όπως οι φορητοί σαρωτές δακτυλικών αποτυπωμάτων και προσώπων. Τα συστήματα αυτά θα χρησιμοποιούνται όλο και περισσότερο για τη διενέργεια ελέγχων ταυτότητας, τόσο στα σύνορα της ΕΕ όσο και εντός αυτών. Τα συστήματα αυτά διευκολύνουν και αυξάνουν την παράνομη και επιβλαβή πρακτική του φυλετικού profiling – με τη φυλή, την εθνικότητα ή το χρώμα του δέρματος να χρησιμεύουν ως υποκατάστατο για τη μεταναστευτική κατάσταση (migration status) ενός ατόμου. Ένα παράδειγμα τέτοιου συστήματος είναι οι φορητές συσκευές που, σύμφωνα με το Human Rights Watch, σχεδιάζει να χρησιμοποιήσει η ελληνική αστυνομία (Πρόγραμμα «Έξυπνης Αστυνόμευσης» ύψους 4,5 εκατ. ευρώ που ανατέθηκε στην Intracom Telecom).
- Συστήματα τεχνητής νοημοσύνης για την παρακολούθηση και επιτήρηση των συνόρων. Όπως καταδεικνύεται στην έκθεση «The Black Book of Pushbacks» το Border Violence Monitoring Network, χιλιάδες άνθρωποι έχουν επαναπροωθηθεί στα σύνορα της ΕΕ και εντός αυτών. Η τεχνολογία επιτήρησης, όπως οι θερμικές κάμερες και τα ανιχνευτικά drones, παίζει ήδη καθοριστικό ρόλο στην ενίσχυση της ικανότητας διεξαγωγής αυτών των παράνομων πρακτικών. Η ίδια τεχνολογία χρησιμοποιείται επίσης για τη διενέργεια επαναπροωθήσεων στην ανοικτή θάλασσα, όπως στην περίπτωση των drone που χρησιμοποιεί η Frontex στην Κεντρική Μεσόγειο, που παρέχουν οδηγίες στη λιβυκή ακτοφυλακή σχετικά με τον τρόπο επαναπροώθησης ανθρώπων στη Λιβύη.
Όπως προαναφέραμε, το Συμβούλιο της ΕΕ κατέληξε στη θέση του πάνω στο ΑΙ Act τον Δεκέμβριο. Το Ευρωκοινοβούλιο αναμένεται να κάνει το ίδιο το πρώτο εξάμηνο του 2023. Στη συνέχεια θα ξεκινήσει το τελικό στάδιο των διαπραγματεύσεων, οι λεγόμενες τριμερείς διαπραγματεύσεις (trilogue). Υπάρχει έντονο ενδιαφέρον και στα δύο θεσμικά όργανα να καταλήξουν σε πολιτική συμφωνία μέχρι το τέλος της τρέχουσας θητείας, πιθανότατα κατά την διάρκεια της ισπανικής προεδρίας που θα ξεκινήσει τον Ιούλιο.
Στο Ευρωκοινοβούλιο, «η απόσταση μεταξύ κεντροδεξιών και προοδευτικών ευρωβουλευτών είναι ιδιαίτερα έντονη σε θέματα όπως ο ορισμός της τεχνητής νοημοσύνης, ο οποίος καθορίζει ολόκληρο το πεδίο εφαρμογής του κανονισμού και ο τρόπος αντιμετώπισης των εφαρμογών τεχνητής νοημοσύνης υψηλού κινδύνου», μας λέει ο Λούκα Μπερτούτσι.
«Φαίνεται να υπάρχει πλειοψηφία υπέρ της πλήρους απαγόρευσης της τεχνολογίας βιομετρικής αναγνώρισης, με μόνη αντίθεση του Ευρωπαϊκού Λαϊκού Κόμματος»
Λούκα Μπερτούτσι, Euractiv
«Πάντως, φαίνεται να υπάρχει πλειοψηφία υπέρ της πλήρους απαγόρευσης της τεχνολογίας βιομετρικής αναγνώρισης, με μόνη αντίθεση του Ευρωπαϊκού Λαϊκού Κόμματος, αλλά αυτό είναι πιθανό να αποτελέσει ένα αμφιλεγόμενο σημείο στο Συμβούλιο, στο τελικό στάδιο των διαπραγματεύσεων».
Καθώς το Ευρωκοινοβούλιο δεν έχει ακόμα καταλήξει στο κείμενό του, είναι δύσκολο να προβλέψουμε ακριβώς πού θα διαμορφωθούν οι διαχωριστικές γραμμές στις τριμερείς διαπραγματεύσεις. «Είναι σχεδόν βέβαιο πως ο ορισμός της τεχνητής νοημοσύνης, οι κατηγορίες υψηλού κινδύνου και η τεχνητή νοημοσύνη γενικού σκοπού (GPAI) θα αποτελέσουν σημεία αντιπαράθεσης», συνεχίζει ο Λούκα Μπερτούτσι.
Η τεχνητή νοημοσύνη είναι μια αναδυόμενη τεχνολογία και είναι δύσκολο να φανταστεί κανείς πώς θα εφαρμοστεί τα επόμενα χρόνια. Με το AI Act, η Ευρώπη έχει την ευκαιρία να διαδραματίσει ένα πολύ σημαντικό ρόλο.
«Ο βαθμός στον οποίον ο κανονισμός θα κατασκευαστεί με γνώμονα το μέλλον (future-proof) θα είναι ένας από τους πιο καθοριστικούς παράγοντες για την επιτυχία του», καταλήγει ο Λούκα Μπερτούτσι.
Σχόλια