Μετάβαση στο κύριο περιεχόμενο

Το άρθρο αυτό σας το προσφέρει ο συνδρομητής Ειρήνη Σωτηροπούλου.

Γίνετε συνδρομητής για να μπορείτε να τα μοιραστείτε και εσείς.

Χρόνος ανάγνωσης:
14'
Κείμενο:
aihuman

Αγριεύουν οι μάχες γύρω από την τεχνητή νοημοσύνη

Αν το inside story ήθελε να αναδημοσιεύσει ένα ρεπορτάζ των New York Times, θα έπρεπε να το χρυσοπληρώσει. Πώς γίνεται λοιπόν το ChatGPT και τα σχετικά εργαλεία να διαβάζουν ό,τι υπάρχει στο διαδίκτυο κι έπειτα να διαθέτουν αυτή τη γνώση στους χρήστες τους, χωρίς να τους κοστίζει; Τα πράγματα είναι σύνθετα· όμως οι δημιουργοί περιεχομένου είναι έτοιμοι για μάχη.

Τους τελευταίους μήνες, οι εξελίξεις στον τομέα της παραγωγικής τεχνητής νοημοσύνης ήταν καταιγιστικές: από την ξαφνική αποκαθήλωση και τον επαναδιορισμό του Σαμ Όλτμαν, γενικού διευθυντή της OpenAI, της εταιρείας που έφτιαξε το ChatGPT και το Dall-E, μέχρι το λανσάρισμα του Gemini, του εργαλείου παραγωγικής τεχνητής νοημοσύνης της Google. Το αποκορύφωμα ήταν ίσως η παρουσίαση της Sora, του εργαλείου της OpenAI που μπορεί να παράγει σύντομα βίντεο (έως ένα λεπτό) σύμφωνα με τις οδηγίες των χρηστών.

Φαίνεται πως οι μεγάλες εταιρείες λογισμικού –η Google, η Meta και η Microsoft, που αποτελεί ουσιαστικά την επενδυτική ραχοκοκαλιά της OpenAI– παίζουν μόνες τους μπάλα σε αυτό το γήπεδο, με κάποιες μικρότερες εταιρείες όπως η Midjourney και η Stability AI να έχουν επίσης βγάλει στην αγορά αξιοπρόσεκτα εργαλεία δημιουργίας εικόνων με τεχνητή νοημοσύνη. Όμως, η αλματώδης ανάπτυξη των μοντέλων τεχνητής νοημοσύνης δε θα ήταν δυνατή χωρίς τον τεράστιο όγκο δεδομένων που αντλήθηκε από το διαδίκτυο και χρησιμοποιήθηκε για την εκπαίδευσή τους. Τώρα, οι δημιουργοί αυτού του περιεχομένου, το οποίο υπόκειται σε καθεστώς πνευματικής ιδιοκτησίας, ζητάνε τα ρέστα από εταιρείες όπως η OpenAI, με τη μορφή δικαστικών αγωγών: από τους New York Times και διάσημους συγγραφείς όπως ο Τζόναθαν Φράνζεν και ο Τζωρτζ Ρ. Ρ. Μάρτιν, μέχρι μικρούς καλλιτέχνες και φωτογράφους.

Ο λόγος είναι απλός: ένας αναγνώστης πρέπει να πληρώνει συνδρομή για να έχει πρόσβαση στο περιεχόμενο π.χ. των New York Times (ή, εδώ που τα λέμε, του inside story). Ταυτόχρονα, αν ένα μέσο σαν το inside story ήθελε να αναδημοσιεύσει ένα ρεπορτάζ των Times, θα έπρεπε να αγοράσει μια άδεια που μπορεί να φτάσει και τα αρκετά χιλιάδες δολάρια. Πώς γίνεται λοιπόν να επιτρέπεται σε πανίσχυρα μοντέλα επεξεργασίας δεδομένων να διαβάζουν όλα τα ρεπορτάζ και τα άρθρα των Times και μετά να διαθέτουν αυτή τη γνώση στο κοινό – είτε δωρεάν, είτε επί πληρωμή;

Κι όμως, τα πράγματα είναι πιο σύνθετα, αφού βρισκόμαστε αντιμέτωποι με εξελίξεις άνευ προηγουμένου, τόσο για τον τομέα της τεχνολογίας, όσο και για τη νομοθεσία περί πνευματικής ιδιοκτησίας.

Remote video URL

Στα τέλη του Δεκεμβρίου 2023, οι New York Times υποβάλλουν μήνυση κατά της OpenAI και της Microsoft για παραβίαση των δικαιωμάτων πνευματικής ιδιοκτησίας τους. Εν τω μεταξύ, η Getty Images, μια από τις μεγαλύτερες εταιρείες παροχής φωτογραφικού υλικού σε διαφημιστικές εταιρείες, μέσα και άλλους επιχειρηματίες, έχει ήδη υποβάλει μήνυση κατά της Stability AI, της δημιουργού του Stable Diffusion, εργαλείου παραγωγής εικόνων με τεχνητή νοημοσύνη. Ισχυρίζεται πως για την εκπαίδευση του Stable Diffusion χρησιμοποιήθηκαν 12 εκατομμύρια φωτογραφίες από το αρχείο της Getty Images χωρίς να έχει χορηγηθεί η απαραίτητη άδεια έναντι χρηματικού αντιτίμου, ενώ οι εικόνες που παράγει το Stable Diffusion ανταγωνίζονται το προϊόν της Getty Images. Πιο πρόσφατα, ο Γερμανός φωτογράφος Ρόμπερτ Κνέσκε ανακάλυψε ότι πολλές από τις φωτογραφίες που πουλάει σε χρήστες μέσω της πλατφόρμας Shutterstock –αντίστοιχη της Getty Images– είναι αποθηκευμένες στη βάση δεδομένων Laion-5B, την οποία μπορεί να χρησιμοποιήσει οποιοσδήποτε για να εκπαιδεύσει ένα μοντέλο παραγωγικής τεχνητής νοημοσύνης. Ο Κνέσκε έχει κι αυτός υποβάλει μήνυση κατά των developers, και η υπόθεση θα εκδικαστεί στο Αμβούργο.

Η εμβληματική υπόθεση των New York Times

Ας ρίξουμε μια πιο αναλυτική ματιά στην υπόθεση των New York Times, η οποία αποτελεί την πιο αντιπροσωπευτική υπόθεση και κατά πολλούς, αυτή με τις καλύτερες πιθανότητες να κερδίσει. Το δικόγραφο της αγωγής –ένα αναπάντεχα ενδιαφέρον ανάγνωσμα– εγείρει ουσιαστικά τέσσερα ζητήματα. Πρώτον, το ChatGPT της OpenAI που, με την υποστήριξη του υπολογιστικού νέφους Azure της Microsoft, εκπαιδεύτηκε με τη χρήση ενός από τα πέντε πιο ισχυρά υπερυπολογιστικά συστήματα του κόσμου, έχει χρησιμοποιήσει εκατομμύρια αντίγραφα έργων που υπόκεινται στην πνευματική ιδιοκτησία των New York Times για να μάθει να παράγει τον άρτιο και υψηλού επιπέδου λόγο που εντυπωσιάζει τους χρήστες. Όμως, ουδέποτε έλαβε την άδεια να χρησιμοποιήσει αυτό το περιεχόμενο. Η OpenAI σε σχετική ανακοίνωση ισχυρίζεται πως αυτό αποτελεί δίκαιη χρήση (fair use) του περιεχομένου κατά το αμερικανικό δίκαιο.

Δεύτερον, βάσει παραδειγμάτων που δίνει το δικόγραφο, το ChatGPT είναι σε θέση να αναπαράγει σχεδόν αυτολεξεί ολόκληρα αποσπάσματα άρθρων των Times ως απάντηση σε ερωτήματα που δεν αναφέρουν καν τις λέξεις «New York Times» ή έστω τον τίτλο του άρθρου. Συνεπώς, ένας χρήστης μπορεί εν αγνοία του να αναπαράγει παράνομα περιεχόμενο των Times, νομίζοντας πως το έχει γράψει το ChatGPT. Αυτό το φαινόμενο ονομάζεται κοινώς «παλινδρόμηση» ή «αναμάσηση» (regurgitation) και είναι κάτι που οι δημιουργοί των μοντέλων τεχνητής νοημοσύνης βάζουν τα δυνατά τους για να μη συμβαίνει. Εδώ κάποια παραδείγματα αναμάσησης περιεχομένου των Times από το ChatGPT:

Image
dsad

Πάντως η OpenAI, η Microsoft και άλλες εταιρείες έχουν ανακοινώσει ότι θα καλύψουν τα δικαστικά έξοδα χρηστών αν αυτοί βρεθούν στο στόχαστρο αγωγών για παραβίαση πνευματικών δικαιωμάτων εξαιτίας της χρήσης του ChatGPT.

Το τρίτο πρόβλημα, κατά τους Times, πηγάζει από το νέο εργαλείο πλοήγησης της Microsoft, το Bing Copilot, το οποίο συνδυάζει τη λειτουργία μιας κλασικής μηχανής αναζήτησης, όπως η Google, με την παραγωγική τεχνητή νοημοσύνη του ChatGPT. Τι σημαίνει αυτό πρακτικά; Ότι έχει τη δυνατότητα, εκτός από το να παράγει κείμενα και εικόνες κατά παραγγελία του χρήστη, να κάνει επίσης αναζήτηση στο διαδίκτυο, παραθέτοντας πηγές για αυτά που λέει και παραπέμποντας τον χρήστη σε ιστοσελίδες, σε αντίθεση με τα προηγούμενα μοντέλα του ChatGPT που είχαν εκπαιδευτεί με έναν πεπερασμένο αριθμό δεδομένων, οπότε δεν είναι ενήμερα για πρόσφατες εξελίξεις. Όμως, φαίνεται πως το Copilot είναι διατεθειμένο μέσω της λειτουργίας του ChatGPT να παραθέτει ολόκληρες παραγράφους από κείμενα των New York Times, τα οποία κανονικά προστατεύονται από paywall και δεν θα εμφανίζονταν σε μια παραδοσιακή μηχανή αναζήτησης:

Image
dsad

Κατά τους Times, το πρόβλημα δεν είναι μόνο η εν μέρει κατεδάφιση του paywall, αλλά κυρίως το γεγονός ότι αυτό το νέο είδος μηχανής αναζήτησης παραβιάζει την άρρητη και αμοιβαία επωφελή συμφωνία πάνω στην οποίαν έχει χτιστεί το σύγχρονο διαδίκτυο. Οι παραδοσιακές μηχανές αναζήτησης διαβάζουν το περιεχόμενο μιας ιστοσελίδας, και σε αντάλλαγμα εμφανίζουν αυτή την ιστοσελίδα στα αποτελέσματα αναζήτησης, αυξάνοντας την ορατότητα και την επισκεψιμότητά της. Αντιθέτως, το Copilot διαβάζει μια ιστοσελίδα για να παρέχει στον χρήστη τις πληροφορίες που χρειάζεται, χωρίς αυτός να χρειάζεται να επισκεφτεί απαραίτητα την ιστοσελίδα. Το αντίκτυπο στους δημιουργούς περιεχομένου μπορεί να είναι καταστροφικό, αν καταβαραθρωθεί η επισκεψιμότητα της σελίδας τους και άρα τα έσοδα από τις διαφημίσεις ή η ορατότητά της σε πιθανούς συνδρομητές. Εντωμεταξύ, το Copilot ενσωματώθηκε πρόσφατα στις συνομιλίες του Facebook Messenger και του Instagram. Βρισκόμαστε ίσως ένα βήμα πριν τη ριζική αλλαγή του μοντέλου της ψηφιακής οικονομίας.

Κατά τους Times, το γεγονός ότι στο τέλος της απάντησης παρατίθενται ιστοσελίδες ως πηγές δεν βοηθάει: αντιθέτως, μπορεί και να μειώνει την επισκεψιμότητά τους, αφού η παράθεση πηγών δίνει στον χρήστη την εντύπωση πως όσα του είπε το ChatGPT είναι έγκυρα, και συνεπώς δεν αισθάνεται ίσως την ανάγκη να μπει μόνος του στις ιστοσελίδες και να τα ελέγξει.

Το τέταρτο πρόβλημα που παρουσιάζουν οι Times είναι οι «παραισθήσεις» (hallucinations) του ChatGPT, δηλαδή οι φορές που εφευρίσκει άρθρα των Times που δεν γράφτηκαν ποτέ. Για παράδειγμα, εδώ του ζητούνται πληροφορίες για τον υποτιθέμενο συσχετισμό της πορτοκαλάδας (!) με μια μορφή καρκίνου και αυτό παραθέτει ως πηγή ένα άρθρο των NYT από τον Ιανουάριο του 2020 το οποίο –δυστυχώς ή ευτυχώς– δεν γράφτηκε ποτέ:

Image
dsdsd

Κάνοντας τα δικά μας τεστ

Μιμηθήκαμε τα πειράματα των New York Times, βάζοντας στο Google και στο Bing αντιστοίχως τον τίτλο του άρθρου του ρεπορτάζ του inside story «Η Intellexa διορθώνει κείμενο της ΕΥΠ», και ιδού τα αποτελέσματα:

Image
google
Image
bing

Ενώ το Bing βγάζει, όπως θα περιμέναμε, ως πρώτο αποτέλεσμα τον σύνδεσμο για το ρεπορτάζ στη σελίδα του inside story, στο δεξί μέρος της σελίδας το Copilot, η λειτουργία που έχει ενσωματωμένη το ChatGPT, μας δίνει μια ακριβή και σχετικά λεπτομερή περίληψη των βασικότερων σημείων του άρθρου. Αν πατήσουμε εκεί, διαβάζουμε τα εξής:

Image
fdsf

(Η Ελίζα Τριανταφύλλου μάς είπε ότι δεν είναι τελείως σωστή αυτή η περίληψη, διότι η πρώτη και η δεύτερη πρόταση μιλούν περί συνεργασίας, κάτι που είναι παραπλανητικό γιατί αυτή δεν έγινε τελικά ποτέ)

Επίσης το Copilot παραθέτει το inside story μόνο ως δεύτερη πηγή, ενώ η τρίτη πηγή είναι ένα blog που έχει αναδημοσιεύσει χωρίς άδεια το ρεπορτάζ. Εντωμεταξύ, μια άλλη φορά που βάλαμε την ίδια αναζήτηση κατευθείαν στο Copilot, δεν μπορούσε να βρει σχετικές πληροφορίες:

Image
eyp

Είναι ακόμα πιο εύκολο να προκαλέσουμε τη δημιουργία περιεχομένου που υπόκειται σε καθεστώς πνευματικής ιδιοκτησίας, όταν ζητάμε από το Copilot να δημιουργήσει εικόνες. Εδώ το προτρέψαμε να μας φτιάξει εικόνες ενός «Ιταλού από βιντεοπαιχνίδι» και ενός «σκαντζόχοιρου από βιντεοπαιχνίδι», χωρίς να δίνουμε περισσότερα στοιχεία ή να ζητάμε συγκεκριμένους χαρακτήρες, και πήραμε τα εξής αποτελέσματα:

Image
ario
Image
sonic

Οι δύο χαρακτήρες, ο Mario και ο Sonic, αποτελούν πνευματική ιδιοκτησία της Nintendo (και ο Sonic μοιάζει ελάχιστα με σκαντζόχοιρο, αλλά η λέξη videogame φαίνεται να έχει μεγαλύτερο βάρος στη «ζυγαριά» του Dall-E 3, που παράγει τις εικόνες για το Copilot). Μάλιστα, σε πρόσφατο άρθρο τους, ο ερευνητής Γκάρι Μάρκους και ο καλλιτέχνης Ράιντ Σάουδεν κατάφεραν χωρίς ιδιαίτερη προσπάθεια να κάνουν το GenAI Midjourney, το οποίο δεν είναι καν δωρεάν, να δημιουργήσει σχεδόν πιστά αντίγραφα σκηνών από διάσημες ταινίες όπως το The Matrix, ή σκηνές από το Star Wars με τον Νταρθ Βέιντερ και τον Λουκ Σκάιγουοκερ ως απάντηση σε προτροπές (prompts), τόσο γενικές όσο «μαύρη πανοπλία και φωτόσπαθο» ή «άντρας με ρόμπες και φωτόσπαθο». Παρόλο που οι εταιρείες προσπαθούν να μάθουν στα μοντέλα να μην παράγουν περιεχόμενο που υπόκειται σε καθεστώς πνευματικής ιδιοκτησίας, οι χρήστες βρίσκουν πάντα καινούριους τρόπους να τα προσπεράσουν, όπως είδαμε στο πλέον διαβόητο παράδειγμα με τον Μπραντ Πιτ να κάνει ενόργανη:

Image
pitt
Πηγή: br.ifunny.co

Το κουβάρι με τα πνευματικά δικαιώματα

Για τη Λαμπρινή Γυφτοκώστα, διευθύντρια Τεχνητής Νοημοσύνης και Ανθρωπίνων Δικαιωμάτων της Homo Digitalis, προκύπτουν δύο ξεχωριστά θέματα σχετικά με την πνευματική ιδιοκτησία και τα μοντέλα παραγωγικής ΤΝ: «Το ένα έχει να κάνει με την εκπαίδευση του αλγορίθμου· με ποια δεδομένα τον εκπαιδεύεις και αν αυτό είναι νόμιμο ή όχι. Για να είναι νόμιμο υπάρχουν δύο περιπτώσεις: Ή να έχεις πάρει την άδεια του κατόχου των πνευματικών δικαιωμάτων ή να σου δίνει την άδεια αυτή ο νόμος. Το άλλο θέμα έγκειται στο αποτέλεσμα της επεξεργασίας, αυτό που παράγει ουσιαστικά ένα μεγάλο γλωσσικό σύστημα». Όσον αφορά το δεύτερο σκέλος, δεν τίθεται ζήτημα δικαιώματος πνευματικής ιδιοκτησίας πάνω σε περιεχόμενο που έχει παράξει ένα σύστημα GenAΙ. «Κανονικά στο σύστημα τεχνητής νοημοσύνης δεν μπορούμε να αναγνωρίσουμε προσωπικότητα. Δεν είναι ούτε φυσικό πρόσωπο, ούτε νομικό πρόσωπο», μας εξηγεί η Γαλάτεια Καπελλάκου, δικηγόρος και διδάσκουσα στο τμήμα Μηχανικών Η/Υ και Πληροφορικής του Πανεπιστημίου Πατρών. «Για παράδειγμα, υπήρχε η περίπτωση μιας μαϊμούς που έκλεψε την κάμερα ενός τουρίστα σε ένα τροπικό δάσος και έβγαλε μια σέλφι. Κάποιες φιλοζωικές οργανώσεις ζήτησαν πνευματικά δικαιώματα για τη μαϊμού, αλλά αυτό δεν αναγνωρίστηκε από το αμερικανικό δικαστήριο, διότι μόνο οι άνθρωποι θεωρούνται φυσικά πρόσωπα».

Βέβαια, δεν ξέρουμε τι επιφυλάσσει το μέλλον ως προς το νομικό στάτους ενός ΑΙ· ήδη η αεροπορική εταιρία Air Canada ισχυρίστηκε ενώπιον δικαστηρίου πως δεν ευθύνεται για τις λανθασμένες πληροφορίες που έδωσε σε πελάτη το chatbot στην ιστοσελίδα της, το οποίο λειτουργούσε με τεχνητή νοημοσύνη. Κατά την εταιρία, το chatbot αποτελούσε ξεχωριστή νομική οντότητα που ευθύνεται για τις πράξεις του, όμως αυτό το επιχείρημα απορρίφθηκε από το δικαστήριο, το οποίο ανάγκασε την εταιρία να αποζημιώσει τον πελάτη.

Η Καπελλάκου μας εξηγεί επίσης πως οι νόμοι της πνευματικής ιδιοκτησίας δεν προστατεύουν το στυλ ενός καλλιτέχνη: «Σημασία έχει το να μη γίνεται αναπαραγωγή πρωτότυπου στοιχείου. Το στυλ δεν είναι κάτι το συγκεκριμένο, είναι κάτι το αφηρημένο». Άρα, κανείς δεν μπορεί να εμποδίσει ένα ΑΙ να μιμείται καλλιτέχνες, εφόσον τα έργα που παράγει δεν αντιγράφουν ακριβώς κομμάτια κάποιου πρωτότυπου έργου. Ζητήσαμε λοιπόν από το Copilot να μας φτιάξει τη σέλφι της μαϊμούς στο στυλ του καλλιτέχνη Κιθ Χέρινγκ. Μπορούμε σίγουρα να τη δημοσιεύσουμε χωρίς να προκαλείται ζήτημα πνευματικών δικαιωμάτων, αν και το αποτέλεσμα δεν είναι πολύ πετυχημένο:

Image
haring

Όσον αφορά το πρώτο σκέλος, η OpenAI σίγουρα δεν είχε πάρει ή αγοράσει την άδεια των New York Times, οπότε η γραμμή υπεράσπισής της φαίνεται πως θα στηριχτεί στο ότι η εκπαίδευση του ChatGPT αποτελούσε δίκαιη χρήση των κειμένων των Times. Η Meta δήλωσε μάλιστα πως η χρήση τέτοιου υλικού για την εκπαίδευση των μεγάλων γλωσσικών μοντέλων μοιάζει με ένα παιδί που μαθαίνει τον κόσμο απορροφώντας διαφόρων ειδών ερεθίσματα. Για τη Γαλάτεια Καπελλάκου, η αναλογία δεν είναι σωστή: «Δεν είναι το ίδιο, γιατί μιλάμε για σωρεία δεδομένων. Είναι μια εντελώς άλλη διάσταση. Ένας άνθρωπος μπορεί να διαβάσει έναν πεπερασμένο αριθμό βιβλίων ή να δει έναν πεπερασμένο αριθμό εικόνων. Εδώ πια δεν υπάρχει όριο», μας λέει.

Από τη μια οι εταιρείες ισχυρίζονται κατά καιρούς πως θα ήταν αδύνατο να σηκώσουν το οικονομικό κόστος της προσκόμισης ξεχωριστής άδειας για κάθε στοιχείο που προστατεύεται από πνευματικά δικαιώματα και χρησιμοποιείται στην εκπαίδευση των μεγάλων γλωσσικών μοντέλων (large language models, LLMs) όπως το ChatGPT. Από την άλλη, έχουν αρχίσει ήδη να συνάπτουν σχετικές συμφωνίες με μείζονα μέσα, όπως οι συμφωνίες της OpenAI με το Associated Press και τον γερμανικό οίκο Axel Springer, ιδιοκτήτη της Welt, της Bild και του Politico, για αξιοποίηση του περιεχομένου τους. Μάλιστα, η Google σύναψε συμφωνία ύψους 60 εκατ. δολαρίων τον χρόνο για τη χρήση του περιεχομένου του μέσου κοινωνικής δικτύωσης Reddit. «Αυτό είναι έμμεση ένδειξη πως οι εταιρείες αναγνωρίζουν ότι δεν μπορούν να συνεχίσουν να το κάνουν αυτό δωρεάν. Είναι μία κίνηση που υποδηλώνει ότι θα αναγκαστούν να δείξουν μία διαφορετική αντιμετώπιση της κατάστασης», μας λέει η Λαμπρινή Γυφτοκώστα.

Εν τω μεταξύ, πρόσφατα η OpenAI έδωσε τη δυνατότητα σε δημιουργούς περιεχομένου να αιτηθούν την αφαίρεση του υλικού τους από τη βάση δεδομένων εκπαίδευσης των μοντέλων της, ενώ οι ιδιοκτήτες ιστοσελίδων μπορούν να εμποδίσουν το διαδικτυακό εργαλείο συλλογής περιεχομένου (web crawler) της OpenAI και της Google AI να διαβάσει τις ιστοσελίδες τους, κάτι που πολλοί έκαναν αμέσως. Επικριτές σημειώνουν πως ένας καλλιτέχνης θα πρέπει να κάνει ξεχωριστή αίτηση στην OpenAI για κάθε ένα από τα έργα του που ίσως έχουν χρησιμοποιηθεί, ενώ η μέθοδος παρεμπόδισης συγκεκριμένων web crawlers δεν στηρίζεται σε κάποιο νομικό καθεστώς και μια εταιρεία ή ένας συλλέκτης δεδομένων μπορεί ανά πάσα στιγμή να δημιουργήσει ένα καινούριο crawler, το οποίο θα έχει πρόσβαση στις ιστοσελίδες.

Η ΑΙ δεν ξεχνάει και άλλα προβλήματα

Μπορούν όμως να σβηστούν τα δεδομένα τα οποία οι εταιρείες έχουν ήδη ταΐσει στα μοντέλα τους; Η γρήγορη απάντηση είναι όχι. «Το ζήτημα είναι ότι αυτή τη στιγμή ένα μεγάλο γλωσσικό μοντέλο δεν μπορεί να ξεχάσει. Είναι κάτι το οποίο θέλουν να πετύχουν πολλοί, γιατί θα αυξήσει κατά πολύ τις δυνατότητες του μοντέλου και θα είναι και νομικά απαραίτητο, αλλά ακόμη δεν μπορούμε να του πούμε “ξέχνα αυτό”. Τι σημαίνει σε αυτό το πλαίσιο “ξέχνα αυτό”; Αν πρέπει να ξεχάσει κάποια δεδομένα, ενδεχομένως πρέπει να το εκπαιδεύσεις από την αρχή, χωρίς τα δεδομένα. Ένα άλλο θέμα είναι το αν μπορεί να ξεχάσει έννοιες. Γι’ αυτό και δημιουργείται και ζήτημα με το δικαίωμα στη λήθη. Με ένα μεγάλο γλωσσικό μοντέλο δεν ξέρεις πώς να του πεις “ξέχνα”. Άπαξ και έμαθε κάτι, το έμαθε. Δεν είναι σίγουρο ότι μπορείς να αφαιρέσεις κάτι, ούτε το πως μπορείς να ελέγχεις ότι τα επόμενα μοντέλα δε θα το έχουν μέσα», μας εξηγεί ο Ορφέας Μένης-Μαστρομιχαλάκης, ερευνητής στο Εργαστήριο Συστημάτων Τεχνητής Νοημοσύνης και Μάθησης (AILS Lab) του Εθνικού Μετσόβιου Πολυτεχνείου. 

Ο λόγος για τον οποίον συμβαίνει αυτό έχει να κάνει με τον τρόπο που είναι εξ αρχής φτιαγμένα τα μοντέλα παραγωγικής τεχνητής νοημοσύνης, μηχανικής μάθησης (machine learning): «Με τους κλασικούς αλγόριθμους, δίναμε μια σειρά εντολών που εκτελούσε ο υπολογιστής, άρα ορίζαμε το πώς θα λειτουργούσε το τελικό προϊόν. Μια ειδοποιός διαφορά της μηχανικής μάθησης από τους κλασικούς αλγόριθμους είναι πως δεν ορίζουμε το πώς θα λειτουργεί ο τελικός αλγόριθμος. Αντιθέτως, αυτό προκύπτει από την εκπαίδευσή του, η οποία χρειάζεται τρία βασικά πράγματα: το μοντέλο (αρχιτεκτονική) συν τα δεδομένα που επιλέγουμε για την εκπαίδευση, δηλαδή τα “υλικά” μας, και τον αλγόριθμο εκπαίδευσης, δηλαδή τον τρόπο με τον οποίο θα γίνει η εκπαίδευση. Αυτά τα ορίζουμε μεν εμείς, αλλά δεν ορίζουμε και τι θα κάνει το τελικό προϊόν που έχει εκπαιδευτεί από αυτά», μας εξηγεί ο Μένης-Μαστρομιχαλάκης. Γι’ αυτό και οι ερευνητές τονίζουν πως δεν μπορούν να ξέρουν τι αποτέλεσμα θα βγάλει ένα τέτοιο μοντέλο στην εκάστοτε ερώτηση που θα του γίνει, ενώ καταλαβαίνουν όλο και λιγότερο πώς ακριβώς λειτουργεί. 

Τα συστήματα αυτά περιγράφονται ως «μαύρα κουτιά» (black boxes), στο εσωτερικό των οποίων δεν μπορούμε να παρέμβουμε: «Στην ιστορία και τη φιλοσοφία της επιστήμης, η έννοια του μαύρου κουτιού ξεκινάει από πολύ παλιά, υπήρχε π.χ. ακόμα και στην ατμομηχανή. Δεν προέκυψε τώρα με την τεχνητή νοημοσύνη και τη μηχανική μάθηση. Το θέμα είναι ότι ένα μεγάλο γλωσσικό μοντέλο όπως το ChatGPT είναι μαύρο κουτί γιατί δεν ξέρουμε ούτε γιατί παράγει τα αποτελέσματα που παράγει, ούτε με βάση ακριβώς ποια δεδομένα. Δεν μπορούμε να το ρωτήσουμε “γιατί το έβγαλες αυτό” και να μας απαντήσει “γιατί έχω δει το τάδε κείμενο που μου το θυμίζει”, διότι δεν λειτουργεί έτσι. Έχει μάθει τον λόγο μέσα από πολλά κείμενα, οπότε δεν μπορεί να σου δώσει μια συγκεκριμένη πηγή που έπαιξε ρόλο στον λόγο που παρήγαγε. Συνεπώς, το να αποδείξεις πως έχει χρησιμοποιηθεί κάποιο δεδομένο σου δεν είναι ακόμη εύκολο», μας εξηγεί ο Μένης-Μαστρομιχαλάκης. Πάντως, το δικόγραφο των New York Times παρέχει πειστικές αποδείξεις πως το περιεχόμενό τους έχει χρησιμοποιηθεί δυσανάλογα πολύ για την εκπαίδευση του ChatGPT, ακριβώς επειδή οι Times θεωρούνται πηγή ιδιαίτερα έγκυρη και με υψηλού επιπέδου περιεχόμενο, το οποίο οι developers προτιμούν σε σύγκριση με άλλες ιστοσελίδες.

Remote video URL

Επιπλέον, τα μεγάλα γλωσσικά μοντέλα (LLMs) έχουν μια βασική διαφορά από άλλα συστήματα τεχνητής νοημοσύνης, που μπορεί π.χ. να αξιολογούν το οικονομικό ρίσκο μιας επένδυσης ή να εντοπίζουν τον καρκίνο σε μαγνητικές τομογραφίες: δουλειά τους είναι να παράγουν λόγο. «Τα μεγάλα γλωσσικά συστήματα συχνά ψεύδονται. Όχι επίτηδες· απλώς δε λένε πάντα την αλήθεια γιατί δεν είναι φτιαγμένα για να λένε την αλήθεια. Είναι φτιαγμένα για να προβλέπουν την επόμενη λέξη. Δεν έχουν κάποιο κριτήριο για το τι είναι αλήθεια, γιατί για αυτά, όλα είναι δεδομένα. Αν ρωτήσεις ένα LLM “γιατί μου είπες αυτό;” θα απαντήσει, αλλά αυτό που θα πει δεν έχει σχέση αίτιου-αιτιατού. Από τη λέξη “γιατί” δεν αντιλαμβάνεται ότι πρέπει να κοιτάξει μέσα του και να εντοπίσει μια αιτία: προβλέπει απλώς στατιστικά την επόμενη λέξη της πρότασης, και μπορεί αυτές οι επόμενες λέξεις να μην είναι η αλήθεια», μας εξηγεί ο Μένης-Μαστρομιχαλάκης. Ούτως ή άλλως, για το γεγονός ότι αυτά που γράφει το ChatGPT δεν είναι πάντα αληθή και έγκυρα μας προειδοποιεί και η ίδια η OpenAI όταν πάμε να το χρησιμοποιήσουμε.

Μάλιστα, το τελευταίο μοντέλο του ChatGPT είναι μαύρο κουτί όχι μόνο εξαιτίας της δομής του, αλλά και εξαιτίας της ακραίας μυστικότητας που το περιβάλλει, σε αντίθεση με τα προηγούμενα μοντέλα, η αρχιτεκτονική των οποίων ήταν διαθέσιμη με ανοιχτή πρόσβαση στο κοινό. Κατά τον Μένη-Μαστρομιχαλάκη, «η OpenAI έχει δώσει μεν κάποιες πληροφορίες για το πώς είναι φτιαγμένο το GPT-4, όμως δεν έχει δημοσιεύσει την αρχιτεκτονική του, δεν έχει βγάλει κάποιο paper. Είναι ειρωνικό πλέον το όνομα OpenAI, από τη στιγμή που είναι η πιο κλειστή εταιρεία σε αυτό το κομμάτι – για παράδειγμα, έχουν πει πως το GPT-4 έχει γύρω στις ένα τρισεκατομμύριο παραμέτρους, αλλά δε μας έχουν δώσει τα ακριβή στοιχεία. Αυτή τη στιγμή, άλλα συστήματα όπως το Llama της Meta και το BLOOM έχουν ανοιχτή πρόσβαση. Τίθεται και το ερώτημα του κατά πόσο πρέπει να επιτραπεί το black boxing σε μια επιχείρηση, στο πλαίσιο του εταιρικού απορρήτου που προστατεύει την ανταγωνιστικότητα των επιχειρήσεων».

Η Πράξη για την Τεχνητή Νοημοσύνη της Ευρωπαϊκής Ένωσης, που προβλέπεται να ψηφιστεί τον Απρίλιο, υποτίθεται πως θα ρυθμίζει το πότε και κατά πόσον θα επιτρέπεται το black boxing, αλλά και ποια δεδομένα μπορούν να χρησιμοποιούνται για την εκπαίδευση συστημάτων τεχνητής νοημοσύνης και από ποιους. Αυτό θα γίνεται με βάση το επίπεδο ρίσκου των συστημάτων ΑΙ (υψηλό ρίσκο, συστημικό ρίσκο κ.λπ.), ενώ τη δυνατότητα να χρησιμοποιούν δεδομένα που προστατεύονται από καθεστώς πνευματικής ιδιοκτησίας θα έχουν μη-κερδοσκοπικοί φορείς όπως ερευνητικά ιδρύματα και πανεπιστήμια, εκτός κι αν υπάρξει ξεχωριστή συμφωνία. Παρά τη δυσκολία ρύθμισης του συγκεκριμένου τομέα και την υψηλή επικινδυνότητά του, η Γαλάτεια Καπελλάκου ευελπιστεί πως η Πράξη θα λειτουργήσει ως παγκόσμιο πρότυπο, αντίστοιχα με τον Κανονισμό Προστασίας Προσωπικών Δεδομένων GDPR: «Βρισκόμαστε αντιμέτωποι με το δίλημμα του Collinridge, δηλαδή το κατά πόσο πρέπει τελικά να ρυθμίζουμε μια τεχνολογία πριν αυτή να εμφανιστεί και αφήσει το αποτύπωμά της στην κοινωνία, ή αφού έχει εγκαθιδρυθεί, οπότε είναι και πολύ πιο δύσκολο να τη ρυθμίσεις. Η ρύθμιση της τεχνητής νοημοσύνης είναι κάτι που ξεκινάει τώρα, θα έχει προβλήματα, αλλά σιγά-σιγά θα ρυθμιστούν. Η αμηχανία που θα επιφέρει η εφαρμογή της Πράξης θα είναι μεγάλη. Αλλά ήταν μεγάλη και κατά την εφαρμογή του GDPR». Φαίνεται πως οι νομοθετικές κινήσεις της ΕΕ επηρεάζουν τους γίγαντες της τεχνολογίας περισσότερο απ’ ό,τι ίσως κάποιοι περίμεναν: εκτός από το GDPR, οι Apple, Google κλπ αναγκάζονται αυτή τη στιγμή να συμμορφωθούν με μια σειρά μέτρων που επιβάλλει η Πράξη για τις Ψηφιακές Αγορές της ΕΕ.

Τα συστήματα παραγωγικής τεχνητής νοημοσύνης δεν έχουν δημιουργηθεί σε κενό αέρος, και ακούγεται πως ενώ το 2023 ήταν η χρονιά των εξελίξεων στην τεχνητή νοημοσύνη, το 2024 θα είναι η χρονιά των αγωγών κατά της τεχνητής νοημοσύνης. Μάλλον οι developers δεν παίζουν τελικά μόνοι τους μπάλα.

Image
δεωσ

(Ζήτησα από το Copilot να μου φτιάξει τους μεγάλους AI developers να παίζουν μπάλα)

Profile picture for user irinisotiropoulou
Γεννήθηκε στην Αθήνα το 2000. Έχει ζήσει σε Ελλάδα, Αγγλία και Γερμανία. Άρχισε να σπουδάζει οικονομικά στο Βερολίνο αλλά το γύρισε σε φιλοσοφία και κινεζικές σπουδές. Έχει γράψει άρθρα στα dimart και Huffington Post. Ψάχνει σε απροσδόκητα μέρη μικρές και μεγάλες ιστορίες.

Newsletter
Πέμπτη 02.05.2024