Πίνακας: Ελένη Ζούνη

Δήμητρα Κολλιάκου

Αλάτι χοντρό, αλάτι ψιλό: Απ’ την εκπαίδευση των A.I. μέχρι το «κλέψιμο» στις εξετάσεις

Το ξέραμε, αλλά αλλιώς είναι να το βλέπεις με τα ίδια σου τα μάτια. Τον σύνδεσμο μας τον έστειλε στα τέλη Μαρτίου ο ΟΣΔΕΛ[1], με αφορμή μια αντιδικία μεταξύ συγγραφέων και της αμερικανικής πολυεθνικής Meta (πρώην Facebook). Δίνοντας το όνομά μου, διαπίστωσα πως κάποιες από τις δημοσιεύσεις μου σε διεθνή περιοδικά γλωσσολογίας εμφανίζονται στον πειρατικό ιστότοπο LibGen και έχουν χρησιμοποιηθεί (μαζί με εκατομμύρια άλλες επιστημονικές εργασίες) για την «εκπαίδευση» συστημάτων Τεχνητής Νοημοσύνης που παράγουν κείμενο (όπως το ChatGPT).

Εκατομμύρια λογοτεχνικά έργα χρησιμοποιούνται για τον ίδιο σκοπό, χωρίς άδεια και χωρίς καμία αποζημίωση στους συγγραφείς και στους εκδότες που τους εκπροσωπούν. Eίναι αυτονόητο πως πρόκειται για παραβίαση των πνευματικών δικαιωμάτων, όμως ο κώδικας ορθής πρακτικής για την Τεχνητή Νοημοσύνη υπονομεύει την Ευρωπαϊκή νομοθεσία για την προστασία της πνευματικής ιδιοκτησίας και αγνοούνται οι ενστάσεις ομοσπονδιών όπως το Συμβούλιο Ευρωπαίων Συγγραφέων (European Writers’ Council – EWC) και ανεξάρτητων δημιουργών.[2]

Στα μέσα Απριλίου, η Meta (που κατηγορείται ότι χρησιμοποίησε 7.5 εκατομμύρια έργα από τον πειρατικό ιστότοπο LibGen για την εκπαίδευση τέτοιων A.I.) ανακοίνωσε πως θα χρησιμοποιεί στο εξής και τα κείμενα και τις λεζάντες φωτογραφιών που αναρτούν οι χρήστες από χώρες της Ευρωπαϊκής Ένωσης για να εκπαιδεύει τα LLM[3]. Μας διαβεβαιώνει πως δεν θα βάλει (ακόμη!) χέρι στις προσωπικές συνομιλίες στο WhatsApp (που επίσης της ανήκει).  

Δεν ξέρω με τι όρεξη μπορεί να συνεχίσει κανείς να γράφει ή και να κάνει απλώς αναρτήσεις, όταν γνωρίζει ότι η πειρατεία ή λογοκλοπή αυτού του είδους παραμένει ανεξέλεγκτη και ατιμώρητη. Είναι μεγάλο πλήγμα αυτό για τους δημιουργούς, μας θίγει όμως όλους και με άλλους τρόπους, είτε έχουμε είτε δεν έχουμε παιδιά. Όσοι διδάσκουν είναι σε θέση να το βεβαιώσουν: η τέχνη της «αντιγραφής», δηλαδή της απάτης, έφτασε σε νέα ύψη με την κυκλοφορία του ChatGPT. (Συμβάλλει ευρύτερα η τεχνολογία στο να μην πιάνονται εύκολα οι δράστες στα πράσα – τα κινητά, τα smartwatches, τα ακουστικά.) Ας αλλάξουν οι τρόποι με τους οποίους εξετάζονται μαθητές και φοιτητές, μας λένε κάποιοι. Στην πράξη δεν είναι τόσο εύκολο αυτό, ακόμα και σε χώρες όπως η Γαλλία, όπου υπάρχουν πολλές σημαντικές προφορικές εξετάσεις ήδη από τη Μέση Εκπαίδευση. Η ευχέρεια στον γραπτό λόγο δεν πρέπει να κατακτιέται στο σχολείο, και να μπορεί να γίνει αξιολόγηση των γραπτών μαθητών και φοιτητών;

Δεν αμφιβάλλω πως τα “A.I.” μπορούν να χρησιμεύσουν στη μελέτη. Τα χρησιμοποιώ και η ίδια για να φτιάξω ορισμένες ασκήσεις (όχι ιδιαίτερα έξυπνες ίσως, χρήσιμες πάντως για να βελτιώσει κανείς τη χρήση του λεξιλογίου και τη γραμματική). Οι μαθητές και φοιτητές μπορούν να μεταφράσουν στα γρήγορα κάτι, να φτιάξουν περιλήψεις ή ερωτήσεις που θα βοηθήσουν στις επαναλήψεις, κ.ο.κ. Κάποιοι όμως χρησιμοποιούν συστήματα σαν το ChatGPT για να γράψουν, γιατί από μόνοι τους δυσκολεύονται πλέον ή και αδυνατούν να το κάνουν. Δεν φταίει η ίδια τεχνολογία, όσο οι ελλείψεις στην παιδεία, που έχει πάρει παντού την κάτω βόλτα – λέει ο αντίλογος. Πολλοί τα βάζουν με τους εκπαιδευτικούς. Κι όμως, με «εύσχημες» δικαιολογίες, πάμπολλες κυβερνήσεις συνεχίζουν τις «οικονομίες», ακολουθώντας στην ουσία με πιο αργούς ρυθμούς (κι ενώ ασφαλώς θα αρνούνταν κάτι τέτοιο) τον δρόμο που μας δείχνουν ο Ντόναλντ Τράμπ και ο Έλον Μασκ.

Πάντα αντέγραφαν κάποιοι, και πάντα υπήρχαν μαθητές και φοιτητές που δεν έμαθαν ποτέ να γράφουν. Η διαφορά είναι ίσως ότι τώρα αυτοί οι κάποιοι έχουν την ψευδαίσθηση πως δεν πειράζει που δεν μπορούν να γράψουν (χωρίς το ChatGPT). Πράγμα που δείχνει ασφαλώς ανοησία, προδίδει όμως και μεγάλο θράσος. Πολλοί απ’ όσους «γράφουν» μόνο έτσι, δεν φαίνεται να αντιλαμβάνονται πως η απάτη γίνεται (ακόμη) αισθητή. Πώς αλλιώς να εξηγήσει κανείς τη στάση του φοιτητή που βάζει το ChatGPT να του συντάξει το λεγόμενο letter of motivation (συνοδευτική επιστολή), ζητώντας να τον δεχτούν σ’ ένα (καλό) πρόγραμμα μεταπτυχιακών σπουδών; Tο ότι δεν μπαίνει καν στον κόπο, ή δεν είναι καν σε θέση να βελτιώσει αυτό που «γέννησε» το A.I., δίνοντάς του ένα ύφος πιο προσωπικό; Πώς να εξηγήσει κανείς σ’ όσους υιοθετούν μια τέτοια στάση πόσο δυσοίωνο προβλέπεται το μέλλον, όταν έχει γίνει τόσο εύκολο να σε χειραγωγούν;

«Πιθανή απάτη, “άρωμα” ChatGPT», σημειώνω στα ύποπτα γραπτά. Το κάνω για να επισημάνω πως είμαστε ακόμη σε θέση να αντιληφθούμε τη διαφορά. (Πόσο θα κρατήσει αυτό δεν ξέρω, προς το παρόν πάντως η χρήση του ChatGPT είναι αναγνωρίσμη. Ή έστω, είναι αναγνωρίσιμη απ’ όσους είναι σε θέση να διαβάσουν.) Η απάτη πρέπει να στηλιτεύεται και να τιμωρείται, αλλιώς διαβρώνει και μ’ άλλους τρόπους το πεδίο. Υποβαθμίζοντας την αξιοκρατία, συμβάλλοντας στη διασπορά του ψεύδους και στο να αυξηθεί ο αριθμός εκείνων που όχι μόνο δεν μπορούν να ξεχωρίσουν τις ψευδείς ειδήσεις, αλλά θεωρούν περίπου ότι δεν υπάρχει καν αλήθεια, ότι πραγματικά «όλα είναι πλέον [το ίδιο] ψεύτικα». Διαβρώνει στέλνοντας επίσης, εμμέσως πλην σαφώς, το μήνυμα πως, χάρη στην αλματώδη πρόοδο της τεχνολογίας, δεν χρειάζεται πια να μάθει να γράφει κανείς. Πως δεν υπάρχει λόγος να μας ανησυχούν όχι μόνο η συρρίκνωση των ανθρωπιστικών σπουδών, αλλά ούτε και τα ποσοστά της σχολικής αποτυχίας, ιδίως όσον αφορά τις δεξιότητες στον τομέα της «γλώσσας», που κανονικά όλοι θα έπρεπε να αποκτούν. Αλλά και αντιστρόφως: Όταν τα δικαιώματα των δημιουργών παραβιάζονται τόσο απροκάλυπτα απ’ τους παρόχους μοντέλων Τεχνητής Νοημοσύνης, γιατί να μην τολμούν και οι μαθητές να αντιγράψουν σ’ έναν διαγωνισμό (ή και αργότερα, ως φοιτητές στο πανεπιστήμιο), χρησιμοποιώντας το ChatGPT; «Απάτη χοντρή, απάτη ψιλή» ακούω πειραγμένο στο μυαλό μου το παλιό παιδικό τραγουδάκι («Αλάτι χοντρό, αλάτι ψιλό»). Αφού οι «μεγάλοι» κινούνται έτσι, γιατί να μην πιστέψουν και οι «μικροί» πως τέτοιου είδους λογοκλοπή δεν είναι καν απάτη, πως και αυτή η απατεωνιά εύκολα μένει ατιμώρητη;

Η τέχνη της γραφής, όχι μόνο η «υψηλή» τέχνη, αλλά ο γραπτός λόγος γενικότερα, μοιάζουν να χάνουν λίγο λίγο την αξία τους. Κι όμως, τα μοντέλα της λεγόμενης generative A.I. τροφοδοτήθηκαν και εκπαιδεύτηκαν με κείμενα που γράφτηκαν από ανθρώπους, κι αυτή η τεχνολογία θα εξακολουθήσει να έχει ανάγκη τα δικά μας κείμενα για να ενημερώνεται και να βελτιώνεται. Αντί να δώσει αυτό αξία στα έργα των δημιουργών (λογοτεχνών, μεταφραστών και δημοσιογράφων), το copyright παραβιάζεται και ο καθοριστικός τους ρόλος στην επιτυχία τέτοιων A.I. παραμένει στην αφάνεια ή αντιμετωπίζεται σαν λεπτομέρεια άνευ σημασίας. Κι είναι αυτή ακριβώς η στάση το μεγάλο πρόβλημα, κι όχι το ότι έχει αναπτυχθεί μια τεχνολογία επεξεργασίας και παραγωγής κειμένου – κάτι που, από μόνο του, είναι εντυπωσιακό επίτευγμα. Η πειρατεία των έργων των δημιουργών και η ανεπάρκεια του κώδικα ορθής πρακτικής[4] υποβαθμίζουν τον γραπτό λόγο και την τέχνη της γραφής. Διευρύνεται έτσι ένας φαύλος κύκλος, που στην ουσία νομιμοποιεί τη λογοκλοπή: από την παραβίαση πνευματικής ιδιοκτησίας, μέχρι το να ισχυρίζεσαι όταν κλέβεις πως το προϊόν του Α.Ι. το έγραψες χωρίς βοήθεια εσύ.


[1] Οργανισμός Συλλογικής Διαχείρισης Έργων του Λόγου.

[2] Ο σύνδεσμος στην πρόσφατη ανοιχτή επιστολή του EWC, με τίτλο “In strong opposition to the Third Draft of the EU’s Code of Practice»: https://europeanwriterscouncil.eu/2503joint_oppose_codeofpractice/

[3] Large Language Models (μεγάλα γλωσσικά μοντέλα), βάσει των οποίων κατασκευάζονται διάφορα chatbots και A.I.

[4] Όπως χαρακτηριστικά γράφει το EWC: «Το τρίτο σχέδιο του κώδικα ορθής πρακτικής για την Τεχνητή Νοημοσύνη είναι τοξικό στην ολότητά του – όχι μόνο για τους συγγραφείς αλλά για το σύνολο των δημιουργών, συγγραφείς, καλλιτέχνες και ερμηνευτές, και για τους εκδότες και παραγωγούς με τους οποίους συνεργάζονται.»

Κύλιση στην κορυφή