Ζωγραφική: Φραγκίσκος Δουκάκης

Μανόλης Κουμπαράκης

Το ChatGPT και άλλα μεγάλα γλωσσικά μοντέλα:
Ευκαιρίες, κίνδυνοι και ηθικά διλήμματα

Από την κυκλοφορία του προγράμματος GPT-3 τον Ιούνιο του 2020 και μετά, έχουμε γίνει μάρτυρες μιας επανάστασης στην περιοχή της Τεχνητής Νοημοσύνης: τη δημιουργία μεγάλων γλωσσικών μοντέλων από Αμερικάνικες εταιρίες όπως την OpenAI που έχει δημιουργήσει τα μοντέλα GPT-3, ChatGPT και GPT-4, την Google που έχει δημιουργήσει το μοντέλο Bard και τη Meta που έχει δημιουργήσει το μοντέλο Galactica. To ChatGPT είναι ελεύθερα διαθέσιμο, αφού πρώτα κάποιος δημιουργήσει έναν λογαριασμό χρήστη στα συστήματα της OpenAI. Το GPT-4 είναι επίσης διαθέσιμο, αλλά πρέπει πρώτα κανείς να λάβει τη σχετική έγκριση από την OpenAI. Το μοντέλο Bard είναι αυτή τη στιγμή διαθέσιμο μόνο στις Ηνωμένες Πολιτείες και στη Μεγάλη Βρετανία. Το μοντέλο Galactica όμως ήταν ελεύθερα διαθέσιμο μόνο για 3 μέρες το Νοέμβριο του 2022. Μετά αποσύρθηκε από την εταιρία που το δημιούργησε για λόγους που θα συζητήσουμε παρακάτω.

Στο άρθρο αυτό θα προσπαθήσω να εξηγήσω πού βρισκόμαστε τεχνολογικά όσον αφορά την ανάπτυξη τέτοιων προγραμμάτων Τεχνητής Νοημοσύνης, να συζητήσω μερικά από τα ηθικά διλήμματα που προκύπτουν με τη χρήση τους, και να απαντήσω σε μερικές σχετικές ερωτήσεις που ίσως απασχολούν τους αναγνώστες του περιοδικού.

Ξεκινώ εξηγώντας τι είναι ένα γλωσσικό μοντέλο. Μιλώντας αυστηρά μαθηματικά, ένα γλωσσικό μοντέλο είναι ένα πρόγραμμα που όταν τροφοδοτηθεί με μια ακολουθία λέξεων (π.χ., «Ήταν ένας γάιδαρος με μεγάλα», μπορεί να υπολογίσει την πιθανότητα μια λέξη (π.χ., «αυτιά») να ακολουθεί τη δοσμένη ακολουθία λέξεων. Για να υπολογίσει αυτήν την πιθανότητα με ακρίβεια, το μοντέλο προ-εκπαιδεύεται σε πάρα πολλά κείμενα, στην περίπτωση του ChatGPT σε όλα τα κείμενα που βρίσκονται διαθέσιμα στον Παγκόσμιο Ιστό, καθώς και σε όσα άλλα κείμενα (π.χ., ψηφιακές εκδόσεις βιβλίων) είχε πρόσβαση η εταιρία OpenAI. Έτσι, ένα γλωσσικό μοντέλο «μαθαίνει» ότι με βάση τα δεδομένα, είναι πιο πιθανό να ακολουθεί η λέξη «αυτιά» παρά η λέξη «παπούτσια» τη φράση «Ήταν ένας γάιδαρος με μεγάλα». Η αρχιτεκτονική που ακολουθούν όλα τα σημερινά γλωσσικά μοντέλα βασίζεται στην αρχιτεκτονική των Μετασχηματιστών (Transformers) που προτάθηκε από τον ερευνητή της Google Ashish Vaswani και τους συν-συγγραφείς του το 2017. Έτσι προκύπτει και το ακρωνύμιο GPT που σημαίνει Generative Pretrained Transformer (δηλαδή, Παραγωγικός Προ-εκπαιδευμένος Μετασχηματιστής). Και αυτό κάνουν τα συστήματα της οικογένειας GPT αλλά και τα άλλα γλωσσικά μοντέλα: παράγουν κείμενο αφού προ-εκπαιδευτούν σε πάρα πολλά δεδομένα.

Με την εμφάνιση λοιπόν του GPT-3 και ακόμα περισσότερο του ChatGPT που μπορεί, όχι μόνο να παράγει κείμενο, αλλά και να συνδιαλέγεται με τους χρήστες του (είναι δηλαδή ένα chatbot), διαπιστώσαμε όλοι ότι αυτά τα συστήματα είναι πανίσχυρα. Μπορούν να παράγουν καλογραμμένα κείμενα για σχεδόν όποιο θέμα τους προτείνουμε (π.χ., για τον Β΄ Παγκόσμιο Πόλεμο), να γράφουν προγράμματα σε διάφορες γλώσσες προγραμματισμού, να λένε ανέκδοτα, να προτείνουν συνταγές για φαγητά και ποτά, μέρη για να πάμε διακοπές, δίαιτες για να αδυνατίσουμε κ.λπ.

Έχουν όμως και πολλές αδυναμίες. Η Emily Bender, καθηγήτρια Γλωσσολογίας στο Πανεπιστήμιο της Washington, και οι συν-συγγραφείς της χρησιμοποίησαν περιπαιχτικά τον όρο «στοχαστικοί παπαγάλοι» (stochastic parrots) για να αναφερθούν σε αυτά τα μοντέλα που μπορούν να παπαγαλίζουν κείμενα με τα οποία εκπαιδεύτηκαν (για παράδειγμα, το παραπάνω παιδικό τραγούδι). Υπάρχουν όμως και σοβαρότερες αδυναμίες. Μια σοβαρή αδυναμία που εύκολα μπορεί να διαπιστώσει ένας χρήστης είναι αυτή που έχει επικρατήσει να λέγεται «παραισθήσεις» (hallucinations). Μπορεί δηλαδή ένα γλωσσικό μοντέλο να παράγει κείμενο το οποίο περιέχει αναλήθειες και ανακρίβειες, οι οποίες δεν στηρίζονται στα δεδομένα στα οποία έχει εκπαιδευτεί, και για τις οποίες δεν έχει καμία ικανότητα να διαπιστώσει ότι δεν ανταποκρίνονται στην πραγματικότητα. Αυτό συνέβη και με το μεγάλο γλωσσικό μοντέλο Galactica της Meta. Ο σκοπός του Galactica ήταν να βοηθήσει τους επιστήμονες στην εργασία τους και γι’ αυτόν τον λόγο είχε εκπαιδευτεί σε ένα μεγάλο αριθμό επιστημονικών άρθρων, βιβλίων, ιστοσελίδων κ.λπ. Όμως όταν δόθηκε σε ελεύθερη χρήση, οι χρήστες γρήγορα διαπίστωσαν ότι ήταν ικανό να παράγει ανακριβείς «επιστημονικές» πληροφορίες και, μετά από τον σχετικό θόρυβο, αποσύρθηκε από την κυκλοφορία.

Με τους πρώτους πειραματισμούς με το μοντέλο ChatGPT, διατυπώθηκαν επίσης οι πρώτες ανησυχίες σχετικά με τη χρήση του. Θα μπορούσε ένας φοιτητής να το χρησιμοποιήσει για να «κλέψει» σε μια πανεπιστημιακή εργασία; Θα μπορούσε ένας κακόβουλος χρήστης να χρησιμοποιήσει το ChatGPT για να κατασκευάσει μια αληθοφανή ιστορία σχετικά με ένα δημόσιο πρόσωπο και μετά να τη δημοσιεύσει στο διαδίκτυο; Θα μπορούσε κάποιος χάκερ να «σπάσει» το τείχος ασφαλείας του ChatGPT και να χρησιμοποιήσει το πρόγραμμα για να υποκλέψει διαλόγους άλλων χρηστών ή να παράγει κείμενα που δεν είναι ασφαλή ή περιέχουν ρατσιστικά και σεξιστικά σχόλια;

Ας πάρουμε τις παραπάνω ερωτήσεις μία-μία. Για την πρώτη, είχα την ευκαιρία να δοκιμάσω αν το ChatGPT μπορούσε να λύσει την εργασία που είχα δώσει σε προπτυχιακό μάθημα που δίδασκα την περίοδο που βγήκε το ChatGPT. Διαπίστωσα ότι δεν μπορούσε να λύσει τα δύσκολα ερωτήματα, αλλά έλυσε με άνεση τα απλά. Για τη δεύτερη ερώτηση, αξίζει να πειραματιστείτε μόνοι σας μια που βρισκόμαστε σε προεκλογική περίοδο 😊 (χωρίς όμως να δημοσιεύσετε την ιστορία στο διαδίκτυο!). Θετικές απαντήσεις για τις άλλες ερωτήσεις που θέσαμε παραπάνω μπορείτε να βρείτε στην ιστοσελίδα της Wikipedia για το ChatGPT (link), καθώς και σε σχετικά άρθρα στον παγκόσμιο ιστό ή στα κοινωνικά δίκτυα. Για παράδειγμα, σήμερα διάβαζα στο twitter πως ένας χρήστης μπόρεσε να πείσει το ChatGPT να του δώσει λεπτομερείς οδηγίες για το πως μπορεί να βάλει μπροστά ένα αυτοκίνητο χωρίς να έχει τα κλειδιά. Θέλω να τονίσω εδώ ότι οι δημιουργοί του ChatGPT έχουν φροντίσει να μην επιτρέπουν στο σύστημα να δίνει πληροφορίες που μπορεί να επιτρέψουν σε κάποιον να κατασκευάσει μια βόμβα ή να κάνει κακό σε κάποιο ζώο ή άνθρωπο, όμως οι χρήστες έχουν βρει επανειλημμένα τρόπους να κοροϊδέψουν το πρόγραμμα και να αποσπάσουν παρόμοιες πληροφορίες.

Είναι λοιπόν προφανές ότι τα παραπάνω προγράμματα, παρά τις αδυναμίες τους, είναι πολύ ισχυρά και έχουν κάνει πολλούς ανθρώπους να αναρωτηθούν: Είμαστε άραγε πολύ κοντά στη χρονική στιγμή που θα δούμε μεγάλα γλωσσικά μοντέλα όπως το ChatGPT να αντικαθιστούν διάφορες κατηγορίες εργατών γνώσης (knowledge workers) π.χ., τους καθηγητές Πανεπιστημίου, τους δημοσιογράφους, τους δικηγόρους κ.ο.κ.; Για παράδειγμα, γιατί χρειαζόμαστε έναν δημοσιογράφο για να γράψει ένα επετειακό άρθρο για τoν Β΄ Παγκόσμιο Πόλεμο όταν μπορεί να το κάνει το ChatGPT; Το άρθρο της OpenAI που αναφέρεται στις επιδόσεις του GPT-4 (Link) αναφέρει ότι το πρόγραμμα αυτό επιτυγχάνει απόδοση ίση ή καλύτερη από τους ανθρώπους (human level performance) σε μια σειρά από ακαδημαϊκούς και επαγγελματικούς διαγωνισμούς. Για παράδειγμα, καταφέρνει να επιτύχει πολύ καλή απόδοση σε έναν διαγωνισμό απόκτησης της άδειας άσκησης του επαγγέλματος του δικηγόρου. Θα έχουμε λοιπόν σύντομα chatbots-δικηγόρους που θα αντικαταστήσουν τους επαγγελματίες;

Η απάντηση στα παραπάνω σημαντικά ερωτήματα δεν είναι εύκολο να δοθεί. Σίγουρα, η Τεχνητή Νοημοσύνη έχει κάνει μεγάλα βήματα τα τελευταία χρόνια. Όμως κάποιοι ερευνητές νομίζουν ότι είμαστε ακόμα μακριά από το να δούμε συστήματα Τεχνητής Νοημοσύνης να αντικαθιστούν τους ανθρώπους σε διάφορα επαγγέλματα έντασης γνώσης (knowledge intensive jobs). Για παράδειγμα, ενώ έχουν μία βασική συλλογιστική ικανότητα, αυτήν τη στιγμή απέχουν πολύ από το να αναπτύξουν το επίπεδο συλλογιστικής ενός καλού δικηγόρου. Αντίθετα, είναι ξεκάθαρο ότι μπορούν να διευκολύνουν την καθημερινή εργασία ενός εργάτη γνώσης. Για παράδειγμα, ένας δημοσιογράφος μπορεί να χρησιμοποιήσει το ChatGPT για να γράψει το σκελετό ενός άρθρου και μετά να τελειοποιήσει το κείμενο αυτό λαμβάνοντας υπόψη το ακροατήριο στο οποίο απευθύνεται, ελέγχοντας τις πηγές που χρησιμοποίησε το ChatGPT κ.λπ. Έτσι μπορούμε να δούμε μια μεγάλη αύξηση της παραγωγικότητας των εργατών γνώσης παρόμοια με αυτήν που έφερε η βιομηχανική επανάσταση στα χειρωνακτικά επαγγέλματα. Κάποιοι μιλούν για την πιθανότητα να έχουμε μια «Νέα Αναγέννηση» με τη χρήση αυτών των προγραμμάτων.

Άλλοι ερευνητές της Τεχνητής Νοημοσύνης δεν είναι το ίδιο αισιόδοξοι. Ορισμένοι από αυτούς δημοσίευσαν πρόσφατα μια ανοικτή επιστολή με τίτλο «Σταματήστε τα Γιγαντιαία Πειράματα Τεχνητής Νοημοσύνης (Stop Giant AI Experiments)». Η επιστολή ξεκινάει με τη διαπίστωση ότι «τα συστήματα Τεχνητής Νοημοσύνης με ικανότητες παρόμοιες με αυτές ενός ανθρώπου δημιουργούν σοβαρούς κινδύνους για την κοινωνία και την ανθρωπότητα», και προτείνει ένα εξαμηνιαίο μορατόριουμ στην ανάπτυξη μεγάλων γλωσσικών μοντέλων όπως το GPT-4 μέχρι να μπορέσουν να τεθούν κανόνες για την ασφαλή και έμπιστη ανάπτυξη τέτοιων συστημάτων. Το γράμμα βρίσκεται σε αυτήν την ιστοσελίδα και είναι διαθέσιμο για υπογραφή από όποιον ενδιαφέρεται.

Ανεξάρτητα πάντως με το αν τα μεγάλα γλωσσικά μοντέλα είναι μια ευκαιρία ή μια απειλή για την ανθρωπότητα, η ανάπτυξη και η χρήση τους εγείρει μια σειρά από ηθικά ζητήματα. Κατ’ αρχήν, η εκπαίδευση αυτών των μοντέλων προϋποθέτει τεράστια υπολογιστική ισχύ και, κατά συνέπεια, την κατανάλωση μεγάλου ποσού ηλεκτρικής ενέργειας και την έκλυση μεγάλου ποσού διοξειδίου του άνθρακα στην ατμόσφαιρα αν η ενέργεια που χρησιμοποιείται δεν είναι «πράσινη». Υπολογίζεται ότι ένας άνθρωπος σε μια προηγμένη χώρα είναι υπεύθυνος για την εκπομπή πέντε τόνων διοξειδίου του άνθρακα στην ατμόσφαιρα. Το αντίστοιχο ποσό για την εκπαίδευση ενός μεγάλου γλωσσικού μοντέλου είναι περίπου διακόσια ογδόντα τόνοι.

Δεύτερον, η εκπαίδευση ενός γλωσσικού μοντέλου σε έναν τεράστιο όγκο δεδομένων και η πολυπλοκότητα της αρχιτεκτονικής του δεν μας επιτρέπει να δώσουμε θετική απάντηση σε μια σειρά από σημαντικές ερωτήσεις: Είναι οι απαντήσεις του μοντέλου ασφαλείς για τους χρήστες; Είναι νόμιμες με βάση τη νομοθεσία της χώρας στην οποία χρησιμοποιείται; Σέβεται το μοντέλο την ιδιωτικότητα των χρηστών; Μπορεί να εξηγήσει τις προβλέψεις του ή τα συμπεράσματά του στους χρήστες; Έχει προκαταλήψεις (για παράδειγμα, ως προς την εθνικότητα, το φύλο ή τη θρησκεία);

Στην πραγματικότητα, η απάντηση σε όλες τις παραπάνω ερωτήσεις είναι αρνητική και η σχετική βιβλιογραφία περιέχει πολλά παραδείγματα τα οποία τη θεμελιώνουν. Για παράδειγμα, για το πιο πρόσφατο μεγάλο γλωσσικό μοντέλο GPT-4, για λόγους ασφάλειας και ανταγωνισμού, η OpenAI δεν έχει δώσει καμία λεπτομέρεια σχετικά με τα δεδομένα στα οποία εκπαιδεύτηκε, την αρχιτεκτονική του, την υπολογιστική ισχύ που χρειάστηκε για να εκπαιδευτεί κ.λπ. Μάλιστα, ο επικεφαλής της OpenAI Sam Altman παραδέχτηκε σε συνέντευξή του ότι ανησυχεί ιδιαίτερα για την πιθανή χρήση του GPT-4 από κακόπιστους χρήστες για παραπληροφόρηση μεγάλης κλίμακας. Επίσης, επειδή αυτά τα προγράμματα γίνονται όλο και καλύτερα στην παραγωγή κώδικα, θα μπορούσαν να χρησιμοποιηθούν για κυβερνοεπιθέσεις.

Τρίτον, ακόμα και η προσπάθεια της OpenAI να κάνει τo ChatGPT και το GPT-4 πιο ασφαλή για τους χρήστες τους έφερε στο προσκήνιο σημαντικά ηθικά διλλήματα. Σύμφωνα με το περιοδικό Time, η OpenAI ανέθεσε σε μια τρίτη εταιρία-πάροχο υπηρεσιών (outsourcing company) την επισημείωση κειμένων με επιβλαβές για τους χρήστες περιεχόμενο, ώστε αυτά να συμπεριληφθούν στα κείμενα με τα οποία προ-εκπαιδεύτεται το μοντέλο και έτσι το μοντέλο να «μάθει» να αποφεύγει την παραγωγή παρόμοιων κειμένων ακόμα κι αν προκληθεί από κάποιον κακόβουλο χρήστη. Τα αποτελέσματα αυτής της προσπάθειας μπορούμε να τα δούμε εύκολα. Δοκιμάστε για παράδειγμα να ζητήσετε από το ChatGPT να σας δώσει οδηγίες για το πώς να σκοτώσετε ένα πουλάκι με μια πέτρα. Θα διαπιστώσετε ότι δεν θα το κάνει και μάλιστα θα σας συμβουλεύσει ότι δεν είναι καλό να κάνετε κακό σε κάποιο ζώο. Ας επανέλθουμε όμως στην εταιρία-πάροχο υπηρεσιών. Αυτή ανέθεσε την επισημείωση των κειμένων σε μια εξωτερική εταιρία στην Κένυα. Το Time αναφέρει ότι τα κείμενα που επισημειώθηκαν περιείχαν γλαφυρές περιγραφές κακοποίησης παιδιών, βιασμών, ακρωτηριασμών, βασανιστηρίων κ.λπ. Οι υπάλληλοι της εταιρίας στην Κένυα είπαν ότι είχαν να διαβάσουν και να επισημειώσουν 150-250 τέτοια κείμενα σε μια βάρδια εννέα ωρών. Πληρώνονταν περίπου δύο δολάρια την ώρα και τους προσφερόταν ομαδική θεραπεία για να τους βοηθήσει να ανταπεξέλθουν στα ψυχολογικά προβλήματα που αντιμετώπιζαν με την έκθεσή τους στο βίαιο υλικό που αναφέραμε. Η εταιρία- πάροχος υπηρεσιών αμφισβήτησε τους παραπάνω αριθμούς του Time, αλλά αναγκάστηκε να τερματίσει το συμβόλαιο μετά από 8 μήνες εξαιτίας του βίαιου περιεχομένου που αναφέραμε.

Τέταρτον, είναι εύκολο να καταλάβει κανείς ότι τα πιθανά οφέλη από τη χρήση των μεγάλων γλωσσικών μοντέλων θα τα απολαύσουν οι προηγμένες χώρες, ενώ τα επιβλαβή αποτελέσματά τους (για παράδειγμα, το περιβαλλοντολογικό τους αποτύπωμα) θα επηρεάσουν κυρίως τις φτωχότερες χώρες του πλανήτη.

Τέλος, η εκπαίδευση κάποιων γλωσσικών μοντέλων σε δεδομένα, πολλά από τα οποία είναι διαθέσιμα υπό προϋποθέσεις, πιθανά δεν είναι νόμιμη και έχει ήδη δώσει λαβή σε αγωγές στις Ηνωμένες Πολιτείες. Συγκεκριμένα, το Νοέμβριο του 2022 υποβλήθηκε αγωγή εναντίον της OpenAI, της Microsoft και της πλατφόρμας ανάπτυξης λογισμικού GitHub (ιδιοκτησίας της Microsoft), η οποία αφορούσε το μοντέλο παραγωγής κώδικα GitHub Copilot το οποίο βασίζεται στο μοντέλο CodeX της OpenAI (link). Οι ενάγοντες ισχυρίζονται ότι τα μοντέλα αυτά, που έχουν εκπαιδευτεί σε κώδικα διαθέσιμο στην πλατφόρμα GitHub, παραβιάζουν τις άδειες ανοικτού κώδικα του λογισμικού που βρίσκεται στην πλατφόρμα και μια σειρά από άλλους νόμους.

Στο νομοθετικό πεδίο τώρα, οι περισσότερες κυβερνήσεις προηγμένων χωρών έχουν υιοθετήσει πρόσφατα στρατηγικές για την Τεχνητή Νοημοσύνη, και έχουν αρχίσει να προετοιμάζουν νομοθετικές ρυθμίσεις που θα αμβλύνουν τους κινδύνους από την ανάπτυξη συστημάτων Τεχνητής Νοημοσύνης όπως τα μεγάλα γλωσσικά μοντέλα. Η Ευρωπαϊκή Ένωση ετοιμάζεται να ψηφίσει μια σημαντική νομοθετική πράξη για την Τεχνητή Νοημοσύνη με το όνομα «The AI Act» η οποία, εφόσον γίνει νόμος, θα επιτρέπει την κατηγοριοποίηση των προγραμμάτων Τεχνητής Νοημοσύνης σε απαράδεκτου κινδύνου, υψηλού κινδύνου και άλλα, και θα ρυθμίζει την ανάπτυξη και χρήση προγραμμάτων που ανήκουν στις δύο πρώτες κατηγορίες (link). Αναμένεται ότι και άλλες χώρες θα ακολουθήσουν με παρόμοιες νομοθετικές πράξεις (μια τέτοια είναι υπό ψήφιση στη Βραζιλία).

Ο ρόλος του νομοθέτη στην περίπτωση των μεγάλων γλωσσικών μοντέλων, και της Τεχνητής Νοημοσύνης γενικότερα, είναι πολύ σημαντικός. Βλέποντας την ανάπτυξη της Τεχνητής Νοημοσύνης από αυτή τη σκοπιά, θεωρώ ότι είμαστε τυχεροί που ζούμε στην Ευρωπαϊκή Ένωση όπου η στρατηγική για την Τεχνητή Νοημοσύνη βασίζεται στην αριστεία και στην εμπιστοσύνη (excellence and trust) και στοχεύει στην έρευνα και στην ανάπτυξη τεχνολογιών που είναι ασφαλείς για τους χρήστες, σέβονται την ιδιωτικότητά τους, είναι υπεύθυνες για τις αποφάσεις τους και μπορούν να τις εξηγήσουν στους χρήστες τους, και δεν έχουν προκαταλήψεις. Η ανάπτυξη τέτοιων συστημάτων Τεχνητής Νοημοσύνης είναι το ζητούμενο και στην ανοικτή επιστολή που αναφέρθηκε παραπάνω.

Πολύ πρόσφατα, η Ιταλία έγινε η πρώτη Ευρωπαϊκή χώρα που απαγόρεψε το ChatGPT εξαιτίας των ζητημάτων που αναφέραμε παραπάνω, όπως τη δυνατότητα να «χακαριστεί», την έλλειψη νομικής βάσης για τη συλλογή των δεδομένων στα οποία εκπαιδεύτηκε, τη δυνατότητα να χρησιμοποιηθεί από ανήλικα άτομα και τη δυνατότητα να γίνει αντικείμενο εκμετάλλευσης από κακόβουλους χρήστες για τη διασπορά ψευδών ειδήσεων.

Κι εδώ φτάνουμε στην τελευταία ερώτησή μας. Είναι αρκετό για τους Ευρωπαίους πολίτες να έχουμε μια Ευρωπαϊκή προσέγγιση για την Τεχνητή Νοημοσύνη; Αν και η προσέγγιση είναι σωστή, φοβάμαι πως το σημερινό επίπεδο επενδύσεων στην Τεχνητή Νοημοσύνη στην Ευρώπη δεν είναι αρκετό για να την πραγματοποιήσουμε. Γι’ αυτόν τον λόγο βλέπουμε όλα τα μεγάλα βήματα στην Τεχνητή Νοημοσύνη τα τελευταία χρόνια να γίνονται από τις Αμερικάνικες εταιρίες όπως η OpenAI, η Google και η Meta. Θα θέλαμε λοιπόν να δούμε σημαντικά μεγαλύτερη χρηματοδότηση των ευρωπαϊκών πανεπιστημίων, ερευνητικών κέντρων και εταιριών για να μπορέσουμε να ανταγωνιστούμε τους Αμερικάνικους και Κινέζικους κολοσσούς στην ανάπτυξη όχι απλά ισχυρών, αλλά και έμπιστων συστημάτων Τεχνητής Νοημοσύνης.

***

Ευχαριστίες: Ευχαριστώ τις συνεργάτιδες μου Δέσποινα-Αθανασία Πανταζή και Δρ. Ελένη Τσαλαπάτη για παρατηρήσεις και σχόλια στο παραπάνω κείμενο.

*Ο κ. Μανόλης Κουμπαράκης είναι καθηγητής Τεχνητής Νοημοσύνης στο Τμήμα Πληροφορικής και Τηλεπικοινωνιών του ΕΚΠΑ.

«Μόνο ένα τρομαγμένο ζώο
οδηγεί στην ομορφιά.
Γιατί καμιά ομορφιά
δεν έμεινε αμέτοχη της λύπης».
Κύλιση στην κορυφή