Search
Close this search box.

ChatGPT: Αποκήρυξη της νέας τεχνολογίας ή καλλιέργεια ηθικής χρήσεώς της;

Η Φερενίκη Παναγοπούλου γράφει για το πολυσυζητημένο ChatGPT και τα εγειρόμενα νομικά ζητήματα, προτείνοντας παράλληλα τρόπους χρήσης της νέας τεχνολογίας στην επιστημονική κοινότητα.

Ι. Εισαγωγή

Ένα νέο τεχνολογικό εργαλείο είναι πλέον στη διάθεσή μας υπό τον μανδύα μιας εφαρμογής συντάξεως σύνθετων επιστημονικών απαντήσεων με τη συνδρομή της τεχνητής νοημοσύνης. Ευλογία για τους εκπαιδευόμενους και κατάρα για τους εκπαιδευτές; Τα πράγματα στη ζωή μας δεν είναι ποτέ μαύρα ή άσπρα αλλά μια απόχρωση του γκρι. Χρειάζεται προσοχή και περίσκεψη προτού προβούμε σε όποιους αφορισμούς. Σε κάθε περίπτωση, παρατηρείται μια αλλαγή των κανόνων του παιχνιδιού.[1] Η παρούσα συμβολή αποσκοπεί στο να συζητήσει τα εγειρόμενα νομικά και δεοντολογικά ζητήματα και να προτείνει τρόπους χρήσεως της νέας τεχνολογίας στην επιστημονική κοινότητα.

ΙΙ. Τα ανακύπτοντα νομικά ζητήματα

Το νέο εργαλείο τεχνητής νοημοσύνης εγείρει αρκετά νομικά ζητήματα. Τα κυριότερα από αυτά συνοψίζονται στα εξής:

1.      Ζητήματα λογοκλοπής

Εν προκειμένω, ο συγγραφέας φέρεται να έχει γράψει ένα κείμενο που δεν είναι προϊόν δικής του πνευματικής ιδιοκτησίας, αλλά τρίτου όχι πλέον φυσικού προσώπου, αλλά ψηφιακής τεχνολογίας. Λαμβάνει χώρα μια μορφή εξαπατήσεως,[2] αν και τα όρια ανάμεσα στη συνθετική εργασία και την έρευνα των πηγών από τους μηχανισμούς αναζητήσεως είναι διάτρητα. Η υποβολή μιας εργασίας υπ’ αυτές τις συνθήκες αντιβαίνει τους κανόνες ακαδημαϊκής δεοντολογίας. Επισημαίνεται ότι, σύμφωνα με το άρθρο 197 παρ. 2 στοιχ. β΄ του ν. 4957/2022, συνιστά πειθαρχικό παράπτωμα «η λογοκλοπή ή η αποσιώπηση της άμεσης ή έμμεσης συνεισφοράς άλλων προσώπων στο αντικείμενο επιστημονικής ενασχόλησης ή έρευνας». Σημειώνεται, πάντως, ότι η εν λόγω λογοκλοπή δύναται πλέον να ελέγχεται ηλεκτρονικά και με μεθόδους τεχνητής νοημοσύνης, π.χ. μέσω της εφαρμογής Turnitin.

2.      Ζητήματα πνευματικής ιδιοκτησίας

Ερώτημα ανακύπτει αναφορικά με το ποιος λογίζεται ως δημιουργός του τελικού έργου. Οι δυνατές απαντήσεις θα μπορούσαν να συνοψισθούν στις εξής:[3]

α) Το δημιούργημα ανήκει στον δημιουργό της τεχνητής νοημοσύνης. Στη θέση αυτή αντιτάσσεται ότι η εφαρμογή των ιδεών ενός έργου δεν συνιστά παράγωγο έργο, καθώς οι ιδέες δεν υπόκεινται στο πεδίο προστασίας της πνευματικής ιδιοκτησίας, σύμφωνα με το άρθρο 2 του ν. 2121/1993.

β) Το δημιούργημα ανήκει στον δημιουργό της τεχνητής νοημοσύνης ως διανοητική, αλλά όχι ως πνευματική ιδιοκτησία, π.χ. ως εφεύρεση. Υπ’ αυτή την έννοια, θα μπορούσε η πνευματική δημιουργία να ανήκει στον χρήστη της δημιουργικής τεχνητής νοημοσύνης και όχι στον δημιουργό της. Δεδομένου ότι η εργασία αρκεί ως κριτήριο για την απόκτηση πνευματικής δημιουργίας, βάσει του άρθρου 1 παρ. 3 της Οδηγίας 91/250 και του άρθρου 6 της Οδηγίας 2006/116, τα δευτερογενή επιτεύγματα θα ανήκουν στον χρήστη του αρχικού λογισμικού, καθόσον αυτός έθεσε σε λειτουργία τη συσκευή για να παραχθούν.[4]

γ) Το δημιούργημα αποτελεί συνδημιούργημα του δημιουργού και του χρήστη της δημιουργικής τεχνητής νοημοσύνης. H λύση αυτή συνυπολογίζει το γεγονός ότι το τελικό συνδημιούργημα είναι και των δύο[5].

δ) Το δημιούργημα καθίσταται ελεύθερο αγαθό ανήκον πλέον στην κοινή χρήση (public domain), δεδομένου ότι οι μηχανές δεν μπορούν να δημιουργήσουν πνευματικά έργα[6]. Στην περίπτωση αυτή έχουμε να κάνουμε με τη λεγόμενη μηδενική λύση. Yπ’ αυτή την έννοια, το δευτερογενές δημιούργημα δεν είναι κατασκεύασμα φυσικού προσώπου και, ως εκ τούτου, δεν είναι έργο, αλλά ελεύθερο αγαθό που ανήκει στο κοινό. Σημειώνεται, ωστόσο, ότι την κυριότητα του προϊόντος της τεχνητής νοημοσύνης θα αποκτήσει ο κύριός του, δυνάμει ειδοποιΐας ή καρποκτησίας[7]. Η λύση αυτή εδράζεται στο επιχείρημα ότι δεν έχουμε ανθρώπινο δημιούργημα, αισθητό και πρωτότυπο. Η θέση αυτή βαρύνεται με το μειονέκτημα ότι δεν κινητροδοτείται ο κατασκευαστής της τεχνητής νοημοσύνης[8]. Περαιτέρω, υποστηρίζεται ότι η ελεύθερη διάθεση απάδει με τη σύμβαση της Βέρνης, από την οποία απορρέει το δίκαιο της πνευματικής ιδιοκτησίας και καθιερώνει την αρχή του δημιουργού.

ε) Το δημιούργημα είναι πνευματικό έργο του δημιουργικού λογισμικού, δηλαδή η τεχνητή νοημοσύνη γίνεται δημιουργός από τη θέση του δημιουργήματος[9]. Με τον τρόπο αυτό αναγνωρίζεται αναλογικά ή νομοθετικά νομική προσωπικότητα στη συσκευή της τεχνητής νοημοσύνης.      Στην κατεύθυνση της δημιουργίας μακροπρόθεσμα ενός ειδικού νομικού καθεστώτος για τα ρομπότ κινείται το Ψήφισμα του Ευρωπαϊκού Κοινοβουλίου της 16ης Φεβρουαρίου 2017[10], το οποίο απορρίφθηκε τον Οκτώβριο του 2020 από το Ευρωπαϊκό Κοινοβούλιο[11]. Στόχος είναι τα πιο εξελιγμένα, αυτόνομα ρομπότ να εκλαμβάνονται ως ηλεκτρονικά πρόσωπα με υποχρέωση επανορθώσεως τυχόν προκληθείσας ζημίας. Περαιτέρω στόχος είναι η εφαρμογή της ηλεκτρονικής προσωπικότητας σε περιπτώσεις στις οποίες τα ρομπότ λαμβάνουν αυτόνομα αποφάσεις ή έρχονται με άλλον τρόπο σε ανεξάρτητη αλληλεπίδραση με άλλα πρόσωπα[12]. Η θέση αυτή ενέχει τον κίνδυνο του περιορισμού της ευθύνης για τυχόν ζημίες προς όφελος των κατασκευαστών των μηχανημάτων[13].Αυτή η θέση δεν έχει τύχει νομολογιακής επιδοκιμασίας από την ευρωπαϊκή έννομη τάξη. Στην απόφαση England and Wales του Εφετείου της Αγγλίας και της Ουαλίας[14] το δικαστήριο έκρινε ότι μια μηχανή δεν μπορεί να είναι εφευρέτης υπό την έννοια του νόμου, διότι η μηχανή δεν είναι φυσικό πρόσωπο. Αντιθέτως, στην Κίνα αναγνωρίστηκε πνευματική ιδιοκτησία στο έργο ρομπότ.[15]

στ) Δεδομένης της αδυναμίας των ανωτέρω λύσεων, προτείνεται υπό την οπτική του αστικού δικαίου η λύση του αδικαιολογήτου πλουτισμού, δυνάμει των διατάξεων 904 επ. Α.Κ.. Εν προκειμένω η κυριότητα αποκτάται ως αδικαιολόγητος πλουτισμός από νόμιμη αιτία (δυνάμει συμβάσεως) ή και χωρίς νόμιμη αιτία.

Καμία από τις ανωτέρω θέσεις δεν κατέχει τα σκήπτρα της απόλυτης ορθότητας και η απάντηση στο ερώτημα περί πνευματικής ιδιοκτησίας πρέπει να δοθεί με βάση τα εκάστοτε πραγματικά περιστατικά. Πιστεύεται, πάντως, ότι ένεκα της τεχνητής νοημοσύνης θα απαιτηθεί να μετασχηματίσει ο νόμος περί πνευματικής ιδιοκτησίας, ο οποίος ενδεχομένως θα αποδώσει δικαιώματα σε δημιουργούς – μη ανθρώπους.[16]

3.      Ζητήματα νομικής ευθύνης

Σε περίπτωση που γίνει αποδεκτό το συντεθέν κείμενο, προκύπτει εύλογα το ερώτημα περί ευθύνης. Ποιος θα ευθύνεται σε περίπτωση που το δημιούργημα εμπεριέχει ψευδή γεγονότα ή υβριστικό περιεχόμενο; Το ερώτημα αυτό δεν επιδέχεται αυτονόητη απάντηση.

Η πρώτη θέση έγκειται στο ότι την ευθύνη οφείλει να επωμιστεί, αλλά και να διαχειριστεί ο κατασκευαστής προϊόντων τεχνητής νοημοσύνης. Αυτό θα μπορούσε να γίνει μέσω της θεσπίσεως ενός μαχητού τεκμηρίου ότι εν αμφιβολία ευθύνεται ο κατασκευαστής. Με τον τρόπο αυτό θα ενισχυθεί η υπευθυνότητα, αλλά και η προνοητικότητα του κατασκευαστή. Στην κατεύθυνση αυτή σκόπιμη κρίνεται η υποχρέωση της μελέτης εκτιμήσεως αντικτύπου πριν από την ενεργοποίηση οποιαδήποτε εφαρμογής τεχνητής νοημοσύνης. [17]

Το μοντέλο αυτό ευθύνης φαίνεται να υιοθετεί εν πολλοίς το Σχέδιο Κανονισμού Τεχνητής Νοημοσύνης που αποδίδει μεγάλη ευθύνη στον σχεδιαστή της τεχνητής νοημοσύνης και τονίζει τη σημασία της προλήψεως κατά τον σχεδιασμό. Περαιτέρω, οι εταιρείες τεχνητής νοημοσύνης έχουν την υποχρέωση να ασκούν αυστηρό έλεγχο μετά από την πώληση των προϊόντων της και να διεξάγουν συνεχιζόμενες αναβαθμίσεις που θα αποτρέπουν τις απρόβλεπτες επιπτώσεις.[18] Ως εκ τούτου, οι εταιρείες τεχνητής νοημοσύνης οφείλουν να επινοήσουν τρόπους αποτροπής από την κακή χρήση των προϊόντων τους, προκειμένου να προστατέψουν και τις ίδιες, αλλά και να μην στερήσουν από την κοινωνία τα μεγάλα οφέλη που θα της προσφέρει.[19] Πρέπει να λάβουν τα κατάλληλα μέτρα για την ελαχιστοποίηση των κινδύνων που ανακύπτουν και αν το πράξουν θα μειώσουν την πιθανή ευθύνη τους και θα εξασφαλίσουν ότι τα προϊόντα τους είναι κατάλληλα για την κοινωνία στην οποία ζούμε.[20] Κανείς δεν θα πρέπει να αναπτύσσει συστήματα τεχνητής νοημοσύνης, χωρίς να έχει το αίσθημα της ευθύνης για αυτά, ακόμα και αν πρόκειται για συστήματα αυτόνομης μηχανικής μαθήσεως, δεδομένου ότι η ευθύνη μπορεί πλέον να εισαχθεί και ως πληροφορία.[21] Η αυστηρή ευθύνη του δημιουργού θα πρέπει να διαδραματίσει βασικό ρόλο στην αποζημίωση των βλαβών που προκαλούνται από ελαττωματικά προϊόντα και τα συστατικά τους, ανεξάρτητα από το αν λαμβάνουν απτή ή ψηφιακή μορφή.[22]

Η δεύτερη θέση έγκειται στο ότι η ευθύνη πρέπει να αποδοθεί στον χειριστή της τεχνολογίας που περιλαμβάνει η νοημοσύνη, δηλαδή στον ερευνητή που εφαρμόζει την τεχνολογία.

Με τον τρόπο αυτό, όμως, δεν επιλύονται όλα τα ζητήματα που θέτει η τεχνητή νοημοσύνη. Δεν παύει, όμως, να είναι μια έντιμη εκ πρώτης όψεως λύση όσον αφορά στον ερευνητή που αναζητεί πρόταση για το πρόβλημα που τίθεται. Ο χειριστής του σχετικού προγράμματος οφείλει, να μην ενστερνιστεί δίχως άλλο την πρόταση, αλλά να ελέγξει αν η πρόταση είναι απολύτως προσαρμοσμένη στα εκάστοτε πραγματικά περιστατικά της εξεταζόμενης υποθέσεως και να θεωρούν ως πιθανό σενάριο την προκατάληψη του αλγορίθμου. Σε αυτή την κατεύθυνση ίσως θα μπορούσαμε να υιοθετήσουμε ένα μαχητό τεκμήριο ότι εν αμφιβολία η ανθρώπινη κρίση υπερισχύει της αποφάσεως του αλγορίθμου.[23] Βεβαίως, δεν θα πρέπει να παραγνωρίζεται ο κίνδυνος να παρασυρθεί ο χρήστης από την πρόταση και να οδηγηθεί σε λάθος συλλογισμό στο τελικό του κείμενο.

Η τρίτη θέση έγκειται σε έναν επιμερισμό της ευθύνης μεταξύ του κατασκευαστή ή προγραμματιστή και του χειριστή. Ο καθένας θα ευθύνεται για το μερίδιο της ευθύνης που του αναλογεί. Ο κατασκευαστής για την κατασκευαστική ατέλεια και ο χειριστής για την αστοχία κατά τον χειρισμό ή για τη μη επιμέτρηση των πραγματικών περιστατικών στην εξεταζόμενη υπόθεση.

Το σύστημα αυτό της ευθύνης καίτοι φαίνεται δελεαστικό και τείνει να είναι το επικρατέστερο, δεν είναι άμοιρο προβληματισμού και αμφισβητήσεων. Η απόδοση της ευθύνης μπορεί να καταστεί σε πολλές περιπτώσεις ένα δυσεπίλυτο και δυσαπόδεικτο ζήτημα. Εάν υπάρχουν δύο ή περισσότεροι φορείς, ιδίως (α) το πρόσωπο που αποφασίζει πρωτίστως για τη χρήση της σχετικής τεχνολογίας και επωφελείται από αυτήν (frontend operator) και (β) το πρόσωπο που καθορίζει συνεχώς τα χαρακτηριστικά της σχετικής τεχνολογίας και παρέχει ουσιαστική και συνεχή υποστήριξη στο backend (backend operator), η αντικειμενική ευθύνη θα πρέπει να βαρύνει εκείνον που έχει μεγαλύτερο έλεγχο των κινδύνων της λειτουργίας.[24]

Η τέταρτη θέση έγκειται στην απόδοση ευθύνης στην ίδια την τεχνολογία. Αν, όμως, η τεχνολογία θεωρηθεί υπεύθυνη, θα πρέπει προηγουμένως να της έχει αποδοθεί νομική προσωπικότητα[25].Το 2015 το Ευρωπαϊκό Κοινοβούλιο υιοθέτησε ψήφισμα με το οποίο καλούσε την Επιτροπή να εξετάσει το ενδεχόμενο δημιουργίας ενός ειδικού νομικού καθεστώτος για τα ρομπότ μακροπρόθεσμα[26],έτσι ώστε τουλάχιστον τα πιο εξελιγμένα αυτόνομα ρομπότ να έχουν το καθεστώς των ηλεκτρονικών προσώπων που είναι υπεύθυνα για την αποκατάσταση κάθε ζημίας που μπορεί να προκαλέσουν, και ίσως την αναγνώριση της ηλεκτρονικής προσωπικότητας σε περιπτώσεις όπου τα ρομπότ λαμβάνουν αυτόνομες αποφάσεις ή άλλως αλληλεπιδρούν με τρίτους ανεξάρτητα.[27]

Η λύση αυτή απορρίφθηκε τον Οκτώβριο του 2020 από το Ευρωπαϊκό Κοινοβούλιο[28], το οποίο εξέδωσε τρία ψηφίσματα σχετικά με τις ηθικές και νομικές πτυχές των συστημάτων λογισμικού τεχνητής νοημοσύνης, α) το Ψήφισμα 2020/2012(INL) σχετικά με ένα πλαίσιο ηθικών πτυχών της Τεχνητής Νοημοσύνης, της Ρομποτικής και των συναφών τεχνολογιών, β) το Ψήφισμα 2020/2014(INL) σχετικά με ένα καθεστώς αστικής ευθύνης για την Τεχνητή Νοημοσύνη και γ) το Ψήφισμα 2020/2015(INI) σχετικά με τα δικαιώματα πνευματικής ιδιοκτησίας για την ανάπτυξη τεχνολογιών Τεχνητής Νοημοσύνης. Και τα τρία ψηφίσματα αναγνωρίζουν ότι η τεχνητή νοημοσύνη θα επιφέρει σημαντικά οφέλη σε διάφορους τομείς (επιχειρήσεις, αγορά εργασίας, δημόσιες μεταφορές, τομέας υγείας). Ωστόσο, όπως επισημαίνεται στο ψήφισμα για τις ηθικές πτυχές της τεχνητής νοημοσύνης, υφίστανται ανησυχίες ότι το ισχύον νομικό πλαίσιο της Ενώσεως, συμπεριλαμβανομένου του δικαίου των καταναλωτών και του εργατικού και κοινωνικού κεκτημένου, της νομοθεσίας για την προστασία των δεδομένων, της νομοθεσίας για την ασφάλεια των προϊόντων και την εποπτεία της αγοράς, καθώς και της νομοθεσίας κατά των διακρίσεων, ενδέχεται να μην είναι πλέον κατάλληλο για την αποτελεσματική αντιμετώπιση των κινδύνων που δημιουργούνται από την τεχνητή νοημοσύνη, τη ρομποτική και τις συναφείς τεχνολογίες. Και τα τρία ψηφίσματα είναι ανυποχώρητα ως προς την μη παροχή νομικής προσωπικότητας στα συστήματα λογισμικού τεχνητής νοημοσύνης. Επομένως, αυτή η λύση, καίτοι δελεαστική, φαίνεται να μην αφορά το αμέσως προσεχές μέλλον, χωρίς, όμως, να αποκλείεται για λίγο αργότερα, όταν ωριμάσει η ιδέα της ψηφιακής προσωπικότητας.

4.      Ζητήματα ελευθερίας εκφράσεως

Εγείρεται το ζήτημα αν το λογισμικό προστατεύεται από την ελευθερία εκφράσεως.[29] Συγκεκριμένα, έχει το μηχάνημα τη διακριτική ευχέρεια να προβεί σε αξιολογική κρίση; Εάν ως απλοί πολίτες υποβάλλουμε ερωτήσεις σε έναν δημοσιογράφο και αυτός μας τις απαντήσει, είναι αδιαμφισβήτητο ότι ο δημοσιογράφος καλύπτεται από την συνταγματικώς κατοχυρωμένη ελευθερία του λόγου. Όταν υποβάλλουμε ερώτημα στο λογισμικό, ομοίως, αυτό πρέπει να αποφασίσει, εκείνη τη στιγμή, ποιες “απαντήσεις” πρέπει να δώσει και με ποια σειρά. Εάν οι απαντήσεις αυτές θεωρηθούν έκφραση του μηχανισμού αναζητήσεως, τότε οποιαδήποτε κρατική προσπάθεια να ρυθμίσει την τεχνολογία, θα πρέπει να εκληφθεί ως λογοκρισία. [30]  Στο μέτρο που ο προγραμματιστής του λογισμικού εντάσσει την άποψή του και επιχειρεί να επηρεάσει το κοινό, θεωρείται ότι έχει εδώ εφαρμογή η ελευθερία του λόγου.[31]

5.      Ζητήματα προστασίας προσωπικών δεδομένων

Η χρήση μεγάλων γλωσσικών μοντέλων στην εκπαίδευση εγείρει ανησυχίες σχετικά με το απόρρητο και την ασφάλεια των δεδομένων, καθώς τα δεδομένα των εκπαιδευομένων είναι συχνά ευαίσθητα (ειδικές κατηγορίες). Η αλόγιστη συλλογή, καθώς και επεξεργασία των προσωπικών μας δεδομένων που απορρέει από τη λειτουργία της τεχνητής νοημοσύνης εγείρει έντονα ζητήματα σχετικά με τη συμβατότητα της τεχνολογίας με το δικαίωμα προστασίας προσωπικών δεδομένων και εκείνο του πληροφοριακού αυτοκαθορισμού. Πληθώρα δεδομένων που χρησιμοποιούνται στη τεχνητή νοημοσύνη αποτελούν προσωπικά δεδομένα[32] και πολλά εξ αυτών ανήκουν στις ειδικές κατηγορίες. Επεξηγηματικά, για τη λειτουργία της τεχνητής νοημοσύνης απαιτείται η συλλογή και επεξεργασία μεγάλων συνόλων δεδομένων που δύσκολα τίθενται υπό τον έλεγχο του υποκειμένου που αφορούν. Καθώς ο αλγόριθμος συχνά ξεπερνά τον δημιουργό του, λόγω της αδυναμίας του τελευταίου να κατανοήσει τον τρόπο λειτουργίας του, δεν είναι σε όλες τις περιπτώσεις εφικτή η ενημέρωση του υποκειμένου των δεδομένων σχετικά με τον τρόπο λειτουργίας του αλγορίθμου και, κατ’ επέκταση, για τα δεδομένα συλλογής και την ευρύτερη επεξεργασία τους. Οι συνηθέστεροι κίνδυνοι έγκεινται σε μη εξουσιοδοτημένη πρόσβαση σε δεδομένων των εκπαιδευομένων και τη χρήση των δεδομένων τους για άλλους σκοπούς πέραν της εκπαιδεύσεως.

ΙΙΙ. Πoια είναι η δέουσα στάση της επιστημονικής κοινότητας;

Είναι γεγονός ότι η νέα τεχνολογία έχει προκαλέσει έντονη ανησυχία στην εκπαιδευτική κοινότητα. Ήλθε, άραγε, το τέλος εποχής της δεξιότητας της συμβατικής γραφής; Ας μη βιαζόμαστε σε πρόχειρα συμπεράσματα. Το ερώτημα, όμως, παραμένει βασανιστικό: Πώς αντιμετωπίζουμε το λογισμικό; Μια προτεινόμενη λύση είναι να αποτάξουμε την τεχνολογία, γυρίζοντας το ρολόι πίσω στον 20ό αιώνα, αναγκάζοντας τους μαθητές και φοιτητές να γράφουν τις εξεταστικές εργασίες με στυλό και χαρτί, χωρίς τη χρήση ηλεκτρονικών συσκευών που συνδέονται με το Διαδίκτυο.[33] Εν προκειμένω, το Πανεπιστήμιο της Καλιφόρνιας στο Λος Άντζελες εξετάζει το ενδεχόμενο να καταστεί παραβίαση του δεοντολογικού κώδικα τιμής η χρήση του ChatGPT για τη συμμετοχή σε εξετάσεις ή τη συγγραφή εργασιών.[34] Στη Γερμανία το Πανεπιστήμιο του Τίμπιγκεν αποφάσισε να περιορίσει τη χρήση του εν λόγω λογισμικού για φοιτητές και ερευνητές.[35]

Οι λόγοι του ενδοιασμού δεν είναι άμοιροι προβληματισμού. Οι εκπαιδευόμενοι μπορεί να βασίζονται υπερβολικά στο μοντέλο. Οι αβίαστα παραγόμενες πληροφορίες θα μπορούσαν να επηρεάσουν αρνητικά την κριτική σκέψη και τις δεξιότητες επιλύσεως προβλημάτων. Αυτό οφείλεται στο γεγονός ότι το μοντέλο απλοποιεί την απόκτηση απαντήσεων ή πληροφοριών, γεγονός που μπορεί να ενισχύσει την ραστώνη και να εξουδετερώσει την ενδιαφέρον τους να διεξάγουν τις δικές τους έρευνες και να καταλήξουν στις δικές τους δικά τους συμπεράσματα ή λύσεις.[36]

Ωστόσο, η απαγόρευση είναι μια τεχνοφοβική προσέγγιση, εάν ακολουθηθεί εν συνόλω. Δεν είναι λίγες οι φωνές εκείνων που προτρέπουν τους φοιτητές τους να χρησιμοποιούν το ChatGPT στις γραπτές εργασίες τους.[37] Αντί να απαγορεύουμε στους εκπαιδευόμενους να χρησιμοποιούν εργαλεία γραφής με τεχνητή νοημοσύνη που εξοικονομούν εργασία και χρόνο, θα πρέπει να τους διδάξουμε να τα χρησιμοποιούν δεοντολογικά και παραγωγικά,[38] προκειμένου  να κατανοήσουν το πολύπλοκο ζήτημα της διαφορετικότητας των πηγών και εν γένει της εκπαιδευτικής διαδικασίας.

Για να παραμείνουν ανταγωνιστικοί καθ’ όλη τη διάρκεια της σταδιοδρομίας τους, οι εκπαιδευόμενοι πρέπει να μάθουν πώς να προτρέπουν ένα εργαλείο συγγραφής τεχνητής νοημοσύνης να αποσπάσει αξιόλογο αποτέλεσμα και να γνωρίζουν πώς να αξιολογούν την ποιότητα, την ακρίβεια και την πρωτοτυπία του.[39] Για τον λόγο αυτό το λογισμικό πρέπει να αποτελέσει εργαλείο-αρωγό του μαθήματος.[40] Πρέπει να μάθουν να συντάσσουν καλά οργανωμένα, συνεκτικά δοκίμια που περιλαμβάνουν ένα μείγμα κειμένου που παράγεται από τεχνητή νοημοσύνη και παραδοσιακή γραφή. [41] Ως επαγγελματίες θα πρέπει να μάθουν πώς να συνεργάζονται παραγωγικά με τα συστήματα τεχνητής νοημοσύνης, χρησιμοποιώντας τα για να συμπληρώνουν και να ενισχύουν την ανθρώπινη δημιουργικότητα με την εξαιρετική δύναμη που υπόσχεται η τεχνητή νοημοσύνη.[42]

Εκτός από τους παιδαγωγικούς λόγους για την αντιμετώπιση του ChatGPT ως ευκαιρία και όχι ως απειλή, υπάρχουν και πρακτικοί λόγοι: Είναι ουτοπικό να απαγορευτεί αποτελεσματικά η πρόσβαση σε αυτή την τεχνολογία. [43] Η λογική της καθολικής απαγορεύσεως δεν επιλύει το πρόβλημα. [44]

Η επιβολή μιας ολικής απαγορεύσεως χρήσεως του ChatGPT θα προκαλούσε επίσης αναπόφευκτα την αδικία των ψευδώς θετικών και των ψευδώς αρνητικών αποτελεσμάτων κατά τον έλεγχο χρήσεως του λογισμικού. Κάποιοι εκπαιδευόμενοι που χρησιμοποιούν το ChatGPT παρά την απαγόρευση θα μπορούσαν, από τύχη ή χάρη στην αρκετά προσεκτική επεξεργασία του κειμένου που παράγεται από την τεχνητή νοημοσύνη, να αποφύγουν να επισημανθεί το κείμενό τους ως υποβοηθούμενο από αυτή. Ακόμα χειρότερα, κάποιοι εκπαιδευόμενοι θα κατηγορούνταν ψευδώς ότι χρησιμοποιούν το ChatGPT, προκαλώντας τεράστιο άγχος οδηγούμενοι σε κυρώσεις για ένα ολίσθημα που δεν διέπραξαν.[45]

Θα ήταν υπεροπτικό να αγνοήσουμε μια εφαρμογή που προσφέρει εξατομικευμένη διδασκαλία και ανατροφοδότηση στους εκπαιδευόμενους με βάση τις ατομικές μαθησιακές τους ανάγκες και την πρόοδό τους. Η εφαρμογή θα μπορούσε να παρέχει εξατομικευμένη διδασκαλία μαθηματικών σε εκπαιδευόμενους, με αποτέλεσμα να σημειώνονται βελτιωμένα μαθησιακά αποτελέσματα.[46] Η εφαρμογή μπορεί να βοηθήσει στην ανάπτυξη δεξιοτήτων αναγνώσεως και γραφής (π.χ. προτείνοντας συντακτικές και γραμματικές διορθώσεις), καθώς και στην ανάπτυξη του τρόπου γραφής και των δεξιοτήτων κριτικής σκέψεως.[47] Τα μοντέλα αυτά μπορούν να χρησιμοποιηθούν για τη δημιουργία ερωτήσεων και ως προτροπές που ενθαρρύνουν τους εκπαιδευόμενους να σκέφτονται κριτικά για αυτά που διαβάζουν και γράφουν και να αναλύουν και να ερμηνεύουν τις πληροφορίες που τους παρουσιάζονται. [48] Aυτό δεν σημαίνει ότι το λογισμικό μπορεί να αντικαταστήσει τον δάσκαλο, αλλά να τον υποβοηθήσει. [49]

Περαιτέρω, δεν θα πρέπει να διαλάθει την προσοχή μας η δυνατότητα που προσφέρει το λογισμικό για την ενδυνάμωση των εκπαιδευόμενων με αναπηρίες. Τα γλωσσικά μοντέλα μπορούν να χρησιμοποιηθούν για την ανάπτυξη στρατηγικών μαθήσεως χωρίς αποκλεισμούς με επαρκή υποστήριξη σε εργασίες όπως η προσαρμοστική γραφή, η μετάφραση και η επισήμανση σημαντικού περιεχομένου σε διάφορες μορφές.[50] Ωστόσο, είναι σημαντικό να σημειωθεί ότι η χρήση μεγάλων γλωσσικών μοντέλων θα πρέπει να συνοδεύεται από τη βοήθεια επαγγελματιών, όπως οι ομιλητές θεραπευτές, εκπαιδευτικοί και άλλοι ειδικοί που μπορούν να προσαρμόσουν την τεχνολογία στις ειδικές ανάγκες των αναπηριών του μαθητή.[51]

Η συγγραφή ενός καλού δοκιμίου από μηδενική βάση απαιτεί προσεκτική, συχνά επίπονη, σκέψη σχετικά με την οργάνωση, τη ροή και την επικοινωνία. Αυτή μπορεί να καλλιεργηθεί ως δεξιότητα στις πρώτες εκπαιδευτικές τάξεις. Η εκμάθηση της γραφής χωρίς τη χρήση της τεχνητής νοημοσύνης προάγει πράγματι την εστιασμένη, πειθαρχημένη σκέψη. Αλλά η εκμάθηση του επιτυχημένου συνδυασμού της συμβατικής γραφής και με την υποστήριξη της τεχνητής νοημοσύνης για τη δημιουργία πραγματικά καλών δοκιμίων απαιτεί επίσης αυτές τις δεξιότητες.[52] Είναι σαν να γυρίζουμε την πλάτη μας στο μέλλον, να υπάρχει μια εφαρμογή και να λέμε ότι απαγορεύεται η χρήση της. Με την ίδια λογική θα μπορούσαμε να απαγορεύουμε την ανεύρεση πηγών μέσω μηχανισμών αναζητήσεως και την έρευνα μόνο σε συμβατικές βιβλιοθήκες. Το θέλουμε αυτό; Καλύτερο θα ήταν να επιτρέπεται η δημιουργική χρήση της τεχνητής νοημοσύνης, σκεφτόμενοι τρόπους συνδυασμού της τεχνητής νοημοσύνης με την παραδοσιακή εκπαίδευση. Πώς θα μπορούσε να γίνει αυτό;

  1. Οι εκπαιδευτικοί οφείλουν να μη κοιτάζουν αφ’ υψηλού τα ζητήματα νέων τεχνολογιων, αλλά να εκπαιδευτούν και να κατανοήσουν εν προκειμένω τι είναι και πώς λειτουργεί το ChatGPT.
  2. Οι εκπαιδευόμενοι πρέπει να προετοιμαστούν για ένα μέλλον στο οποίο η τεχνητή νοημοσύνη θα είναι απλώς ένα ακόμη τεχνολογικό εργαλείο.
  3. Οι εκπαιδευόμενοι είναι αποκλειστικά και πλήρως υπεύθυνοι για τα γραπτά που παραδίδουν και φέρουν το όνομά τους. Αν εμπεριέχουν ανακρίβειες, ευθύνονται για την ανεύρεση της αλήθειας. Αν η διάρθρωση πάσχει και πάλι φέρουν την ευθύνη της υπογραφής τους. Αν το e-κείμενο είναι υφολογικά ή λογικά ασυνεπές, είναι δική τους ευθύνη. Αν σημειώνεται εν μέρει λογοκλοπή και πάλι θα ευθύνονται νομικά για αυτή.[53]
  4. Υπό αυτή την έννοια, οι εκπαιδευόμενοι πρέπει να ενθαρρύνονται να είναι υπεύθυνοι, συνειδητοποιημένοι χρήστες των τεχνολογιών τεχνητής νοημοσύνης που θα διαδραματίσουν εξαιρετικά σημαντικό ρόλο κατά τη διάρκεια της σταδιοδρομίας τους. Η υπευθυνότητα αυτή συνεπάγεται την υποχρέωση αναφοράς της χρήσεως του λογισμικού στο κείμενο.
  5. Χωρίς να σημαίνει ότι αποκηρύσσουμε-απαγορεύουμε την τεχνολογία, θα μπορούσαμε να σκεφτούμε κάποιους εναλλακτικούς-συμπληρωματικούς τρόπους μαθήσεως και εξετάσεως:

Α) Καλλιέργεια της συμβατικής γραφής από τις χαμηλές τάξεις προκειμένου οι μαθητές να μην αποκοπούν από αυτή την πολύ χρήσιμη δεξιότητα.

Β) H επίδοση των εκπαιδευομένων μπορεί να (συν)αξιολογείται μέσα από συμβατικές εξετάσεις χωρίς τη χρήση κινητού τηλεφώνου.

Γ) Οι εκπαιδευόμενοι συνιστάται να εξετάζονται προφορικά σε κριτικά ζητήματα επί των εργασιών τους.[54]

Δ) Oι ερωτήσεις των θεμάτων συνιστάται να είναι πιο κριτικές, προκειμένου να μην είναι εύκολο να τις συνθέσει το μηχάνημα. Οφείλουμε να μορφώσουμε τον κόσμο, ώστε να έχουμε πολίτες και επιστήμονες με κριτική σκέψη. [55]

Ε) Οι εξετάσεις μπορούν να διεξάγονται εξ αποστάσεως διαδικτυακά με χρήση συστημάτων τεχνητής νοημοσύνης που ελέγχουν κάθε ύποπτη ενέργεια του εξεταζομένου, συμπεριλαμβανομένης της χρήσεως λογισμικού. Με τον τρόπο αυτό διεξήχθησαν οι εξετάσεις για την επιλογή επιτελικών στελεχών στη δημόσια διοίκηση.[56] Αυτού του είδους η εξέταση απαιτεί την προηγούμενη εκπόνηση μελέτης αντικτύπου της τεχνολογίας στα δικαιώματα των εξεταζομένων.

Ε) Οι εξεταστές συνιστάται να υποβάλλουν τα τιθέμενα ερωτήματα στο λογισμικό για να γνωρίζουν τις απαντήσεις που αυτό δίνει.

IV. Aντί επιλόγου

Όπως κάθε νέα τεχνολογία, έτσι και το ChatGPT είναι μια νέα πρόκληση. Εναπόκειται σε μας να μην τη δαιμονοποιήσουμε αλλά να προβούμε σε ηθική χρήση της τεχνολογίας. Οφείλουμε να αξιοποιήσουμε τα αναρίθμητα πλεονεκτήματά αξιολογώντας και ελέγχοντας τους όποιους κινδύνους μπορεί αυτή να συνεπιφέρει.[57]

Φερενίκη Παναγοπούλου*
Επίκουρη Καθηγήτρια Παντείου Πανεπιστημίου
Δ.Ν. (Humboldt), M.P.H. (Harvard), Ph.D., Μ.Δ.Ε. (Ε.Κ.Π.Α.)


Υποσημειώσεις:

* Θερμές ευχαριστίες εκφράζονται στον Γεώργιο Γιαννόπουλο, Αναπληρωτή Καθηγητή Νομικής Σχολής Ε.Κ.Π.Α., για τον πολύ εποικοδομητικό διάλογο μαζί του.

[1] Βλ. Λ. Μήτρου, Μερικές εισαγωγικές σκέψεις, σε: Λ. Μήτρου (επιμ.), Μπορεί ο αλγόριθμος…, Πανεπιστημιακές Εκδόσεις Κρήτης, Ηράκλειο 2023, σ. 9 επ. (17).

[2] Βλ. Α. Καραμπατζό, Συνέντευξη σε: Α. Λακασά, Τα ΑΕΙ αναζητούν άμυνες στην επέλαση του ChatGPT, Καθημερινή, 20.2.2023, διαθέσιμο σε: https://www.kathimerini.gr/society/562285468/ta-aei-anazitoyn-amynes-stin-epelasi-toy-chatgpt/?fbclid=IwAR1GR-nyi8q9wh8TNaMfSsuEHHvYgj1oBL1ChiQ1majdOJW49I7EHfbcN3I.

[3] Βλ. διεξοδ. Φ. Παναγοπούλου-Κουτνατζή, Τεχνητή Νοημοσύνη: Ο δρόμος προς έναν ψηφιακό συνταγματισμό. Μια ηθικο-συνταγματική θεώρηση, Εκδόσεις Παπαζήση, Αθήνα 2023, σ. 107 επ.∙ Θ. Χίου, Νέα υποκείμενα στην Πνευματική Ιδιοκτησία; Από την «ΝARUTO» στον «BOT Dylan» και τις δημιουργίες των ρομπότ», iprights, 18.10.2017, διαθέσιμο σε https://www.iprights.gr/gnomes/198-nea-ypokeimena-stin-pneymatiki-idioktisia-apo-tin-naruto-ston-bot-dylan-kai-tis-dimiourgies-ton-robotτον ίδιο, Διανοητική ιδιοκτησία & Τεχνητή Νοημοσύνη: In homine veritas?, ΔΙΤΕ 2021, σ. 550 επ.∙ Th. Chiou, Copyright ownership challenge arising from AI-generated works of art: A time to stand and stare, σε: I. Stamatoudi (επιμ.), Research Handbook on Intellectual Property and Cultural Heritage, EE, 2022, pp. 250 ff.

[4] Βλ. Κ. Ν. Χριστοδούλου, Νομικά ζητήματα από την τεχνητή νοημοσύνη, σε: Δελούκα-Ιγγλέση, Κ./ Λιγωμένου, Α./ Σινανιώτη-Μαρούδη, Α. (επιμ.), Δίκαιο και Τεχνολογία, ΚΒ Επιστημονικό Συμπόσιο Πανεπιστημίου Πειραιώς και Ελεγκτικού Συνεδρίου, 28-29.3.2019, Εκδόσεις Σάκκουλα, Αθήνα-Θεσσαλονίκη 2019, σ. 117 επ.. (122-123).

[5] Βλ. Κ. Ν. Χριστοδούλου, Νομικά ζητήματα από την τεχνητή νοημοσύνη, όπ. ανωτ., σ. 122-123.

[6] Βλ. Κ. Χριστοδούλου, Δίκαιο Πνευματικής Ιδιοκτησίας, Εκδόσεις Νομική Βιβλιοθήκη, Αθήνα 2018. σ. 54, αρ. περιθ. 119.

[7] Βλ. Κ. Ν. Χριστοδούλου, Νομικά ζητήματα από την τεχνητή νοημοσύνη, όπ. ανωτ., σ. 122.

[8] Βλ. Ι. Δ. Ιγγλεζάκη, Το δίκαιο της ψηφιακής οικονομίας, Εκδόσεις Σάκκουλα, Αθήνα-Θεσσαλονίκη 2022, σ. 214.

[9] Βλ. σχετική προβληματική σε Γ. Ι. Ζέκο, Διαδίκτυο και Τεχνητή Νοημοσύνη στο ελληνικό δίκαιο, Εκδόσεις Σάκκουλα, Αθήνα-Θεσσαλονίκη 2022, σ. 80.

[10] Βλ. Ψήφισμα του Ευρωπαϊκού Κοινοβουλίου της 16ης Φεβρουαρίου 2017 με συστάσεις προς την Επιτροπή σχετικά με ρυθμίσεις αστικού δικαίου στον τομέα της ρομποτικής (2015/2103(INL), διαθέσιμο σε: https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_EL.html, σκ. 59 στ΄.

[11] Το Ευρωπαϊκό Κοινοβούλιο εξέδωσε τρία ψηφίσματα σχετικά με τις ηθικές και νομικές πτυχές των συστημάτων λογισμικού τεχνητής νοημοσύνης, α) το Ψήφισμα 2020/2012(INL) σχετικά με ένα πλαίσιο ηθικών πτυχών της Τεχνητής Νοημοσύνης, της Ρομποτικής και των συναφών τεχνολογιών, β) το Ψήφισμα 2020/2014(INL) σχετικά με ένα καθεστώς αστικής ευθύνης για την Τεχνητή Νοημοσύνη και γ) το Ψήφισμα 2020/2015(INI) σχετικά με τα δικαιώματα πνευματικής ιδιοκτησίας για την ανάπτυξη τεχνολογιών Τεχνητής Νοημοσύνης.

[12] Βλ. Ψήφισμα του Ευρωπαϊκού Κοινοβουλίου της 16ης Φεβρουαρίου 2017 με συστάσεις προς την Επιτροπή σχετικά με ρυθμίσεις αστικού δικαίου στον τομέα της ρομποτικής (2015/2103(INL), διαθέσιμο σε: https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_EL.html, σκ. 59 στ΄.

[13] Βλ. Κ. Ν. Χριστοδούλου, Νομικά ζητήματα από την τεχνητή νοημοσύνη, όπ. ανωτ., σ. 123.

[14] Εngland and Wales Court of Appeal (Civil Division), EWCA Civ 1374, 21.9.2021, αρ. Υποθ. Α3.2020/1851.

[15] Βλ. P. Sawers, Chinese court rules AI-written article is protected by copyright, 10.1.2020, διαθέσιμο σε: https://venturebeat.com/2020/01/10/chinese-court-rules-ai-written-article-is-protected-by-copyright/.

[16] Βλ. Θ. Χίου, Νέα υποκείμενα στην Πνευματική Ιδιοκτησία; Από την «ΝARUTO» στον «BOT Dylan» και τις δημιουργίες των ρομπότ», iprights, 18.10.2017, όπ. ανωτ..

iprights.gr/gnomes/198-nea-ypokeimena-stin-pneymatikiidioktisia-apo-tin-naruto-ston-bot-dylan-kai-tis-dimiourgieston-robot.∙ Γ. Μπουχάγιαρ, Το μονοπώλιο της ανθρώπινης νοημοσύνης. (Πρωτότυπα έργα αναζητούν δημιουργό), ΔiΜΕΕ 2016, σ. 533 επ..

[17] Βλ. άρθρο 5 ν. 4961/2022.

[18] Βλ.  The Foreseeability of Human-Artificial Intelligence Interactions, 96 Texas Law Review 2017, σ. 181 επ. (203).

[19] Βλ. W. Kowert, The Foreseeability of Human-Artificial Intelligence Interactions, όπ. ανωτ., σ. 203.

[20] Βλ. W. Kowert, The Foreseeability of Human-Artificial Intelligence Interactions, όπ. ανωτ., σ. 203.

[21] Bλ. A. F. T. Winfield/M. Jirotka, Ethical governance is essential to building trust in robotics and artificial intelligence systems, Phil.Trans.R.Soc, A 376.

[22] Bλ. Εuropean Commission, Liability for Artificial Intelligence and other emerging digital technologies, 2019, διαθέσιμη σε: https://op.europa.eu/en/publication-detail/-/publication/1c5e30be-1197-11ea-8c1f-01aa75ed71a1/language-en, σ. 8.

[23] Πρβλ. άρθρο 22 παρ. 3 Γενικού Κανονισμού Προστασίας Δεδομένων 679/2016/ΕΕ.

[24] Bλ. Εuropean Commission, Liability for Artificial Intelligence and other emerging digital technologies, 2019, διαθέσιμη σε: https://op.europa.eu/en/publication-detail/-/publication/1c5e30be-1197-11ea-8c1f-01aa75ed71a1/language-en, σ. 8.

[25] Βλ. V. Papakonstantinou / P. De Hert, Refusing to award legal personality to AI: Why the European Parliament got it wrong, European Law Blog, 20.11.2020, διαθέσιμο σε: https://europeanlawblog. eu/2020/11/25/refusing-to-award-legal-personality-to-aiwhy-the-european-parliament-got-it-wrong/.

[26] Βλ. A. Lin & A. Bekey, Robotic Ethics: Mapping the issues for a mechanized world, Artificial Intelligence, 175: 942-949 (2015) ∙G. Veruggio & K. Abney, Roboethics: The Applied Ethics for an New Science, Robot Ethics: The Ethical and Social Implications of Robotics 347 (2011)∙ J. Borenstein & R. Arkin, Robotic nudges: the ethics of engineering a more socially just human being, Science and engineering ethics 22. 1: 31-46 (2016)∙ B. Deng, Machine ethics: The robot’s dilemma, Nature 523. 7558: 24-26 (2015)∙ A. Zornoza, J.C. Moreno, J.L. Guzmán, F. Rodríguez, J. Sánchez-Hermosilla, Robots Liability: A Use Case and a Potential Solution, 06.12.2017, διαθέσιμο σε: https://www.intechopen.com/books/robotics-legal-ethical-and-socioeconomic-impacts/robots-liability-a-use-case-and-a-potential-solution.

[27] Βλ. European Parliament Resolution with Recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)) (European Parliament, 16 February 2017) par. 59(f).

[28] Βλ. και Επιτροπή Νομικών Θεμάτων του Ευρωπαϊκού Κοινοβουλίου, Σχέδιο Έκθεσης που περιέχει συστάσεις προς την Επιτροπή για ρυθμίσεις αστικού δικαίου στον τομέα της ρομποτικής (2015/2013(INL)), Εισηγήτρια: M. Delvaux, 31.5.2016.

[29] Βλ. T. M. Massaro/H. Norton, Siri-ously? Free Speech Rights and Artificial Intelligence, 110 Northwestern University Law Review 2016, σ. 1169 επ. διαθέσιμο σε: https://scholarlycommons.law.northwestern.edu/cgi/viewcontent.cgi?article=1253&context=nulr.

[30] Bλ. T. Wu, Machine Speech, 161 University of Pennsylvania Law Review 2013, σ. 1533, διαθέσιμο σε: https://scholarship.law.upenn.edu/cgi/viewcontent.cgi?article=1021&context=penn_law_review.

[31] Bλ. T. Wu, Machine Speech, 161 University of Pennsylvania Law Review 2013, όπ. ανωτ,, σ. 1533.

[32] Βλ. Ι. Δ. Ιγγλεζάκη, Το δίκαιο της ψηφιακής οικονομίας, όπ. ανωτ., σ. 175.

[33] Βλ. J. Villasenor, How ChatGPT Can Improve Education, Not Threaten it, 10.02.2023, Scientific America, διαθέσιμο σε: https://www.scientificamerican.com/article/how-chatgpt-can-improve-education-not-threaten-it/.

[34] Βλ. J. Villasenor, How ChatGPT Can Improve Education, Not Threaten it, 10.02.2023, Scientific America, όπ. ανωτ..

[35] Universität Tübingen beschränkt Nutzung von ChatGPT, SWR Aktuell, 1.2.2023, διαθέσιμο σε: https://www.swr.de/swraktuell/baden-wuerttemberg/tuebingen/universitaet-schraenkt-einsatz-von-chatgpt-ein-100.html.

[36] Βλ. K. Enkelejda, K. Seßler, S. Küchemann, M. Bannert, D. Dementieva, F. Fischer, U. Gasser, et al. 2023. “Chatgpt for Good? on Opportunities and Challenges of Large Language Models for Education.”, όπ. ανωτ..

[37] Βλ. J. Villasenor, How ChatGPT Can Improve Education, Not Threaten it, 10.02.2023, Scientific America, όπ.ανωτ..

[38] Βλ. J. Villasenor, How ChatGPT Can Improve Education, Not Threaten it, 10.02.2023, Scientific America, όπ. ανωτ..

[39] Βλ. J. Villasenor, How ChatGPT Can Improve Education, Not Threaten it, 10.02.2023, Scientific America, όπ. ανωτ..

[40] Βλ. Ρ. Παιδή και Κ. Καρπούζη, συνέντευξη σε Α. Λακασά, Τα ΑΕΙ αναζητούν άμυνες στην επέλαση του ChatGPT, Καθημερινή, 20.2.2023, διαθέσιμο σε: https://www.kathimerini.gr/society/562285468/ta-aei-anazitoyn-amynes-stin-epelasi-toy-chatgpt/?fbclid=IwAR1GR-nyi8q9wh8TNaMfSsuEHHvYgj1oBL1ChiQ1majdOJW49I7EHfbcN3I.

[41] Βλ. J. Villasenor, How ChatGPT Can Improve Education, Not Threaten it, 10.02.2023, Scientific America, όπ. ανωτ..

[42] Βλ. J. Villasenor, How ChatGPT Can Improve Education, Not Threaten it, 10.02.2023, Scientific America, όπ. ανωτ..

[43] Βλ. J. Villasenor, How ChatGPT Can Improve Education, Not Threaten it, 10.02.2023, Scientific America, όπ. ανωτ..

[44] Βλ. Α. Φλώρο, συνέντευξη σε Α. Λακασά, Τα ΑΕΙ αναζητούν άμυνες στην επέλαση του ChatGPT, Καθημερινή, 20.2.2023, διαθέσιμο σε: https://www.kathimerini.gr/society/562285468/ta-aei-anazitoyn-amynes-stin-epelasi-toy-chatgpt/?fbclid=IwAR1GR-nyi8q9wh8TNaMfSsuEHHvYgj1oBL1ChiQ1majdOJW49I7EHfbcN3I.

[45] Βλ. J. Villasenor, How ChatGPT Can Improve Education, Not Threaten it, 10.02.2023, Scientific America, όπ. ανωτ..

[46] Βλ. D. Baidoo-Anu and L. Owusu Ansah, Education in the Era of Generative Artificial Intelligence (AI): Understanding the Potential Benefits of ChatGPT in Promoting Teaching and Learning (January 25, 2023), διαθέσιμο σε: SSRN: https://ssrn.com/abstract=4337484 or http://dx.doi.org/10.2139/ssrn.4337484

[47] Βλ. K. Enkelejda, K. Seßler, S. Küchemann, M. Bannert, D. Dementieva, F. Fischer, U. Gasser, et al. 2023. Chatgpt for Good? on Opportunities and Challenges of Large Language Models for Education, όπ. ανωτ..

[48] Βλ. K. Enkelejda, K. Seßler, S. Küchemann, M. Bannert, D. Dementieva, F. Fischer, U. Gasser et al. 2023. Chatgpt for Good? on Opportunities and Challenges of Large Language Models for Education, όπ. ανωτ..

[49] Βλ. D. Baidoo-Anu and L. Owusu Ansah, Education in the Era of Generative Artificial Intelligence (AI): Understanding the Potential Benefits of ChatGPT in Promoting Teaching and Learning, όπ. ανωτ..

[50] Βλ. K. Enkelejda, K. Seßler, S. Küchemann, M. Bannert, D. Dementieva, F. Fischer, U. Gasser et al. 2023, Chatgpt for Good? on Opportunities and Challenges of Large Language Models for Education, όπ. ανωτ..

[51] Βλ. K. Enkelejda, K. Seßler, S. Küchemann, M. Bannert, D. Dementieva, F. Fischer, U. Gasser et al. 2023. “Chatgpt for Good? on Opportunities and Challenges of Large Language Models for Education, όπ. ανωτ..

[52] Βλ. J. Villasenor, How ChatGPT Can Improve Education, Not Threaten it, 10.02.2023, Scientific America, όπ. ανωτ..

[53] Βλ. J. Villasenor, How ChatGPT Can Improve Education, Not Threaten it, 10.02.2023, Scientific America, όπ. ανωτ. Βλ. και https://openai.com/blog/new-ai-classifier-for-indicating-ai-written-text.

[54] Βλ. Α. Λακασά, Τα ΑΕΙ αναζητούν άμυνες στην επέλαση του ChatGPT, Καθημερινή, 20.2.2023, διαθέσιμο σε: https://www.kathimerini.gr/society/562285468/ta-aei-anazitoyn-amynes-stin-epelasi-toy-chatgpt/?fbclid=IwAR1GR-nyi8q9wh8TNaMfSsuEHHvYgj1oBL1ChiQ1majdOJW49I7EHfbcN3I.

[55] Βλ. Ι. Πήτα, Συνέντευξη σε: Α. Λακασά, Τα ΑΕΙ αναζητούν άμυνες στην επέλαση του ChatGPT, Καθημερινή, 20.2.2023, διαθέσιμο σε: https://www.kathimerini.gr/society/562285468/ta-aei-anazitoyn-amynes-stin-epelasi-toy-chatgpt/?fbclid=IwAR1GR-nyi8q9wh8TNaMfSsuEHHvYgj1oBL1ChiQ1majdOJW49I7EHfbcN3I.

[56] Βλ. https://www.ekdd.gr/%CE%B5%CF%80%CE%B9%CE%BB%CE%BF%CE%B3%CE%B7-%CE%B5%CE%BA%CF%80%CE%B1%CE%B9%CE%B4%CE%B5%CF%85%CF%83%CE%B7-%CE%B5%CF%80%CE%B9%CF%84%CE%B5%CE%BB%CE%B9%CE%BA%CF%89%CE%BD-%CF%83%CF%84%CE%B5%CE%BB%CE%B5/.

[57] Βλ. διεξοδ. Φ. Παναγοπούλου-Κουτνατζή, Τεχνητή Νοημοσύνη: Ο δρόμος προς έναν ψηφιακό συνταγματισμό. Μια ηθικο-συνταγματική θεώρηση, όπ. ανωτ., σ. 343.

Σου άρεσε το άρθρο, αλλά σου δημιούργησε νέες απορίες;

Έχεις και άλλα ερωτήματα που σε απασχολούν σε σχέση με το Σύνταγμα, τους Θεσμούς, τα δικαιώματα και τη λειτουργία της Δημοκρατίας;

Σχετικά Άρθρα

Η ώρα των ζώων

Εν μέσω πανδημίας, σε ένα περιβάλλον που χαρακτηρίζεται από αστάθεια, ένα νέο νομοσχέδιο «ασπίδα» στα ζώα συντροφιάς και τα αδέσποτα πρόκειται να εισαχθεί το επόμενο χρονικό διάστημα στη Βουλή. Με αυτή την αφορμή, η Σταυρούλα Γεωργίου γράφει για τα δικαιώματα των ζώων, αλλά και τη σημασία της αγαστής συμβίωσης όλων των έμβιων όντων για τη βιωσιμότητα του πλανήτη.

Περισσότερα

Δημόσια υγεία και συναθροίσεις

Αυτό που επιτάσσουν η ιατρική επιστήμη και η κοινή λογική θα αρκούσε να είναι ορθολογικότερα διαρθρωμένο και πληρέστερα τεκμηριωμένο, ώστε να μην ανακύψουν ζητήματα συνταγματικότητας ενός περιορισμού που επί της ουσίας δεν αμφισβητείται από καμία πλευρά. Όμως οι αντιρρήσεις δεν είναι περί όνου σκιάς. Η τήρηση των συνταγματικών επιταγών ακόμη και υπό ακραίες συνθήκες δεν αποτελεί περιττή πολυτέλεια αλλά, εκτός των άλλων, όρο για τη διασφάλιση της κοινωνικής συναίνεσης.

Περισσότερα

Θέλεις να μαθαίνεις

πρώτος τα νέα μας;

Αν σε ενδιαφέρει να ενημερώνεσαι άμεσα για τις νέες δημοσιεύσεις και τις δράσεις του Syntagma Watch, τότε εγγράψου στο newsletter μας!

Αυτός ο ιστότοπος για τη διευκόλυνση της λειτουργίας του και προκειμένου να σας παρέχει μια προσωποποιημένη εμπειρία χρησιμοποιεί cookies. Για να ενημερωθείτε για τη χρήση των cookies και τις σχετικές ρυθμίσεις μπορείτε να επιλέξετε εδώ

JOIN THE CLUB!

It’s easy: all we need is your email & your eternal love. But we’ll settle for your email.

Subscribe

* indicates required
Email Format

Please select all the ways you would like to hear from Syntagma Watch:

You can unsubscribe at any time by clicking the link in the footer of our emails. For information about our privacy practices, please visit our website.

We use Mailchimp as our marketing platform. By clicking below to subscribe, you acknowledge that your information will be transferred to Mailchimp for processing. Learn more about Mailchimp's privacy practices here.