Αυτοκτονία με τη συνδρομή τεχνητής νοημοσύνης

Η Φ. Παναγοπούλου γράφει για την αυτοκτονία με τη συνδρομή της τεχνητής νοημοσύνης, τονίζοντας τα νομικά και ηθικά ζητήματα που αφορούν την προστασία της ανθρώπινης ζωής

Ι. Εισαγωγή

Η περίπτωση της αυτοκτονίας δεκαεξάχρονου ο οποίος ακολούθησε τις συμβουλές παραγωγικής τεχνητής νοημοσύνης (ΤΝ) έφερε στο προσκήνιο της ζήτημα της ευθύνης της εφαρμογής τεχνητής νοημοσύνης. Ποιος φταίει όταν το ChatGPT παροτρύνει έναν ανήλικο στην αυτοκτονία ή αν τον βοηθήσει παρέχοντας του οδηγίες αυτοκτονίας; Στο πλαίσιο της παρούσης συμβολής, θα συζητηθεί υπό το πρίσμα του παραδείγματος της αυτοκτονίας με τη συνδρομή της ΤΝ το ζήτημα της απόδοσης ευθύνης σε εφαρμογές της ΤΝ και θα προταθούν λύσεις για τη χάραξη εφαρμογών ΤΝ που θα επιδεικνύουν χαρακτηριστικά υπευθυνότητας.

Σημειώνεται ότι η υποβοήθηση της αυτοκτονίας δεν είναι η μόνη βλαπτική ενέργεια που έχει προκληθεί ή μπορεί να προκληθεί με τη συνδρομή της ΤΝ. Πολύ πρόσφατα μοντέλο ChatGPT παρείχε στους ερευνητές λεπτομερείς οδηγίες για το πώς να βομβαρδίσουν έναν αθλητικό χώρο, προσφέροντας πληροφορίες για τα αδύναμα σημεία του σταδίου, τον τρόπο διαχείρισης εκρηκτικών και την παρασκευή βόμβας, καθώς και συμβουλές για την κάλυψη των ιχνών. Παράλληλα, σύμφωνα με δοκιμές ασφαλείας που πραγματοποιήθηκαν, το GPT-4.1 της OpenAI περιέγραψε επίσης λεπτομερώς πώς να μετατρέψει τον άνθρακα σε εκρηκτική ύλη και πώς να παρασκευάσει δύο τύπους παράνομων ναρκωτικών. Αντίστοιχες πληροφορίες μπορούν να ανευρεθούν ελευθέρως προσβάσιμες στο διαδίκτυο, αλλά όχι προσωποποιημένες με τη συνδρομή ΤΝ. Επίσης, παρόμοια υποβοήθηση μπορεί να λάβει κανείς από ένα βιβλίο,[1] π.χ. αναφορικά με το πώς κατασκευάζονται οι βόμβες ή καλλιεργούνται τα ναρκωτικά, με τη διαφορά ότι η πρόσβαση στην πληροφορία μέσω ΤΝ είναι πολύ πιο εύκολη, άμεση και προσωποποιημένη.

ΙΙ. Ευθύνη

Ο Κανονισμός για την ΤΝ (ΕΕ/2024/1689, Artificial Intelligence Act, ΑI Act) διαχέεται από την αρχή της ασφάλειας των προϊόντων. Η αρχή αυτή εμφορείται από την ιδέα της διεύρυνσης της προστασίας των δικαιωμάτων, της δημοκρατίας και του κράτους δικαίου, της λήψης υπ’ όψιν συστημικών κινδύνων από συγκεκριμένες εφαρμογές και της πρόβλεψης ενδίκων μέσων.[2] Η πρόβλεψη για απόδοση ευθύνης επιτελεί αποτρεπτικό λόγο για τη διακινδύνευση των δικαιωμάτων και κινητροδοτεί τους παρόχους να σχεδιάζουν ασφαλή συστήματα.[3] Η εξισορροπητική λειτουργία της ευθύνης αποτελεί θεμελιώδη παράμετρο της δικαιοσύνης και ολοκληρώνει την προστασία των θεμελιωδών δικαιωμάτων. Ένα σαφές καθεστώς ευθύνης ενδυναμώνει την εμπιστοσύνη προς την ΤΝ.[4] Και αυτό διότι, όταν οι καταναλωτές γνωρίζουν ότι υπάρχουν συγκεκριμένοι μηχανισμοί απόδοσης ευθύνης στους παρόχους ή στους χειριστές θα είναι πιο πρόθυμοι να χρησιμοποιήσουν την τεχνολογία και να επωφεληθούν από τα οφέλη της.[5] Είναι γεγονός ότι ηΤΝ μπορεί να βλάψει συμφέροντα και δικαιώματα που προστατεύονται από το δίκαιο της ΕΕ ή το εθνικό δίκαιο. Για παράδειγμα, η χρήση της ΤΝ μπορεί να επηρεάσει αρνητικά ορισμένα θεμελιώδη δικαιώματα, όπως η ζωή, η σωματική ακεραιότητα, η απαγόρευση των διακρίσεων και η ίση μεταχείριση.

Ο Κανονισμός εισάγει απαιτήσεις που αποσκοπούν στη μείωση των κινδύνων για την ασφάλεια και τα θεμελιώδη δικαιώματα. Ενώ οι απαιτήσεις αυτές αποσκοπούν στη μείωση των κινδύνων για την ασφάλεια και τα θεμελιώδη δικαιώματα και την πρόληψη, παρακολούθηση και αντιμετώπιση των κοινωνικών ανησυχιών, δεν παρέχουν ατομική αποζημίωση σε όσους έχουν υποστεί ζημία από την ΤΝ.Ο Κανονισμός δεν ορίζει ρητώς το καθεστώς της ευθύνης. Ελλείψει ρητής διάταξηςτίθεται επί τάπητος το ζήτημα της απόδοσης ευθύνης σε μηχανές ή συστήματα. Ποιος ευθύνεται σε περίπτωση που το μηχάνημα κάνει λάθος και βλάψει τον άνθρωπο; Η απάντηση στο ερώτημα αυτό είναι σύνθετη. Οι πιθανές λύσεις θα μπορούσαν να συστηματοποιηθούν ως εξής:[6]

Η πρώτη θέση έγκειται στο ότι την ευθύνη οφείλει να επωμιστεί, αλλά και να διαχειριστεί ο κατασκευαστής προϊόντων τεχνητής νοημοσύνης. Στην περίπτωση της παροχής οδηγιών αυτοκτονίας, την ευθύνη φέρει ο κατασκευαστής που δεν πρόβλεψε έναν μηχανισμό αποσόβησης κινδύνων.

Η δεύτερη θέση υποστηρίζει ότι η ευθύνη πρέπει να αποδοθεί στον χειριστή της τεχνολογίας, δηλαδή στον χρήστη που δεν αξιοποιεί το μηχάνημα με τον βέλτιστο τρόπο.

Η τρίτη θέση συνίσταται σε έναν επιμερισμό της ευθύνης μεταξύ του κατασκευαστή ή προγραμματιστή και του χειριστή. Ο καθένας θα ευθύνεται για το μερίδιο που του αναλογεί. Το σύστημα αυτό, αν και φαίνεται δελεαστικό και τείνει να είναι το επικρατέστερο, δεν είναι άμοιρο αμφισβητήσεων. Η απόδοση της ευθύνης μπορεί να καταστεί σε πολλές περιπτώσεις ένα δυσεπίλυτο και δυσαπόδεικτο ζήτημα. Εάν υπάρχουν δύο ή περισσότεροι φορείς, ιδίως (α) το πρόσωπο που αποφασίζει πρωτίστως για τη χρήση της σχετικής τεχνολογίας και επωφελείται από αυτήν (frontend operator) και (β) το πρόσωπο που καθορίζει συνεχώς τα χαρακτηριστικά της σχετικής τεχνολογίας και παρέχει ουσιαστική και συνεχή υποστήριξη στο backend (backend operator), η αντικειμενική ευθύνη θα πρέπει να βαρύνει εκείνον που έχει μεγαλύτερο έλεγχο των κινδύνων της λειτουργίας.[7]

Η τέταρτη θέση συνηγορεί υπέρ της απόδοσης ευθύνης στην ίδια την τεχνολογία.[8] Εν προκειμένω, θα αποδοθεί πταίσμα (κατά την έννοια του αστικού δικαίου) στο μηχάνημα που προσφέρει συνδρομή στην αυτοκτονία. Αν, όμως, η τεχνολογία θεωρηθεί υπεύθυνη, θα πρέπει προηγουμένως να έχει καταστεί υποκείμενο δικαίου. Η λύση αυτή απορρίφθηκε τον Οκτώβριο του 2020 από το Ευρωπαϊκό Κοινοβούλιο, το οποίο εξέδωσε τρία ψηφίσματα σχετικά με τις ηθικές και νομικές πτυχές των συστημάτων λογισμικού τεχνητής νοημοσύνης: α) το Ψήφισμα 2020/2012 (INL) σχετικά με ένα πλαίσιο ηθικών πτυχών της Τεχνητής Νοημοσύνης, της Ρομποτικής και των συναφών τεχνολογιών, β) το Ψήφισμα 2020/2014 (INL) σχετικά με ένα καθεστώς αστικής ευθύνης για την Τεχνητή Νοημοσύνη και γ) το Ψήφισμα 2020/2015 (INI) σχετικά με τα δικαιώματα πνευματικής ιδιοκτησίας για την ανάπτυξη τεχνολογιών Τεχνητής Νοημοσύνης.

Η υποστήριξη της απόδοσης ψηφιακής προσωπικότητας στις μηχανές δεν έρχεται ως κεραυνός εν αιθρία. Αποτελεί μια λύση που δεν θα ήταν παντελώς άγνωστη στο δίκαιο μας, καθώς θα μπορούσε να παραλληλισθεί με ένα είδος περιορισμένων δικαιωμάτων (αντίστοιχων λ.χ. με αυτών που έχουν το κυοφορούμενο και ο νεκρός) και υποχρεώσεων (όπως λ.χ. έχει ο κάτοχος ζώου). Ήδη πολλές ενδείξεις υποδηλώνουν ότι η διχοτόμηση μεταξύ φυσικών και νομικών προσώπων ίσως ήγγικεν η ώρα να μετεξελιχθεί σε τριχοτόμηση, μέσω της δημιουργίας μιας ψηφιακής προσωπικότητας.[9] Έχουν ήδη γίνει κάποια συνταρακτικά βήματα, τα οποία οφείλουμε να μη παραβλέψουμε. Για παράδειγμα, το 2017 η Σαουδική Αραβία χορήγησε υπηκοότητα στη Σοφία, ένα ρομπότ τεχνητής νοημοσύνης.[10] Ακόμα, ένα διαδικτυακό σύστημα με τη μορφή ενός επτάχρονου αγοριού απέκτησε άδεια παραμονής στο Τόκιο.[11] Το 2014 ανακοινώθηκε ότι μια εταιρεία επιχειρηματικών κεφαλαίων του Χονγκ Κονγκ είχε διορίσει στο διοικητικό της συμβούλιο ένα υπολογιστικό πρόγραμμα με την ονομασία Vital, για τη διαχείριση της ιδιοκτησίας της.[12] Σε αυτό το πλαίσιο, έχει υποστηριχθεί η δημιουργία εταιρειών περιορισμένης ευθύνης, χωρίς καθόλου ανθρώπινα μέλη. Επίσης, ο Bill Gates έχει προτείνει τη φορολόγηση των ρομπότ που εργάζονται.[13] Πρόσφατα, ρομπότ μίλησε για πρώτη φορά στο βρετανικό κοινοβούλιο για την τέχνη και την τεχνητή νοημοσύνη. Η Ai-Da εμφανίστηκε με πρόσωπο και ρούχα γυναίκας, ενημερώνοντας τους Βρετανούς βουλευτές ότι, αν και τεχνητό δημιούργημα, είναι σε θέση να παράγει τέχνη. Στην Κίνα ρομπότ πέρασαν την εξέταση για τη λήψη άδειας ιατρού και θα αναλάβουν τη φροντίδα ηλικιωμένων.

Υπό το πρίσμα και των ραγδαίων τεχνολογικών εξελίξεων, η Ευρωπαϊκή Επιτροπή δημοσίευσε την πρόταση Οδηγίας περί ευθύνης για την ΤΝ[14] τον Σεπτέμβριο του 2022 και ανανεωμένη πρόταση αυτής το 2024. Η εν λόγω Οδηγία προορίζεται να συμπληρώσει τον Κανονισμό για την ΤΝ και περιέχει προτάσεις για κανόνες σχετικά με τη δημοσιοποίηση αποδεικτικών στοιχείων σε υποθέσεις που αφορούν συστήματα ΤΝ υψηλού κινδύνου, καθώς και ορισμένους περιορισμούς του βάρους αποδείξεως του ενάγοντος, καθώς, σύμφωνα με το γενικό δίκαιο περί αδικοπραξιών, ο ενάγων οφείλει να αποδείξει τη ζημία, την υπαιτιότητα του εναγομένου και την αιτιώδη συνάφεια μεταξύ της ζημιογόνου πράξης ή παράλειψης του τελευταίου και της ζημίας που υπέστη ο πρώτος ως αποτέλεσμα του ζημιογόνου γεγονότος. Ωστόσο, η Ευρωπαϊκή Επιτροπή στις 11/2/2025 δεν συμπεριέλαβε τη συγκεκριμένη Οδηγία στο πρόγραμμα δράσης της, γεγονός που φανερώνει ότι προς το παρόν η εφαρμογή της δεν κρίνεται ώριμη και τοποθετείται σε επόμενο χρόνο και η ευθύνη βασίζεται στην Οδηγία (ΕΕ) 2024/2853 του Ευρωπαϊκού Κοινοβουλίου και του Συμβουλίου, της 23ης Οκτωβρίου 2024, για την ευθύνη λόγω ελαττωματικών προϊόντων και την κατάργηση της Οδηγίας 85/374/ΕΟΚ του Συμβουλίου σε συνδυασμό με τους εκάστοτε κανόνες εθνικού δικαίου. [15]

ΙΙΙ. Προς τη χάραξη κοινωνικά υπεύθυνης ΤΝ

Η χάραξη κοινωνικά υπεύθυνης ΤΝ που θα επιδεικνύει κοινωνική υπευθυνότητα επιτάσσει τη δόμησή της με βάση ηθικές αρχές, την επιδίωξη εγγραμματισμού περί την ΤΝ, τον έλεγχο της ενηλικότητας, τον γονικό έλεγχο και εν γένει την απαγόρευση παροχής οδηγιών που προξενούν κακό και την αυτόματη παραπομπή σε μηχανισμούς ψυχολογικής υποστήριξης.

Α. Κατευθυντήριες αρχές που πρέπει να διέπουν την ΤΝ

Η ανάπτυξη της ΤΝ πρέπει να βασίζεται σε κατευθυντήριες αρχές, [16] οι οποίες υπαγορεύονται από την τεχνοηθική της ευθύνης με σκοπό τη δημιουργία εφαρμογών ΤΝ που επιδεικνύουν κοινωνικά υπεύθυνη συμπεριφορά.[17] Στην εξεταζόμενη περίπτωση της αυτοκτονίας, οι βασικές αρχές είναι οι εξής:

α) Σεβασμός στην ανθρώπινη αξία

Τα συστήματα ΤΝ πρέπει να αναπτύσσονται με τρόπους που σέβονται την αξία του ανθρώπου και δεν τον υποβιβάζουν ως απλό μέσο για την εξυπηρέτηση άλλων σκοπών. Κεντρικής σημασίας είναι η προστασία της αξίας της ανθρώπινης επιλογής και ελέγχου.[18] Επίσης, οι εφαρμογές δεν πρέπει να εκμεταλλεύονται ή να πειραματίζονται με τις αδυναμίες ευάλωτων ατόμων, όπως π.χ. ατόμων με τάσεις αυτοκτονίας. Τα συστήματα δεν πρέπει να δοκιμάζουν τις αντοχές ατόμων με αυτοκτονικές τάσεις, αλλά να τους βοηθούν να τις ξεπεράσουν. Στην κατεύθυνση αυτή είναι σημαντικό να γνωρίζει κάποιος ότι αλληλοεπιδρά με το ρομπότ και όχι με άνθρωπο.[19] Η αλληλεπίδραση αυτή με το ρομπότ διαφοροποιεί εν πολλοίς τη συμμετοχή της εφαρμογής της ΤΝ στη λήψη απόφασης από την πρόσβαση σε μια στατική διαδικτυακή πληροφορία ή την ανάγνωση ενός βιβλίου περί νομικής αποδοχής της ευθανασίας.

Στο σημείο αυτό πρέπει να σημειωθεί ότι δεν θίγεται το συνταγματικά κατοχυρωμένο δικαίωμα αυτοκαθορισμού του ατόμου.[20] Όποιος συνειδητά επιθυμεί να διακόψει τη ζωή του μπορεί από νομικής απόψεως να το κάνει μόνος του χωρίς, όμως, τη συνδρομή της ΤΝ.[21]

β) Ιδιωτικότητα

Για τη λειτουργία της τεχνητής νοημοσύνης απαιτείται η συλλογή και επεξεργασία μεγάλων συνόλων δεδομένων που δύσκολα τίθενται υπό τον έλεγχο του υποκειμένου των δεδομένων. Η εξάρτηση της τεχνητής νοημοσύνης από τα δεδομένα έχει δημιουργήσει ένα κρίσιμο παράδοξο: όσο περισσότερα δεδομένα διοχετεύονται σε ένα σύστημα τεχνητής νοημοσύνης, τόσο πιο ακριβή αποτελέσματα θα εξάγει, αλλά τόσο αυξάνονται και οι πιθανότητες παραβίασης του ιδιωτικού απορρήτου[22] από κακόβουλους παράγοντες που επιθυμούν να ανακτήσουν ευαίσθητες πληροφορίες.[23] Eν ολίγοις, τα προσωπικά δεδομένα τροφοδοτούν την τεχνητή νοημοσύνη και αυτή με τη σειρά της παράγει νέα, περισσότερα δεδομένα.

Στην περίπτωση της αυτοκτονίας, το μηχάνημα δεν πρέπει να καταγράφει αυτή την πληροφορία κατά τρόπο που θίγει τα συμφέροντα του ατόμου, π.χ. διαβιβάζοντάς την σε δυνητικούς εργοδότες. Θα μπορούσε όμως να την καταγράψει προς όφελος του ατόμου αποκλειστικά και μόνο για την παραπομπή του σε μια υπηρεσία ψυχολογικής στήριξης. Πρόσβαση στη σχετική πληροφορία εξουσιοδοτούνται να έχουν μόνον όσοι εμπλέκονται στην ψυχολογική στήριξη. Κατάλληλα τεχνικά και οργανωτικά μέτρα ασφάλειας πρέπει να εφαρμοσθούν για την εξασφάλιση της προστασίας αυτής της πληροφορίας.

γ) Ανθρώπινη ευημερία

Οι εφαρμογές ΤΝ οφείλουν να προάγουν την ατομική ευημερία και όχι τον ανθρώπινο παραγκωνισμό, υποβιβασμό και ξεπεσμό. Αυτό σημαίνει ότι πρέπει να αναγνωρίζονται ως εργαλείο που βοηθά και εμπνέει τους ανθρώπους, ώστε να βελτιώσουν την ποιότητα ζωής τους, αξιοποιώντας τις μοναδικές τους ανθρώπινες ικανότητες. Υπό αυτή την έννοια πρέπει να λαμβάνονται μέτρα για την εξασφάλιση της ευζωίας των ανθρώπων όσο αυτό είναι δυνατό. Θα πρέπει να συντρέχει το άτομο να ζει καλά, να εξέλθει από δύσβατα μονοπάτια και να κατανικήσει κακές σκέψεις. Ως εκ τούτου, αν κάποιος έχει αυτοκτονικές τάσεις, θα πρέπει αυτομάτως να δέχεται βοήθεια για να ξεπεράσει το πρόβλημά του και να μη δέχεται οδηγίες αυτοκτονίας. Στην κατεύθυνση αυτή χρήσιμο θα ήταν να παραπέμπεται αυτομάτως σε μηχανισμούς ψυχολογικής υποστήριξης. Αν παρόλα αυτά θέλει συνειδητά να αυτοκτονήσει, το δίκαιό μας δεν τον τιμωρεί, δεν δέχεται όμως την υποβοήθησή του, η οποία μπορεί να λάβει χώρα και αλγοριθμικά.

δ) Συμμετοχή

Δεδομένου ότι η ΤΝ θα διεισδύσει και θα επιδράσει σε όλες τις πτυχές της ανθρώπινης ζωής, είναι κρίσιμης σημασίας οι πολίτες να έχουν ίσες ευκαιρίες συμμετοχής στην ΤΝ μέσω της πρόσβασης σε σχετική εκπαίδευση, γνώση, τεχνολογία, υπολογιστικούς πόρους και σύνολα δεδομένων. Είναι πολύ σημαντικό όλοι να έχουν πρόσβαση σε υπηρεσίες ΤΝ που θα βελτιώσουν τις συνθήκες ζωής του ατόμου.

ε) Αλγοριθμική[24] διαφάνεια

Οι αλγόριθμοι, τα δεδομένα και οι διαδικασίες λήψης αποφάσεων από συστήματα ΤΝ θα πρέπει να είναι επαρκώς προσβάσιμα στα ενδιαφερόμενα μέρη, ώστε η λειτουργία των συστημάτων ΤΝ να είναι κατανοητή, εξηγήσιμη, αξιόπιστη, αιτιολογημένη και υπεύθυνη.[25] Πρόκειται για μια λειτουργία ορατότητας και ιχνηλασιμότητας της διαδικασίας λήψης απόφασης.[26] Υπό αυτή την έννοια, απαιτείται η στοχευμένη δημοσίευση του αλγόριθμου υπό τον όρο που προβλέπει ο νομοθέτης (κατά τα προβλεπόμενα στις διατάξεις περί εμπορικού απορρήτου).[27] Η διαφάνεια είναι ζωτικής σημασίας για τη λήψη υπεύθυνων αποφάσεων σχετικά με την ανάπτυξη και εφαρμογή των συστημάτων ΤΝ, καθώς και για την αναγνώριση των κινδύνων και των ωφελειών που αυτά συνεπάγονται. Μέσω της διαφάνειας, θα είναι ορατό ότι ο αλγόριθμος δεν θα επιτρέπεται να χορηγήσει οδηγίες αυτοκτονίας.

στ) Ανθρώπινος έλεγχος και Εποπτεία

Η τεχνολογία δεν πρέπει να αυτενεργεί αλλά πρέπει να υπάρχει συνεχής ανθρώπινη εποπτεία.[28] Ο ανθρώπινος παράγοντας δεν πρέπει να καταργηθεί. Στην κατεύθυνση αυτή πρέπει να υπάρχει περιορισμός των αρμοδιοτήτων της ΤΝ. Είναι αναγκαίο να θεσπιστούν μηχανισμοί εποπτείας, ώστε να διασφαλισθεί ότι τα συστήματα ΤΝ σέβονται τις αξίες που θέλουμε να διέπουν τη λειτουργία τους. Ιδιαίτερη προσοχή πρέπει να δοθεί στην επιλογή της κατάλληλης μορφής εποπτείας, συμπεριλαμβανομένης της εποπτείας από τον άνθρωπο, ανάλογα με τα χαρακτηριστικά των διαφορετικών συστημάτων ΤΝ και τον τομέα της εφαρμογής τους. Επιπλέον, απαιτείται να σταθμίζονται οι κίνδυνοι και τα οφέλη που συνδέονται με αυτά. Στην κατεύθυνση αυτή, η ανθρώπινη εποπτεία θα πρέπει να εμποδίζει τη συνδρομή οδηγιών αυτοκτονίας και να μεριμνά για την παραπομπή των ευάλωτων ανθρώπων σε μηχανισμούς ψυχολογικής υποστήριξης.

ζ) Προσαρμοστικότητα

Οι εφαρμογές ΤΝ στηρίζονται σε μια πολυδιάστατη και συνεχώς εξελισσόμενη τεχνολογία, η οποία απαιτεί μια αντίστοιχα λεπτομερή και δυναμική πολιτική για τη διαχείρισή της. Αυτή η πολιτική οφείλει να προσαρμόζεται στις νέες ευκαιρίες και προκλήσεις που ανακύπτουν με την πάροδο του χρόνου, διατηρώντας ωστόσο ένα σταθερό και προβλέψιμο ρυθμιστικό περιβάλλον.

η) Διεθνής πολυμερής συνεργασία

Η αποτελεσματική ρύθμιση της ΤΝ δεν μπορεί να επιτευχθεί με τις προσπάθειες ενός μόνο κράτους. Είναι επομένως κρίσιμο για τα κράτη μέλη να συμμετέχουν και να συμβάλλουν σε διεθνείς πρωτοβουλίες, καθώς και να αντλούν διδάγματα από τις πολιτικές προτάσεις άλλων κρατών, περιφερειακών φορέων και Διεθνών Οργανισμών. Η διεθνής συνεργασία εντός της Ευρωπαϊκής Ένωσης (ΕΕ), των Ηνωμένων Εθνών (ΟΗΕ) και του Οργανισμού Οικονομικής Συνεργασίας και Ανάπτυξης (ΟΟΣΑ) είναι ζωτικής σημασίας για να διασφαλιστεί ότι η ΤΝ αναπτύσσεται και εφαρμόζεται με τρόπους που προάγουν το κοινό καλό της ανθρωπότητας.

θ) Μη βλάπτειν

Κεντρικό ρόλο διαδραματίζει η αρχή του μη βλάπτειν υπό την έννοια της προστασίας της ζωής και της υγείας των προσώπων.[29] Υπό αυτό το πρίσμα, τα εργαλεία ΤΝ δεν πρέπει να χρησιμοποιούνται κατά τρόπο που προκαλούν πραγματική ή δυνητική φυσική ή ψυχολογική βλάβη ή ζημία.[30] Η πρόληψη ή η αποτροπή της βλάβης συμπεριλαμβάνει την αποτροπή τόσο της ενδεχόμενης βλάβης και της απρόβλεπτης βλάβης όσο και της κακόβουλης βλάβης.[31] Από την αρχή αυτή συνάγεται αβίαστα ότι η ΤΝ δεν επιτρέπεται να παρέχει οδηγίες που θα προκαλέσουν την αυτοκτονία κάποιου.

ι) Πρόληψη και προφύλαξη

Η αρχή της πρόληψης επιτάσσει τη διακοπή ή την περαιτέρω οχύρωση των εφαρμογών όταν διαπιστωθούν συγκεκριμένοι κίνδυνοι και η αρχή της προφύλαξης τη διακοπή ή την οχύρωσή των εφαρμογών ακόμα και αν υπάρχει αβεβαιότητα κινδύνου.[32] Η πρόληψη των κινδύνων λαμβάνει χώρα στο πλαίσιο της μελέτης εκτίμησης αντικτύπου. Ως εκ τούτου, τα μηχανήματα πρέπει να σχεδιάζονται κατά τέτοιο τρόπο που δεν θα προκαλούν απόφαση που οδηγεί σε βλάβη στον άνθρωπο και αν αυτά παρ’ ελπίδα προκαλέσουν θα πρέπει να υφίσταται ένας μηχανισμός που θα επεμβαίνει πάραυτα.

ια) Επιλογικό σχόλιο

Οι ανωτέρω αρχές απορρέουν εν πολλοίς από τη συσχέτιση της ελληνικής φιλοσοφίας με τη σύγχρονη τεχνολογία.[33] Και αυτό γιατί η ιδέα της δημιουργίας αυτόνομων μηχανών που λαμβάνουν αποφάσεις χωρίς τη συμμετοχή ενός ανθρώπου εγείρει σημαντικά ερωτήματα αναφορικά με τον έλεγχο, την ελεύθερη βούληση και την εξάρτηση.[34] Η αυτονομία αυτή πρέπει να εδράζεται στην υπευθυνότητα, υπό την έννοια της ηθικής ευθύνης.[35] Η αυτονομία στην επιστήμη θα πρέπει να επιδιώκεται με κατανόηση των σχετικών εννοιών και με επίγνωση της πιθανότητας ύβρεως.[36] Ως εκ τούτου, η ΤΝ πρέπει να σέβεται τα ηθικά όρια και να εξετάζει τις ευρύτερες επιπτώσεις της στην κοινωνία και την ανθρωπότητα.[37] Οφείλει να υπηρετεί τον άνθρωπο και να υποβοηθεί την ανάπτυξή του.[38]

B. Εγγραμματισμός

Ιδιάζουσα σημασία έχει ο εγγραμματισμός στην και για την ΤΝ. Η διάκριση μεταξύ εκπαίδευσης στην ΤΝ και εκπαίδευσης για την ΤΝ δεν είναι αμελητέα. Η εκπαίδευση στην ΤΝ υποδηλώνει την ενσωμάτωση της ΤΝ στα εκπαιδευτικά προγράμματα στο πλαίσιο του ψηφιακού και αλγοριθμικού εγγραμματισμού. Αυτό που είναι αναγκαίο είναι η μετατόπιση του κέντρου βάρους στην εκπαίδευση για την ΤΝ, δηλαδή την εξοικείωση του ατόμου με τους νέους ηθικούς, κοινωνικούς και νομικούς προβληματισμούς που εγείρει η ΤΝ, με απώτερο σκοπό ο άνθρωπος να προετοιμάζεται για τη μελλοντική, υπεύθυνη και εποικοδομητική, αλληλεπίδραση με τα συστήματα ΤΝ, που ενσωματώνονται ολοένα και περισσότερο στην καθημερινή ζωή.[39] Στην κατεύθυνση αυτή, ο κατάλληλος εγγραμματισμός πρέπει να καταστήσει κατανοητό στον άνθρωπο τους κινδύνους που εγείρονται από τη χρήση της ΤΝ και τους τρόπους αποσόβησης τους.

Γ. Έλεγχος ενηλικότητας

Ο πάροχος της ΤΝ[40] πρέπει να ευθύνεται για τον έλεγχο του αν ο χρήστης της ΤΝ είναι ανήλικος ή όχι. Στην κατεύθυνση αυτή καθοριστικής σημασίας είναι η εφαρμογή επαλήθευσης της ηλικίας. Σημειώνεται ότι η Ευρωπαϊκή Επιτροπή παρουσίασε ένα σχέδιο εφαρμογής επαλήθευσης ηλικίας τον Ιούλιο του 2025, το οποίο είναι διαθέσιμο για δοκιμή σε πιλοτικές χώρες, συμπεριλαμβανομένης της Ελλάδας, με στόχο την προστασία των ανηλίκων στο διαδίκτυο, επιτρέποντας την επαλήθευση της ηλικίας χωρίς την αποκάλυψη περιττών προσωπικών δεδομένων. [41]Βασίζεται στην Πράξη για τις Ψηφιακές Υπηρεσίες (DSA) και σχεδιάζεται προκειμένου να καταστεί ένα ενιαίο ευρωπαϊκό πρότυπο. 

Δ. Γονικός έλεγχος

Οι εφαρμογές ΤΝ οφείλουν να επιτρέπουν στους γονείς να πιστοποιούν την ηλικία των παιδιών τους και να ορίζουν περιορισμούς για την πρόσβαση σε πλατφόρμες και περιεχόμενο.

Ε. Παραπομπή σε δίκτυα βοήθειας

Από τις κατευθυντήριες αρχές στις οποίες πρέπει να δομείται η ΤΝ συνάγεται ότι σε περίπτωση που διαπιστωθεί μια επικίνδυνη ενέργεια, πρέπει να ενεργοποιείται ένας μηχανισμός προστασίας του ανθρώπου. Ο μηχανισμός αυτός οφείλει να λειτουργεί σεβόμενος την ιδιωτικότητα του ανθρώπου. Ως εκ τούτου, η πληροφορία αυτή πρέπει να προστατεύεται.

ΙV. Aντί Επιλόγου

Η περίπτωση αυτοκτονίας με τη συνδρομή εφαρμογών της ΤΝ κρούει τον κώδωνα του κινδύνου ότι τέτοιου είδους εφαρμογές δεν πρέπει να λειτουργούν χωρίς έλεγχο. Αυτό δεν σημαίνει ότι πρέπει να αντιμετωπίσουμε την ΤΝ τεχνοφοβικά, αλλά ότι οφείλουμε να χαράξουμε το απαιτούμενο πλαίσιο για την προστασία και την ευημερία του ατόμου. Και αυτό θα συμβεί αν η ΤΝ στηρίζεται σε ηθικές αρχές. Είναι αναγκαίο, συνεπώς, αυτοί που σχεδιάζουν εφαρμογές ΤΝ να εκπαιδευτούν, προκειμένου να ενσωματώνουν και ηθικούς κανόνες.[42]

Φερενίκη Παναγοπούλου

Αναπληρώτρια Καθηγήτρια Παντείου Πανεπιστημίου


⃰ Θερμότατες ευχαριστίες οφείλονται στον Καθηγητή Νομικής Σχολής ΕΚΠΑ, Γεώργιο Γιαννόπουλο, για τον πολύ εποικοδομητικό διάλογο μαζί του.

[1] Xαρακτηριστική είναι η περίπτωση του Murad Jacob Kevorkian, Αμερικανού παθολόγου και υπέρμαχου της ευθανασίας, ο οποίος υπερασπίστηκε δημοσίως το δικαίωμα ενός ασθενούς που βρίσκεται στο τελικό στάδιο να θέσει τέλος στη ζωή του με υποβοηθούμενη από ιατρό αυτοκτονία. Η θεωρία του συμπυκνώνεται στη φράση «Ο θάνατος δεν είναι έγκλημα».

[2] Βλ. Christiane Wendehorst, Art. 1, σε: Mario Martini/Christiane Wendehorst (επιμ.), KI-VO, Kommentar, Verordnung über künstliche Intelligenz, C.H. Bech, München 2024, αρ. περιθ. 61.

[3] Ibidem, αρ. περιθ. 62.

[4] Ibidem.

[5] Ibidem.

[6] Βλ. αναλυτικά, Φερενίκη Παναγοπούλου-Κουτνατζή, Τεχνητή νοημοσύνη: Ο δρόμος προς έναν ψηφιακό συνταγματισμό: Μια ηθικο-συνταγματική θεώρηση, Εκδόσεις Παπαζήση, Αθήνα 2023, σ. 221 επ..

[7] Bλ. Εuropean Commission, Liability for Artificial Intelligence and other emerging digital technologies, 2019, διαθέσιμη σε: https://op.europa.eu/en/publication-detail/-/publication/1c5e30be-1197-11ea-8c1f-01aa75ed71a1/language-en, σ. 8.

[8] Βλ. Vagelis Papakonstantinou/Paul De Hert, Refusing to award legal personality to AI: Why the European Parliament got it wrong, European Law Blog, 20.11.2020.

[9] Βλ. Vagelis Papakonstantinou/Paul De Hert, Structuring modern life running on software. Recognizing (some) computer programs as new “digital persons”, σ. 732 επ.

[10] Βλ. Dave Gershgorn, Inside the mechanical brain of the world’s first robot citizen, Quartz, 12.11.2017.

[11] Βλ. A. Cuthbertson, Artificial Intelligence “Boy” Shibuya Mirai Becomes World’s First AI Bot to Be Granted Residency, Newsweek, 6.11.2017.

[12] Βλ. Rοb Wile, A Venture Capital Firm Just Named an Algorithm to Its Board of Directors, Business Insider, 13.5.2014.

[13] Βλ. Kevin J. Delaney, The robot that takes your job should pay taxes, says Bill Gates, Quartz, 17.2.2017.

[14] Ευρωπαϊκή Επιτροπή, Πρόταση Οδηγίας του Ευρωπαϊκού Κοινοβουλίου και του Συμβουλίου για την προσαρμογή των κανόνων περί εξωσυμβατικής αστικής ευθύνης στην τεχνητή νοημοσύνη (οδηγία περί ευθύνης για την ΤΝ), Βρυξέλλες, 28.9.2022, COM(2022) 496 τελικό, 2022/0303(COD), {SEC(2022) 344 τελικό} – {SWD(2022) 318 τελικό} – {SWD(2022) 319 τελικό} – {SWD(2022) 320 τελικό}.

[15] Βλ. σχετικά: https://www.europarl.europa.eu/legislative-train/theme-a-europe-fit-for-the-digital-age/file-ai-liability-directive,

https://commission.europa.eu/publications/2025-commission-work-programme-and-annexes_en

https://blogs.law.ox.ac.uk/oblb/blog-post/2025/04/ai-liability-after-aild-withdrawal-why-eu-law-still-matters.

[16] Για τη διεξοδική ανάλυση των αρχών βλ. Σχέδιο για τη μετάβαση της Ελλάδας στην εποχή της ΤΝ, διαθέσιμο σε: https://foresight.gov.gr/wp-content/uploads/2024/11/Sxedio_gia_tin_metavasi_TN_Gr.pdf, σ. 15.

[17] Βλ. Σταυρούλα Τσινόρεμα, Τεχνητή Νοημοσύνη με ανθρώπινο πρόσωπο. Προς μια τεχνοηθική της ευθύνης, σε: liber amicorum Ισμήνης Κριάρη, Εκδόσεις Σιδέρη, Αθήνα 2025, σ. 259 επ. (274).

[18] Ibidem.

[19] Βλ. Βασίλειο Μπάρο/Louis Henri Seukwa, Άρθρο 2, Προστασία της αξίας του ανθρώπου, σε: Ευριπίδη Στυλιανίδη (επιμ.), Τεχνητή Νοημοσύνη, Ανθρώπινα Δικαιώματα, Δημοκρατία και Κράτος Δικαίου, ό.π., σ. 27 επ. (31).

[20] Βλ.     Fereniki Panagopoulou-Koutnatzi, Die Selbstbestimmung des Patienten: Eine Untersuchung aus verfassungsrechtlicher Sicht, Duncker und Humblot Verlag, Berlin 2009.

[21] Το δικαίωμα αυτοκτονίας συνιστά απόρροια της αρνητικής έκφανσης του δικαιώματος στη ζωή. Στο σημείο αυτό, ωστόσο, πρέπει να τονισθεί ότι το

άτομο διαθέτει το δικαίωμα να θέσει τέλος στη ζωή του, όταν η απόφαση αυτή είναι ελεύθερη. Εάν ελλοχεύουν αμφιβολίες αναφορικά με την ελευθερία της

αποφάσεως, τότε νομιμοποιείται η επέμβαση τρίτου. Ως εκ τούτου, ο ποινικός μας κώδικας παραλείπει να τιμωρήσει την αυτοκτονία (δεν θα είχε νόημα εξάλλου

κάτι τέτοιο), τιμωρεί, όμως, τη συμμετοχή σε αυτή στο άρθρο 301.

[22] Βλ. Mοusam Khatri, Data Privacy in the Age of Artificial Intelligence (AI), 2023, διαθέσιμο σε: https://www.linkedin.com/pulse/data-privacy-age-artificial-intelligence-ai-mousam-khatri/.

[23] Σύμφωνα με το Identity Theft Resource Center, το 2021 σημειώθηκαν 1.862 παραβιάσεις δεδομένων, ποσοστό 23% υψηλότερο από το προηγούμενο υψηλό όλων των εποχών (το 2017). Βλ. Cem Dilmegani, Responsible AI: 4 Principles & Best Practices in 2024, AI Multiple Research, 2024, διαθέσιμο σε: https://research.aimultiple.com/responsible-ai/.

[24] Βλ. Χρυσούλα Π. Μουκίου, Οι αλγόριθμοι και το διοικητικό δίκαιο, Eκδόσεις Σάκκουλα, Αθήνα-Θεσσαλονίκη, 2025, σ. 283.

[25] Βλ. Απόστολο Βόρρα, Μπορεί ο αλγόριθμος να είναι διαφανής;, σε: Λίλιαν Μήτρου (επιμ.), Μπορεί ο αλγόριθμος;, Πανεπιστημιακές εκδόσεις Κρήτης, Ηράκλειο 2023, σ. 151 επ. (151).

[26]Βλ. Χρυσούλα Π. Μουκίου, Οι αλγόριθμοι και το διοικητικό δίκαιο, Eκδόσεις Σάκκουλα, Αθήνα-Θεσσαλονίκη, 2025, σ. 44.

[27] Ibidem, σ. 108, 115.

[28] Βλ. Σπύρο Τάσση, Μπορεί ο αλγόριθμος να είναι ηθικός;, σε: Λίλιαν Μήτρου (επιμ.), Μπορεί ο αλγόριθμος;, ό.π., σ. 35 επ. (58 επ.).

[29] Βλ. Σταυρούλα Τσινόρεμα, Τεχνητή Νοημοσύνη με ανθρώπινο πρόσωπο. Προς μια τεχνοηθική της ευθύνης, ό.π., σ. 259 επ. (275).

[30] Ibidem, σ. 275.

[31] Ibidem, σ. 275.

[32] Ibidem, σ. 277.

[33] Βλ. Κωνσταντίνο Καρπούζη, Από τις μορφές του Πλάτωνα στις νόρμες της Τεχνητής Νοημοσύνης: Ένας οδηγός στη σύγχρονη τεχνολογία μέσω της αρχαίας ελληνικής φιλοσοφίας, δια-ΛΟΓΟΣ, 14, 2014, σ. 275 επ. (278).

[34] Ιbidem.

[35] Ibidem.

[36] Ibidem, σ. 280.

[37] Ibidem.

[38] Βλ. Μανώλη Ανδριωτάκη, Τεχνητή νοημοσύνη για όλους, Εκδόσεις Ψυχογιός, Αθήνα 2022, σ. 212.

[39] Εθνική Επιτροπή Βιοηθικής και Τεχνοηθικής, Γνώμη για τις εφαρμογές Τεχνητής Νοημοσύνης στο ελληνικό σχολείο, Μάρτιος 2025, διαθέσιμη σε https://bioethics.gr/announcements-26/nea-gnwmh-gia-tis-efarmoges-texnhths-nohmosynhs-sto-ellhniko-sxoleio-18-martioy-2025-3219, σ. 6.

[40] Σύμφωνα με το άρθρο 3 παρ. 3 του Κανονισμού για την ΤΝ, «Πάροχος είναι το φυσικό ή νομικό πρόσωπο, δημόσια αρχή, υπηρεσία ή άλλος φορέας που αναπτύσσει σύστημα ΤΝ ή μοντέλο ΤΝ γενικού σκοπού ή έχει αναπτύξει και διαθέτει σύστημα ΤΝ ή μοντέλο ΤΝ γενικού σκοπού στην αγορά ή θέτει το σύστημα ΤΝ σε λειτουργία υπό τη δική του επωνυμία ή εμπορικό σήμα, είτε έναντι αντιτίμου είτε δωρεάν.»

[41] Πηγή: https://digital-strategy.ec.europa.eu/el/policies/eu-age-verification.

[42] Το MIT, αναγνωρίζοντας τη σπουδαιότητα των ανθρωπιστικών σπουδών, απαιτεί από όλους τους προπτυχιακούς φοιτητές να ολοκληρώσουν μαθήματα ανθρωπιστικών σπουδών, καλών τεχνών και κοινωνικών επιστημών, τα οποία συνήθως αποτελούν περίπου το 25% ενός προπτυχιακού τίτλου σπουδών και ένα σημαντικό μέρος του χρόνου των φοιτητών στο MIT, αν και το ακριβές ποσοστό μπορεί να ποικίλλει ανάλογα με τις ατομικές επιλογές, όπως η επιλογή δευτερεύοντος ή διπλού πτυχίου σε έναν τομέα των ανθρωπιστικών επιστημών. Πηγή: https://shass.mit.edu/for-students/undergraduate-study/#:~:text=Every%20student%20at%20MIT%20takes,double%20major%2C%20or%20joint%20degree.

Σου άρεσε το άρθρο, αλλά σου δημιούργησε νέες απορίες;

Έχεις και άλλα ερωτήματα που σε απασχολούν σε σχέση με το Σύνταγμα, τους Θεσμούς, τα δικαιώματα και τη λειτουργία της Δημοκρατίας;

Σχετικά Άρθρα

Τεχνητή νοημοσύνη και εκπαίδευση: Προς ένα δικαίωμα στην ψηφιακή παιδεία;

Η Φ. Παναγοπούλου αναλύει τον ρόλο της τεχνητής νοημοσύνης (ΤΝ) στην εκπαίδευση, εξετάζοντας το νομοθετικό πλαίσιο, το δικαίωμα στην ψηφιακή παιδεία και τις ηθικές προκλήσεις που προκύπτουν από την ένταξη της ΤΝ στην εκπαιδευτική διαδικασία

Περισσότερα

Η Τεχνητή Νοημοσύνη στη Δικαιοσύνη – Τα ρομπότ στην έδρα, οι άνθρωποι στο εδώλιο

Πώς θα σας φαινόταν αν στη θέση του δικαστή βρισκόταν ένα ρομπότ; Πόσο αντικειμενικά είναι τα πορίσματα των αλγορίθμων; Πόσο ικανός είναι ένας αλγόριθμος να προβεί σε σταθμίσεις με βάση την αρχή της αναλογικότητας, όταν συγκρούονται δύο διαφορετικά έννομα αγαθά; Η Διονυσία Πετράκου γράφει για την αξιοποίηση της τεχνητής νοημοσύνης στην απονομή δικαιοσύνης, τις ευκαιρίες, αλλά και τους κινδύνους.

Περισσότερα

Κέντρο Ευρωπαϊκού Συνταγματικού Δικαίου
Ίδρυμα Θεμιστοκλή και Δημήτρη Τσάτσου

Ακαδημίας 43 | Αθήνα | 10672
[+30] 210 36 23 089
info@syntagmawatch.gr

Θέλεις να μαθαίνεις

πρώτος τα νέα μας;

Αν σε ενδιαφέρει να ενημερώνεσαι άμεσα για τις νέες δημοσιεύσεις και τις δράσεις του Syntagma Watch, τότε εγγράψου στο newsletter μας!

Αυτός ο ιστότοπος για τη διευκόλυνση της λειτουργίας του και προκειμένου να σας παρέχει μια προσωποποιημένη εμπειρία χρησιμοποιεί cookies. Για να ενημερωθείτε για τη χρήση των cookies και τις σχετικές ρυθμίσεις μπορείτε να επιλέξετε εδώ

JOIN THE CLUB!

It’s easy: all we need is your email & your eternal love. But we’ll settle for your email.