Οι ραγδαίες κοινωνικές και τεχνολογικές μετατοπίσεις που φέρνει η εξέλιξη της Τεχνητής Νοημοσύνης (AI) βρέθηκαν στο επίκεντρο του 11ου Οικονομικού Φόρουμ των Δελφών.
Ο Χαράλαμπος Τσέκερης, προεδρεύων της Εθνικής Επιτροπής Βιοηθικής & Τεχνοηθικής, ανέλυσε τις προκλήσεις της ψηφιακής εποχής, προειδοποιώντας για την υποβάθμιση της ανθρώπινης σκέψης, αλλά και για τις ευθείες απειλές κατά της Δημοκρατίας.
Καθώς η αλληλεπίδραση ανθρώπου-μηχανής εντείνεται, παρατηρείται ολοένα και περισσότερο το φαινόμενο της εκχώρησης (outsourcing) αποφάσεων και γνώσης στα αυτόνομα συστήματα. Ο κ. Τσέκερης υπογράμμισε ότι βυθιζόμαστε σταδιακά σε μια «κουλτούρα της ευκολίας». Οι άνθρωποι εθίζονται στις γρήγορες και ακριβείς απαντήσεις των chatbots, γεγονός που αν και εξυπηρετεί επαγγελματίες σε κλάδους όπως η ιατρική και η νομική, οδηγεί μακροπρόθεσμα σε πνευματική αποδυνάμωση. Επικαλούμενος τον νομπελίστα Ντάρον Ατζέμογλου προειδοποίησε ότι η υποχώρηση της ανθρώπινης διανοητικής προσπάθειας υπονομεύει τη συμβολή μας στο γενικό καλό, καθώς η κοινωνία βασίζεται σε γνώση που πρέπει να ανατροφοδοτείται διαρκώς από ανθρώπους και όχι από μηχανές.
Η εκπαίδευση στη σκιά της Τεχνητής Νοημοσύνης
Οι ραγδαίες αυτές αλλαγές γεννούν εύλογες ανησυχίες για τις νεότερες γενιές. Σύμφωνα με τα στοιχεία του World Internet Project, το οποίο συντονίζει ο ίδιος στην Ελλάδα, 8 στους 10 γονείς δεν επιθυμούν τα παιδιά τους να συνομιλούν με chatbots, φοβούμενοι αρνητικές επιπτώσεις στην κοινωνικότητά τους.
Ο προεδρεύων της Επιτροπής επεσήμανε την επιτακτική ανάγκη για ψηφιακό γραμματισμό ήδη από την προσχολική ηλικία. Τα παιδιά δεν πρέπει να περιμένουν τα πάντα από τις μηχανές, κινδυνεύοντας να πέσουν σε μια κατάσταση «μαθημένης αβοηθησίας». Είναι κρίσιμο κατά τη διαδικασία της μάθησης η ανάγνωση και η γραφή να παραμείνουν ελκυστικές, ώστε να αποτραπεί η δημιουργία μιας «μετα-εγγράμματης» κοινωνίας που θα καταναλώνει μόνο οπτικό υλικό και θα έχει ξεχάσει να σκέφτεται κριτικά.
Η συζήτηση στράφηκε και στις σκοτεινές πτυχές της ψηφιακής εξέλιξης, με αιχμή του δόρατος τα deepfakes. Υπενθυμίζοντας τη θέση του ιστορικού Τίμοθι Σνάιντερ --ότι η απουσία της αλήθειας δίνει τον λόγο αποκλειστικά σε όποιον έχει τα περισσότερα χρήματα-- ο κ. Τσέκερης τόνισε ότι τα deepfakes ενισχύουν τη «νοητική κλειστότητα». Οι εξελιγμένοι αλγόριθμοι μπορούν πλέον να προσομοιώσουν την πραγματικότητα σε τόσο ρεαλιστικό βαθμό που μπορούν να χρησιμοποιηθούν για ψηφιακή βία, χειραγώγηση της κοινής γνώμης και νόθευση των εκλογικών διαδικασιών. Αυτό είναι ιδιαίτερα κρίσιμο για την Ελλάδα, όπου, σύμφωνα με το World Value Survey, οι εκλογές αποτελούν τον θεσμό που εμπιστεύονται περισσότερο οι πολίτες.
Για την προστασία της αλήθειας και της Δημοκρατίας, απαιτείται η δημιουργία ενός συνεργατικού οικοσυστήματος που θα ενώνει τη δημοσιογραφία, τον ακαδημαϊκό χώρο, τις εταιρείες τεχνολογίας, αλλά και τα ίδια τα εργαλεία τεχνητής νοημοσύνης (AI), προκειμένου να εντοπίζουν και να καταπολεμούν την παραπληροφόρηση σε πραγματικό χρόνο.
Αναφερόμενος στον ρόλο της Εθνικής Επιτροπής Βιοηθικής & Τεχνοηθικής (που συστάθηκε το 2021), ο κ. Τσέκερης ξεκαθάρισε ότι το πραγματικό στοίχημα δεν είναι η τεχνολογία καθαυτή αλλά το πλαίσιο διακυβέρνησής της.
Σε ερώτημα για το αν η τεχνοηθική κινδυνεύει να μετατραπεί σε μια απλή «λίστα συμμόρφωσης», ήταν σαφής «Η ηθική αυτοδέσμευση των μεγάλων τεχνολογικών κολοσσών συχνά εκφυλίζεται στο λεγόμενο "ethics washing" (ξέπλυμα ηθικής), όπου εταιρείες διακηρύσσουν αξίες χωρίς να κάνουν τίποτα για να τις προστατέψουν. Γι' αυτόν ακριβώς τον λόγο, είναι απαραίτητο να υπάρχουν νομικά δεσμευτικά πλαίσια με αυστηρούς κανόνες "από τα πάνω προς τα κάτω", όπως το πρωτοποριακό AI Act της Ευρωπαϊκής Ένωσης.»
Κλείνοντας, ο κ. Τσέκερης απέρριψε το δίλημμα μεταξύ καινοτομίας και ηθικής. Όπως εξήγησε, μια τεχνολογία που δεν ενσωματώνει ηθικές αξίες είναι εντέλει τοξική και καταστρέφεται. Η ανθρώπινη ιστορία αποδεικνύει ότι, παρά τις όποιες βραχυπρόθεσμες διαταραχές, στο τέλος πάντα καταφέρνουμε να επιτύχουμε μια αρμονική συμβίωση και έναν «ευτυχισμένο γάμο» ανάμεσα στις αξίες της κοινωνίας και τη νέα τεχνολογία.
ΑΠΕ-ΜΠΕ