TECHin

Το μήλο, η βαρύτητα και ο Νόμος δράση-αντίδραση γύρω από το ChatGPT


«Κάνε την υπόθεση ότι κρατάς στο χέρι σου ένα μήλο. Τώρα, το αφήνεις από το χέρι σου. Βλέπεις το αποτέλεσμα και λες: Το μήλο έπεσε. Αυτό είναι μια περιγραφή. Μια πρόβλεψη μπορεί να ήταν ότι το μήλο θα πέφτει όταν ανοίγω το χέρι μου. Αυτή η περιγραφή και αυτή η πρόβλεψη είναι κάτι πολύτιμο, και οι δύο είναι σωστές. Αλλά μια εξήγηση είναι κάτι περισσότερο. Δεν περιλαμβάνει μόνο περιγραφές και προβλέψεις, αλλά και εναλλακτικά υποθετικά σενάρια όπως οποιοδήποτε αντικείμενο θα πέσει. Μαζί και την πρόσθετη υποπρόταση ότι το μήλο θα πέφτει λόγω της βαρύτητας ή λόγω της καμπυλότητας του χωροχρόνου. Μια εξήγηση αιτίου και αιτιατού στην περίπτωση του φρούτου μας θα ήταν: Το μήλο δεν θα είχε πέσει δίχως τη δύναμη της βαρύτητας. Αυτό είναι σκέψη».

Με αυτό το παράδειγμα ο Νόαμ Τσόμσκι σε άρθρο του που δημοσιεύτηκε στις 8 Μαρτίου στους New York Times μιλούσε για τις «κούφιες υποσχέσεις» του ChatGPT: Της νέας εφαρμογής Τεχνητής Νοημοσύνης που έγινε πρόσφατα προσβάσιμη στο ευρύ κοινό.

Μετά την κυκλοφορία της, η εφαρμογή, αυτός ο «εικονικής πραγματικότητας φίλος» έχει την τύχη που έχει κάθε νέο εργαλείο της τεχνολογίας που μπαίνει στην κοινωνική ζωή. Από έναν ενθουσιασμό έως φόβο. Με τον Τρίτο Νόμο δράσης-αντίδρασης.

Χιλιάδες άρθρα αναφέρονται για τις προεκτάσεις της νέας ορατής «παρέμβασης» της Τεχνητής Νοημοσύνης στην ανθρώπινη ζωή, με αντιδράσεις πολιτικές, κοινωνικές και εντός της επιστημονικής κοινότητας.

Με επιστολή τους, κοντά σε 2.000 ερευνητές ζητούν ένα εξάμηνο μορατόριουμ ανάπτυξης της Τεχνητής Νοημοσύνης, και η Ιταλία χθες Παρασκευή έγινε η πρώτη χώρα στην Δύση που απαγόρευσε την εφαρμογή επικαλούμενη λόγους ασφαλείας δεδομένων.

«Λουκέτο»

Σχεδιασμένη από την εταιρεία Open AI, το ChatGPT ειναι προορισμένο να συζητά – μπορεί να απαντά αυτόματα σε θέματα που τίθενται γραπτώς με τρόπο που συχνά προσεγγίζει τον ανθρώπινο, σε βαθμό που είναι δυσδιάκριτο το ότι έχει γίνει χρήση της. Και έρχεται να ανατρέψει πολλές μορφές της καθημερινής επικοινωνίας μας, όπως το πώς γράφουμε mail, πανεπιστημιακές εργασίες και αναρίθμητες άλλες μορφές γραφής.

«Το ChatGPT πρόκειται να αντικαταστήσει τους πολιτικούς σχολιαστές;» «To ChatGPT δεν θα αντικαταστήσει ποτέ τον Τόμας Φρίντμαν», είναι ο τίτλος σε άρθρο στο αμερικανικό περιοδικό Jacobin.

Σε άλλο άρθρο στους NYT που συνυπογράφουν ο Αμερικανός γνωστός συγγραφέας, ειδικός σε θέματα κυβερνοασφάλειας Μπρους Σνάιερ και ο επιστήμονας δεδομένων Νέιθαν Σάντερς μιλούν για το «Chat GPT ως απειλή για το πολιτικό σύστημα». Όπως τονίζουν το ChatGPT μπορεί να συντάξει αυτόματα σχόλια που υποβάλλονται κατά τη νομοθετική διαδικασία. Μπορεί να γράψει επιστολές προς δημοσίευση προς αρχισυντάκτες σε τοπικές εφημερίδες. Μπορεί να σχολιάσει άρθρα ειδήσεων, αναρτήσεις σε μπλογκ και μέσα κοινωνικής δικτύωσης εκατομμύρια φορές μέσα σε μια μέρα. «Μπορεί να μιμηθεί το έργο της ρωσικής υπηρεσίας πληροφοριών για το Διαδίκτυο κατά την απόπειρά του να επηρεάσει τις αμερικανικές εκλογές του 2016, αλλά χωρίς να απαιτεί τον καταγεγραμμένο προϋπολογισμό πολλών εκατομμυρίων και τους εκατοντάδες εργαζομένους που επιστρατεύτηκαν γι’ αυτόν τον σκοπό».

Από τότε που κυκλοφόρησε το ChatGPT του προκατόχου του GPT-3 πέρυσι, αντίπαλες εταιρείες έσπευσαν να λανσάρουν παρόμοια προϊόντα.

Μια επιστολή, με ημερομηνία 22 Μαρτίου που είχε συγκεντρώσει 1.800 υπογραφές μελών της επιστημονικής κοινότητας μέχρι χθες Παρασκευή, ζητά ένα εξάμηνο μορατόριουμ στην ανάπτυξη συστημάτων «πιο ισχυρών» από το νέο GPT-4 (το επόμενο πρόγραμμα που κυκλοφόρησε τελευταία η OpenAI) που υποστηρίζεται από τη Microsoft, το οποίο μπορεί να κάνει ανθρώπινες συνομιλίες, να συνθέσει τραγούδια και να κάνει σύνοψη μεγάλων σε έκταση εγγράφων. Η ανοιχτή επιστολή αναφέρει ότι συστήματα Τεχνητής Νοημοσύνης με «νοημοσύνη που ανταγωνίζεται τον άνθρωπο» θέτουν σοβαρούς κινδύνους για την ανθρωπότητα, επικαλούμενη 12 μελέτες από ειδικούς, συμπεριλαμβανομένων ακαδημαϊκών, καθώς και νυν και πρώην υπαλλήλους της OpenAI, της Google και της θυγατρικής της DeepMind.

«Μια παύση περαιτέρω ανάπτυξης εργαλείων της Τεχνητής Νοημοσύνης δεν αρκεί. Πρέπει να βάλουμε "λουκέτο" σε όλα αυτά» τόνισε ο Ελιέζι Γιουντκόφσκι επιστήμονας στη θεωρία παιγνίων κι ερευνητής της Τεχνητής Νοημοσύνης ο ίδιος, σε άρθρο του στο περιοδικό TIME.

Ομάδες της κοινωνίας των πολιτών στις ΗΠΑ και την ΕΕ ασκούν πλέον πιέσεις σε εκλεγμένους αξιωματούχους να χαλιναγωγήσουν την έρευνα του OpenAI.

Επικριτές κατηγόρησαν το Future of Life Institute (FLI), τον οργανισμό πίσω από την επιστολή, οργανισμό που χρηματοδοτείται κυρίως από το ίδρυμα του Ίλον Μασκ, ότι δίνει προτεραιότητα σε φανταστικά σενάρια Αποκάλυψης έναντι πιο άμεσων ανησυχιών για την Τεχνητή Νοημοσύνη, όπως ρατσιστικές ή σεξιστικές προκαταλήψεις.

Αντιδράσεις εντός της επιστημονικής κοινότητας

Σήμερα, τέσσερις επιστήμονες σε θέματα Τεχνητής Νοημοσύνης εξέφρασαν ανησυχία καθώς η ανοιχτή επιστολή έκανε αναφορές σε μελέτες τους.

Μεταξύ των μελετών που γινόταν αναφορά στην επιστολή ήταν το "On the Dangers of Stochastic Parrots", μια εργασία που συνυπογράφει η Μάργκαρετ Μίτσελ, επιστήμονας υπολογιστών που εργάζεται για την αλγοριθμική μεροληψία και τη δικαιοσύνη στη μηχανική μάθηση, η οποία προηγουμένως επέβλεπε την δεοντολογική έρευνα Τεχνητής Νοημοσύνης στην Google.

H Μίτσελ, τώρα επικεφαλής επιστήμονας δεοντολογίας στην εταιρεία Τεχνητής Νοημοσύνης Hugging Face, επέκρινε την επιστολή, λέγοντας στο Reuters ότι ήταν ασαφές τι θεωρείται «πιο ισχυρό από το GPT4».

«Θεωρώντας πολλές αμφισβητήσιμες ιδέες ως δεδομένες, η επιστολή επιβεβαιώνει ένα σύνολο προτεραιοτήτων και ένα αφήγημα για την Τεχνητή Νοημοσύνη που ωφελεί τους υποστηρικτές του FLI», είπε. «Η αγνόηση των ενεργών βλαβών αυτή τη στιγμή είναι ένα προνόμιο που ορισμένοι από εμάς δεν έχουμε», σημείωσε.

Η Μίτσελ, η Τίμνιτ Γκέμπρου, η Έμιλι Μ. Μπέντερ και η Αντζελίνα Μακ Μίλαν Μέιτζορ δημοσίευσαν στη συνέχεια μια απάντηση στην επιστολή, κατηγορώντας τους συντάκτες αυτής για «τρομολαγνεία και για "ντόρο" γύρω από Τεχνητή Νοημοσύνη».

«Είναι επικίνδυνο να αποσπάσουμε την προσοχή μας με μια φανταστική ουτοπία που δημιουργεί η Τεχνητή Νοημοσύνη ή σενάρια Αποκάλυψης που υπόσχεται ή ένα «ευημερές» ή ένα «δυνητικά καταστροφικό» μέλλον», έγραψαν. «Η ευθύνη δεν εναπόκειται στα τεχνουργήματα αλλά στους κατασκευαστές τους», είπαν χαρακτηριστικά.

Ο πρόεδρος του FLI, ο Μαξ Τέγκμπαρκ είπε στο Reuters ότι η επιστολή δεν ήταν μια προσπάθεια να παρεμποδιστεί το εταιρικό πλεονέκτημα του OpenAI. «Είναι αρκετά ξεκαρδιστικό να ακούω ανθρώπους να λένε: "Ο Ίλον Μασκ προσπαθεί να επιβραδύνει τον ανταγωνισμό"», τόνισε, προσθέτοντας ότι ο Μασκ δεν διαδραμάτισε κανένα ρόλο στη σύνταξη της επιστολής. «Δεν είναι ζήτημα μίας εταιρείας».

Η Σίρι Ντόρι-Χακόχεν, επίκουρη καθηγήτρια στο Πανεπιστήμιο του Κονέκτικατ, τόνισε στο Reuters ότι συμφωνεί με ορισμένα σημεία της επιστολής, αλλά αμφισβήτησε τον τρόπο με τον οποίο αναφέρθηκε το έργο της.

Πέρυσι συνέγραψε μια ερευνητική εργασία που υπογράμμισε τους σοβαρούς κινδύνους που εγκυμονεί η ευρεία χρήση της Τεχνητής Νοημοσύνης.

Η έρευνά της υποστήριζε ότι η σημερινή χρήση συστημάτων Τεχνητής Νοημοσύνης θα μπορούσε να επηρεάσει τη λήψη αποφάσεων σε σχέση με την κλιματική αλλαγή, τον πυρηνικό πόλεμο και άλλες υπαρξιακές απειλές.

«Η Τεχνητή Νοημοσύνη δεν χρειάζεται να αποκτήσει νοημοσύνη σε ανθρώπινο επίπεδο για να επιδεινώσει αυτούς τους κινδύνους (...) «Υπάρχουν μη υπαρκτοί κίνδυνοι που είναι πραγματικά, πολύ σημαντικοί, αλλά δεν τυγχάνουν της ίδιας προσοχής σε στυλ Χόλιγουντ», υπογράμμισε η Ντόρι-Χακόχεν.

Κληθείς να σχολιάσει, ο Τέγκμπαρκ του FLI είπε ότι τόσο οι βραχυπρόθεσμοι όσο και οι μακροπρόθεσμοι κίνδυνοι της Τεχνητής Νοημοσύνης θα πρέπει να ληφθούν σοβαρά υπόψη.

«Ανάμεσα σε όλο το φάσμα πιθανών ανησυχιών που έχουν εκφραστεί από ειδικούς της Τεχνητής Νοημοσύνης, από τους κινδύνους για τα προσωπικά δεδομένα μέχρι και τις ανησυχίες για ακόμα και τελικό αφανισμό της ανθρωπότητας, υπάρχει μια πληθώρα ενδιάμεσων διακυβευμάτων, κυρίως επειδή το ChatGPT και άλλα παρόμοια προγράμματα όταν απαντούν δεν ανασύρουν απλώς πληροφορίες που υπάρχουν στο διαδίκτυο αλλά επινοούν δικές τους απαντήσεις. Και μάλιστα με μόνο στόχο να “ικανοποιήσουν” τον χρήστη, κάτι που δεν θα πετύχαιναν αν τυχόν απαντούσαν ότι δεν γνωρίζουν την απάντηση στην ερώτηση που τους τέθηκε», δηλώνει στο ΑΠΕ-ΜΠΕ ο Φίλιππος Παπαγιαννόπουλος, μεταδιδακτορικός ερευνητής στο πανεπιστήμιο Παντεόν-Σορμπόν, του Παρισιού.

«Για να πάρετε μια ιδέα του πώς κατασκευάζει και "επινοεί" τις πληροφορίες και τις απαντήσεις που σας δίνει το ChatGPT, ρωτήστε το ποιά είναι τα "διασημότερα τραγούδια που έγραψε ο Αλέκος Φασιανός" ή "τα επιστημονικά βιβλία του Γιώργου Σεφέρη". Θα εκπλαγείτε με το πόσο αληθοφανείς μοιάζουν οι εντελώς επινοημένες απαντήσεις που θα πάρετε, προκειμένου και μόνο να σας δώσει ο αλγόριθμος την εντύπωση ότι σας φάνηκε χρήσιμος», τονίζει ο Παπαγιαννόπουλος.

Πρώτο κυβερνητικό «στοπ»

Ο Νταν Χέντρικς, διευθυντής του Κέντρου για την Ασφάλεια της Τεχνητής Νοημοσύνης με έδρα την Καλιφόρνια, ο οποίος αναφέρεται επίσης στην επιστολή, έμεινε στο περιεχόμενό της, λέγοντας στο Reuters ότι είναι λογικό να εξετάσουμε τα περί «Θεωρίας του Μαύρου Κύκνου» (σ.σ. ένα ολιγοπίθανο και απρόβλεπτο γεγονός που λαμβάνει χώρα σε μια οποιαδήποτε σειρά πιθανών και συνηθισμένων γεγονότων σε κάθε δραστηριότητα μιας κοινωνίας, και ανατρέπει δραματικά προς το χειρότερο ή το καλύτερο τη δομή της).

Η ανοιχτή επιστολή προειδοποιούσε επίσης ότι τα εργαλεία παραγωγής Τεχνητής Νοημοσύνης θα μπορούσαν να χρησιμοποιηθούν για να πλημμυρίσουν το Διαδίκτυο με «προπαγάνδα και ψεύδη».

Χθες, η OpenAI έθεσε το ChatGPT εκτός διαδικτυακής σύνδεσης στην Ιταλία, αφού η κυβερνητική Αρχή Προστασίας Δεδομένων την Παρασκευή απαγόρευσε προσωρινά αυτό το διαλογικό ρομπότ (chatbot), με την Αρχή να ξεκινά έρευνα με την υποψία παραβίασης κανόνων απορρήτου από την εφαρμογή Τεχνητής Νοημοσύνης.

Η ιταλική κυβερνητική αρχή, γνωστή και ως Garante, κατηγόρησε το OpenAI ότι δεν ελέγχει την ηλικία των χρηστών του ChatGPT που υποτίθεται ότι πρέπει να είναι 13 ετών και άνω.

Στο ChatGPT «απουσιάζει οποιασδήποτε νομική βάση που να δικαιολογεί τη μαζική συλλογή και αποθήκευση προσωπικών δεδομένων» για να «εκπαιδεύσει» το chatbot, τόνισε η Garante. Η OpenAI έχει διορία 20 ημερών για να απαντήσει με διορθωτικά μέτρα και κινδυνεύει με πρόστιμο έως και 20 εκατομμυρίων ευρώ ή το 4% του ετήσιου παγκόσμιου τζίρου της.

Η OpenAI είπε ότι έχει απενεργοποιήσει το ChatGPT για χρήστες στην Ιταλία κατόπιν αιτήματος της Garante.

«Εργαζόμαστε ενεργά για τη μείωση των προσωπικών δεδομένων κατά την εκπαίδευση των συστημάτων μας Τεχνητής Νοημοσύνης, όπως το ChatGPT, επειδή θέλουμε η Τεχνητή Νοημοσύνη να μαθαίνει για τον κόσμο, όχι για άτομα», πρόσθεσε η OpenAI.

Η Ιταλία, η οποία έχει περιορίσει προσωρινά τη χρήση προσωπικών δεδομένων εγχώριων χρηστών από το ChatGPT, έγινε η πρώτη δυτική χώρα που ανέλαβε δράση κατά ενός chatbot που δουλεύει με Τεχνητή Νοημοσύνη.

Το chatbot δεν είναι επίσης διαθέσιμο στην ηπειρωτική Κίνα, το Χονγκ Κονγκ, το Ιράν και τη Ρωσία και σε μέρη της Αφρικής όπου οι κάτοικοι δεν μπορούν να δημιουργήσουν λογαριασμούς OpenAI.

Από την κυκλοφορία του πέρυσι, το ChatGPT έχει πυροδοτήσει μια τεχνολογική τρέλα, ωθώντας τους ανταγωνιστές να λανσάρουν παρόμοια προϊόντα και εταιρείες να το ενσωματώσουν ή παρόμοιες τεχνολογίες στις εφαρμογές και τα προϊόντα τους.

Η ταχεία ανάπτυξη της τεχνολογίας έχει προσελκύσει την προσοχή εκλεγμένων αξιωματούχων σε πολλές χώρες. Πολλοί ειδικοί λένε ότι χρειάζονται νέοι κανονισμοί για να διέπουν την Τεχνητή Νοημοσύνη λόγω των πιθανών επιπτώσεων στην εθνική ασφάλεια, τις θέσεις εργασίας και την εκπαίδευση.

«Αναμένουμε από όλες τις εταιρείες που δραστηριοποιούνται στην ΕΕ να σέβονται τους κανόνες προστασίας δεδομένων της ΕΕ. Η επιβολή του Γενικού Κανονισμού για την Προστασία Δεδομένων είναι ευθύνη των αρχών προστασίας δεδομένων της ΕΕ», δήλωσε εκπρόσωπος της Ευρωπαϊκής Επιτροπής.

Η Επιτροπή, η οποία συζητά κοινοτική νομοθεσία για την Τεχνητή Νοημοσύνη, ενδέχεται να μην κινηθεί προς την απαγόρευση εργαλείων τέτοιων Τεχνητής Νοημοσύνης, ανέφερε στο Twitter η εκτελεστική αντιπρόεδρος της Ευρωπαϊκής Επιτροπής, Μαργκρέτε Βεστάγκερ.

«Ανεξάρτητα από τα είδη τεχνολογίας που χρησιμοποιούμε, πρέπει να συνεχίσουμε να προάγουμε τις ελευθερίες μας και να προστατεύουμε τα δικαιώματά μας. Γι' αυτό δεν ρυθμίζουμε τις τεχνολογίες Τεχνητής Νοημοσύνης, ρυθμίζουμε τις χρήσεις της Τεχνητής Νοημοσύνης», δήλωσε. «Ας μην πετάξουμε σε λίγα χρόνια αυτό που χρειάστηκαν δεκαετίες για να χτιστεί».

Διαβαστε επισης