TECHin

Apple και Google πάλι στο στόχαστρο για φιλοξενία apps γυμνών deepfake


Η Apple και η Google βρίσκονται ξανά στο στόχαστρο για τον τρόπο με τον οποίο ελέγχουν τα ψηφιακά τους οικοσυστήματα, καθώς νέα έκθεση καταγγέλλει, ότι στα επίσημα καταστήματα εφαρμογών τους εξακολουθούν να διατίθενται εφαρμογές τεχνητής νοημοσύνης που δημιουργούν μη συναινετικές γυμνές εικόνες ανθρώπων.

Σύμφωνα με την έκθεση του Tech Transparency Project, χρήστες που αναζητούν όρους όπως «nudify» ή «undress» (ξεγύμνωσε ή γδύσε) στα App Store και Google Play μπορούν να βρουν λογισμικό που μετατρέπει φωτογραφίες διασήμων ή ιδιωτών ώστε να εμφανίζονται γυμνοί ή ημίγυμνοι, χωρίς φυσικά τη συγκατάθεσή τους.

Η υπόθεση αναδεικνύει ένα από τα πιο σκοτεινά πεδία χρήσης της γενετικής τεχνητής νοημοσύνης: την ψηφιακή κακοποίηση μέσω deepfake εικόνων και τη δυσκολία των μεγάλων τεχνολογικών πλατφορμών να επιβάλουν τους ίδιους τους κανόνες τους.

Εκατοντάδες εκατομμύρια λήψεις

Η έρευνα υποστηρίζει ότι οι εφαρμογές που εντοπίστηκαν έχουν καταγράψει συνολικά 483 εκατομμύρια λήψεις και εκτιμάται ότι έχουν αποφέρει έσοδα 122 εκατ. δολαρίων. Τα στοιχεία βασίζονται σε δεδομένα της εταιρείας ερευνών αγοράς AppMagic, εκπρόσωπος της οποίας ανέφερε ότι προηγούμενες παρεμβάσεις της ίδιας οργάνωσης είχαν ήδη οδηγήσει στην αφαίρεση ορισμένων εφαρμογών και στην αλλαγή πολιτικών χρήσης άλλων.

Παρά τις προηγούμενες αφαιρέσεις, οι ερευνητές σημειώνουν ότι μέσα σε λίγους μήνες εμφανίστηκαν δεκάδες νέες ή παρόμοιες εφαρμογές, γεγονός που υποδηλώνει ότι το πρόβλημα ανακυκλώνεται διαρκώς.

Το Tech Transparency Project εντόπισε 18 εφαρμογές με δυνατότητες «nudify» στο App Store της Apple και 20 στο Google Play της Google.

Επιπλέον, καταγγέλλει ότι οι ίδιες οι μηχανές αναζήτησης των δύο καταστημάτων βοηθούσαν τους χρήστες να βρουν παρόμοιες εφαρμογές, μέσω αυτόματων προτάσεων καθώς πληκτρολογούσαν.

Ορισμένες εφαρμογές χρησιμοποιούσαν ονόματα και εικαστικά στοιχεία με ξεκάθαρο σεξουαλικό περιεχόμενο. Άλλες εμφανίζονταν ως ουδέτερα εργαλεία επεξεργασίας εικόνας, ενώ στην πράξη μπορούσαν εύκολα να χρησιμοποιηθούν για την παραγωγή προσβλητικού ή εκμεταλλευτικού υλικού.

Πολλές προσέφεραν και συνδρομητικά πακέτα, μετατρέποντας την πρακτική αυτή σε κερδοφόρο μοντέλο.

Οι πολιτικές των εταιρειών

Η Apple απαγορεύει επίσημα στο App Store «υπερβολικά σεξουαλικό ή πορνογραφικό υλικό». Η Google απαγορεύει εφαρμογές που «υποτιμούν ή αντικειμενοποιούν ανθρώπους», όπως εφαρμογές που ισχυρίζονται ότι γδύνουν πρόσωπα ή βλέπουν μέσα από ρούχα, ακόμη και όταν παρουσιάζονται ως φάρσα ή ψυχαγωγία.

Ωστόσο, η ύπαρξη τόσων εφαρμογών στις πλατφόρμες τους δημιουργεί σοβαρά ερωτήματα για την αποτελεσματικότητα των ελέγχων.

Η Google δήλωσε ότι πολλές από τις εφαρμογές που αναφέρονται στην έκθεση έχουν ήδη τεθεί εκτός Google Play λόγω παραβίασης κανόνων και ότι βρίσκεται σε εξέλιξη σχετική έρευνα. Όπως ανέφερε εκπρόσωπος της εταιρείας, όταν καταγγέλλονται παραβιάσεις πολιτικών, η εταιρεία διερευνά τις περιπτώσεις και λαμβάνει τα κατάλληλα μέτρα.

Η Apple ανακοίνωσε ότι αφαίρεσε 15 εφαρμογές που εντοπίστηκαν από την έρευνα μετά από σχετική επικοινωνία δημοσιογράφων. Μεταξύ αυτών περιλαμβανόταν εφαρμογή δημιουργίας βίντεο AI που χρησιμοποιούσε προκλητικά πρότυπα εικόνων γυναικών.

Η εταιρεία πρόσθεσε ότι μπλόκαρε πολλούς από τους όρους αναζήτησης που καταγράφονταν στην έκθεση, ενώ ειδοποίησε προγραμματιστές έξι ακόμη εφαρμογών πως κινδυνεύουν με απομάκρυνση, εάν δεν προχωρήσουν σε διορθώσεις.

Παράλληλα, τόνισε ότι αρκετές εφαρμογές που αναφέρονταν στην έκθεση δεν παραβίαζαν, κατά την εκτίμησή της, τις οδηγίες της πλατφόρμας.

Το πρόβλημα της «γκρίζας ζώνης»

Ειδικοί σημειώνουν ότι ο έλεγχος τέτοιων εφαρμογών δεν είναι απλός, καθώς πολλές παρουσιάζονται ως γεννήτριες εικόνας γενικής χρήσης.

Η καθηγήτρια Άνε Χέλμοντ από το Πανεπιστήμιο της Ουτρέχτης ανέφερε ότι μια εφαρμογή μπορεί εύκολα να περάσει τον έλεγχο αν αυτοπαρουσιάζεται ως ουδέτερο εργαλείο, ακόμη κι αν στην πράξη χρησιμοποιείται καταχρηστικά.

Παράλληλα, οι αλγόριθμοι κατάταξης και προβολής εφαρμογών τείνουν να ενισχύουν ό,τι προκαλεί ενδιαφέρον και αλληλεπίδραση, κάτι που μπορεί να αυξάνει την ορατότητα αμφιλεγόμενων εφαρμογών.

Η έρευνα εντόπισε στο Google Play εφαρμογή ανταλλαγής προσώπων που διαφημιζόταν ως εργαλείο ψυχαγωγίας. Ωστόσο, στο εσωτερικό της υπήρχε κατηγορία όπου οι χρήστες μπορούσαν να τοποθετούν πρόσωπα σε βίντεο γυναικών με σεξουαλικοποιημένες κινήσεις. Η εφαρμογή ήταν χαρακτηρισμένη ως κατάλληλη «για όλους» και είχε ξεπεράσει το 1 εκατομμύριο λήψεις.

Η εταιρεία που την ανέπτυξε δήλωσε ότι ξεκίνησε έρευνα και αφαίρεσε μέρος του περιεχομένου, τονίζοντας ότι δεν προσφέρει λειτουργίες «nudify», ούτε επιτρέπει γυμνό ή ρητά σεξουαλικό υλικό.

Ρυθμιστική πίεση σε ΗΠΑ και Ευρώπη

Οι κυβερνήσεις αρχίζουν να αντιμετωπίζουν πιο επιθετικά το φαινόμενο. Πέρυσι ο πρόεδρος των ΗΠΑ, Ντόναλντ Τραμπ υπέγραψε τον νόμο Take It Down Act, που ποινικοποιεί τη δημοσίευση μη συναινετικού σεξουαλικού περιεχομένου και υποχρεώνει ιστοσελίδες και πλατφόρμες να το αφαιρούν.

Στο Ηνωμένο Βασίλειο, η κυβέρνηση σχεδιάζει νέα νομοθεσία που θα μπορούσε να ανοίξει τον δρόμο ακόμη και για ποινικές ευθύνες στελεχών τεχνολογικών εταιρειών, εάν δεν κατεβάζουν τέτοιες εικόνες.

Η τεχνητή νοημοσύνη δεν διευκολύνει μόνο την παραγωγικότητα ή την καινοτομία, αλλά και ορισμένους ανθρώπους που τη χρησιμοποιούν ως εργαλείο ταπείνωσης, εκβιασμού και παραβίασης προσωπικότητας.

Μπορούν οι ισχυρότερες ψηφιακές πύλες του κόσμου να προστατεύσουν τους χρήστες ή θα συνεχίσουν να αντιδρούν μόνο όταν ξεσπά δημόσια κατακραυγή;

Διαβαστε επισης