TECHin

Θέλετε τη σωστή baby-sitter; Θα σας βρει η τεχνητή νοημοσύνη


Είστε γονείς, είναι Σάββατο βράδυ και για μία ακόμη φορά κάθεστε στο σπίτι, γιατί... δεν έχετε τον κατάλληλο άνθρωπο για να φροντίσει τα παιδιά κατά την ολιγόωρη απουσία σας. Αν αυτό σας συμβαίνει όντως, ίσως υπάρχει λύση. Ένα νέο σύστημα τεχνητής νοημοσύνης βοηθά τους γονείς να βρουν baby-sitter με τις κατάλληλες προδιαγραφές, χωρίς να χρειάζεται να κάνουν οι ίδιοι την αναζήτηση προσώπων.

Το «έξυπνο» λογισμικό συγκεντρώνει και αξιολογεί τις χιλιάδες αναρτήσεις που εδώ και χρόνια έχουν κάνει οι υποψήφιες στα κοινωνικά δίκτυα (Facebook, Instagram, Twitter κ.α.), τις οποίες αναλύει σε βάθος χρόνου ούτως ώστε να δημιουργήσει ένα «προφίλ» και να εντοπίσει και να απορρίψει υποψήφιες με ύποπτο παρελθόν όπως χρήση ναρκωτικών, εκφοβισμό και μπλεξίματα με την αστυνομία, αλλά επίσης με κακή ψυχική διάθεση, έλλειψη ευγένειας και εν γένει 'αρνητικό' πνεύμα.

Η online υπηρεσία Predictim αξιολογεί ψυχομετρικά την προσωπικότητα κάθε υποψήφιας baby-sitter και μετά προσφέρει στους γονείς-πελάτες αυτόματα μια «βαθμολογία» για τις υποψήφιες που ταιριάζουν περισσότερο στις προϋποθέσεις που έχουν θέσει για τη νταντά του παιδιού τους.

Μπορεί π.χ. να γνωμοδοτήσει ότι η τάδε baby-sitter έχει μεν πολύ χαμηλό κίνδυνο να κάνει κρυφή χρήση ναρκωτικών την ώρα που το παιδάκι κοιμάται, αλλά έχει μεσαίο κίνδυνο να το κακοποιεί με τη συμπεριφορά της.

Το σύστημα δεν εξηγεί -όπως συμβαίνει συχνά με την τεχνητή νοημοσύνη- πώς και γιατί παίρνει τις αποφάσεις του, οπότε οι γονείς καλούνται να το εμπιστευθούν περισσότερο από ό,τι συμβαίνει συνήθως, δηλαδή τις συστάσεις των γνωστών τους και πρώην "εργοδοτών" για μία baby-sitter ή τη δική τους διαίσθηση από την προσωπική συνέντευξη μαζί της.

Το Predictim ανήκει στην ευρύτερη και ολοένα πιο ευρέως χρησιμοποιούμενη κατηγορία «έξυπνης» επεμβατικής τεχνολογίας, που βοηθά τις εταιρείες και τους οργανισμούς να αξιολογούν υποψηφίους προς πρόσληψη, αναλύοντας -πέρα από το βιογραφικό του- τη φωνή του υποψηφίου, τις εκφράσεις του προσώπου του και το online ιστορικό του, έτσι ώστε να έλθουν στο φως τυχόν σκοτεινές πτυχές προσωπικότητας και της ιδιωτικής ζωής του.

Οι υποστηρικτές αυτών των συστημάτων προβάλλουν τη μεγαλύτερη αντικειμενικότητα και διαφάνεια που διασφαλίζουν, αλλά οι επικριτές τους θεωρούν ότι παίρνουν αυτοματοποιημένες αποφάσεις που αλλάζουν τις ζωές των ανθρώπων, χωρίς να μπορεί κανείς να ελέγξει την αξιοπιστία τους και κατά πόσο μεροληπτούν ή σφάλλουν. Εν ολίγοις, τονίζουν ότι η τεχνητή νοημοσύνη προωθεί ένα σύγχρονο «πίστευε και μη ερεύνα…».

Αυτό οφείλεται στο ότι οι αλγόριθμοι του Predictim και των συναφών συστημάτων αποτελούν ένα «μαύρο κουτί», όσον αφορά τη λειτουργία τους, ακόμη και για τους ίδιους τους δημιουργούς αυτών των αλγόριθμων, οι οποίοι αδυνατούν να πουν γιατί το σύστημα πήρε αυτή την απόφαση και όχι την άλλη.

«Υπάρχει αυτή η τρελή βιασύνη να εκμεταλλευθούμε την τεχνητή νοημοσύνη για να πάρουμε όλων των ειδών τις αποφάσεις, χωρίς όμως να διασφαλίζουμε ότι αυτή δίνει λογαριασμό στα ανθρώπινα όντα», δήλωσε στην «Ουάσιγκτον Ποστ» ο Τζεφ Τσέστερ, διευθυντής του Κέντρου για την Ψηφιακή Δημοκρατία στις ΗΠΑ.

Ο Σαλ Πάρσα, συνιδρυτής και διευθύνων σύμβουλος της Predictim, η οποία ιδρύθηκε τον προηγούμενο μήνα από το Πανεπιστήμιο της Καλιφόρνια-Μπέρκλεϊ, στο πλαίσιο της θερμοκοιτίδας νέων τεχνολογικών επιχειρήσεων SkyDeck, αντιτείνει ότι το σύστημα λαμβάνει ηθικές αποφάσεις και επιμένει ότι ο κίνδυνος πρόσληψης μιας βίαιης ή προβληματικής baby-sitter μειώνεται σοβαρά χάρη στην τεχνητή νοημοσύνη, που έρχεται ως αρωγός στους γονείς.

Όπως λέει, «αν κάνετε μια απλή αναζήτηση στη Google για baby-sitter που έχουν κακοποιήσει παιδιά, θα βρείτε αμέσως εκατοντάδες περιπτώσεις. Υπάρχουν εκεί έξω τόσοι άνθρωποι που είτε έχουν ψυχικά προβλήματα, είτε απλώς έχουν γεννηθεί κακοί. Ο στόχος μας είναι να κάνουμε οτιδήποτε για να τους σταματήσουμε».

Η χρέωση του σύστημα της Predictim για την αναζήτηση baby-sitter κοστίζει στους γονείς από 25 δολάρια. Η υποψήφια baby-sitter πρέπει να δώσει το όνομά της, το e-mail της και να συγκατατεθεί εγγράφως ότι επιτρέπει ευρεία πρόσβαση στους λογαριασμούς της στα μέσα κοινωνικής δικτύωσης. Μπορεί ασφαλώς να αρνηθεί, αλλά τότε οι γονείς θα ενημερωθούν για την άρνησή της.

Το σύστημα χρησιμοποιεί αλγόριθμους επεξεργασίας κειμένου, ομιλίας και εικόνας για να «σαρώσει» τους λογαριασμούς των υποψηφίων. Το τελικό αποτέλεσμα με τη βαθμολογία παραδίδεται εμπιστευτικά μόνο στους γονείς-πελάτες, που δεν είναι υποχρεωμένοι να μοιρασθούν με τη baby-sitter την αξιολόγηση. Η απόφαση για την πρόσληψη είναι σε τελευταία ανάλυση δική τους και, αν θέλουν, μπορούν να παραβλέψουν την κρίση του Predictim (αλλά από τη στιγμή που πλήρωσαν, μάλλον δύσκολα θα συμβεί αυτό…).

Η διαφημιστική καμπάνια της Predictim εστιάζει στο ότι μπορεί να φέρει στο φως τα μυστικά μιας baby-sitter και έτσι «να αποτρέψει τον εφιάλτη κάθε γονιού», όπως λέει. Αλλά οι επικριτές ανησυχούν ότι εκμεταλλεύεται τις εύλογες φοβίες των γονιών, για να πουλήσει μια υπηρεσία αμφίβολης αξιοπιστίας.

Η Τζέιμι Ουίλιαμς της οργάνωσης υπέρ των ατομικών ελευθεριών Electronics Frontier Foundation επισημαίνει ότι ακόμη και γίγαντες όπως το Facebook δυσκολεύονται να δημιουργήσουν αλγόριθμους που να μπορούν να ξεχωρίσουν κάθε φορά μια φράση μίσους από ένα άκακο σχόλιο. Συνεπώς, κάλλιστα μπορεί το Predictim να παρεξηγεί το περιεχόμενο των αναρτήσεων μιας baby-sitter (ιδίως αν αυτή είναι πολύ νέα και συχνά κάνει σαρκαστικά αστεία όπως οι συνομήλικοί της) και έτσι να τη «χαντακώνει» χωρίς λόγο.

Διαβάστε επίσης