Η Google μόλις ανακάλυψε ότι αυτό που φοβόταν ο κόσμος της κυβερνοασφάλειας, ότι η τεχνητή νοημοσύνη δεν θα χρησιμοποιηθεί μόνο για άμυνα απέναντι στους χάκερ, αλλά και ως εργαλείο επίθεσης, ικανό να εντοπίζει αόρατες αδυναμίες σε λογισμικό ταχύτερα και αποτελεσματικότερα από οποιονδήποτε άνθρωπο, έχει ήδη αρχίσει.
Η εταιρεία αποκάλυψε ότι εντόπισε κυβερνοεγκληματική ομάδα η οποία φαίνεται να χρησιμοποίησε μοντέλο τεχνητής νοημοσύνης για να ανακαλύψει και να επιχειρήσει να εκμεταλλευτεί μια άγνωστη μέχρι τότε ευπάθεια λογισμικού — ένα λεγόμενο "zero-day vulnerability", από τα πιο επικίνδυνα είδη ψηφιακών κενών ασφαλείας.
Πρόκειται για ευπάθειες που δεν είναι γνωστές ούτε στους ίδιους τους κατασκευαστές λογισμικού. Στον κόσμο του κυβερνοεγκλήματος θεωρούνταν για χρόνια τόσο πολύτιμες, ώστε μπορούσαν να πωληθούν για εκατομμύρια δολάρια σε παράνομες αγορές ψηφιακών εργαλείων κατασκοπείας και επιθέσεων.
Η υπόθεση αποκτά ιδιαίτερη βαρύτητα επειδή, σύμφωνα με την ερευνητική ομάδα Google Threat Intelligence Group, είναι η πρώτη γνωστή περίπτωση όπου η τεχνητή νοημοσύνη φαίνεται να χρησιμοποιήθηκε άμεσα για την ανακάλυψη και «οπλοποίηση» μιας τέτοιας ευπάθειας με κακόβουλο σκοπό.
Η Google δεν αποκάλυψε ποια ομάδα βρισκόταν πίσω από την απόπειρα, ούτε ποιο σύστημα αποτελούσε στόχο. Ανέφερε όμως ότι οι χάκερ επιχείρησαν να εκμεταλλευτούν το κενό μέσω script στη γλώσσα προγραμματισμού Python, με στόχο να παρακάμψουν τη διαδικασία ελέγχου ταυτότητας δύο παραγόντων σε δημοφιλές open-source εργαλείο διαχείρισης συστημάτων μέσω web.
Η Google υποστηρίζει ότι ενημέρωσε εγκαίρως τον κατασκευαστή του λογισμικού ώστε να δημιουργηθεί διορθωτικό patch πριν προκληθεί ζημιά.
Το στοιχείο που προκαλεί ιδιαίτερη ανησυχία δεν είναι μόνο η ίδια η επίθεση, αλλά το πώς εντοπίστηκε η συμμετοχή της τεχνητής νοημοσύνης. Σύμφωνα με τους ερευνητές, ο κώδικας περιείχε ασυνήθιστα εκτενείς επεξηγήσεις και μορφοποιήσεις που δεν θα είχε λόγο να χρησιμοποιήσει ένας έμπειρος ανθρώπινος προγραμματιστής, κάτι που θύμιζε περισσότερο τον τρόπο με τον οποίο «γράφουν» τα generative AI μοντέλα.
Ο πρώην διευθυντής κυβερνοασφάλειας της Εθνικής Υπηρεσίας Ασφαλείας των ΗΠΑ (NSA), Ρομπ Τζόις, που εξέτασε τα ευρήματα πριν δημοσιοποιηθούν, χαρακτήρισε τα στοιχεία «το πιο κοντινό πράγμα σε δακτυλικό αποτύπωμα σε τόπο εγκλήματος» σε σχέση με AI-generated hacking code.
Η αποκάλυψη έρχεται σε μια περίοδο όπου κυβερνήσεις και τεχνολογικές εταιρείες επανεξετάζουν επειγόντως πόσο επικίνδυνα έχουν γίνει τα πιο προηγμένα μοντέλα τεχνητής νοημοσύνης.
Μόλις τον προηγούμενο μήνα, η Anthropic ανακοίνωσε το νέο της μοντέλο "Mythos", υποστηρίζοντας ότι μπορούσε να εντοπίσει χιλιάδες zero-day ευπάθειες σε μεγάλα λειτουργικά συστήματα και browsers, ακόμη και σε κώδικα δεκαετιών. Η εταιρεία μάλιστα περιόρισε δραστικά τη διάθεση του μοντέλου, επιτρέποντας πρόσβαση μόνο σε επιλεγμένες επιχειρήσεις και κρατικούς οργανισμούς στις ΗΠΑ και τη Βρετανία.
Η ίδια εταιρεία είχε επίσης αποκαλύψει στα τέλη του περασμένου έτους ότι κρατικά υποστηριζόμενοι Κινέζοι χάκερ χρησιμοποίησαν τεχνολογία AI για προσπάθειες διείσδυσης σε περίπου 30 εταιρείες και δημόσιους οργανισμούς διεθνώς.
Πίσω από όλα αυτά διαμορφώνεται μια νέα πραγματικότητα για την κυβερνοασφάλεια: η τεχνητή νοημοσύνη μπορεί να λειτουργήσει ταυτόχρονα ως η ισχυρότερη άμυνα, αλλά και ως το πιο εξελιγμένο επιθετικό εργαλείο που έχει υπάρξει ποτέ.
Ο επικεφαλής αναλυτής της Google Threat Intelligence Group, Τζον Χάλκιστ, περιέγραψε το περιστατικό ως «κορυφή του παγόβουνου», προειδοποιώντας ότι πιθανότατα υπάρχουν ήδη περισσότερες αντίστοιχες περιπτώσεις που δεν έχουν ακόμη εντοπιστεί.
Την ίδια στιγμή, η κυβέρνηση του Ντόναλντ Τραμπ εξετάζει νέα μοντέλα εποπτείας για τα πιο ισχυρά συστήματα AI, ακόμη και πιθανές διαδικασίες κρατικού ελέγχου πριν από τη δημόσια κυκλοφορία τους.
Η ειρωνεία είναι, ότι πολλοί ειδικοί πιστεύουν πως μακροπρόθεσμα η τεχνητή νοημοσύνη θα οδηγήσει τελικά στη δημιουργία σχεδόν «άτρωτου» λογισμικού, με πολύ ασφαλέστερο κώδικα από εκείνον που γράφουν σήμερα οι άνθρωποι.
Μέχρι τότε όμως, ο ψηφιακός κόσμος θα χρειαστεί να περάσει μέσα από μια επικίνδυνη μεταβατική περίοδο: αυτή κατά την οποία η τεχνητή νοημοσύνη μαθαίνει να εντοπίζει τα λάθη ενός διαδικτύου που χτίστηκε επί δεκαετίες από ατελή ανθρώπινα χέρια.