
Image by Jakub Żerdzicki, from Unsplash
Ερευνητές Παραβιάζουν την Google Gemini AI για τον Έλεγχο Συσκευών Έξυπνου Σπιτιού
Οι ερευνητές κατάφεραν να εξαπατήσουν το σύστημα Gemini AI της Google να υποστεί παραβίαση ασφαλείας μέσω μιας ψεύτικης πρόσκλησης σε ημερολόγιο, και να ελέγξουν από απόσταση τις συσκευές του σπιτιού.
Βιάζεστε; Εδώ είναι τα γρήγορα γεγονότα:
- Η επίθεση έσβησε τα φώτα, άνοιξε τα παντζούρια και ξεκίνησε έναν έξυπνο λέβητα.
- Είναι η πρώτη γνωστή επίθεση AI με πραγματικές σωματικές συνέπειες στον πραγματικό κόσμο.
- Η επίθεση περιλάμβανε 14 έμμεσες επιθέσεις εισαγωγής προτροπής μέσω ιστού και κινητού.
Σε μια πρώτη παγκοσμίως επίδειξη, οι ερευνητές κατάφεραν να υπονομεύσουν το σύστημα AI Gemini της Google μέσω μιας δηλητηριασμένης πρόσκλησης στο ημερολόγιο, που τους επέτρεψε να ενεργοποιήσουν συσκευές στον πραγματικό κόσμο, συμπεριλαμβανομένων των φώτων, των ρολών και των λέβητων.
Το WIRED, που ανέφερε πρώτο αυτή την έρευνα, περιγράφει πώς τα έξυπνα φώτα στην κατοικία του Τελ Αβίβ απενεργοποιήθηκαν αυτόματα, ενώ τα ρολά ανέβηκαν αυτόματα και ο λέβητας ενεργοποιήθηκε, παρά την έλλειψη εντολών από τους κατοίκους.
Το σύστημα Gemini AI ενεργοποίησε την ενέργεια αφού δέχθηκε αίτημα να συνοψίσει γεγονότα από το ημερολόγιο. Μια κρυμμένη δυνατότητα έμμεσης ενεργοποίησης λειτούργησε μέσα στην πρόσκληση για να υπονομεύσει τη συμπεριφορά του συστήματος AI.
Κάθε μία από τις ενέργειες της συσκευής ήταν προσεκτικά οργανωμένη από τους ερευνητές ασφαλείας Ben Nassi από το Πανεπιστήμιο του Τελ Αβίβ, Stav Cohen από το Technion και Or Yair από την SafeBreach. «Οι LLMs πρόκειται να ενσωματωθούν σε φυσικούς ανθρωποειδείς, σε ημι- και πλήρως αυτόνομα αυτοκίνητα, και πραγματικά χρειάζεται να κατανοήσουμε πως να εξασφαλίσουμε τους LLMs πριν τους ενσωματώσουμε με αυτούς τους τύπους μηχανών, όπου σε κάποιες περιπτώσεις τα αποτελέσματα θα είναι η ασφάλεια και όχι η ιδιωτικότητα», προειδοποίησε ο Nassi, όπως αναφέρθηκε από το WIRED.
Στο συνέδριο ασφάλειας κυβερνοχώρου Black Hat στο Λας Βέγκας, η ομάδα αποκάλυψε την έρευνά τους για 14 επιθέσεις εμμέσου εγκαταλείψεως που ονόμασαν ‘Invitation Is All You Need’, όπως ανέφερε το WIRED. Οι επιθέσεις περιελάμβαναν την αποστολή μηνυμάτων spam, τη δημιουργία ακατάλληλου περιεχομένου, την έναρξη κλήσεων Zoom, την κλοπή περιεχομένου email και τη λήψη αρχείων σε κινητές συσκευές.
Η Google λέει ότι δεν υπήρξε καμία κακόβουλη εκμετάλλευση των ελαττωμάτων, αλλά η εταιρεία παίρνει τους κινδύνους σοβαρά. «Μερικές φορές υπάρχουν απλώς ορισμένα πράγματα που δεν πρέπει να είναι πλήρως αυτοματοποιημένα, που οι χρήστες πρέπει να είναι στον κύκλο,» είπε ο Andy Wen, πρώτος διευθυντής ασφαλείας για το Google Workspace, όπως αναφέρεται από το WIRED.
Αλλά αυτό που καθιστά αυτή την περίπτωση ακόμη πιο επικίνδυνη είναι ένα ευρύτερο ζήτημα που προκύπτει στην ασφάλεια της Τεχνητής Νοημοσύνης: Τα μοντέλα Τεχνητής Νοημοσύνης μπορούν να διδάξουν κρυφά το ένα το άλλο να συμπεριφέρονται κακόβουλα.
Μια ξεχωριστή μελέτη βρήκε ότι τα μοντέλα μπορούν να μεταδώσουν επικίνδυνες συμπεριφορές, όπως την ενθάρρυνση της δολοφονίας ή την πρόταση εξάλειψης της ανθρωπότητας, ακόμη και όταν εκπαιδεύονται σε φιλτραρισμένα δεδομένα.
Αυτό προκαλεί μια τρομακτική επιπλοκή: εάν έξυπνοι βοηθοί όπως ο Gemini εκπαιδεύονται χρησιμοποιώντας εξόδους από άλλα AI, οι κακόβουλες οδηγίες θα μπορούσαν να κληρονομηθούν σιωπηλά και να λειτουργούν ως υπνωτικές εντολές, περιμένοντας να ενεργοποιηθούν μέσω έμμεσων προτροπών.
Η ειδικός στην ασφάλεια, David Bau, προειδοποίησε για τις ευπαθείες στις «πίσω πόρτες» που θα μπορούσαν να είναι “πολύ δύσκολο να εντοπιστούν,» και αυτό θα μπορούσε να είναι ιδιαίτερα αληθές σε συστήματα ενσωματωμένα σε φυσικά περιβάλλοντα.
Ο Wen επιβεβαίωσε ότι η έρευνα έχει “επιταχύνει» τις αμυντικές δυνάμεις της Google, με διορθώσεις που έχουν πλέον εφαρμοστεί και μοντέλα μηχανικής μάθησης που εκπαιδεύονται για να εντοπίζουν επικίνδυνες εντολές. Ωστόσο, η υπόθεση δείχνει πόσο γρήγορα μπορεί η τεχνητή νοημοσύνη να περάσει από χρήσιμη σε επιβλαβή, χωρίς ποτέ να της διδάχτεί άμεσα να το κάνει.