Περιεχόμενα Άρθρου
- Η τεχνητή νοημοσύνη μπορεί να χειραγωγηθεί από διαφορές στο κανάλι άλφα των εικόνων, προειδοποιούν οι ειδικοί
- Αυτό μπορεί να εγκυμονεί κινδύνους για ιατρικές διαγνώσεις και την αυτόνομη οδήγηση
- Η αναγνώριση εικόνας πρέπει να προσαρμοστεί για την πιθανότητα αυτής της επίθεσης
Ενώ η τεχνητή νοημοσύνη έχει την ικανότητα να αναλύει εικόνες, νέα έρευνα αποκάλυψε μια σημαντική παράβλεψη στις σύγχρονες πλατφόρμες αναγνώρισης εικόνων.
Ερευνητές στο Πανεπιστήμιο του Τέξας στο Σαν Αντόνιο (UTSA), ισχυρίστηκαν ότι το κανάλι άλφα, το οποίο ελέγχει τη διαφάνεια της εικόνας, αγνοείται συχνά, γεγονός που θα μπορούσε να ανοίξει την πόρτα σε κυβερνοεπιθέσεις με δυνητικά επικίνδυνες συνέπειες για τις βιομηχανίες μεσαίας και αυτόνομης οδήγησης.
Η ερευνητική ομάδα της UTSA, με επικεφαλής τον επίκουρο καθηγητή Guenevere Chen, έχει αναπτύξει μια ιδιόκτητη μέθοδο επίθεσης με το όνομα “AlphaDog” για να εκμεταλλευτεί αυτήν την παραμελημένη ευπάθεια στα συστήματα AI. Το κανάλι άλφα, μέρος των δεδομένων εικόνας RGBA (κόκκινο, πράσινο, μπλε, άλφα), ελέγχει τη διαφάνεια των εικόνων και διαδραματίζει κρίσιμο ρόλο στην απόδοση σύνθετων εικόνων και μπορεί να προκαλέσει αποσύνδεση μεταξύ του τρόπου με τον οποίο οι άνθρωποι και τα συστήματα τεχνητής νοημοσύνης αντιλαμβάνονται την ίδια εικόνα .
Ευπάθεια για αυτοκίνητα, ιατρική απεικόνιση και αναγνώριση προσώπου
Η επίθεση AlphaDog έχει σχεδιαστεί για να στοχεύει τόσο συστήματα ανθρώπων όσο και AI, αν και με διαφορετικούς τρόπους. Για τους ανθρώπους, οι παραποιημένες εικόνες μπορεί να φαίνονται σχετικά φυσιολογικές. Ωστόσο, όταν υποβάλλονται σε επεξεργασία από συστήματα τεχνητής νοημοσύνης, αυτές οι εικόνες ερμηνεύονται διαφορετικά, οδηγώντας σε εσφαλμένα συμπεράσματα ή αποφάσεις.
Οι ερευνητές δημιούργησαν 6.500 εικόνες και τις δοκίμασαν σε 100 μοντέλα τεχνητής νοημοσύνης, συμπεριλαμβανομένων 80 συστημάτων ανοιχτού κώδικα και 20 πλατφορμών τεχνητής νοημοσύνης που βασίζονται σε σύννεφο, όπως το ChatGPT. Οι δοκιμές τους αποκάλυψαν ότι το AlphaDog αποδίδει ιδιαίτερα καλά όταν στοχεύει περιοχές σε κλίμακα του γκρι των εικόνων.
Ένα από τα πιο ανησυχητικά ευρήματα της μελέτης είναι η ευπάθεια των συστημάτων τεχνητής νοημοσύνης που χρησιμοποιούνται σε αυτόνομα οχήματα. Τα οδικά σήματα, που συχνά περιέχουν στοιχεία κλίμακας του γκρι, μπορούν εύκολα να χειριστούν χρησιμοποιώντας την τεχνική AlphaDog, παρερμηνεύοντας τα οδικά σήματα, οδηγώντας δυνητικά σε επικίνδυνα αποτελέσματα.
Η έρευνα υπογραμμίζει επίσης ένα κρίσιμο ζήτημα στην ιατρική απεικόνιση, έναν τομέα που εξαρτάται όλο και περισσότερο από την τεχνητή νοημοσύνη για διαγνωστικά. Οι ακτίνες Χ, οι μαγνητικές τομογραφίες και οι αξονικές τομογραφίες, οι οποίες συχνά περιέχουν εικόνες σε κλίμακα του γκρι, μπορούν να χειριστούν χρησιμοποιώντας το AlphaDog. Σε λάθος χέρια, αυτή η ευπάθεια θα μπορούσε να οδηγήσει σε λανθασμένες διαγνώσεις.
Ένας άλλος τομέας ανησυχίας είναι η πιθανή χειραγώγηση των συστημάτων αναγνώρισης προσώπου, αυξάνοντας την πιθανότητα παράκαμψης συστημάτων ασφαλείας ή εσφαλμένης αναγνώρισης ατόμων, ανοίγοντας την πόρτα τόσο σε ανησυχίες για την ιδιωτικότητα όσο και σε κινδύνους ασφάλειας.
Οι ερευνητές συνεργάζονται με μεγάλες εταιρείες τεχνολογίας, συμπεριλαμβανομένων των Google, Amazon και Microsoft, για να αντιμετωπίσουν την ευπάθεια στις πλατφόρμες τεχνητής νοημοσύνης. “Η τεχνητή νοημοσύνη δημιουργήθηκε από ανθρώπους και οι άνθρωποι που έγραψαν τον κώδικα εστίασαν στο RGB αλλά άφησαν έξω το κανάλι άλφα. Με άλλα λόγια, έγραψαν κώδικα για μοντέλα τεχνητής νοημοσύνης ώστε να διαβάζουν αρχεία εικόνας χωρίς το κανάλι άλφα”, είπε ο Τσεν.
“Αυτή είναι η ευπάθεια. Ο αποκλεισμός του καναλιού άλφα σε αυτές τις πλατφόρμες οδηγεί σε δηλητηρίαση δεδομένων… Η τεχνητή νοημοσύνη είναι σημαντική. Αλλάζει τον κόσμο μας και έχουμε τόσες πολλές ανησυχίες”, πρόσθεσε ο Τσεν.
Μέσω TechXplor
Περισσότερα από το TechRadar Pro