www.telecomnews.gr

A+ A A-

Ερευνητές «ξεγελούν» την τεχνολογία AI image recognition της Google

Ερευνητές «ξεγελούν» την τεχνολογία AI image recognition της Google
Από τα οχήματα αυτόνομης οδήγησης μέχρι τις έξυπνες κάμερες παρακολούθησης, η κοινωνία σταδιακά μαθαίνει να εμπιστεύεται την τεχνητή νοημοσύνη σε σχέση με το ανθρώπινο μάτι. Αλλά, αν και τα νέα συστήματα μηχανικής όρασης είναι πραγματικά ακούραστα και πάντα σε επαγρύπνηση, απέχουν αρκετά από το να θεωρηθούν αλάνθαστα. Μοιάζει σαν χελώνα το εικονιζόμενο αντικείμενο στην αρχή του συγκεκριμένου άρθρου. Όχι όμως για το νευρωνικό δίκτυο που έχει εκπαιδευθεί από την Google να αναγνωρίζει καθημερινά αντικείμενα. Για αυτό, η εικόνα παρουσιάζει ένα όπλο.

Η συγκεκριμένη, 3D-printed χελώνα αποτελεί αυτό που ονομάζουμε, «adversarial image». Στον κόσμο της τεχνητής νοημοσύνης, πρόκειται για εικόνες που έχουν δημιουργηθεί για να ξεγελάσουν το λογισμικό μηχανικής όρασης. Φανταστείτε τα σαν οφθαλμαπάτες για υπολογιστές. Μπορείς να δημιουργήσεις γυαλιά (adversarial) τα οποία θα ξεγελάσουν ένα σύστημα αναγνώρισης προσώπου για να νομίσουν ότι πρόκειται για κάποιον άλλον. Η αναζήτηση τρόπων προστασίας απέναντι σε αυτές τις adversarial attacks όπως χαρακτηρίζονται, αποτελεί το αντικείμενο συνεχούς έρευνας. Και παρόλο που αυτές οι επιθέσεις είναι εντυπωσιακά αποτελεσματικές, δεν σημαίνει κάτι. Αν για παράδειγμα, περιστραφεί μια τέτοια εικόνα ή αν κάνεις zoom σε αυτές, ο υπολογιστής θα την αναγνωρίσει σωστά. Γιατί αυτή η συγκεκριμένη χελώνα είναι σημαντική; Γιατί δείχνει, πως οι adversarial attacks λειτουργούν στον 3D κόσμο, ξεγελώντας έναν υπολογιστή.

«Για παράδειγμα, κάποιος θα μπορούσε να κατασκευάσει μια πινακίδα που στους οδηγούς θα φαινόταν εντελώς φυσιολογική, αλλά μπορεί να θεωρηθεί από ένα αυτόνομο όχημα, σαν έναν πεζό που εμφανίστηκε απότομα δίπλα στο πεζοδρόμιο», σχολιάζει η Labsix, η ομάδα των ερευνητών του MIT που δημοσίευσαν την έρευνά τους. Tα παραδείγματα αυτά, αποτελούν μια πρακτική ανησυχία, που οι άνθρωποι θα πρέπει να γνωρίζουν, καθώς τα νευρωνικά δίκτυα γίνονται όλο πιο διαδεδομένα και επικίνδυνα.


Όπως σημειώνει το theverge.com ο ισχυρισμός της ομάδας, ότι η επίθεση λειτουργεί από κάθε γωνία δεν είναι σωστός. Στο βίντεο, φαίνεται ότι λειτουργεί από αρκετές γωνίες, όχι όμως από όλες. Επιπλέον, η ομάδα χρειάστηκε να αποκτήσει πρόσβαση στον αλγόριθμο της Google, προκειμένου να διαπιστώσει αδυναμίες. Οι λεγόμενες adversarial attacks δεν αποτελούν προς το παρόν μεγάλο κίνδυνο για το κοινό. Είναι αποτελεσματικές, αλλά σε περιορισμένες περιπτώσεις. Απλά, αποτυπώνουν με τον καλύτερο τρόπο, πόσο εύθραυστα είναι ορισμένα συστήματα AI. Και αν δεν διορθωθούν τώρα, θα οδηγήσουν σε πολύ μεγαλύτερα προβλήματα στο μέλλον.

[]

Rate this item
(0 votes)
back to top