Η νέα τάση των AI καρικατουρών που δημιουργούνται από chatbots, όπως το ChatGPT, ανησυχεί τους ειδικούς κυβερνοασφάλειας, καθώς μπορεί να εγκυμονεί σοβαρούς κινδύνους για τα προσωπικά δεδομένα των χρηστών.
Οι χρήστες συχνά ανεβάζουν μια φωτογραφία τους, συνοδευόμενη από το λογότυπο της εταιρείας τους ή λεπτομέρειες για το επάγγελμά τους, ζητώντας από το ChatGPT να φτιάξει μια καρικατούρα που να τους απεικονίζει στον επαγγελματικό τους ρόλο βάσει όσων γνωρίζει το chatbot για εκείνους.
Ειδικοί δήλωσαν στο Euronews Next ότι τέτοιες προκλήσεις στα μέσα κοινωνικής δικτύωσης μπορούν να προσφέρουν στους απατεώνες έναν πραγματικό θησαυρό πληροφοριών. Μια μόνο εικόνα, συνδυασμένη με προσωπικά στοιχεία, αποκαλύπτει πολύ περισσότερα απ’ όσο αντιλαμβάνονται οι χρήστες.
«Κάνετε τη δουλειά των απατεώνων πιο εύκολη, δίνοντάς τους μια οπτική αναπαράσταση του εαυτού σας», προειδοποιεί ο Bob Long, αντιπρόεδρος της εταιρείας πιστοποίησης ηλικίας Daon.
Σύμφωνα με τον ίδιο, ακόμα και η διατύπωση της πρόκλησης θα έπρεπε να προκαλεί ανησυχία, καθώς «μοιάζει με κάτι που ξεκίνησε σκόπιμα κάποιος απατεώνας για να διευκολύνει τη δουλειά του».
Τι συμβαίνει με τις εικόνες που ανεβάζετε;
Όταν κάποιος ανεβάζει μια φωτογραφία σε ένα chatbot τεχνητής νοημοσύνης, το σύστημα αναλύει την εικόνα για να εξάγει δεδομένα, όπως συναισθήματα, περιβάλλον ή στοιχεία που ίσως αποκαλύπτουν την τοποθεσία, εξηγεί ο σύμβουλος κυβερνοασφάλειας Jake Moore. Αυτές οι πληροφορίες μπορεί να αποθηκευτούν για άγνωστο χρονικό διάστημα.
Ο Long σημειώνει ότι οι εικόνες που συλλέγονται από τους χρήστες μπορούν να χρησιμοποιηθούν και να διατηρηθούν ως μέρος των συνόλων δεδομένων για την εκπαίδευση γεννητριών εικόνων τεχνητής νοημοσύνης. Μια παραβίαση δεδομένων σε εταιρεία όπως η OpenAI θα μπορούσε να οδηγήσει στη διαρροή ευαίσθητων στοιχείων – όπως οι ανεβασμένες φωτογραφίες και τα προσωπικά δεδομένα που συλλέγει το chatbot – στα χέρια κακόβουλων χρηστών.
Σύμφωνα με τη Charlotte Wilson, επικεφαλής επιχειρήσεων στη Check Point, μια ισραηλινή εταιρεία κυβερνοασφάλειας, μια και μόνο φωτογραφία υψηλής ανάλυσης θα μπορούσε να χρησιμοποιηθεί για τη δημιουργία ψεύτικων λογαριασμών στα social media ή ρεαλιστικών deepfakes τεχνητής νοημοσύνης με σκοπό την εξαπάτηση.
«Οι selfies επιτρέπουν στους εγκληματίες να περάσουν από γενικές απάτες σε εξατομικευμένες πλαστοπροσωπίες με ισχυρή πειστικότητα», τόνισε η Wilson.
Από την πλευρά της η OpenAI αναφέρει πως χρησιμοποιεί μοτίβα από το περιεχόμενο των χρηστών για τη βελτίωση του τρόπου δημιουργίας εικόνων από το σύστημα και όχι τα ίδια τα δεδομένα ως έχουν.
Πώς να προστατευτείτε αν ακολουθήσετε την τάση
Για όσους επιθυμούν να συμμετέχουν στις τάσεις της τεχνητής νοημοσύνης, οι ειδικοί συστήνουν περιορισμό των στοιχείων που κοινοποιούνται.
Η Wilson προτείνει στους χρήστες να αποφεύγουν τη δημοσίευση εικόνων που αποκαλύπτουν αναγνωριστικά στοιχεία. «Κόψτε σφιχτά τη φωτογραφία σας, κρατήστε ουδέτερο φόντο και μην συμπεριλάβετε διακριτικά, στολές, κονκάρδες εργασίας, ενδείξεις τοποθεσίας ή οτιδήποτε συνδέει την εικόνα με τον εργοδότη ή τις καθημερινές σας συνήθειες», σημειώνει χαρακτηριστικά.
Η ίδια προειδοποιεί επίσης κατά της υπερβολικής κοινοποίησης προσωπικών πληροφοριών στα prompts, όπως τίτλος εργασίας, πόλη ή εργοδότης. Παράλληλα, ο Moore συστήνει επανεξέταση των ρυθμίσεων απορρήτου στην OpenAI.
Σύμφωνα με την ευρωπαϊκή νομοθεσία, οι χρήστες μπορούν να ζητήσουν διαγραφή των προσωπικών δεδομένων που έχει συλλέξει η εταιρεία. Ωστόσο, η OpenAI διευκρινίζει ότι ίσως διατηρήσει ορισμένες πληροφορίες ακόμη και μετά τη διαγραφή για λόγους πρόληψης απάτης ή ασφάλειας.
Με πληροφορίες από euronews
