Κυριακή, Οκτωβρίου 20, 2024

«Voice phishing»: Η νέα μορφή απάτης με τη βοήθεια της Τεχνητής Νοημοσύνης που «σαρώνει» τις ΗΠΑ έρχεται και στην Ευρώπη


Τρία δευτερόλεπτα ομιλίας. Τόσο χρόνο χρειάζεται μια εφαρμογή Τεχνητής Νοημοσύνης για να κλωνοποιήσει τη φωνή σας -ή κάποιου αγαπημένου σας

Σκεφτείτε το: είναι λίγο μετά τα μεσάνυχτα και στο τηλέφωνό σας καλεί ο αριθμός της μητέρας σας. Οταν το σηκώνετε, στην άλλη άκρη της γραμμής ακούγεται η φωνή της -είναι ξεκάθαρα η δική της και, άλλωστε, η αναγνώριση δείχνει πως αυτή έχει καλέσει- να φωνάζει «Αφήστε με!», «Βοήθεια!» και άλλες φράσεις σε πανικό. Το τηλέφωνο παίρνει τότε ένας άντρας, που σας ενημερώνει ότι μπήκαν στο σπίτι της για διάρρηξη, αλλά δεν βρήκαν κάτι αξίας και την κρατούν όμηρο. Και απαιτούν να τους στείλετε ένα χρηματικό ποσό άμεσα -προτού κλείσετε τη γραμμή- για να μην τη σκοτώσουν.

Μέχρι σήμερα οι τηλεφωνικές απάτες έχουν ένα συγκεκριμένο pattern και -ως επί το πλείστον- συγκεκριμένα θύματα. Κάποιος τηλεφωνεί υποδυόμενος τον αστυνομικό και ενημερώνει το θύμα ότι κάποιος συγγενής του έχει εμπλακεί σε σοβαρό τροχαίο. Για να γλιτώσει τη φυλακή, του λέει, θα πρέπει να δώσει ένα σοβαρό ποσό. Παρότι τα περισσότερα θύματα ήταν ηλικιωμένοι, το τελευταίο ήταν ένας 13χρονος στου Ζωγράφου που έδωσε στους απατεώνες 2.500 ευρώ σε μετρητά, κοσμήματα και ρολόγια. Αν θεωρείτε ότι εσείς είναι δύσκολο να πέσετε θύμα, ίσως θα πρέπει να αναθεωρήσετε, μια και οι απατεώνες επιστρατεύουν τη βοήθεια της Τεχνητής Νοημοσύνης για να δημιουργήσουν φωνητικούς κλώνους στους νέους τύπους απάτης που προκαλούν τρόμο…

Τρία δευτερόλεπτα ομιλίας. Τόσο χρόνο χρειάζεται μια εφαρμογή Τεχνητής Νοημοσύνης για να κλωνοποιήσει τη φωνή σας -ή κάποιου αγαπημένου σας. Από εκεί και πέρα, για να ολοκληρωθεί το vishing -όπως ονομάζεται το voice phishing- χρειάζεται η υποκλοπή προσωπικών στοιχείων και επαφών, η κλωνοποίηση της κάρτας SIM (εγκληματικές πρακτικές που είναι πολύ διαδεδομένες σήμερα) και η ανάθεση στην ΑΙ εφαρμογή του μηνύματος που θα εκφωνηθεί -στον κατάλληλο τόνο, φυσικά. Η απάτη, τώρα, έχει γίνει τόσο πειστική, που μπορεί να παρασύρει ακόμα και τον πλέον ενημερωμένο. Φυσικά, όλα μπορούν να γίνουν πολύ ευκολότερα με τη χρήση ενός κομματιού από βίντεο και των άλλων πληροφοριών που έχουν αναρτηθεί σε κοινωνικά δίκτυα.

Το πόσο εύκολο είναι να υποκλαπεί η φωνή σας ή κάποιου αγαπημένου σας προσώπου δεν είναι δύσκολο να το φανταστεί κανείς. Από μια τηλεφωνική κλήση ως μια σύντομη περιπλάνηση στο TikTok, στο Facebook και τα άλλα κοινωνικά δίκτυα, όπου αναρτώνται δεκάδες βίντεο καθημερινά από τον κάθε χρήστη…

«Εκατομμύρια στόχοι»

Παρότι είναι πολύ καινούριος, αυτός ο τύπος τηλεφωνικής απάτης έχει γίνει πολύ δημοφιλής στις ΗΠΑ και την Ασία και τώρα έρχεται και στην Ευρώπη. Η βρετανική τράπεζα Starling Bank εξέδωσε ανακοίνωση την προηγούμενη εβδομάδα, προειδοποιώντας ότι «εκατομμύρια άνθρωποι μπορούν να πέσουν θύματα απάτης που χρησιμοποιεί προγράμματα ΑΙ για κλωνοποίηση της φωνής τους».

Στις ΗΠΑ, η απάτη έγινε ευρέως γνωστή όταν αποκαλύφθηκε ότι με τη χρήση αυτής της τεχνολογίας, χιλιάδες Δημοκρατικοί έλαβαν κλήση με τη φωνή του Τζο Μπάιντεν να τους παραινεί να απέχουν από τις εκλογές. Στην Κορέα, σοκ προκάλεσε η περίπτωση ενός επιχειρηματία ο οποίος πείστηκε ότι συμμετείχε σε βιντεοκλήση με τα διευθυντικά στελέχη της εταιρείας του, που στην πραγματικότητα ήταν εγκληματίες, οι οποίοι του απέσπασαν 25 εκατ. δολάρια.

Οι μιμητές φωνής με Τεχνητή Νοημοσύνη κάνουν πλέον τις τηλεφωνικές απάτες πιο πιστευτές και πιο επικίνδυνες από ποτέ, λέει ο δΔιευθυντής Τεχνολογίας της εταιρείας κυβερνοασφάλειας McAfee Στιβ Γκρόμπμαν. Παγκοσμίως, περίπου ένας στους τέσσερις ανθρώπους έχει είτε πέσει θύμα είτε γνωρίζει κάποιον που έπεσε θύμα απάτης με Τεχνητή Νοημοσύνη, σύμφωνα με έκθεση της εταιρείας Beware the Artificial Imposter, με το 77% των θυμάτων να χάνει χρήματα.

Με την εταιρεία κυβερνοασφαλείας να διαπιστώνει ότι κάθε τρίμηνο γίνονται 6,5 δισεκατομμύρια κλήσεις απάτης σε όλο τον κόσμο και ότι ο κάθε Αμερικανός λαμβάνει κατά μέσο όρο 12 κλήσεις απάτης κάθε μήνα, ο «εκσυγχρονισμός» αυτής της εγκληματικής βιομηχανίας ήταν θέμα χρόνου. Ο CEO της Breachsense Τζος Αμισαβ λέει ότι «με την πρόοδο της τεχνολογίας text-to-speech της Tεχνητής Nοημοσύνης, οι τεχνικές απάτης θα γίνουν σημαντικά πιο εκλεπτυσμένες. Oταν συνδυάζονται με δεδομένα που έχουν διαρρεύσει ή κλαπεί, οι επιτήδειοι μπορούν να προσποιηθούν ότι είναι κάποιος γνωστός του θύματός τους και να προσθέτουν προσωπικές λεπτομέρειες για να αυξήσουν την αξιοπιστία της απάτης». Οι απάτες αυτού του είδους έχουν πάρει τόσο μεγάλες διαστάσεις που γερουσιαστής της Αριζόνα, στις ΗΠΑ, πρότεινε να αλλάξει ο νόμος και να λογίζεται η Τεχνητή Νοημοσύνη ως όπλο όταν χρησιμοποιείται για τη διάπραξη εγκλήματος, ώστε να γίνουν μεγαλύτερες οι ποινές για τους απατεώνες.

Για τις συμμορίες που τρέχουν αυτό το είδος της απάτης δεν χρειάζονται και πολλά. Αρκεί μια «επένδυση» ύψους μερικών εκατοντάδων ευρώ για να μπουν στον χώρο του audio deepfake. Υπάρχουν αρκετές εταιρείες οι οποίες έχουν εφαρμογές ΑΙ και deep learning οι οποίες μπορούν να παράγουν αντίγραφα οποιασδήποτε φωνής τόσο υψηλής ποιότητας που μπορούν να ξεγελάσουν τον καθένα. Ολες δημιουργήθηκαν για άλλους λόγους, όπως για τη χρήση σε κινηματογραφικές παραγωγές, για την εκφώνηση e-books σε διάφορες γλώσσες, για τον δανεισμό φωνών διασήμων σε διαφημιστικά ή σε πιο… ευφάνταστες εφαρμογές. Για παράδειγμα, αλυσίδα εστιατορίων στις ΗΠΑ χρησιμοποιεί την κλωνοποιημένη φωνή του διάσημου παίκτη του αμερικανικού ποδοσφαίρου Κιθ Μπάιαρς για να παίρνει παραγγελίες, ενώ εταιρεία στη Νότια Κορέα επαναφέρει τις φωνές αγαπημένων προσώπων που έχουν φύγει από τη ζωή στους συγγενείς τους. Τη συναντάμε, όμως, και για άλλους καλούς σκοπούς, όπως η εφαρμογή Voice Keeper, η οποία χρησιμοποιεί τεχνητά δείγματα από τη φωνή ενός ατόμου που πάσχει από ασθένειες όπως ο καρκίνος του φάρυγγα, το Πάρκινσον, το ALS, οι οποίες προκαλούν αφωνία, για να εκφωνεί κείμενα με αυτή. Ηταν όμως ζήτημα χρόνου η χρήση αυτής της τεχνολογίας και για κακούς σκοπούς.

Τα σενάρια που χρησιμοποιούνται

Με τη χρήση της τεχνολογίας μίμησης φωνής, οι συμμορίες έχουν τώρα μπροστά τους ένα πολύ μεγαλύτερο εύρος σεναρίων να χρησιμοποιήσουν για να καταφέρουν να φτάσουν στον τελικό τους σκοπό, να αποσπάσουν δηλαδή όσο περισσότερα χρήματα γίνεται από τα θύματά τους.

Το πιο δημοφιλές σενάριο που χρησιμοποιούν οι συμμορίες αυτές στις ΗΠΑ, είναι αυτό της υποτιθέμενης απαγωγής. Σε πολλές περιπτώσεις, στοχεύονται οικογένειες με μικρά παιδιά και όταν αυτά βρίσκονται σε δραστηριότητες τις οποίες δεν μπορούν να ελέγξουν εύκολα και γρήγορα οι γονείς, τους πείθουν ότι έχουν απαχθεί και ότι πρέπει να πληρωθούν άμεσα λύτρα. Σε αυτές τις περιπτώσεις τα χρήματα δίνονται πολύ συχνά μέσω εφαρμογών που προσφέρουν ανωνυμία ή και με φυσική παρουσία, όπως γίνεται στις πραγματικές απαγωγές. Συνήθως ζητούν εξωπραγματικά μεγάλα ποσά (άνω του 1 εκατ. δολαρίων) και συμβιβάζονται με πολύ λιγότερα (για παράδειγμα, με 50.000 δολάρια).

Σε άλλες περιπτώσεις, η κλαπείσα φωνή χρησιμοποιείται για να αποσπαστούν χρήματα με άλλο τρόπο από τα θύματα. Με την εφαρμογή ΑΙ οι απατεώνες καλούν (συνήθως από απόκρυψη) έναν γνωστό ή συγγενή, ο οποίος ακούει τον υποτιθέμενο δικό του άνθρωπο να του λέει πως είχε ένα τροχαίο ατύχημα σε έναν απομακρυσμένο δρόμο. «Τραυματίστηκα και πρέπει να χειρουργηθώ άμεσα. Εχω χάσει τα πάντα, πορτοφόλι, κάρτες, κινητό και το νοσοκομείο ζητά το Χ ποσό για να προχωρήσει επειδή δεν το καλύπτει η ασφάλειά μου. Βάλ’ τα σε παρακαλώ στον λογαριασμό τους σε αυτή την εφαρμογή και θα σου τα δώσω μόλις επιστρέψω, επειδή πρέπει να μπω άμεσα στο χειρουργείο».

Σε άλλες περιπτώσεις, χρησιμοποιούνται ακόμα και «επαγγελματικές» φωνές για να πείσουν τα θύματα να δώσουν πολλά χρήματα και άμεσα. Ποιος δεν θα πανικοβληθεί αν ακούσει τον λογιστή του να του λέει ότι πρέπει να πληρώσει ένα μεγάλο ποσό στην Εφορία για να γλιτώσει την κατάσχεση ή τη φυλάκιση, τον δικηγόρο του για κάτι παρόμοιο ή ακόμα περισσότερο έναν έμπιστο επαγγελματικό συνεργάτη του. Οι συμμορίες πιο σπάνια στοχεύουν τα λογιστήρια επιχειρήσεων, χρησιμοποιώντας τη φωνή των επικεφαλής τους να δίνει προφορική εντολή για την εκταμίευση ενός ποσού ή την άμεση πληρωμή μιας οφειλής σε έναν υποτιθέμενο συνεργάτη.

Σε συναγερμό βρίσκονται και τα τραπεζικά ιδρύματα, όχι μόνο για το μπλοκάρισμα ύποπτων συναλλαγών που παραπέμπουν σε τέτοιες απάτες, αλλά κυρίως καθώς η Τεχνητή Νοημοσύνη μέσω του deep learning γίνεται όλο και πιο πειστική στη μίμηση της ανθρώπινης φωνής που εντέλλεται να κλωνοποιήσει τόσο πιο πιθανό είναι να αρχίσει να χρησιμοποιείται από εγκληματικές ομάδες για να τις βοηθήσει να αποκτήσουν πρόσβαση στους τραπεζικούς λογαριασμούς των θυμάτων τους, τελειοποιώντας τις υπάρχουσες απάτες και ξεπερνώντας κάποιες υπάρχουσες δικλείδες ασφαλείας – γι’ αυτόν τον λόγο στις τηλεφωνικές επαφές με τις τράπεζες οι πελάτες υποχρεούνται να επιβεβαιώσουν κάποια προσωπικά στοιχεία τους, όπως ο ΑΦΜ, ο αριθμός ταυτότητας και το πατρώνυμο.

Με τον ίδιο τρόπο φυσικά μπορούν να χρησιμοποιηθούν -όπως και έχει ήδη γίνει με την περίπτωση της μαζικής υποτιθέμενης κλήσης από τον Τζο Μπάιντεν- για τη διασπορά ψευδών ειδήσεων και την προσπάθεια να επηρεαστούν αδιάβλητες ως τώρα διαδικασίες, όπως οι εκλογές. Αλλά αυτό, είναι μια εντελώς διαφορετική κατηγορία…

Φυσικά, δεν έχουν πάψει να χρησιμοποιούνται και τα… συνηθισμένα -και στη χώρα μας- σενάρια, όπως αυτό του τροχαίου με θανάσιμο ή μη τραυματισμό, όπου οι συγγενείς του υποτιθέμενου θύματος ζητούν χρήματα για να μην προχωρήσουν στην ποινική δίωξη του (υποτιθέμενου) δράστη ή στην υποτιθέμενη πληρωμή της εγγύησης για την αποφυλάκιση μετά από το δυστύχημα.

Υπάρχει βέβαια και η άλλη πλευρά. Πριν από μερικούς μήνες, ο καθηγητής του Πανεπιστημίου του Μπέρκλεϊ, Φαρίντ, συμμετείχε σε μια κλήση Zoom με τον πρώην πρόεδρο των ΗΠΑ Μπαράκ Ομπάμα. Ο Ομπάμα τού είπε ότι ήθελε να μάθει περισσότερα για τη χρήση Τεχνητής Νοημοσύνης, αλλά υπήρχε ένα… μικρό πρόβλημα: για περισσότερα από 10 λεπτά, ο καθηγητής αμφισβητούσε ότι στην άλλη άκρη της γραμμής ήταν ο Αμερικανός πρώην πρόεδρος. «Υπάρχουν τόσα deepfakes με τον Ομπάμα που για αρκετή ώρα έλεγα στον εαυτό μου ότι πιθανότατα δεν είναι αυτός που μου μιλάει», εξηγεί ο ίδιος. Έτσι, ακόμα και ο Ομπάμα έπρεπε να αποδείξει με κάποιο τρόπο ότι… ήταν αυτός που έλεγε.

Τα «κλειδιά» της προστασίας

Οι ειδικοί λένε ότι, παρά το γεγονός πως εξελίσσονται με μεγάλη ταχύτητα εφαρμογές οι οποίες θα μπορούν να εντοπίζουν τις κλήσεις scam προτού αυτές ξεκινήσουν (ήδη σε κάποιους τύπους τηλεφώνων υπάρχουν προειδοποιήσεις για πιθανή απάτη από την αναγνώριση κλήσεων) αλλά και για τον εντοπισμό χρήσης εφαρμογής Τεχνητής Νοημοσύνης, «δεν πρόκειται να υπάρξει κάτι τόσο αποτελεσματικό όσο η… ασημένια σφαίρα για τους βρυκόλακες». Γι’ αυτόν τον λόγο προτείνουν στους πολίτες να είναι προσεκτικοί και να έχουν λάβει τα μέτρα τους, ώστε να είναι πρακτικά αδύνατο να πέσουν θύματα.

Εν πρώτοις, το σημαντικότερο είναι η αναγνώριση των κλήσεων τηλεφωνικών απατών. Ισχύει δηλαδή ό,τι και στις σημερινές απάτες, με τη χρήση ιδιαίτερης προσοχής, την αποφυγή αποκάλυψης προσωπικών πληροφοριών σε πρόσωπο που καλεί (όποιος και αν ισχυρίζεται ότι είναι) και τη διασφάλιση των προσωπικών δεδομένων και στοιχείων που είναι εκτεθειμένα συχνά στο Διαδίκτυο. «Είναι σημαντικό», λένε, “να μη γίνεται καμία συζήτηση όταν υποψιαζόμαστε ότι πρόκειται για απάτη. Είναι προτιμότερο απλά να διακόπτουμε τη συνομιλία, κλείνοντας το τηλέφωνο».

Ισως η πιο χρήσιμη συμβουλή, ωστόσο, είναι η χρήση ενός οικογενειακού password. Οι ειδικοί προτείνουν στις οικογένειες να έχουν προσυμφωνήσει τη χρήση μιας ή περισσότερων λέξεων και φράσεων που θα χρησιμοποιούνται από τα μέλη της σε περίπτωση κινδύνου. Αυτά τα «passwords» δεν θα πρέπει ποτέ να αποκαλύπτονται σε τρίτους ή να γράφονται σε μηνύματα που ανταλλάζονται στα κοινωνικά δίκτυα και να αποτελούν λέξεις ή φράσεις που δεν θα μπορούν να ειπωθούν από κάποιον εκτός οικογενείας.

Με αυτόν τον τρόπο, ο παππούς και η γιαγιά, η μαμά ή το παιδι θα ξέρουν ότι αυτός που ακούν στην άλλη άκρη της τηλεφωνικής γραμμής δεν είναι στην πραγματικότητα ο δικός τους άνθρωπος να τους λέει ότι «με κρατούν κάποιοι κακοί άνθρωποι» ή ότι «έχω μπλέξει πολύ άσχημα και χρειάζομαι χρήματα αμέσως».

pentapostagma.gr

Οι δημοσιεύεις απηχούν απόψεις των αναγνωστών και η σελίδα ουδεμία ευθύνη φέρει.Εάν βρεθούν τύπου δημοσιεύσεις ψευδής θα διαγράφονται άμεσα!.