search icon

Διεθνή

Visa: Η χρήση της τεχνητής νοημοσύνης «κλειδί» στην αντιμετώπιση της απάτης

Χρησιμοποιώντας bots τεχνητής νοημοσύνης, οι εγκληματίες επιχειρούν επανειλημμένα να υποβάλουν ηλεκτρονικές συναλλαγές - Οι κίνδυνοι των deepfakes και της κλωνοποίησης της φωνής

Η Visa χρησιμοποιεί την τεχνητή νοημοσύνη και τη μηχανική μάθηση για την αντιμετώπιση της απάτης, δήλωσε στο CNBC το αρμόδιο για θέματα ασφαλείας στέλεχος του κολοσσού, Τζέιμς Μίρφιν.

Η εταιρεία απέτρεψε απάτες ύψους 40 δισεκατομμυρίων δολαρίων από τον Οκτώβριο του 2022 έως τον Σεπτέμβριο του 2023, ποσό σχεδόν διπλάσιο σε σχέση με ένα χρόνο πριν.

Οι τακτικές απάτης που χρησιμοποιούν οι απατεώνες περιλαμβάνουν τη χρήση τεχνητής νοημοσύνης για τη δημιουργία πρωτογενών αριθμών λογαριασμού και τη συνεχή δοκιμή τους, δήλωσε ο ίδιος. Ο αριθμός PAN είναι ένα αναγνωριστικό στοιχείο της κάρτας, συνήθως 16 ψηφίων, αλλά μπορεί να φτάνει έως και 19 ψηφία σε ορισμένες περιπτώσεις, ενώ συνδέεται με τις πιστωτικές κάρτες.

Χρησιμοποιώντας bots τεχνητής νοημοσύνης, οι εγκληματίες επιχειρούν επανειλημμένα να υποβάλουν ηλεκτρονικές συναλλαγές μέσω ενός συνδυασμού πρωτογενών αριθμών λογαριασμού, κωδικών επαλήθευσης κάρτας (CVV) και ημερομηνιών λήξης – μέχρι να λάβουν απάντηση έγκρισης.

Αυτή η μέθοδος, γνωστή ως enumeration attack, οδηγεί σε απώλειες απάτης ύψους 1,1 δισεκατομμυρίων δολαρίων ετησίως, αποτελώντας σημαντικό μερίδιο των συνολικών παγκόσμιων απωλειών λόγω απάτης, σύμφωνα με τη Visa.

Σε κάθε συναλλαγή αποδίδεται μια βαθμολογία κινδύνου σε πραγματικό χρόνο, η οποία βοηθά στον εντοπισμό και την πρόληψη επιθέσεων σε συναλλαγές όπου μια αγορά διεκπεραιώνεται εξ αποστάσεως μέσω POS ή τερματικού.

«Κάθε μία από αυτές τις συναλλαγές έχει υποβληθεί σε επεξεργασία από την τεχνητή νοημοσύνη η οποία εξετάζει μια σειρά διαφορετικών χαρακτηριστικών και αξιολογεί κάθε συναλλαγή», δήλωσε ο Mίρφιν.

«Έτσι, αν δείτε να λαμβάνει χώρα ένας νέος τύπος απάτης, το μοντέλο μας θα το ανιχνεύσει, θα το εντοπίσει, θα βαθμολογήσει αυτές τις συναλλαγές ως υψηλού κινδύνου και στη συνέχεια οι πελάτες μας μπορούν να αποφασίσουν να μην εγκρίνουν αυτές τις συναλλαγές», συμπλήρωσε.

Χρησιμοποιώντας τεχνητή νοημοσύνη, η Visa αξιολογεί επίσης την πιθανότητα απάτης για τα αιτήματα παροχής token – για να αντιμετωπίσει τους απατεώνες που χρησιμοποιούν την κοινωνική μηχανική (social engineering) και άλλες στρατηγικές για να εκτελούν δόλιες συναλλαγές.

Τα τελευταία πέντε χρόνια, η εταιρεία έχει επενδύσει 10 δισεκατομμύρια δολάρια σε τεχνολογία που συμβάλλει στη μείωση της απάτης και στην αύξηση της ασφάλειας του δικτύου της.

Οι εγκληματίες του κυβερνοχώρου στρέφονται στη γενεσιουργό τεχνητή νοημοσύνη και σε άλλες αναδυόμενες τεχνολογίες, όπως η κλωνοποίηση φωνής και τα deepfakes, για να εξαπατήσουν τους ανθρώπους, προειδοποίησε το στέλεχος της Visa.

«Δεν πρόκειται για έναν εγκληματία που σηκώνει ένα τηλέφωνο και τηλεφωνεί σε κάποιον τυχαία. Χρησιμοποιούν κάποιο επίπεδο τεχνητής νοημοσύνης, είτε πρόκειται για κλωνοποίηση φωνής, είτε για deepfake, είτε για κοινωνική μηχανική. Χρησιμοποιούν τεχνητή νοημοσύνη για να θέσουν σε εφαρμογή διάφορες απάτες αυτού του είδους», δήλωσε ο Mίρφιν.

Τα εργαλεία τεχνητής νοημοσύνης όπως το ChatGPT επιτρέπουν στους απατεώνες να παράγουν πιο πειστικά μηνύματα phishing για να εξαπατήσουν τους καταναλωτές και τις επιχειρήσεις.

Οι εγκληματίες του κυβερνοχώρου που χρησιμοποιούν τεχνητή νοημοσύνη χρειάζονται λιγότερο από τρία δευτερόλεπτα ήχου για να κλωνοποιήσουν μια φωνή, σύμφωνα με την εταιρεία Okta, η οποία προσέθεσε ότι αυτό μπορεί στη συνέχεια να χρησιμοποιηθεί για να ξεγελάσουν τα μέλη της οικογένειας ώστε να νομίζουν ότι ένα αγαπημένο τους πρόσωπο βρίσκεται σε κίνδυνο ή να ξεγελάσουν τους τραπεζικούς υπαλλήλους ώστε να μεταφέρουν χρήματα από τον λογαριασμό του θύματος.

Τα εργαλεία τεχνητής νοημοσύνης έχουν επίσης αξιοποιηθεί για τη δημιουργία deepfakes διασημοτήτων για την εξαπάτηση των followers τους, δήλωσε η Okta.

Οι εγκληματίες του κυβερνοχώρου που χρησιμοποιούν την τεχνητή νοημοσύνη για να διαπράξουν απάτες μπορούν να το κάνουν πολύ φθηνότερα, στοχεύοντας πολλά θύματα ταυτόχρονα, χρησιμοποιώντας τους ίδιους ή λιγότερους πόρους, ανέφερε σε έκθεσή του το Κέντρο Χρηματοοικονομικών Υπηρεσιών της Deloitte.

«Τέτοιου είδους περιστατικά πιθανότατα θα πολλαπλασιαστούν τα επόμενα χρόνια, καθώς οι κακοποιοί θα βρίσκουν και θα χρησιμοποιούν όλο και πιο εξελιγμένη, αλλά και προσιτή, τεχνητή νοημοσύνη για να εξαπατούν τις τράπεζες και τους πελάτες τους», αναφέρει η έκθεση, εκτιμώντας ότι η τεχνητή νοημοσύνη θα μπορούσε να αυξήσει τις απώλειες από απάτες σε 40 δισεκατομμύρια δολάρια στις ΗΠΑ μέχρι το 2027, από 12,3 δισεκατομμύρια δολάρια το 2023.

Σύμφωνα με το CNBC, υπάλληλος σε εταιρεία με έδρα το Χονγκ Κονγκ έστειλε 25 εκατομμύρια δολάρια σε έναν απατεώνα που είχε υποδυθεί με deepfake τον οικονομικό του διευθυντή και του είχε δώσει εντολή να κάνει τη μεταφορά.

Τα κινεζικά κρατικά μέσα ενημέρωσης ανέφεραν μια παρόμοια περίπτωση στην επαρχία Shanxi φέτος, όπου μια υπάλληλος εξαπατήθηκε για να μεταφέρει 1,86 εκατομμύρια γιουάν (262.000 δολάρια) σε έναν απατεώνα που χρησιμοποίησε ένα deepfake του αφεντικού της κατά τη διάρκεια βιντεοκλήσης.

Διαβάστε ακόμη

UBS: Οι νέες τιμές στόχοι των ελληνικών τραπεζών μετά το ισχυρό το δεύτερο τρίμηνο (γραφήματα)

Έλεγχοι ΑΑΔΕ: Στόχος να «φέρνουν» 5 ευρώ για κάθε 1 ευρώ που κοστίζουν

Τα μυστικά της ανίερης συμμαχίας Τραμπ – Μασκ λίγο πριν την πολυαναμενόμενη συνέντευξη

 

Για όλες τις υπόλοιπες ειδήσεις της επικαιρότητας μπορείτε να επισκεφτείτε το Πρώτο ΘΕΜΑ

Exit mobile version