- Αναπαραγωγή φωνής, ψεύτικες εικόνες και deepfakes ανοίγουν το δρόμο σε ένα νέο είδος κυβερνοεγκλήματος με ανυπολόγιστο οικονομικό και κοινωνικό κόστος.
- Το νέο οπλοστάσιο του ψηφιακού εγκλήματος, εξαπλώνεται ταχύτερα απ’ ό,τι μπορούν να το σταματήσουν οι Αρχές
- Σε μια εποχή όπου η γραμμή ανάμεσα στο αληθινό και το τεχνητό γίνεται όλο και πιο θολή, η ψηφιακή παιδεία και η κριτική σκέψη αποτελούν την πιο ουσιαστική -ίσως και τελευταία- άμυνα απέναντι στη νέα γενιά ψηφιακών απειλών.
Του Κωνσταντίνου Ζαχαρίου
Η τεχνητή νοημοσύνη εξελίσσεται σε νέο όπλο στα χέρια των εγκληματικών δικτύων, σύμφωνα με έκθεση της Υπηρεσίας Έρευνας του Ευρωπαϊκού Κοινοβουλίου (EPRS) με τίτλο «Τηλεφωνικές απάτες στην εποχή της γενετικής τεχνητής νοημοσύνης».
Η μελέτη -που αφορά και την Κύπρο, λόγω της ανόδου των ηλεκτρονικών απατών-καταγράφει τα κενά άμυνας της Ευρώπης και προτείνει νέα μέτρα προστασίας.
Σχεδόν κάθε μορφή οργανωμένου εγκλήματος αφήνει πλέον ψηφιακό αποτύπωμα, ενώ οι απάτες με χρήση ΑΙ πολλαπλασιάζονται. Οι δράστες αναπαράγουν φωνές, στήνουν ψεύτικες βιντεοκλήσεις (deepfakes) και δημιουργούν συνθετικές ταυτότητες, εξαπατώντας πολίτες και επιχειρήσεις.
Έρχονται ακόμη πιο δύσκολες μέρες
Οι φωνητικές απάτες αυξάνονται με εκρηκτικό ρυθμό, απειλώντας ιδιωτικότητα και θεσμούς. Η EPRS καλεί για πολυεπίπεδη στρατηγική που θα συνδυάζει τεχνολογία, νομοθεσία και εκπαίδευση.
Η τεχνολογία deepfake επιτρέπει τη δημιουργία ή αλλοίωση εικόνας, ήχου και βίντεο με αποτελέσματα που μοιάζουν απολύτως αληθινά, αλλάζοντας το τοπίο της ψηφιακής παραπλάνησης και του κυβερνοεγκλήματος.
Η έκθεση προβλέπει εκρηκτική αύξηση της χρήσης deepfakes, καθώς τα Μεγάλα Γλωσσικά Μοντέλα (LLMs) γίνονται πιο προσιτά, επιτρέποντας τη δημιουργία εκστρατειών παραπληροφόρησης με ελάχιστη τεχνική γνώση.
Η γενετική ΑΙ παράγει ψεύτικες φωνές και βίντεο για εκβιασμούς, απάτες και παραπλανητικά αιτήματα χρημάτων.
Ιδιαίτερα επικίνδυνη είναι η αντιγραφή φωνής (voice cloning) -τεχνολογία τόσο πειστική και δύσκολα ανιχνεύσιμη, που έχει μετατρέψει τις επιθέσεις κοινωνικής μηχανικής σε «παραστάσεις» εξαπάτησης.
Κλοπές ταυτότητας, phishing και ψεύτικες «επενδύσεις» εξαπλώνονται ραγδαία.
Τα δεδομένα δείχνουν ότι το έγκλημα προχωρά πιο γρήγορα απ’ ό,τι οι μηχανισμοί άμυνας.
«Πράκτορες» της Europol και του FBI σήκωσαν 25 εκατ. δολάρια
Το 2024 καταγραφόταν μία επίθεση deepfake κάθε πέντε λεπτά. Με το 53% των ανθρώπων να μοιράζονται δημόσια τη φωνή τους σε βίντεο ή social media, η αντιγραφή φωνής έχει γίνει παιχνιδάκι για τους επιτήδειους.
Έρευνες δείχνουν ότι μία στις δύο εταιρείες (49%) έχει πέσει θύμα ηχητικών ή οπτικών deepfakes. Το μοτίβο επαναλαμβάνεται: επείγουσες μεταφορές χρημάτων, ψεύτικες βιντεοκλήσεις, δήθεν συνεργάτες και απόλυτα πειστικές φωνές.
• Στο Χονγκ Κονγκ, εταιρεία έχασε πάνω από 25 εκατ. δολάρια, μετά από deepfake βιντεοκλήση με «διευθύνοντα σύμβουλο».
• 1 στους 4 ενήλικες έχει πέσει θύμα ή γνωρίζει θύμα voice cloning ή vishing, ενώ 7 στους 10 δηλώνουν ότι δεν μπορούν να αναγνωρίσουν ψεύτικη φωνή.
• Στην Ολλανδία, οι απόπειρες vishing τριπλασιάστηκαν μέσα σε ένα χρόνο.
• Η Europol απέτρεψε 7.500 τηλεφωνικές απάτες, γλιτώνοντας απώλειες άνω των 10 εκατ. ευρώ.
• Το FBI προειδοποίησε το 2025 για δράστες που παρίσταναν υψηλόβαθμους αξιωματούχους, ενώ στην ΕΕ εμφανίστηκαν ακόμη και «πράκτορες Europol-μαϊμού».
Το τρίπτυχο της άμυνας
Η EPRS επισημαίνει ότι η αντιμετώπιση των deepfake απάτων βασίζεται σε ένα τρίπτυχο δράσης:
• Νομοθεσία: Θωράκιση του πλαισίου ευθύνης, διαφάνειας και ασφάλειας των συστημάτων ΑΙ.
• Τεχνολογία: Ανάπτυξη εργαλείων ανίχνευσης συνθετικών φωνών, βίντεο και παραποιημένων δεδομένων σε πραγματικό χρόνο.
• Εκπαίδευση: Ενημέρωση πολιτών και επιχειρήσεων για την αναγνώριση σημείων εξαπάτησης και την άμεση αντίδραση.
Διαμορφώνεται μοντέλο «Μεγάλου Αδελφού»
Στις Βρυξέλλες φαίνεται πως ορισμένοι κύκλοι επιχειρούν να αξιοποιήσουν τον φόβο για την τεχνητή νοημοσύνη ως εργαλείο ελέγχου.
Όπως προκύπτει από την έκθεση της Υπηρεσίας Έρευνας του Ευρωπαϊκού Κοινοβουλίου, διαμορφώνεται σταδιακά ένα μοντέλο «Μεγάλου Αδελφού», με πρόσχημα την προστασία από την κακή χρήση της ΑΙ.
Η EPRS υπενθυμίζει ότι η ΕΕ διαθέτει ήδη ισχυρά νομικά εργαλεία, όπως ο Γενικός Κανονισμός Προστασίας Δεδομένων (GDPR), που υποχρεώνει τις εταιρείες να εξασφαλίζουν ρητή συγκατάθεση των χρηστών πριν από τη συλλογή προσωπικών δεδομένων -ακόμη και ηχητικών – και να τους ενημερώνουν για τη χρήση τους.
Παράλληλα, ο Κανονισμός για την Τεχνητή Νοημοσύνη (EU AI Act) προβλέπει ότι οι πάροχοι ΑΙ πρέπει να ενημερώνουν τους χρήστες όταν αλληλεπιδρούν με περιεχόμενο που έχει παραχθεί από τεχνητή νοημοσύνη -όπως τα deepfakes- και να το επισημαίνουν με υδατογραφήματα ή μεταδεδομένα.
Την ίδια ώρα, χώρες όπως το Βέλγιο, η Ισπανία, η Γερμανία και η Ιταλία προωθούν αντι-απατητική νομοθεσία, επικαλούμενες την ανάγκη προστασίας πολιτών και επιχειρήσεων από τη νέα γενιά ψηφιακών εγκλημάτων.
Ωστόσο, ειδικοί προειδοποιούν ότι αυτή η «θωράκιση» μπορεί να οδηγήσει σε υπερβολική επιτήρηση, καθώς η συγκέντρωση εξουσίας σε κρατικές αρχές και τεχνολογικούς κολοσσούς ενέχει κινδύνους για τα θεμελιώδη δικαιώματα.
Πολλοί ζητούν επικαιροποίηση του GDPR, ώστε τράπεζες και τηλεπικοινωνιακοί πάροχοι να μπορούν να αντιδρούν άμεσα σε επιθέσεις deepfake ή phishing, χωρίς να παγιδεύονται στη γραφειοκρατία του απορρήτου.
Όπως αναφέρεται στην έκθεση σήμερα, ακόμη κι αν μια τράπεζα υποψιαστεί απάτη, δεν έχει τη νομική δυνατότητα να δράσει, ενώ οι πάροχοι μπορούν να συλλέγουν μεταδεδομένα κλήσεων, αλλά όχι να τα διαβιβάζουν στις Αρχές, αφήνοντας έτσι τους πολίτες εκτεθειμένους.
Ρυθμίσεις από Google και Apple
Η έκθεση δείχνει ότι, παρότι οι τεχνολογικοί κολοσσοί αναπτύσσουν νέες άμυνες, οι απατεώνες διατηρούν προβάδισμα. Η OpenAI εργάζεται σε εργαλεία ανίχνευσης AI-εικόνων, ενώ άλλες εταιρείες εξετάζουν αναλύσεις φωνής και blockchain για την ταυτοποίηση περιεχομένου.
Η Google δοκιμάζει αλγορίθμους για ύποπτες κλήσεις και βίντεο, ενώ η Apple εφαρμόζει φραγή «ρομπο-κλήσεων». Οι λύσεις στοχεύουν στην αναγνώριση καλούντος και στη φραγή ύποπτων αριθμών, περιορίζοντας το spoofing.
Η έκθεση επικρίνει και τις WhatsApp–Meta, καθώς οι VoIP κλήσεις επιτρέπουν στους απατεώνες να εμφανίζονται ως νόμιμοι. Οι κρυπτογραφημένες εφαρμογές καθιστούν τον έλεγχο αδύνατο, προστατεύοντας άθελά τους εγκληματικά δίκτυα.
Παράλληλα, ειδικοί υποστηρίζουν ότι η Meta επωφελείται από ψεύτικες «επενδυτικές» διαφημίσεις, οι οποίες -παρά τις δεσμεύσεις για αυστηρότερη εποπτεία- παραμένουν βασική πηγή ψηφιακής εξαπάτησης.
Ανάγκη ενίσχυσης του ψηφιακού «αλφαβητισμού»
Πέρα από νόμους και αλγορίθμους, το πιο ισχυρό όπλο είναι η εκπαίδευση.
Η EPRS τονίζει ότι η ενίσχυση του «αλφαβητισμού» στην τεχνητή νοημοσύνη (AI literacy) είναι καθοριστική για καταναλωτές και επιχειρήσεις, ώστε να αναγνωρίζουν τους κινδύνους και να προστατεύονται.
Η ενημέρωση και ευαισθητοποίηση του κοινού μπορούν να περιορίσουν την παραπληροφόρηση και να προστατεύσουν ειδικά τα παιδιά και τις ευάλωτες ομάδες από χειραγώγηση και απάτες.
Σε μια εποχή όπου η γραμμή ανάμεσα στο αληθινό και το τεχνητό γίνεται όλο και πιο θολή, η ψηφιακή παιδεία και η κριτική σκέψη αποτελούν την πιο ουσιαστική -ίσως και τελευταία- άμυνα απέναντι στη νέα γενιά ψηφιακών απειλών.
Η τεχνητή νοημοσύνη γεννά νέα γενιά απατών
Η τεχνητή νοημοσύνη (AI) εξελίσσεται σε ένα ισχυρό εργαλείο στα χέρια των εγκληματικών δικτύων, επιτρέποντας νέες μορφές απάτης με σημαντικό οικονομικό και κοινωνικό κόστος. Η έκθεση της Υπηρεσίας Έρευνας του Ευρωπαϊκού Κοινοβουλίου (EPRS) αναδεικνύει την αυξανόμενη χρήση της AI για την αναπαραγωγή φωνής, τη δημιουργία ψεύτικων εικόνων και βίντεο (deepfakes) και την κατασκευή συνθετικών ταυτοτήτων, καθιστώντας τις απάτες πιο πειστικές και δύσκολα ανιχνεύσιμες. Η τεχνολογία deepfake, η οποία επιτρέπει την αλλοίωση εικόνας, ήχου και βίντεο με ρεαλιστικό τρόπο, αναμένεται να χρησιμοποιηθεί εκτεταμένα σε εκστρατείες παραπληροφόρησης. Η ευκολία πρόσβασης σε Μεγάλα Γλωσσικά Μοντέλα (LLMs) διευκολύνει τη δημιουργία τέτοιων απάτων, ακόμη και από άτομα χωρίς εξειδικευμένες γνώσεις. Η αντιγραφή φωνής (voice cloning) αποτελεί ιδιαίτερα ανησυχητική εξέλιξη, καθώς η τεχνολογία είναι τόσο ακριβής που μπορεί να εξαπατήσει ακόμη και τους πιο προσεκτικούς ανθρώπους. Συγκεκριμένα παραδείγματα απάτης με χρήση AI περιλαμβάνουν την κλοπή ταυτότητας, το phishing και τις ψεύτικες επενδύσεις. Έρευνες δείχνουν ότι οι εταιρείες και οι ιδιώτες πέφτουν ολοένα και περισσότερο θύματα τέτοιων επιθέσεων, με σημαντικές οικονομικές απώλειες. Ένα χαρακτηριστικό παράδειγμα είναι η απάτη σε μια εταιρεία στο Χονγκ Κονγκ, η οποία έχασε 25 εκατομμύρια δολάρια μέσω μιας deepfake βιντεοκλήσης. Η έκθεση της EPRS καλεί για μια πολυεπίπεδη στρατηγική αντιμετώπισης του φαινομένου, η οποία θα συνδυάζει τεχνολογικά μέτρα, νομοθετικές ρυθμίσεις και εκπαιδευτικές πρωτοβουλίες. Η ψηφιακή παιδεία και η κριτική σκέψη θεωρούνται απαραίτητα εργαλεία για την προστασία των πολιτών από τις νέες ψηφιακές απειλές, καθώς η γραμμή μεταξύ αληθινού και τεχνητού γίνεται όλο και πιο θολή. Η ταχύτητα με την οποία εξελίσσεται το έγκλημα με τη χρήση AI είναι μεγαλύτερη από την ταχύτητα ανάπτυξης των αμυντικών μηχανισμών.
You Might Also Like
Ο Αλγόριθμος στο πιάτο μας: Η βιομηχανία τροφίμων στην εποχή της AI - Η μελέτη Ελληνίδας φοιτήτριας
Dec 1
Νέο μοντέλο του Frederick για βιώσιμες ενεργειακές κοινότητες
Dec 3
Χριστούγεννα: Από την Αθήνα ως τη Νέα Υόρκη, οι μεγάλες πόλεις «φορούν τα γιορτινά τους» (φωτος + βίντεο)
Dec 8
Συραγώ Τσιάρα: Το μίνιμουμ για ένα μουσείο είναι να συνδυάζει γνώση, απόλαυση και αναστοχασμό
Dec 12
Πέντε χρόνια Brexit: Ακρίβεια, ανεργία και οικονομική αιμορραγία για τους Βρετανούς
Dec 13