Μιχάλης Ψύλος • psilosm@naftemporiki.gr
Περισσότερες από 70 εκλογικές αναμετρήσεις θα διεξαχθούν την επόμενη χρονιά σε όλον τον κόσμο -συμπεριλαμβανομένων των προεδρικών εκλογών στις ΗΠΑ και των ευρωεκλογών– και ήδη διατυπώνονται ανησυχίες για τη χρήση της τεχνητής νοημοσύνης με στόχο την παραπληροφόρηση και την άσκηση επιρροής στους ψηφοφόρους.
Η Υπηρεσία Κυβερνοασφάλειας της Ευρωπαϊκής Ένωσης (ENISA), κατέγραψε περισσότερα από 2.500 τέτοια περιστατικά στον κυβερνοχώρο από τον Ιούλιο του 2022. Οι δημόσιες διοικήσεις και η υγειονομική περίθαλψη ήταν οι κύριοι στόχοι, με 19% και 8% αντίστοιχα, ενώ το 6% όλων των επιθέσεων στόχευαν τους τομείς της μεταποίησης, των μεταφορών και των οικονομικών.
Στην ετήσια έκθεσή της για τις απειλές στον κυβερνοχώρο κατά της Ευρώπης, η υπηρεσία κατέγραψε άνοδο της τεχνολογίας chatbot AI , των deepfakes και ανάλογων τεχνολογιών. «Οι εγκληματίες του κυβερνοχώρου στοχεύουν ολοένα και περισσότερο τις υποδομές cloud, έχουν γεωπολιτικά κίνητρα και έχουν αυξήσει τις επιχειρήσεις εκβιασμού, όχι μόνο μέσω ransomware αλλά και μέσω απευθείας επίθεσης στους χρήστες», αναφέρει η έκθεση.
Η ENISA προειδοποιεί μάλιστα ότι τόσο οι κυβερνήσεις όσο και ο ιδιωτικός τομέας, και ιδιαίτερα τα μέσα ενημέρωσης, θα πρέπει να είναι σε εγρήγορση ενόψει των ευρωεκλογών για τον εντοπισμό, την απομυθοποίηση και την καταπολέμηση της παραπληροφόρησης που δημιουργείται από την τεχνητή νοημοσύνη στο διαδίκτυο. «Η εμπιστοσύνη στην εκλογική διαδικασία της ΕΕ θα εξαρτηθεί καθοριστικά από την ικανότητά μας να βασιζόμαστε σε ασφαλείς υποδομές στον κυβερνοχώρο και την ακεραιότητα και τη διαθεσιμότητα των πληροφοριών», δήλωσε ο εκτελεστικός διευθυντής της ENISA,Γιούχαν Λεπασάαρ.
Επίδραση στη δημοκρατία
Για τους μελετητές των εκλογών, η πιθανή επίδραση της τεχνητής νοημοσύνης στη δημοκρατία έχει γίνει κεντρικό θέμα στην ημερήσια διάταξη. Τα ερωτήματα πολλά: Υπάρχουν σημαντικοί κίνδυνοι που δεν βλέπουμε; Μπορεί αυτή η τεχνολογία να προκαλέσει σύγχυση στον τρόπο με τον οποίο οι κοινωνίες συγκεντρώνουν τις προτιμήσεις τους για να παρέχουν σαφείς εντολές διακυβέρνησης;
Για να αντιμετωπιστούν αυτά τα ερωτήματα, είναι απαραίτητο να απομυθοποιηθεί η ιδέα της ύπαρξης μιας γενικής τεχνητής νοημοσύνης που μπορεί να δράσει σε διαφορετικά πλαίσια και λογική όπως κάνουν οι άνθρωποι. Αυτές οι τεχνολογίες δεν υπάρχουν ακόμη. Επί του παρόντος, έχουν επιτευχθεί μόνο πολύ συγκεκριμένες εφαρμογές που έχουν λειτουργήσει καλά σε συγκεκριμένες εργασίες. Το σίγουρο είναι ότι ορισμένα μοντέλα κατάφεραν να έχουν γρήγορη εκμάθηση, γεγονός που άνοιξε τα παράθυρα σε εικασίες για πιθανές εφαρμογές στο μέλλον.
Και δεν είναι μόνο η Ευρώπη που βρίσκεται σε επιφυλακή. Οι Ηνωμένες Πολιτείες, , το Ηνωμένο Βασίλειο, η Ολλανδία και πιθανώς η Ουκρανία είναι μεταξύ των δημοκρατικών χωρών που θα πραγματοποιήσουν εκλογές τους επόμενους 16 μήνες. Όσοι εργάζονται για την εκλογική ακεραιότητα, παρακολουθούν επιφυλακτικά την εμφάνιση της γενετικής τεχνητής νοημοσύνης, η οποία θα μπορούσε να εντείνει τις ήδη πολωμένες πολιτικές συζητήσεις, τις απειλές ξένης επιρροής και τις ψεύτικες ειδήσεις.
Περιεχόμενο όπως deepfakes, ψεύτικα βίντεο που φαίνονται αληθινά , έχουν εμφανιστεί σε προεκλογικές εκστρατείες στην Πολωνία και τη Σλοβακία τις τελευταίες εβδομάδες. Επιπλέον, ο ηγέτης της βρετανικής αντιπολίτευσης Κέιρ Στάρμερ έπεσε «θύμα» αυτό το μήνα , καθώς ένα ηχητικό κλιπ τον έδειχνε να προσβάλλει το προσωπικό του. Το κλιπ έγινε viral, αλλά αποδείχθηκε ψεύτικο.
Οι τρεις τρόποι των χάκερ
Η ευρωπαϊκή υπηρεσία κυβερνοασφάλειας εντόπισε τρεις τρόπους με τους οποίους οι χάκερ χρησιμοποιούν την τεχνητή νοημοσύνη για να εξαπατήσουν τους ανθρώπους. Αυτοί περιλαμβάνουν τη χρήση τεχνολογίας για τη δημιουργία πειστικών μηνυμάτων ηλεκτρονικού «ψαρέματος», πλαστά ηχητικά μηνύματα που μοιάζουν αληθινά και τη χρήση τεχνητής νοημοσύνης για την εξαγωγή δεδομένων για κακόβουλους σκοπούς.
Ο Χένρι Αντζερ, ερευνητής στο Πανεπιστήμιο του Κέιμπριτζ που ειδικεύεται στα deepfakes, εξήγησε στο POLITICO ότι αυτές οι εφαρμογές τεχνητής νοημοσύνης ήταν προηγουμένως απαγορευτικά ακριβές ή δύσκολες για τον μέσο άνθρωπο. Τώρα όμως βρίσκονται σε εφαρμογές που απευθύνονται στους καταναλωτές, σε ιστότοπους, συχνά δωρεάν ή πολύ φθηνά. Το MIT προειδοποιεί ότι είναι επίσης σύνηθες φαινόμενο τα μηνύματα να δοκιμάζονται σε τεχνητούς προσομοιωτές πριν τη διάδοσή τους σε πραγματικούς πολίτες. Εάν η αλλαγή δεν απομυθοποιηθεί και δεν ελέγχεται, η τεχνητή νοημοσύνη μπορεί να διαβρώσει την εμπιστοσύνη των πολιτών στις εκλογικές διαδικασίες.
«Κοινωνικά ρομπότ»
«Η τεχνητή νοημοσύνη ενέχει κινδύνους ειδικά για το σχηματισμό γνώμης πριν από τις εκλογές», λέει ο Κριστόφ Μπίμπερ, πολιτικός επιστήμονας στο Κέντρο Προηγμένων Μελετών Διαδικτύου (CAIS) στο Μπόχουμ. «Ωστόσο, βρισκόμαστε ακόμη στην αρχή της έρευνας και επομένως μπορούμε μόνο να φανταστούμε την κατεύθυνση προς την οποία κινούνται οι εξελίξεις». Εκτός από τη στοχευμένη παραπληροφόρηση, η οποία μπορεί να διαδοθεί από πολιτικές και άλλες ομάδες συμφερόντων, η χρήση της τεχνητής νοημοσύνης είναι επίσης νοητή για εντελώς διαφορετικούς σκοπούς όσον αφορά τις εκλογές.
Στα κοινωνικά δίκτυα, τα λεγόμενα «κοινωνικά ρομπότ» για παράδειγμα, αποτελούν κίνδυνο όσον αφορά την πιθανή επιρροή στους ψηφοφόρους. Τα κοινωνικά ρομπότ είναι ψεύτικοι λογαριασμοί που λειτουργούν από συστήματα τεχνητής νοημοσύνης και κάνουν το περιεχόμενο πιο ενδιαφέρον για τον αλγόριθμο, για παράδειγμα μέσω “like” ή άλλων αλληλεπιδράσεων, προκειμένου να αυξηθεί η προσέγγιση χρηστών. Αυτό συχνά δεν είναι προφανές στους χρήστες, επομένως έχουν την εντύπωση ότι ορισμένες απόψεις είναι πιο δημοφιλείς από άλλες, τουλάχιστον στο διαδίκτυο.
Οι πολιτικοί θα μπορούσαν επίσης να αλληλοεπιδράσουν με πιθανούς ψηφοφόρους. Στο Μαϊάμι της Φλόριντα, ο δήμαρχος Φράνσις Σουάρεζ δημιούργησε ένα chatbot με τεχνητή νοημοσύνη για να απαντά σε ερωτήσεις σχετικά με αυτόν. Ωστόσο, οι ερωτήσεις των χρηστών συνήθως δεν απαντώνται άμεσα, αλλά απλά εμφανίζονται σε αυτούς ορισμένα βίντεο από τον δήμαρχο, ανάλογα με το θέμα. Ωστόσο, οι ειδικοί πιστεύουν ότι παρόμοια μοντέλα θα μπορούσαν να παίξουν μεγαλύτερο ρόλο στην αφοσίωση των ψηφοφόρων στο μέλλον.
Δεν υπάρχει ακόμη σαφήνεια σχετικά με το νόημα και το μέγεθος των αλλαγών , αλλά υπάρχει βεβαιότητα ότι η τεχνητή νοημοσύνη κινείται ταχύτερα από τους προβληματισμούς για την εφαρμογή της στην κοινωνία. Ίσως για αυτόν τον λόγο, παγκοσμίου φήμης ιστορικοί όπως ο Ισραηλινός Γιουβάλ Νόα Χαράρι έχουν χαρακτηρίσει την τεχνητή νοημοσύνη ως «τη σημαντικότερη πρόκληση που έχει αντιμετωπίσει ποτέ η ανθρωπότητα».