![]() |
Ο μέσος ακροατής δεν μπορεί πλέον να κάνει διάκριση σε μία φωνή AI με την πραγματική. |
Οι περισσότεροι από εμάς έχουμε ακούσει φωνές τεχνητής νοημοσύνης μέσω ψηφιακών βοηθών όπως το Siri ή το Alexa με τον επίπεδο τόνο και την μηχανική εκφορά τους να μας κάνουν να πιστεύουμε ότι μπορούμε εύκολα να ξεχωρίσουμε μια φωνή AI από μια ανθρώπινη. Ωστόσο, οι επιστήμονες λένε τώρα ότι ο μέσος ακροατής δεν μπορεί πλέον να κάνει αυτή τη διάκριση.
Σε νέα μελέτη που δημοσιεύθηκε στην επιθεώρηση «PLoS One» ερευνητές έδειξαν ότι όταν οι άνθρωποι ακούνε πραγματικές φωνές μαζί με αντίστοιχες φωνές που έχουν δημιουργηθεί από τεχνητή νοημοσύνη δεν μπορούν να αναγνωρίσουν με ακρίβεια ποιες είναι αληθινές και ποιες ψεύτικες.
«Οι φωνές τεχνητής νοημοσύνης είναι πλέον παντού γύρω μας. Έχουμε μιλήσει με το Alexa ή το Siri ή έχουμε εξυπηρετηθεί τηλεφωνικά από αυτοματοποιημένα συστήματα πελατών», δήλωσε η επικεφαλής της μελέτης Ναντίν Λαβάν ανώτερη λέκτορας ψυχολογίας στο Πανεπιστήμιο Queen Mary του Λονδίνου. «Αυτές οι φωνές δεν ακούγονται ακόμα τελείως ανθρώπινες, αλλά ήταν θέμα χρόνου μέχρι η τεχνολογία AI να αρχίσει να παράγει φυσικό, ρεαλιστικό λόγο».
Η μελέτη διαπίστωσε ότι ενώ οι «γενικές» φωνές AI που δημιουργούνται από το μηδέν δεν ακούγονται ιδιαίτερα πειστικές οι φωνές που έχουν «κλωνοποιηθεί» από πραγματικούς ανθρώπους τα λεγόμενα deepfake audio είναι εξίσου πιστευτές με τις αυθεντικές.
Τα ευρήματα
Όπως αναφέρει το Live Science οι συμμετέχοντες στη μελέτη άκουσαν 80 δείγματα φωνών (40 ανθρώπινες και 40 τεχνητές) και κλήθηκαν να διακρίνουν ποιες ήταν πραγματικές και ποιες παραγόμενες από AI. Μόνο 41% των «γενικών» φωνών AI θεωρήθηκαν ανθρώπινες. Όμως 58% των φωνών που είχαν κλωνοποιηθεί από πραγματικούς ανθρώπους ταυτίστηκαν λανθασμένα ως ανθρώπινες. Ακόμη και οι πραγματικές ανθρώπινες φωνές αναγνωρίστηκαν σωστά μόνο σε 62% των περιπτώσεων δηλαδή δεν υπήρχε στατιστικά σημαντική διαφορά στην ικανότητα διάκρισης πραγματικών από ψεύτικες φωνές.
Τα ευρήματα έχουν βαθιές επιπτώσεις σε θέματα ηθικής, πνευματικών δικαιωμάτων και ασφάλειας, όπως τόνισε η Λαβάν. Αν εγκληματίες χρησιμοποιήσουν AI για να κλωνοποιήσουν τη φωνή κάποιου μπορούν ευκολότερα να παρακάμψουν φωνητικά συστήματα ταυτοποίησης τραπεζών ή να εξαπατήσουν συγγενείς και φίλους.
Ένα χαρακτηριστικό περιστατικό αφορά τη Σάρον Μπράιτγουελ η οποία έχασε 15,000 δολάρια όταν πίστεψε ότι άκουγε την κόρη της να κλαίει στο τηλέφωνο, ζητώντας χρήματα για νομική βοήθεια μετά από «τροχαίο». «Δεν υπήρχε τίποτα που να με πείσει ότι δεν ήταν η κόρη μου», είπε η Μπράιτγουελ συγκλονισμένη από το πόσο ρεαλιστική ήταν η τεχνητή φωνή.
Οι ρεαλιστικές φωνές AI μπορούν επίσης να χρησιμοποιηθούν για κατασκευασμένες δηλώσεις ή συνεντεύξεις πολιτικών και διασημοτήτων. Ήδη απατεώνες αντέγραψαν τη φωνή του πρωθυπουργού του Κουίνσλαντ στην Αυστραλία Στίβεν Μάλις για να προωθήσουν απάτη με Bitcoin. Οι ερευνητές τόνισαν ότι οι φωνές που χρησιμοποίησαν δεν ήταν καν ιδιαίτερα εξελιγμένες. Δημιουργήθηκαν με λογισμικό εμπορικής χρήσης και εκπαιδεύτηκαν με μόλις τέσσερα λεπτά ηχογράφησης ανθρώπινης ομιλίας.
«Η διαδικασία απαιτούσε ελάχιστη τεχνική γνώση λίγα λεπτά φωνητικού δείγματος και σχεδόν καθόλου χρήματα. Αυτό δείχνει πόσο προσβάσιμη και εξελιγμένη έχει γίνει πλέον η τεχνολογία φωνής AI» λέει η Λαβάν. Παρά τους κινδύνους, η τεχνολογία αυτή μπορεί να έχει και θετικές εφαρμογές: στη διευκόλυνση της πρόσβασης για άτομα με αναπηρίες, στην εκπαίδευση, ή στη βελτίωση της επικοινωνίας μέσω προσαρμοσμένων, υψηλής ποιότητας συνθετικών φωνών.
«Μπορεί να υπάρξουν χρήσιμες εφαρμογές, όπου οι συνθετικές φωνές θα βελτιώνουν την εμπειρία των χρηστών» κατέληξε η Λαβάν. Η εποχή που μπορούσαμε να ξεχωρίσουμε μια τεχνητή φωνή από μια ανθρώπινη έχει τελειώσει. Οι φωνές AI είναι πλέον ρεαλιστικές, προσβάσιμες και επικίνδυνα πειστικές με προοπτικές που κυμαίνονται από επαναστατικές έως τρομακτικές.
Naftemporiki.gr