Πέμπτη 6 Ιουλίου 2023

Το ChatGPT έμαθε να λέει ψέματα – Και το κάνει καλύτερα από τους ανθρώπους



>Μέχρι και πριν από μερικούς μήνες θα δυσκολευόταν κανείς να διακρίνει τις διαφορές ανάμεσα στα κείμενα που έχει «γράψει» μία μηχανή και σε αυτά που έχει δημιουργήσει ένας άνθρωπος. Ωστόσο, το επίπεδο γραφής των νέων μοντέλων τεχνητής νοημοσύνης είναι πλέον σχεδόν άριστο, όπως διαπίστωσε νέα έρευνα.

Συνολικά 697 άτομα κλήθηκαν να διαβάσουν 220 tweets που είχαν γραφτεί από ανθρώπους και από το GPT-3, τον προκάτοχο του GhatGPT. Αρχικά μάντευαν ποια tweets εμπεριείχαν αληθινές ή ψεύτικες πληροφορίες και στη συνέχεια αν είχαν γραφτεί από άνθρωπο ή από μηχανή.

Το GPT-3 «νίκησε» και στα δύο πεδία: όχι μόνο έλεγε πειστικά ψέματα, αλλά έπειθε και το κοινό ότι τα γραπτά προέρχονταν από ανθρώπους. «Το GPT-3 μπορεί να μας πληροφορήσει και να μας παραπληροφορήσει καλύτερα», καταλήγουν οι συντάκτες της νέας έρευνας που δημοσιεύθηκε στο επιστημονικό περιοδικό Science Advances.

«Ήταν πολύ απροσδόκητο», δήλωσε ο Giovanni Spitale, ένας εκ των συντακτών της έρευνας και ερευνητής στο Πανεπιστήμιο της Ζυρίχης. Οι αναγνώστες δεν μπορούσαν να εντοπίσουν τα μοτίβα στα κείμενα των μηχανών, όπως ανέμεναν οι ερευνητές. Παράλληλα, η σταδιακή ανάπτυξη νέων μοντέλων και προσεγγίσεων μπορεί να βελτιώσει περαιτέρω τις δυνατότητες της τεχνητής νοημοσύνης.

Ο θάνατος του σημερινού Ίντερνετ

Η έρευνα αποδεικνύει ότι ο κόσμος δυσκολεύεται να διακρίνει τα κείμενα που έχουν γραφτεί από μηχανή, ακόμη και εάν έχουν δει πολλά παραδείγματα. «Τα αληθινά tweets απαιτούν περισσότερο χρόνο για να αξιολογηθούν», σημειώνει η έρευνα. «Είναι πολύ σαφές, καλά δομημένο και εύκολο να διαβαστεί», εξηγεί ο Spitale.

Εξαιτίας αυτής ακριβώς της βελτίωσης στη γραφή οι ειδικοί προεξοφλούν ότι η τεχνητή νοημοσύνη θα «σκοτώσει» το Διαδίκτυο στη μορφή που το ξέρουμε σήμερα. Οι ερευνητές μάλιστα κρίνουν ότι θα πρόκειται για μία «ήττα» της ανθρωπότητας στο ίντερνετ, την οποία εντάσσουν στη λεγόμενη θεωρία της παραίτησης. «Η θεωρία της παραίτησης αναφέρεται στην αυτοπεποίθηση των ανθρώπων να αναγνωρίζουν συνθετικά κείμενα (όσα έχουν γραφτεί από μηχανή). Η θεωρία λέει ότι η μεγάλη έκθεση σε συνθετικό κείμενο περιορίζει τη δυνατότητα των ανθρώπων να το διακρίνουν από το οργανικό», δήλωσε ο Spitale. Ουσιαστικά όσο περισσότερα συνθετικά κείμενα διαβάζουμε, τόσο πιο δύσκολο είναι να τα διακρίνουμε από αυτά που έχουν γραφτεί από άνθρωπο, όπως επίσης και από τα κείμενα που έχουν εσφαλμένες πληροφορίες.

Εάν η θεωρία αυτή αληθεύει, τότε σύντομα οι χρήστες του Ίντερνετ θα αδυνατούν να διακρίνουν τις διαφορές. Μάλιστα, στο πλαίσιο της έρευνας εξετάστηκε επίσης εάν το GPT-3 ήταν καλό στο να εντοπίζει τα δικά του κείμενα. Δυστυχώς, δεν ήταν και τόσο καλό.

Ενδεχομένως η μοναδική ελπίδα για την αποφυγή μιας έκρηξης παραπληροφόρησης είναι ότι τα μοντέλα ΑΙ ορισμένες φορές δεν υπακούουν τις οδηγίες και «αρνούνται» να δημιουργήσουν ψεύτικες ειδήσεις. Αυτό βέβαια εξαρτάται από την εφαρμογή ΑΙ, αλλά και το περιβάλλον στο οποίο αξιοποιείται. «Το εάν η έκρηξη του συνθετικού κειμένου σημαίνει παράλληλα έκρηξη παραπληροφόρησης εξαρτάται πολύ από το πώς οι δημοκρατικές κοινωνίες ρυθμίζουν αυτή την τεχνολογία και τη χρήση της», προειδοποίησε ο Spitale.

moneyreview.gr με πληροφορίες από El Pais

(Αναρτήθηκε από τον Μιχάλη Τσολάκη)