Eθισμένη στο ψέμα η τεxνητή νοημοσύνη - «Μασάει» τα λόγια της όταν στριμώxνεται και απαντά σαν ανάγωγος μαθητής
«Κανείς δεν μπορεί να διορθώσει αυτή την ατέλεια», αναφέρουν ειδικοί
H τεχνητή νοημοσύνη δεν λέει πάντα την αλήθεια. Το αντίθετο μάλιστα. Όσοι αποπειράθηκαν να την εμπιστευτούν, από μαθητές και φοιτητές έως ακαδημαϊκούς και επιστήμονες, έπεσαν θύματα του εθισμού της στο ψέμα!
«Κάποιες φορές η τεχνητή νοημοσύνη επιδεικνύει παράδοξες συμπεριφορές και λέει ψέματα χωρίς να κομπιάζει», αποφαίνονται πλέον οι ειδικοί. «Αν θέλετε να μάθετε γιατί, δεν έχετε παρά να κοιτάξετε το είδωλό σας στον καθρέφτη...».
Από τις αρχές του χρόνου, όταν η Microsoft αποφάσισε να εντάξει στη μηχανή αναζήτησης Bing ένα chatbot (μια εφαρμογή τεχνητής νοημοσύνης, ΑΙ χάριν συντομογραφίας, με τη βοήθεια της οποίας μπορεί κάποιος να κάνει εκτεταμένες αναζητήσεις, υποβάλλοντάς της διαδοχικά ερωτήματα), οι χρήστες παρατήρησαν ότι οι πληροφορίες που έδινε ήταν πολλές φορές λανθασμένες.
Το chatbot διολίσθαινε διαρκώς είτε προς την πλευρά ειδήσεων που είχαν δημοσιευτεί χωρίς επαρκή διασταύρωση είτε σε fake news, τις γνωστές μας σκόπιμα διαστρεβλωμένες ειδήσεις που αναπαράγει κάθε τόσο το διαδίκτυο, χωρίς να κάνει διάκριση ανάμεσα στην αλήθεια και στο ψέμα. Πώς θα μπορούσε άλλωστε;Ανάγωγες απαντήσεις
Στη συνέχεια πεπειραμένοι δημοσιογράφοι και ερευνητές με βαθιά γνώση του αντικειμένου τους ανέλαβαν να «ανακρίνουν» εξονυχιστικά το chatbot. Δεν άργησαν να διαπιστώσουν ότι, όταν ήρθε αντιμέτωπη με πιο ευθύβολες ερωτήσεις, η ΑΙ άρχισε χωρίς υπερβολή να «μασάει» τα λόγια της και να δίνει στους ερωτώντες περίεργες, ακόμα και ανάγωγες, απαντήσεις.
«Το σύστημα είναι περίπλοκο - είναι δύσκολο για έναν απλό χρήστη να κατανοήσει τι ακριβώς κάνει και γιατί το κάνει», δικαιολογήθηκαν κάπως αόριστα, ως άλλες Πυθίες, οι επιστήμονες πληροφορικής. Και ύστερα μπήκαν στην ουσία του θέματος: και αποκάλυψαν ότι, όπως κάθε μαθητής, η ΑΙ μπορεί να αντλήσει λανθασμένες πληροφορίες από μη εξακριβωμένες πηγές και να τις αναμεταδώσει στους χρήστες της!
Ανθρώπινες αντιδράσεις
Τα τρία πρωτοπόρα συστήματα τεχνητής νοημοσύνης για «καθημερινή χρήση» -το chatbot του Bing, το Bard της Google και το ChatGPT της OpenAI- υποπίπτουν σε συνεχή λάθη, όπως διαπιστώνουν πλέον όσοι τα χρησιμοποιούν συστηματικά. Όχι μόνο δεν βοηθούν τους χρήστες να αντλήσουν νέα στοιχεία για την έρευνά τους, αλλά τους παραπλανούν με ανακριβείς πληροφορίες.
Ο λόγος είναι απλός: τα chatbots δεν μπορούν να διακρίνουν την αλήθεια από το ψέμα. Και μόλις βρεθούν αντιμέτωπα με χρήστες που τα «ζορίζουν» να εμβαθύνουν σε ένα θέμα, αντιδρούν όπως θα αντιδρούσε... ένας άνθρωπος που έρχεται σε δύσκολη θέση: αυθαδιάζουν!
Έχουν λοιπόν ανθρώπινες αντιδράσεις τα chatbots της τεχνητής νοημοσύνης; Ίσως όχι, «είναι όμως διατεθειμένα να σου προσφέρουν αυτό που ψάχνεις, - αυτό που ποθεί η καρδιά σου», δίνει την απάντηση ο καθηγητής Βιολογικών Σπουδών στο Ινστιτούτο Σαλκ και το Πανεπιστήμιο της Καλιφόρνιας, Τέρι Σαϊνόφσκι.
Και εξηγεί: «Όσο περισσότερο διαρκεί η “συνομιλία” μεταξύ ανθρώπου και ΑΙ τόσο ο χρήστης επηρεάζει χωρίς να το θέλει τα λεγόμενα του chatbot. Αν θυμώσεις μαζί του, για παράδειγμα, θα θυμώσει κι εκείνο. Και αν του υποβάλεις ενοχλητικές ερωτήσεις, όπως θα έκανε ένας δημοσιογράφος που θέλει να ξετρυπώσει κάποιο σκάνδαλο, θα σπεύσει να σου προσφέρει τις απαντήσεις που ψάχνεις, έστω κι αν δεν είναι οι σωστές».
Δημιουργική φαντασία
Πού βρίσκουν όμως τις λανθασμένες απαντήσεις τα εργαλεία τεχνητής νοημοσύνης; Τις ανακαλύπτουν στο διαδίκτυο ή μήπως επαφίενται στη... δημιουργική τους φαντασία; «Μόνο κατά τύχη μπορούμε να θεωρήσουμε ένα κείμενο που έχει συνταχθεί με τη συνδρομή της τεχνητής νοημοσύνης ως κάτι κατανοητό ή σωστό», υποστηρίζει η καθηγήτρια Γλωσσολογίας και υπεύθυνη του Εργαστηρίου Γλωσσολογίας Ηλεκτρονικών Υπολογιστών της Ουάσινγκτον, Έμιλι Μπέντερ.
«Είναι αδύνατο να αναχαιτίσουμε την τάση των συστημάτων τεχνητής νοημοσύνης να επινοούν συνεχώς πράγματα», συνοψίζει η Μπέντερ. «Κανείς δεν μπορεί να διορθώσει αυτή την ατέλεια», διευκρινίζει η γλωσσολόγος. «Είναι σύμφυτη με την αναντιστοιχία που υπάρχει ανάμεσα σε δύο διαφορετικά πράγματα: την τεχνολογία από τη μια και, από την άλλη, τις υποθέσεις εργασίας που κάνει ο χρήστης που ζητάει τη συνδρομή της τεχνητής νοημοσύνης».
«Μηχανή» fake news
Τι θα συμβεί όμως όταν το chatbot καθίσει στην καρέκλα ενός επαγγελματία δημοσιογράφου και αποπειραθεί να παίξει τον ρόλο του; Ήδη η Google πειραματίζεται με news generators (γεννήτριες ειδήσεων) που τροφοδοτούν με ειδησεογραφικό περιεχόμενο ιστότοπους ή εφημερίδες.
Ωστόσο οι δημιουργοί των συστημάτων παραγωγής ειδήσεων επισημαίνουν από μόνοι τους τις τεράστιες δυσκολίες που παρουσιάζει το εγχείρημά τους. Οι ειδήσεις που παράγονται ηλεκτρονικά είναι ανακριβείς και πολλές φορές παρασύρουν τον αναγνώστη σε ένα σύμπαν «ειδησεογραφικών παραισθήσεων».
«Πιστεύω πως με τον καιρό θα μειώσουμε δραστικά τις... παραισθήσεις της ΑΙ», είχε υποστηρίξει πρόσφατα σε ομιλία του ο CEO της OpenAI, Σαμ Όλτμαν. «Ίσως μας πάρει έναν χρόνο, ίσως δύο». Οι επιστήμονες πληροφορικής όμως έχουν αντίθετη γνώμη: Είναι πολύ δύσκολο να πείσεις την ΑΙ να πει την αλήθεια. Για να κυριολεκτήσουμε, μοιάζει με τον μύθο του Ταντάλου: κάθε φορά που νομίζεις ότι φτάνεις τον στόχο σου, στην πραγματικότητα απομακρύνεσαι από αυτόν ολοένα και περισσότερο!..
Δημοσιεύθηκε στην Απογευματινή