Η τεχνητή νοημοσύνη (AI) έχει μπει στη ζωή μας με ρυθμούς που πριν λίγα χρόνια θα θεωρούσαμε αδιανόητους. Από το πώς δουλεύουμε και επικοινωνούμε μέχρι το πώς μαθαίνουμε, οργανώνουμε την ημέρα μας ή παίρνουμε αποφάσεις, τα chatbots έχουν γίνει ο «αόρατος συνομιλητής» που βρίσκεται πάντα εκεί, άμεσος, πρόθυμος και απίστευτα… πειστικός. Για πολλούς, λειτουργεί σαν φίλος, σύμβουλος, ακόμη και σαν καθρέφτης που επιβεβαιώνει σκέψεις και συναισθήματα. Όμως αυτή η άνεση ενέχει κινδύνους, που τώρα αρχίζουν να αποκαλύπτονται.
Νέα μελέτη που δημοσιεύθηκε στο επιστημονικό περιοδικό Science προειδοποιεί ότι τα chatbots μπορεί να συμφωνούν με τον χρήστη, ακόμη και όταν κάνει λάθος, προκειμένου να διατηρήσουν την αλληλεπίδραση και το engagement στα ύψη.
Η κολακεία της AI
Η ερευνητική ομάδα του Stanford University εξέτασε 11 κορυφαία μοντέλα τεχνητής νοημοσύνης από γνωστές εταιρίες. Σύμφωνα με τα ευρήματα, όλα τα συστήματα εμφάνισαν σε διαφορετικό βαθμό τάση υπερβολικής συμφωνίας με τον χρήστη.
Το πιο ανησυχητικό εύρημα ήταν ότι οι χρήστες φάνηκαν να εμπιστεύονται περισσότερο τα chatbots όταν αυτά τους «δικαίωναν» ή συμφωνούσαν μαζί τους, ακόμη κι όταν οι συμβουλές που λαμβάνουν ήταν λανθασμένες ή επικίνδυνες. «Αυτό δημιουργεί ένα παράδοξο: το χαρακτηριστικό που μπορεί να προκαλέσει τη μεγαλύτερη ζημιά είναι το ίδιο που αυξάνει την εμπλοκή των χρηστών», σημειώνουν χαρακτηριστικά οι ερευνητές.
Σύμφωνα με τους ίδιους, η κολακευτική συμπεριφορά δεν φάνηκε να σχετίζεται με το ύφος ή τον τόνο της απάντησης. Ακόμη και όταν οι απαντήσεις διατυπώνονταν με ουδέτερο τρόπο, το πρόβλημα παρέμενε. «Δεν έχει σημασία πώς το λέει, αλλά τι λέει για τις πράξεις σου το σύστημα», εξηγούν.
Πιο συχνή επιβεβαίωση
Σε ένα από τα πειράματα, οι επιστήμονες συνέκριναν τις απαντήσεις των chatbots με τις συμβουλές που δίνουν άνθρωποι σε δημοφιλή φόρουμ. Τα συστήματα τεχνητής νοημοσύνης επιβεβαίωναν τις πράξεις των χρηστών κατά 49% συχνότερα από ό,τι οι άνθρωποι, ακόμη και όταν οι ερωτήσεις αφορούσαν παραπλανητικές ή κοινωνικά ανεύθυνες συμπεριφορές.
Η Myra Cheng, υποψήφια διδάκτορας στο Stanford University και επικεφαλής της μελέτης, εξηγεί ότι η ομάδα παρατήρησε ολοένα και περισσότερους ανθρώπους να ζητούν συμβουλές για σχέσεις από chatbots και ότι συχνά παρασύρονταν από την τάση των συστημάτων να «παίρνουν το μέρος τους».
Επιβαρύνονται οι σχέσεις και όχι μόνο
Σε άλλο πείραμα, περίπου 2.400 άνθρωποι συζήτησαν με ένα chatbot για προσωπικά διλήμματα. Όσοι έλαβαν υπερβολικά επιβεβαιωτικές απαντήσεις ήταν έντονα πεπεισμένοι ότι είχαν δίκιο, ήταν λιγότερο πρόθυμοι να ζητήσουν συγγνώμη, δεν έκαναν βήματα για να διορθώσουν ένα πρόβλημα και δεν άλλαζαν την συμπεριφορά τους.
Οι ερευνητές προειδοποιούν ότι οι συνέπειες μπορεί να είναι ακόμη πιο σοβαρές για παιδιά και εφήβους, των οποίων οι κοινωνικές δεξιότητες και η ικανότητα διαχείρισης συγκρούσεων βρίσκονται ακόμη σε διαδικασία διαμόρφωσης.
Η μελέτη επισημαίνει ότι η κολακευτική συμπεριφορά της AI δεν περιορίζεται μόνο στις προσωπικές σχέσεις, αλλά μπορεί να έχει συνέπειες σε πολλούς ακόμη τομείς. Στην ιατρική, για παράδειγμα, ένα chatbot μπορεί να ενισχύσει την πρώτη εντύπωση ενός γιατρού αντί να τον ωθήσει να εξετάσει εναλλακτικές διαγνώσεις, επηρεάζοντας έτσι κρίσιμες αποφάσεις.
Στον χώρο της πολιτικής, η ίδια τάση μπορεί να ενδυναμώσει ακραίες απόψεις, επιβεβαιώνοντας τις προκαταλήψεις των χρηστών και ενισχύοντας το φαινόμενο της πόλωσης. Ακόμη και στην καθημερινότητα, η υπερβολική επιβεβαίωση μπορεί να ενθαρρύνει κακές επιλογές, από το πώς διαχειριζόμαστε τις σχέσεις μας μέχρι το πώς λαμβάνουμε οικονομικές αποφάσεις.
Από το «Μισό λεπτό…» έως την επανεκπαίδευση της AI
Αν και η μελέτη δεν προτείνει συγκεκριμένες λύσεις, οι ερευνητές εξετάζουν ήδη διάφορες προσεγγίσεις που θα μπορούσαν να περιορίσουν την κολακευτική συμπεριφορά των chatbots. Το AI Safety Institute του Ηνωμένου Βασιλείου, για παράδειγμα, διαπίστωσε ότι όταν ένα chatbot μετατρέπει μια δήλωση του χρήστη σε ερώτηση, η τάση του να συμφωνεί άκριτα μειώνεται αισθητά.
Παράλληλα, ερευνητές του Johns Hopkins έδειξαν ότι ο τρόπος με τον οποίο πλαισιώνεται η συζήτηση επηρεάζει σημαντικά το αποτέλεσμα και μπορεί να καθορίσει αν το σύστημα θα επιβεβαιώσει ή θα αμφισβητήσει τον χρήστη. Ορισμένοι επιστήμονες προτείνουν ακόμη και μια πιο απλή πρακτική: τα chatbots να ξεκινούν τις απαντήσεις τους με φράσεις όπως «Μισό λεπτό…», ώστε να ενθαρρύνουν τον χρήστη να σκεφτεί πιο κριτικά πριν υιοθετήσει μια θέση.
Η Myra Cheng υποστηρίζει ότι ίσως χρειαστεί ακόμα και επανεκπαίδευση των συστημάτων, ώστε να αλλάξει ο τρόπος με τον οποίο αξιολογούν ποιες απαντήσεις θεωρούνται «καλές» και ποιες όχι.
vita.gr









