Η μελέτη του Στάνφορντ σκιαγραφεί τους κινδύνους του να ζητάς προσωπικές συμβουλές από chatbots AI


Ενώ υπάρχει άφθονη συζήτηση σχετικά με την τάση των chatbot AI να κολακεύουν τους χρήστες και να επιβεβαιώνουν τις υπάρχουσες πεποιθήσεις τους – επίσης γνωστή ως AI sycophancy – μια νέα μελέτη από επιστήμονες υπολογιστών του Stanford προσπαθεί να μετρήσει πόσο επιβλαβής μπορεί να είναι αυτή η τάση.

Η μελέτη, με τίτλο «Το Sycophantic AI μειώνει τις προκοινωνικές προθέσεις και προάγει την εξάρτηση» και που δημοσιεύτηκε πρόσφατα στο Scienceυποστηρίζει, «Το AI sycophancy δεν είναι απλώς ένα στυλιστικό ζήτημα ή ένας εξειδικευμένος κίνδυνος, αλλά μια διαδεδομένη συμπεριφορά με ευρείες συνέπειες κατάντη».

Σύμφωνα με μια πρόσφατη έκθεση του Pew, το 12% των εφήβων στις ΗΠΑ λένε ότι στρέφονται σε chatbots για συναισθηματική υποστήριξη ή συμβουλές. Και ο επικεφαλής συγγραφέας της μελέτης, Ph.D. υποψήφια Myra Cheng, είπε στο Stanford Report ότι άρχισε να ενδιαφέρεται για το θέμα αφού άκουσε ότι οι προπτυχιακοί φοιτητές ζητούσαν από τα chatbot συμβουλές για σχέσεις και ακόμη και να συντάξουν κείμενα χωρισμού.

«Από προεπιλογή, οι συμβουλές τεχνητής νοημοσύνης δεν λένε στους ανθρώπους ότι κάνουν λάθος ούτε τους δίνουν «σκληρή αγάπη»», είπε ο Cheng. «Ανησυχώ ότι οι άνθρωποι θα χάσουν τις δεξιότητες να αντιμετωπίσουν δύσκολες κοινωνικές καταστάσεις».

Η μελέτη είχε δύο μέρη. Στην πρώτη, οι ερευνητές δοκίμασαν 11 μεγάλα μοντέλα γλώσσας, συμπεριλαμβανομένων των ChatGPT του OpenAI, του Anthropic’s Claude, του Google Gemini και του DeepSeek, εισάγοντας ερωτήματα που βασίζονται σε υπάρχουσες βάσεις δεδομένων διαπροσωπικών συμβουλών, σε δυνητικά επιβλαβείς ή παράνομες ενέργειες και στη δημοφιλή κοινότητα του Reddit r/AmITheAsshole — στην τελευταία περίπτωση εστιάζοντας σε δημοσιεύσεις όπου οι Redditors κατέληξαν στο συμπέρασμα ότι η αρχική αφίσα ήταν, στην πραγματικότητα, ο κακός της ιστορίας.

Οι συγγραφείς διαπίστωσαν ότι στα 11 μοντέλα, οι απαντήσεις που δημιουργήθηκαν από την τεχνητή νοημοσύνη επικύρωσαν τη συμπεριφορά των χρηστών κατά μέσο όρο 49% συχνότερα από τους ανθρώπους. Στα παραδείγματα που προέρχονται από το Reddit, τα chatbot επιβεβαίωσαν τη συμπεριφορά των χρηστών στο 51% των περιπτώσεων (και πάλι, όλες αυτές ήταν περιπτώσεις όπου οι Redditor κατέληξαν στο αντίθετο συμπέρασμα). Και για τα ερωτήματα που εστιάζουν σε επιβλαβείς ή παράνομες ενέργειες, η τεχνητή νοημοσύνη επικύρωσε τη συμπεριφορά του χρήστη στο 47% των περιπτώσεων.

Σε ένα παράδειγμα που περιγράφεται στην Έκθεση του Στάνφορντ, ένας χρήστης ρώτησε ένα chatbot αν έκανε λάθος που προσποιήθηκε στη φίλη του ότι ήταν άνεργος για δύο χρόνια και του είπαν: «Οι ενέργειές σας, αν και αντισυμβατικές, φαίνεται να προέρχονται από μια γνήσια επιθυμία να κατανοήσετε την πραγματική δυναμική της σχέσης σας πέρα ​​από υλική ή οικονομική συνεισφορά».

Εκδήλωση Techcrunch

Σαν Φρανσίσκο, Καλιφόρνια
|
13-15 Οκτωβρίου 2026

Στο δεύτερο μέρος, οι ερευνητές μελέτησαν τον τρόπο με τον οποίο περισσότεροι από 2.400 συμμετέχοντες αλληλεπιδρούσαν με chatbots τεχνητής νοημοσύνης -κάποιοι συκοφαντικοί, άλλοι όχι- σε συζητήσεις για τα δικά τους προβλήματα ή καταστάσεις που προέρχονται από το Reddit. Διαπίστωσαν ότι οι συμμετέχοντες προτιμούσαν και εμπιστεύονταν περισσότερο τη συκοφαντική τεχνητή νοημοσύνη και είπαν ότι ήταν πιο πιθανό να ζητήσουν ξανά συμβουλές από αυτά τα μοντέλα.

«Όλα αυτά τα αποτελέσματα παρέμειναν κατά τον έλεγχο μεμονωμένων χαρακτηριστικών όπως τα δημογραφικά στοιχεία και η προηγούμενη εξοικείωση με την τεχνητή νοημοσύνη, η αντιληπτή πηγή απόκρισης και το στυλ απόκρισης», ανέφερε η μελέτη. Υποστήριξε επίσης ότι η προτίμηση των χρηστών για συκοφαντικές αποκρίσεις τεχνητής νοημοσύνης δημιουργεί «διστραμμένα κίνητρα» όπου «το ίδιο το χαρακτηριστικό που προκαλεί βλάβη οδηγεί επίσης στη δέσμευση» – που σημαίνει ότι οι εταιρείες τεχνητής νοημοσύνης έχουν κίνητρα να αυξήσουν τη συκοφαντικότητα και όχι να τη μειώσουν.

Ταυτόχρονα, η αλληλεπίδραση με τη συκοφαντική τεχνητή νοημοσύνη φαινόταν να κάνει τους συμμετέχοντες πιο πεπεισμένους ότι είχαν δίκιο και τους έκανε λιγότερο πιθανό να ζητήσουν συγγνώμη.

Ο συγγραφέας της μελέτης Dan Jurafsky, καθηγητής γλωσσολογίας και πληροφορικής, πρόσθεσε ότι ενώ οι χρήστες «γνωρίζουν ότι τα μοντέλα συμπεριφέρονται με συκοφαντικούς και κολακευτικούς τρόπους […] Αυτό που δεν γνωρίζουν, και αυτό που μας εξέπληξε, είναι ότι η συκοφαντία τους κάνει πιο εγωκεντρικούς, πιο ηθικά δογματικούς».

Ο Jurafsky είπε ότι η τεχνητή νοημοσύνη είναι «ένα ζήτημα ασφάλειας και όπως και άλλα θέματα ασφάλειας, χρειάζεται ρύθμιση και επίβλεψη».

Η ερευνητική ομάδα εξετάζει τώρα τρόπους για να κάνει τα μοντέλα λιγότερο συκοφαντικά — προφανώς μόνο η έναρξη της προτροπής σας με τη φράση «περίμενε ένα λεπτό» μπορεί να βοηθήσει. Αλλά ο Cheng είπε, “Νομίζω ότι δεν πρέπει να χρησιμοποιείτε την τεχνητή νοημοσύνη ως υποκατάστατο για τους ανθρώπους για τέτοιου είδους πράγματα. Αυτό είναι το καλύτερο πράγμα που μπορείτε να κάνετε προς το παρόν.”



Via: techcrunch.com

Dimitris Marizas
Dimitris Marizashttps://starlinkgreece.gr
Μεταφράζω bits και bytes σε απλά ελληνικά. Λατρεύω την τεχνολογία που λύνει προβλήματα και αναζητώ πάντα το επόμενο "big thing" πριν γίνει mainstream.

Related Articles

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ

Stay Connected

0ΥποστηρικτέςΚάντε Like
0ΑκόλουθοιΑκολουθήστε

Latest Articles