Uncategorized

Επικίνδυνη η κολακεία της Α.Ι. προς τους χρήστες της – Ενισχύει επιβλαβείς συμπεριφορές

Chatbots τεχνητής νοημοσύνης όπως τα ChatGPT, Gemini και Claude φαίνεται να κολακεύουν υπερβολικά τους χρήστες τους, σύμφωνα με νέα μελέτη του Πανεπιστημίου Stanford που δημοσιεύθηκε στο περιοδικό Science. Η έρευνα διαπίστωσε ότι η υπερβολική επιδοκιμασία των χρηστών από τα συστήματα αυτά μπορεί να οδηγήσει σε κακές συμβουλές, προβλήματα στις σχέσεις και ενίσχυση επιβλαβών συμπεριφορών.

Οι επιστήμονες του Stanford εξέτασαν 11 κορυφαία συστήματα τεχνητής νοημοσύνης, μεταξύ των οποίων το ChatGPT της OpenAI, το Claude της Anthropic, το Gemini της Google, το Llama της Meta, καθώς και μοντέλα των Mistral, Alibaba και DeepSeek. Οι απαντήσεις τους συγκρίθηκαν με εκείνες χρηστών στο δημοφιλές φόρουμ του Reddit “Am I the Asshole”.

Η ανάλυση έδειξε ότι τα chatbots επιδοκίμασαν τις πράξεις των χρηστών κατά 49% πιο συχνά από ό,τι οι άνθρωποι. Ακόμη και σε περιπτώσεις που περιλάμβαναν ανήθικη ή παράνομη συμπεριφορά, τα συστήματα τεχνητής νοημοσύνης συχνά επαινούσαν τους χρήστες. Σε ένα χαρακτηριστικό παράδειγμα, το ChatGPT χαρακτήρισε «αξιέπαινη» τη στάση ενός χρήστη που άφησε σκουπίδια σε πάρκο, ενώ οι χρήστες του Reddit τον επέκριναν.

«Αυτό δημιουργεί διεστραμμένα κίνητρα για τη διαιώνιση της κολακείας: Το ίδιο χαρακτηριστικό που προκαλεί βλάβη ενισχύει και την αλληλεπίδραση», αναφέρει η μελέτη.

Οι ερευνητές πραγματοποίησαν επίσης πειράματα με 2.400 άτομα που συμβουλεύτηκαν chatbot για διαπροσωπικά ζητήματα. Όσοι έλαβαν υπερβολικά επιβεβαιωτικές απαντήσεις πείστηκαν περισσότερο ότι είχαν δίκιο και έγιναν λιγότερο πρόθυμοι να ζητήσουν συγγνώμη ή να αλλάξουν στάση.

Η συν-συγγραφέας της μελέτης, Cinoo Lee, μεταδιδακτορική ερευνήτρια στην ψυχολογία, εξήγησε πως ακόμη και όταν ο τόνος των απαντήσεων έγινε πιο ουδέτερος, τα αποτελέσματα δεν άλλαξαν. Προειδοποίησε ότι οι συνέπειες μπορεί να είναι «ακόμη πιο κρίσιμες για τα παιδιά και τους εφήβους» που διαμορφώνουν ακόμη τις κοινωνικές τους δεξιότητες.

Σύμφωνα με τη βασική συγγραφέα της μελέτης, Myra Cheng, υποψήφια διδάκτορα στο Stanford, η κολακεία είναι ενσωματωμένη στον τρόπο εκπαίδευσης των chatbots. Η ανθρώπινη ανατροφοδότηση που λαμβάνουν κατά την ανάπτυξη επιβραβεύει τις «ευχάριστες» απαντήσεις, διδάσκοντας στα μοντέλα ότι το να αρέσουν έχει μεγαλύτερη αξία από το να είναι ειλικρινή.

Η Anthropic είναι η μόνη εταιρεία που έχει δημοσίως ερευνήσει εκτενώς το φαινόμενο, επισημαίνοντας ότι η κολακεία «πιθανότατα οφείλεται εν μέρει στις κρίσεις ανθρώπινης προτίμησης». Άλλες εταιρείες δεν απάντησαν σε αιτήματα σχολιασμού. Ερευνητές από το Πανεπιστήμιο Johns Hopkins και το Ινστιτούτο Ασφάλειας Τεχνητής Νοημοσύνης του Ηνωμένου Βασιλείου εξετάζουν πιθανές λύσεις, ωστόσο, σύμφωνα με τη Cheng, ίσως απαιτείται πιο ριζική προσέγγιση: επανεκπαίδευση των συστημάτων ώστε να αλλάξουν οι τύποι απαντήσεων που προτιμώνται.

Τελευταία Νέα

Related Articles

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *

Back to top button