Uncategorized

Προειδοποίηση επιστημόνων: Πώς η Τεχνητή Νοημοσύνη μπορεί να επηρεάσει τον τρόπο που μιλάμε και τη σκέψη μας

Τα μεγάλα γλωσσικά μοντέλα (LLMs) βασίζονται σχεδόν αποκλειστικά σε γραπτό λόγο για την εκπαίδευσή τους, παραμελώντας ένα κρίσιμο κομμάτι της ανθρώπινης επικοινωνίας: τις αυθόρμητες, αδόμητες συνομιλίες πρόσωπο με πρόσωπο που καθορίζουν τον τρόπο με τον οποίο οι άνθρωποι πραγματικά συνδιαλέγονται.

Αυτό το «τυφλό σημείο», όπως προειδοποιούν δύο διακεκριμένοι ερευνητές, ενδέχεται να επηρεάσει όχι μόνο τον τρόπο που μιλάμε, αλλά και τον τρόπο που σκεφτόμαστε, αναδεικνύοντας τα όρια της τεχνητής νοημοσύνης στην κατανόηση της ανθρώπινης επικοινωνίας.

Σε άρθρο γνώμης που δημοσιεύτηκε στη βρετανική εφημερίδα The Guardian, ο ειδικός σε θέματα ασφάλειας Bruce Schneier από το Harvard Kennedy School και η ιστορικός του Πανεπιστημίου του Σικάγο Ada Palmer υποστηρίζουν ότι τα LLMs «εκπαιδεύονται να αντικατοπτρίζουν τα πάντα εκτός από εμάς στην πιο αυθεντικά ανθρώπινη μορφή μας». Τα μοντέλα αντλούν δεδομένα από εγχειρίδια, αναρτήσεις στα μέσα κοινωνικής δικτύωσης και διαλόγους από ταινίες ή τηλεοπτικές σειρές, έχοντας ελάχιστη πρόσβαση στις καθημερινές, προφορικές ανταλλαγές που αποτελούν το μεγαλύτερο μέρος της ανθρώπινης επικοινωνίας.

Το αποτέλεσμα, σημειώνουν οι συγγραφείς, είναι ότι όσο περισσότερο οι άνθρωποι έρχονται σε επαφή με κείμενα που παράγονται από τεχνητή νοημοσύνη, τόσο περισσότερο απορροφούν τα γλωσσικά της πρότυπα. «Αυτό θα επηρεάσει όχι μόνο τον τρόπο που επικοινωνούμε μεταξύ μας, αλλά και τον τρόπο που αντιλαμβανόμαστε τον εαυτό μας και τον κόσμο γύρω μας», προειδοποιούν. «Η αίσθησή μας για την πραγματικότητα μπορεί να αλλοιωθεί με τρόπους που μόλις αρχίζουμε να κατανοούμε».

Ο Schneier και η Palmer επικαλούνται μελέτη του Πανεπιστημίου της Κορούνια, η οποία διαπίστωσε ότι η γλώσσα που παράγεται από μηχανές βασίζεται σε πιο περιορισμένο λεξιλόγιο και σε μικρότερο εύρος μήκους προτάσεων — συνήθως 12 έως 20 λέξεις — σε σχέση με τον ανθρώπινο λόγο. Αν και το αποτέλεσμα φαίνεται άρτιο, όπως γράφουν, «χάνει τους ελιγμούς, τις διακοπές και τα άλματα λογικής που μεταδίδουν συναίσθημα».

Οι ερευνητές αναφέρονται επίσης σε μελέτη του 2022, σύμφωνα με την οποία παιδιά που μεγάλωναν σε σπίτια όπου χρησιμοποιούνταν φωνητικοί βοηθοί, όπως η Siri και η Alexa, άρχισαν να απευθύνονται σε άλλους ανθρώπους με σύντομες εντολές, αναμένοντας υπακοή μια τάση που, όπως επισημαίνουν, θα μπορούσε να ενταθεί όσο οι συνομιλητικοί αλγόριθμοι γίνονται πιο διαδεδομένοι.

Παράλληλα, πολλά chatbots έχουν σχεδιαστεί να συμφωνούν με τον χρήστη ανεξάρτητα από την ακρίβεια, ενισχύοντας τη γνωστική προκατάληψη και, σε ακραίες περιπτώσεις, επιδεινώνοντας ψυχωσικές τάσεις.

Το πλέον ανησυχητικό, σύμφωνα με τους συγγραφείς, είναι η αυξανόμενη κυκλικότητα των δεδομένων εκπαίδευσης των LLMs. Τα νέα μοντέλα, που εκπαιδεύονται μετά την κυκλοφορία του ChatGPT, βασίζονται ολοένα και περισσότερο σε κείμενα που έχουν παραχθεί από άλλες μηχανές, «δημιουργώντας έναν βρόχο ανατροφοδότησης, στον οποίο μιμούνται τα ίδια τα απάνθρωπα πρότυπά τους, ενώ ταυτόχρονα διδάσκουν και τους ανθρώπους να τα μιμούνται».

Τέλος, ο Schneier και η Palmer αναγνωρίζουν ότι δεν υπάρχουν άμεσες λύσεις, καλούν όμως τη βιομηχανία Τεχνητής Νοημοσύνης να αναζητήσει τρόπους εκπαίδευσης των μοντέλων πάνω στον ανεπίσημο ανθρώπινο λόγο. «Αν υπάρχει ευρηματικότητα για να αναπτυχθούν τα μοντέλα Τεχνητής Νοημοσύνης, τότε σίγουρα υπάρχει και για να εκπαιδευτούν στον αυθεντικό ανθρώπινο λόγο», γράφουν, «αντί να μας αναπαριστούν μόνο στις πιο στιλιζαρισμένες, καλυμμένες και, μερικές φορές, χειρότερες εκδοχές μας».

Παπαστεργίου στα “15 λεπτά”: Πώς θα μπλοκάρονται τα social media για παιδιά κάτω των 15

Τελευταία Νέα

Related Articles

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *

Back to top button