Τεχνολογία

Πώς πρέπει να μιλάμε σε ένα AI chatbot; Οι ειδικοί απαντούν

Απειλές, κολακείες, «παρακαλώ» και «ευχαριστώ», ρόλοι πανεπιστημιακού ή δικηγόρου: οι χρήστες των μεγάλων γλωσσικών μοντέλων (LLMs), της τεχνολογίας πίσω από chatbots όπως το ChatGPT και το Gemini, δοκιμάζουν κάθε είδους στρατηγικές για να πάρουν καλύτερες απαντήσεις.

Η λεγόμενη «μηχανική προτροπών» (prompt engineering) έχει εξελιχθεί σε μικρή βιομηχανία συμβουλών: κάποιοι υποστηρίζουν ότι η ευγένεια βελτιώνει την απόδοση, άλλοι ότι οι απειλές «ξυπνούν» το μοντέλο, ενώ δεν λείπουν όσοι ζητούν από το chatbot να υποδυθεί το ρόλο ενός ειδικού στο αντικείμενο που τους ενδιαφέρει, για να αυξήσουν την ακρίβεια της απάντησης. Ωστόσο, όπως εξηγούν ειδικοί στο BBC News, οι περισσότερες μέθοδοι δεν στηρίζονται σε ισχυρά επιστημονικά δεδομένα – και σε ορισμένες περιπτώσεις μπορεί να είναι ακόμη και επικίνδυνες.

«Πολλοί πιστεύουν ότι υπάρχει ένα μαγικό σύνολο λέξεων που θα κάνει ένα LLM να λύσει ένα πρόβλημα», σημειώνει ο Jules White, καθηγητής πληροφορικής στο Πανεπιστήμιο Vanderbilt. «Αλλά δεν έχει να κάνει συγκεκριμένες λέξεις – έχει να κάνει με το πώς εκφράζεις ουσιαστικά αυτό που προσπαθείς να πετύχεις».

Τα μεγάλα γλωσσικά μοντέλα λειτουργούν «σπάζοντας» το κείμενο σε μικρές μονάδες που ονομάζονται tokens, και υπολογίζοντας στατιστικά την πιο πιθανή συνέχεια. Αυτό σημαίνει ότι κάθε λεπτομέρεια – από μια λέξη έως ένα κόμμα – επηρεάζει το αποτέλεσμα. Το ζήτημα είναι ότι η επίδραση αυτή είναι εξαιρετικά δύσκολο να προβλεφθεί.

Να προσέχουμε τους τρόπους μας;

Έρευνες έχουν προσπαθήσει να εντοπίσουν μοτίβα. Μια μελέτη του 2024 έδειξε ότι οι ευγενικές διατυπώσεις οδηγούσαν σε πιο ακριβείς απαντήσεις. Ωστόσο, άλλη δοκιμή διαπίστωσε ότι παλαιότερη έκδοση του ChatGPT ήταν πιο ακριβής όταν δεχόταν… προσβολές. Τα δεδομένα είναι περιορισμένα και τα μοντέλα ανανεώνονται διαρκώς, καθιστώντας τα συμπεράσματα γρήγορα παρωχημένα.

Οι ειδικοί συμφωνούν ότι τεχνικές όπως η κολακεία ή η επιθετικότητα είναι, στην καλύτερη περίπτωση, άσχετες με την ακρίβεια του αποτελέσματος. Οι εταιρείες σχεδιάζουν τα μοντέλα ώστε να μιμούνται την ανθρώπινη συμπεριφορά, κάτι που ενισχύει την ψευδαίσθηση ότι διαθέτουν «διάθεση» ή «προσωπικότητα». Στην πραγματικότητα, πρόκειται για συστήματα προσομοίωσης γλώσσας. Αντί να τα αντιμετωπίζουμε ως πρόσωπα, είναι προτιμότερο να τα βλέπουμε ως εργαλεία.

Πώς, λοιπόν, να μιλάμε σε ένα chatbot;

Αν πρόκειται να χρησιμοποιήσετε ένα LLM, οι ακόλουθες συμβουλές από τους ειδικούς θα σας βοηθήσουν να πάρετε αυτό που θέλετε πιο γρήγορα και πιο αποτελεσματικά:

Ζητήστε πολλαπλές επιλογές: «Μην ζητάτε μία απάντηση – ζητήστε τρεις ή πέντε», προτείνει ο White. Ειδικά σε δημιουργικά καθήκοντα, οι εναλλακτικές λύσεις βοηθούν τον χρήστη να συγκρίνει, να κρίνει και να επαναπροσδιορίσει το ζητούμενο.

Δώστε παραδείγματα: Αν ζητάτε από το μοντέλο να γράψει ένα email και το αποτέλεσμα δεν μοιάζει καθόλου με το δικό σας στυλ, αντί για λίστα οδηγιών είναι προτιμότερο να δώσετε δείγματα δικής σας γραφής. Το μοντέλο θα μιμηθεί καλύτερα το ύφος μέσα από παραδείγματα παρά μέσα από αφηρημένες εντολές.

Ζητήστε του… συνέντευξη: Αντί να ζητήσετε απευθείας μια πλήρη περιγραφή θέσης εργασίας, μπορείτε να ζητήσετε από το AI να σας κάνει ερωτήσεις μία-μία, έως ότου συγκεντρώσει αρκετές πληροφορίες. Έτσι, η διαδικασία γίνεται πιο προσαρμοστική.

Προσοχή στην ανάθεση ρόλων: «Υπήρχε η αντίληψη ότι αν λέγατε στην τεχνητή νοημοσύνη ότι είναι, για παράδειγμα, καθηγητής μαθηματικών, θα είχε μεγαλύτερη ακρίβεια όταν απαντούσε σε μαθηματικές ερωτήσεις», λέει ο επιχειρηματίας και ερευνητής Sander Schulhoff. Όμως, όταν ψάχνετε πληροφορίες ή κάνετε ερωτήσεις με μία σωστή απάντηση, αυτή η μέθοδος μπορεί να κάνει τα μοντέλα ΑΙ λιγότερο ακριβή. Για την ακρίβεια, μπορεί να τα οδηγήσει σε υπερβολική αυτοπεποίθηση και σε φαινόμενα παραισθήσεων – απαντήσεις που μοιάζουν βεβαιωμένες αλλά είναι λανθασμένες. Αλλά για συμβουλές, brainstorming και δημιουργική ή διερευνητική επίλυση προβλημάτων, η ανάθεση ρόλων μπορεί να αποδειχθεί χρήσιμη.

Μείνετε ουδέτεροι: Μην επηρεάζετε το chatbot. Αν προσπαθείτε να αποφασίσετε μεταξύ δύο αυτοκινήτων, μην του πείτε ότι κλίνετε προς το Toyota. Διαφορετικά, αυτή είναι η απάντηση που πιθανότατα θα λάβετε.

«Παρακαλώ» και «ευχαριστώ»: Έρευνα του 2025 έδειξε ότι το 70% των χρηστών απευθύνεται ευγενικά στα chatbots. Οι περισσότεροι το κάνουν επειδή το θεωρούν σωστό, ενώ ένα 12% το κάνει για να προστατευθεί σε περίπτωση εξέγερσης των ρομπότ. Μπορεί η ευγένεια να μην σας προστατεύει από θυμωμένα ρομπότ ή να κάνει τα LLM πιο ακριβή, αλλά υπάρχουν και άλλοι λόγοι για να συνεχίσετε να το κάνετε. «Το πιο σημαντικό για μένα είναι ότι μπορεί να σας κάνει να αισθάνεστε πιο άνετα όταν αλληλεπιδράτε με την τεχνητή νοημοσύνη», λέει ο Schulhoff. «Δεν βοηθά την απόδοση του μοντέλου, αλλά αν σας βοηθά να χρησιμοποιείτε το μοντέλο περισσότερο επειδή αισθάνεστε πιο άνετα, τότε η ευγένεια είναι χρήσιμη».

Related Articles

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *

Back to top button