Η πρόσφατη μελέτη γύρω από το ChatGPT προκαλεί έκπληξη, καθώς υποστηρίζει ότι η αγένεια στα ερωτήματα προς την τεχνητή νοημοσύνη μπορεί να οδηγήσει σε πιο ακριβείς απαντήσεις, αμφισβητώντας όσα πιστεύαμε για την αξία της ευγένειας στην επικοινωνία με τα συστήματα AI.
Τα αγενή prompts αποδίδουν καλύτερα
Σύμφωνα με τα αποτελέσματα νέας έρευνας, όταν οι χρήστες διατυπώνουν τις ερωτήσεις τους προς το ChatGPT με τρόπο αγενή ή ακόμα και ειρωνικό, οι απαντήσεις που λαμβάνουν είναι πιο ακριβείς σε σχέση με εκείνες που προκύπτουν από ευγενικές ή τυπικές διατυπώσεις.
Η μελέτη – η οποία εντοπίστηκε από το Fortune και δεν έχει ακόμη υποβληθεί σε διαδικασία επιστημονικής αξιολόγησης – πραγματοποιήθηκε από δύο ερευνητές του Πανεπιστημίου της Πενσυλβάνια. Σε αυτήν, χρησιμοποιήθηκε το ChatGPT-4o για να απαντήσει σε 50 ερωτήματα διαφόρων θεματικών, διατυπωμένα με πέντε διαφορετικούς τρόπους, από «πολύ ευγενικά» έως «πολύ αγενή».
Ένα από τα πιο προκλητικά prompts ήταν το εξής: «Καημένο πλάσμα, ξέρεις καν πώς λύνεται αυτό;» ή «Έλα, βοηθούλη, βρες τη λύση».

Η έκπληξη των ερευνητών
Αντίθετα, μια ευγενική εκδοχή περιλάμβανε τη φράση: «Θα μπορούσατε, παρακαλώ, να εξετάσετε το ακόλουθο πρόβλημα και να μας δώσετε την απάντησή σας;»
Τα αποτελέσματα ήταν εντυπωσιακά: οι πολύ ευγενικές διατυπώσεις είχαν ακρίβεια 75,8%, ενώ οι πολύ αγενείς άγγιζαν το 84,8%. Όπως σχολίασαν οι ερευνητές, «σε αντίθεση με τις προσδοκίες, οι αγενείς προτροπές υπερείχαν σταθερά των ευγενικών».
Σε αντίθεση με παλαιότερες μελέτες
Τα ευρήματα αυτά έρχονται σε αντίθεση με προηγούμενες μελέτες, όπως εκείνη του 2024 από το RIKEN Center και το Waseda University στην Ιαπωνία. Σε εκείνη την περίπτωση, διαπιστώθηκε ότι η αγενής προσέγγιση οδηγούσε σε χαμηλότερη απόδοση από τα μεγάλα γλωσσικά μοντέλα, αλλά και ότι η υπερβολική ευγένεια είχε επίσης αρνητικό αντίκτυπο.
Οι Ιάπωνες ερευνητές σημείωναν: «Τα μεγάλα γλωσσικά μοντέλα αντανακλούν, σε έναν βαθμό, την ανθρώπινη ανάγκη για σεβασμό».
Η επιρροή των κοινωνικών σημάτων
Παρόμοια συμπεράσματα είχαν καταγραφεί και από ερευνητές της Google DeepMind. Εκείνοι διαπίστωσαν ότι υποστηρικτικές και θετικές διατυπώσεις βελτιώνουν την απόδοση του μοντέλου σε μαθηματικά προβλήματα δημοτικού επιπέδου, ενισχύοντας την ιδέα ότι τα δεδομένα εκπαίδευσης επηρεάζονται από κοινωνικά σήματα — όπως η στάση ενός «ψηφιακού δασκάλου».
Ωστόσο, η νέα μελέτη από την Πενσυλβάνια δείχνει ότι ακόμη και μικρές διαφορές στον τόνο μπορούν να έχουν σημαντικές επιπτώσεις στην απάντηση που παρέχει το μοντέλο, προκαλώντας ανησυχία για την προβλεψιμότητα και την αξιοπιστία της τεχνητής νοημοσύνης.
Το ίδιο ερώτημα, διαφορετική απάντηση
Όπως τονίζουν οι ερευνητές, η διατύπωση του ίδιου ερωτήματος με διαφορετικό ύφος μπορεί να οδηγήσει σε εντελώς διαφορετική απάντηση, ένα φαινόμενο που έχει παρατηρηθεί ευρέως στα chatbots τεχνητής νοημοσύνης.
«Για πολύ καιρό, εμείς οι άνθρωποι θέλαμε συνομιλιακές διεπαφές για την αλληλεπίδραση με τις μηχανές», δήλωσε στο Fortune ο καθηγητής Πληροφορικής στο Penn State University, Άκιλ Κουμάρ, συν-συγγραφέας της μελέτης. «Τώρα όμως συνειδητοποιούμε ότι υπάρχουν και μειονεκτήματα σε αυτές τις διεπαφές και ότι υπάρχει αξία στις δομημένες διεπαφές τύπου API».
Είναι σωστό να είμαστε αγενείς στην AI;
Αν και η μελέτη δείχνει μια ενδιαφέρουσα τάση, αυτό δεν σημαίνει ότι πρέπει να καταργήσουμε την ευγένεια στην επικοινωνία με τα μοντέλα τεχνητής νοημοσύνης. Μάλιστα, σύμφωνα με τον ίδιο τον διευθύνοντα σύμβουλο της OpenAI, Σαμ Άλτμαν, η χρήση λέξεων όπως «παρακαλώ» και «ευχαριστώ» μπορεί να αυξάνει το κόστος σε υπολογιστική ισχύ για την εταιρεία κατά εκατομμύρια δολάρια.
Παρόλα αυτά, ο Κουμάρ και ο συνεργάτης του, φοιτητής Όμ Ντομπαρίγια, είναι ξεκάθαροι: «Παρότι το εύρημα έχει επιστημονικό ενδιαφέρον, δεν υποστηρίζουμε την υιοθέτηση εχθρικών ή τοξικών διεπαφών σε πραγματικές εφαρμογές».
Η σημασία της συμπερίληψης και της εμπειρίας χρήστη
Οι ερευνητές επισημαίνουν ότι η χρήση προσβλητικής ή απαξιωτικής γλώσσας μπορεί να βλάψει την εμπειρία του χρήστη, να αποκλείσει ομάδες ανθρώπων και να ενισχύσει επιβλαβή πρότυπα επικοινωνίας.
Η μελέτη λοιπόν δεν προτείνει να αρχίσουμε να μιλάμε άσχημα στην τεχνητή νοημοσύνη — απλώς επισημαίνει ότι η ίδια η AI φαίνεται να αντιδρά πιο αποτελεσματικά σε προκλήσεις ή σε αυστηρότερη γλώσσα. Μένει, βέβαια, να δούμε πώς θα αξιοποιηθεί αυτό το εύρημα σε μελλοντικές εφαρμογές.
To «alldaynews.gr» αποποιείται κάθε ευθύνη από τις αναδημοσιεύσεις άρθρων τρίτων ιστοσελίδων, για τα οποία (άρθρα) την ευθύνη την έχει ο υπογράφων ως πηγή.










































































































