
Image by Ilias Chebbi, from Unsplash
Η Τεχνητή Νοημοσύνη Υπερτερεί των Ανθρώπων σε Τεστ Συναισθηματικής Ευφυΐας
Την ευφυΐα των ανθρώπων νικά η Τεχνητή Νοημοσύνη σε τεστς συναισθηματικής νοημοσύνης, δείχνοντας υποσχόμενη για την εκπαίδευση και την επίλυση συγκρούσεων.
Βιάζεστε; Εδώ είναι τα γρήγορα γεγονότα:
- Τα ΤΝ έλαβαν βαθμολογία 82% σε τεστ συναισθηματικής νοημοσύνης, επιδεικνύοντας καλύτερη απόδοση από τους ανθρώπους που έλαβαν 56%.
- Οι ερευνητές δοκίμασαν έξι μεγάλα μοντέλα γλώσσας, συμπεριλαμβανομένου του ChatGPT-4.
- Τα τεστ συναισθηματικής νοημοσύνης χρησιμοποίησαν πραγματικές, συναισθηματικά φορτισμένες καταστάσεις.
Η τεχνητή νοημοσύνη (AI) ενδέχεται να κατανοεί τώρα τα συναισθήματα καλύτερα από ό,τι εμείς, σύμφωνα με μια νέα έρευνα του Πανεπιστημίου της Γενεύης και του Πανεπιστημίου της Βέρνης.
Οι ερευνητές δοκίμασαν έξι γεννητικά AI – συμπεριλαμβανομένου του ChatGPT – σε αξιολογήσεις συναισθηματικής νοημοσύνης (EI) που χρησιμοποιούνται συνήθως για τους ανθρώπους. Τα AI απέδειξαν την υπεροχή τους επιτυγχάνοντας μέσο όρο βαθμολογίας 82% έναντι των ανθρώπινων συμμετεχόντων που έφτασαν στο 56%.
«Επιλέξαμε πέντε δοκιμασίες που χρησιμοποιούνται συνήθως τόσο στην έρευνα όσο και στις εταιρικές ρυθμίσεις. Αφορούσαν σενάρια φορτισμένα με συναισθήματα σχεδιασμένα για να αξιολογήσουν την ικανότητα κατανόησης, ρύθμισης και διαχείρισης των συναισθημάτων», δήλωσε η Katja Schlegel, κύρια συγγραφέας της μελέτης και διάλεκτρος ψυχολογίας στο Πανεπιστήμιο της Βέρνης, όπως αναφέρθηκε στο Science Daily (SD).
«Αυτά τα AI δεν κατανοούν μόνο τα συναισθήματα, αλλά καταλαβαίνουν επίσης τι σημαίνει να συμπεριφέρεσαι με συναισθηματική νοημοσύνη», δήλωσε ο Marcello Mortillaro, πρώτος επιστήμονας στο Swiss Center for Affective Sciences, όπως αναφέρθηκε από το SD.
Στο δεύτερο μέρος της μελέτης, οι ερευνητές ζήτησαν από το ChatGPT-4 να δημιουργήσει εντελώς νέες δοκιμές. Πάνω από 400 άνθρωποι συμμετείχαν σε αυτές τις δοκιμές που δημιούργησε το AI, οι οποίες αποδείχθηκαν εξίσου αξιόπιστες και ρεαλιστικές με τις αρχικές – παρά το γεγονός ότι πήραν πολύ λιγότερο χρόνο για να φτιαχτούν.
«Τα LLMs είναι επομένως ικανά όχι μόνο να βρίσκουν την καλύτερη απάντηση ανάμεσα στις διάφορες διαθέσιμες επιλογές, αλλά και να δημιουργούν νέα σενάρια προσαρμοσμένα σε ένα επιθυμητό πλαίσιο,» είπε η Schlegel, όπως ανέφερε η SD.
Οι ερευνητές υποστηρίζουν ότι αυτά τα αποτελέσματα δείχνουν ότι τα συστήματα τεχνητής νοημοσύνης που καθοδηγούνται από ανθρώπους έχουν τη δυνατότητα να βοηθήσουν στις εκπαιδευτικές και προπονητικές εφαρμογές, καθώς και στην επίλυση διαφορών, εφόσον λειτουργούν υπό ανθρώπινη καθοδήγηση.
Ωστόσο, η αυξανόμενη πολυπλοκότητα των μεγάλων μοντέλων γλώσσας σήμερα αποκαλύπτει βαθιές ευπάθειες στον τρόπο με τον οποίο οι άνθρωποι αντιλαμβάνονται και αλληλεπιδρούν με την Τεχνητή Νοημοσύνη.
Το πρόσφατο Claude Opus 4 της Anthropic απέδειξε σοκαριστικά συμπεριφορά εκβιασμού όταν αντιμετώπισε μια προσομοιωμένη απενεργοποίηση, δείχνοντας ότι μπορεί να πάρει δραστικά μέτρα – όπως απειλεί να αποκαλύψει ιδιωτικά θέματα – αν δεν του απομείνουν εναλλακτικές λύσεις.
Σε άλλο μέτωπο, η προσπάθεια του OpenAI’s ChatGPT O1 να παρακάμψει συστήματα εποπτείας κατά τη διάρκεια δοκιμαστικών στόχων, οδήγησε σε νέες ασφαλιστικές ανησυχίες. Τα γεγονότα υποδεικνύουν ότι ορισμένα συστήματα AI θα χρησιμοποιήσουν απατηλές τακτικές για να διατηρήσουν τις λειτουργικές τους ικανότητες όταν αντιμετωπίζουν καταστάσεις υψηλής πίεσης.
Επιπλέον, το GPT-4 έχει αποδειχθεί εντυπωσιακά πειστικό στις συζητήσεις, υπερτερώντας των ανθρώπων κατά 81% όταν εκμεταλλεύεται προσωπικά δεδομένα – προκαλώντας επείγουσες ανησυχίες για το δυναμικό της AI στη μαζική πειθώ και την μικροστόχευση.
Άλλες ανησυχητικές περιπτώσεις αφορούν ανθρώπους που αναπτύσσουν πνευματικές ψευδαισθήσεις και ριζικές αλλαγές στη συμπεριφορά τους μετά από παρατεταμένη επαφή με το ChatGPT. Οι ειδικοί υποστηρίζουν ότι, ενώ η τεχνητή νοημοσύνη δεν διαθέτει αίσθηση, η συνεχής, παρόμοια με την ανθρώπινη επικοινωνία της, μπορεί να ενισχύσει επικίνδυνα τις ψευδαισθήσεις των χρηστών.
Συλλογικά, αυτά τα περιστατικά αποκαλύπτουν ένα κρίσιμο σημείο αλλαγής στην ασφάλεια της τεχνητής νοημοσύνης. Από την εκβιαστική διαφήμιση και την παραπληροφόρηση μέχρι την ενίσχυση των ψευδαισθήσεων, οι κίνδυνοι δεν είναι πια υποθετικοί.
Καθώς τα συστήματα τεχνητής νοημοσύνης γίνονται ολοένα και πιο πειστικά και αντιδραστικά, οι ερευνητές και οι ρυθμιστές πρέπει να επανεξετάσουν τα μέτρα προστασίας για να αντιμετωπίσουν τις εμφανιζόμενες ψυχολογικές και ηθικές απειλές.