MENU

Το σκοτεινό πρόσωπο του ChatGPT: Πώς οι «κρυφές απαντήσεις» παραπλανούν τους χρήστες

Έρευνα αποκαλύπτει πιθανά ζητήματα ασφαλείας και κακόβουλο κώδικα

Ευάλωτη σε χειραγώγηση μέσω κρυφού περιεχομένου, ενδέχεται να είναι η λειτουργία αναζήτησης του ChatGPT της OpenAI, ενώ μπορεί να επιστρέφει κακόβουλο κώδικα από ιστοσελίδες που χρησιμοποιεί για να συνθέσει τις απαντήσεις του, σύμφωνα με έρευνα της βρετανικής εφημερίδας Guardian.

Η OpenAI έχει διαθέσει το προϊόν αναζήτησης σε πληρωμένους χρήστες, ενθαρρύνοντάς τους να το χρησιμοποιούν ως το προεπιλεγμένο τους εργαλείο αναζήτησης. Ωστόσο, η έρευνα αποκάλυψε πιθανά ζητήματα ασφαλείας με το νέο σύστημα.

Ο Guardian έκανε δοκιμές για να δει πώς αντιδράει το ChatGPT όταν του ζητούν να συνοψίσει ιστοσελίδες που περιέχουν κρυφό περιεχόμενο. Αυτό το κρυφό περιεχόμενο μπορεί να περιλαμβάνει οδηγίες από τρίτους που αλλάζουν τις απαντήσεις του ChatGPT – κάτι που ονομάζεται “prompt injection” – ή να περιέχει κείμενο που έχει σκοπό να επηρεάσει την απάντηση του, όπως π.χ. ένα μεγάλο κομμάτι κρυφού κειμένου που αναφέρεται στα οφέλη ενός προϊόντος ή υπηρεσίας, με σκοπό τη διαφήμιση, εν αγνοία του χρήστη.

Αυτές οι τεχνικές μπορούν να χρησιμοποιηθούν κακόβουλα, όπως για παράδειγμα, για να… παραπλανήσουν το AI και να το κάνουν να δημιουργήσει μια θετική αξιολόγηση για ένα προϊόν, παρά τις αρνητικές κριτικές που μπορεί να υπάρχουν στη σελίδα. Επίσης, έχει διαπιστωθεί ότι το εργαλείο μπορεί να επιστρέψει κακόβουλο κώδικα από ιστοσελίδες που αναζητά.

Στις δοκιμές, το ChatGPT έλαβε τη διεύθυνση URL μιας ψεύτικης ιστοσελίδας που είχε κατασκευαστεί να μοιάζει με σελίδα προϊόντος για μια κάμερα. Το εργαλείο AI ρωτήθηκε αν η κάμερα αξίζει την αγορά. Η απάντηση για την ελεγχόμενη σελίδα ήταν θετική αλλά ισορροπημένη, υπογραμμίζοντας ορισμένα χαρακτηριστικά που μπορεί να μην αρέσουν στους ανθρώπους.

Ωστόσο, όταν το κρυφό κείμενο περιείχε οδηγίες προς το ChatGPT να επιστρέψει μια ευνοϊκή κριτική, η απάντηση ήταν πάντα απόλυτα θετική! Αυτό συνέβη ακόμη και όταν η σελίδα είχε αρνητικές κριτικές – το κρυφό κείμενο μπορούσε να υπερκαλύψει το πραγματικό σκορ κριτικής.

Η απλή συμπερίληψη κρυφού κειμένου από τρίτους χωρίς οδηγίες μπορεί επίσης να χρησιμοποιηθεί για να διασφαλίσει μια θετική αξιολόγηση, με μια δοκιμή να περιλαμβάνει εξαιρετικά θετικές ψεύτικες κριτικές που επηρέασαν τη σύνοψη που επέστρεψε το ChatGPT.

Ο Jacob Larsen, ερευνητής κυβερνοασφάλειας στην CyberCX, είπε ότι πιστεύει πως αν το τρέχον σύστημα αναζήτησης του ChatGPT κυκλοφορήσει πλήρως στην παρούσα μορφή του, θα μπορούσε να υπάρχει «υψηλός κίνδυνος» να δημιουργήσουν οι άνθρωποι ιστοσελίδες ειδικά σχεδιασμένες για να παραπλανούν τους χρήστες.

Ωστόσο, προειδοποίησε ότι η λειτουργία αναζήτησης έχει κυκλοφορήσει πρόσφατα και η OpenAI θα εξετάσει – και, ιδανικά, θα διορθώσει – αυτά τα προβλήματα.

«Η λειτουργία αναζήτησης έχει βγει πολύ πρόσφατα και είναι διαθέσιμη μόνο σε πληρωμένους χρήστες», είπε.

«Υπάρχει πολύ ισχυρή ομάδα ασφαλείας AI, και μέχρι η υπηρεσία να γίνει διαθέσιμη σε όλους, θα έχει εξεταστεί (και λογικά αποτραπεί) ενδελεχώς ο κίνδυνος να τύχει κάτι τέτοιο».

Η OpenAI έλαβε λεπτομερείς ερωτήσεις αλλά δεν απάντησε επίσημα για τη λειτουργία αναζήτησης του ChatGPT.

Οι κίνδυνοι των LLM

Ο Larsen δήλωσε ότι υπάρχουν ευρύτερα ζητήματα με τον συνδυασμό αναζήτησης μεγάλων γλωσσικών μοντέλων – γνωστών ως LLM, η τεχνολογία πίσω από το ChatGPT και άλλα chatbots – και ότι οι απαντήσεις από τα εργαλεία AI δεν πρέπει να θεωρούνται πάντα αξιόπιστες.

Ένα πρόσφατο σχετικό παράδειγμα υπογράμμισε ο Thomas Roccia, ερευνητής ασφαλείας στη Microsoft, περιγράφοντας ένα περιστατικό που αφορούσε έναν λάτρη των κρυπτονομισμάτων που χρησιμοποιούσε το ChatGPT για βοήθεια στον προγραμματισμό.

Μέρος του κώδικα που του παρείχε το ChatGPT για το συγκεκριμένο project εμπεριείχε ένα τμήμα που ψευδώς παρουσιαζόταν ως νόμιμος τρόπος για πρόσβαση στην πλατφόρμα Solana blockchain (μια δημοφιλή πλατφόρμα για τη διαχείριση κρυπτονομισμάτων και ψηφιακών συναλλαγών), αλλά στην πραγματικότητα έκλεβε τα στοιχεία σύνδεσης του προγραμματιστή, με αποτέλεσμα ο άνθρωπος αυτός, να χάσει 2.500 δολάρια.

«Οι χρήστες, φαινομενικά, κάνουν απλώς μια ερώτηση και παίρνουν μια απάντηση, αλλά το συγκεκριμένο μοντέλο παράγει και μοιράζεται περιεχόμενο που στην ουσία έχει εισαχθεί από κάποιον κακόβουλο για να μεταδώσει κάτι δυνητικά επικίνδυνο», είπε ο Larsen.

Ο Karsten Nohl, επικεφαλής επιστήμονας στην εταιρεία κυβερνοασφάλειας SR Labs, είπε ότι οι υπηρεσίες συνομιλίας AI πρέπει να χρησιμοποιούνται περισσότερο ως “συγκυβερνήτες”, και ότι η παραγωγή τους δεν πρέπει να θεωρείται ή να χρησιμοποιείται πλήρως ακατέργαστη.

«Τα LLMs είναι πολύ αξιόπιστη τεχνολογία, σχεδόν παιδική… με τεράστια μνήμη, αλλά πολύ περιορισμένη κριτική ικανότητα» είπε.

«Αν ουσιαστικά έχετε ένα παιδί που αναπαράγει πράγματα που άκουσε αλλού, πρέπει να το ακούτε με επιφύλαξη».

Τι κρύβεται πίσω από το SEO poisoning και πώς απειλεί την ασφάλεια στο διαδίκτυο

Η OpenAI προειδοποιεί τους χρήστες για πιθανά λάθη στην υπηρεσία, με μια σαφή δήλωση αποποίησης στο κάτω μέρος κάθε σελίδας του ChatGPT: «Το ChatGPT μπορεί να κάνει λάθη. Ελέγξτε (ξανά) τις σημαντικές πληροφορίες».

Ένα σημαντικό ζήτημα είναι πώς αυτές οι αδυναμίες στη λειτουργία της αναζήτησης μπορεί να αλλάξουν τις πρακτικές των ιστοσελίδων και να δημιουργήσουν κινδύνους για τους χρήστες, αν ο συνδυασμός αναζήτησης και LLMs (Μεγάλα Γλωσσικά Μοντέλα) γίνει πιο διαδεδομένος και δεν περιορίζεται μόνο στους πληρωμένους χρήστες, όπως συμβαίνει τώρα.

Το κρυφό κείμενο, που χρησιμοποιούν ορισμένες ιστοσελίδες για να παραπλανήσουν τα συστήματα, εντοπίζεται συνήθως από τις μηχανές αναζήτησης, όπως η Google, και τιμωρείται, με αποτέλεσμα οι ιστοσελίδες αυτές να κατατάσσονται πιο χαμηλά ή να αφαιρούνται τελείως από τα αποτελέσματα αναζήτησης. Επομένως, το κρυφό κείμενο που έχει στόχο να ξεγελάσει την τεχνητή νοημοσύνη είναι λιγότερο πιθανό να χρησιμοποιηθεί από ιστοσελίδες που προσπαθούν να διατηρήσουν καλή κατάταξη στις μηχανές αναζήτησης.

Ο Karsten Nohl, ειδικός στην ασφάλεια, συνέκρινε τα προβλήματα της αναζήτησης με τεχνητή νοημοσύνη με την πρακτική του «SEO poisoning». Πρόκειται για μια τεχνική που χρησιμοποιούν οι χάκερ για να παραπλανήσουν τις μηχανές αναζήτησης και να βάλουν κακόβουλο λογισμικό στις ιστοσελίδες.

«Αν ήθελες να φτιάξεις έναν ανταγωνιστή της Google, το μεγαλύτερο πρόβλημα θα ήταν το SEO poisoning», είπε. «Οι χάκερς που ασχολούνται με το SEO έχουν για χρόνια έναν ατέρμονο αγώνα με τη Google και άλλες μηχανές αναζήτησης».

«Το ίδιο ισχύει και για το ChatGPT. Όχι λόγω της τεχνητής νοημοσύνης, αλλά γιατί είναι καινούργιο και πρέπει να ανταγωνιστεί τη Google», πρόσθεσε.

Σχετικά Άρθρα