MENU

Πόσο αξιόπιστη είναι η χρήση ΑΙ στην πρόσληψη ανθρώπινου δυναμικού

Προβληματισμός για μεροληπτικά κριτήρια επιλογής

Καθώς οι επιχειρήσεις βασίζονται όλο και περισσότερο σε πλατφόρμες προσλήψεων με βάση την τεχνητή νοημοσύνη, πολλοί υποψήφιοι με υψηλά προσόντα βρίσκονται στο περιθώριο.

Ανάλυση της γλώσσας του σώματος, φωνητικές αξιολογήσεις. ψυχομετρικές Gamified, σαρωτές βιογραφικού σημειώματος. Αυτά είναι μερικά από τα εργαλεία που χρησιμοποιούν οι εταιρείες για να ελέγξουν τους υποψηφίους με το λογισμικό προσλήψεων τεχνητής νοημοσύνης.

Οι υποψήφιοι για εργασία έρχονται αντιμέτωποι με αυτές τις αξιολογήσεις – και η τεχνητή νοημοσύνη αποφασίζει αν είναι κατάλληλοι ή αν υπολείπονται.

Οι επιχειρήσεις βασίζονται όλο και περισσότερο ατα συγκεκριμένα εργαλεία. Έρευνα της IBM στα τέλη του 2023 σε περισσότερους από 8.500 επαγγελματίες του τομέα της πληροφορικής, παγκοσμίως, έδειξε ότι το 42% των εταιρειών χρησιμοποιούν τεχνητή νοημοσύνη “για να βελτιώσουν την πρόσληψη και τους ανθρώπινους πόρους”.

Επιπλέον ποσοστό 40% των εταιριών, που συμμετείχαν στην έρευνα, εξέταζε το ενδεχόμενο ενσωμάτωσης της τεχνολογίας.

Διευθυντικά στελέχη επιχειρήσεων σε όλο τον κόσμο ήλπιζαν ότι η τεχνολογία AI θα έθετε τέλος στις προκαταλήψεις στη διαδικασία πρόσληψης.

Μερίδα των ειδικών, ωστόσο, λένε ότι τα εργαλεία δεν είναι και τόσο αξιόπιστα τελικώς και οι ανησυχίες αυξάνονται ότι το λογισμικό μπορεί να αποκλείει τους καλύτερους υποψηφίους.

“Δεν έχουμε δει πολλές αποδείξεις ότι δεν υπάρχει προκατάληψη εδώ… ή ότι το εργαλείο επιλέγει τους πιο κατάλληλους υποψηφίους”, αναφέρει η κ. Hilke Schellmann, συγγραφέας του βιβλίου “How AI Can Hijack Your Career and Steal Your Future”, και επίκουρος καθηγήτρια δημοσιογραφίας στο Πανεπιστήμιο της Νέας Υόρκης.

Η ίδια πιστεύει ότι ο μεγαλύτερος κίνδυνος που εγκυμονεί ένα τέτοιο λογισμικό για τις θέσεις εργασίας δεν είναι ότι οι μηχανές παίρνουν τις θέσεις των εργαζομένων, όπως συχνά φοβούνται – αλλά ότι μάλλον τους εμποδίζουν να πάρουν οποιαδήποτε θέση.

Ανυπολόγιστη ζημιά

Ορισμένοι υποψήφιοι με προσόντα για εργασία έχουν ήδη βρεθεί αντιμετωπίσει τέτοιου είδους προβλήματα.

Σε μια περίπτωση το 2020, η βρετανίδα μακιγιέζ κ. Anthea Mairoudhiou δήλωσε ότι η εταιρεία της ζήτησε να υποβάλει εκ νέου αίτηση για τη θέση εργασίας της, αφού είχε πάρει άδεια κατά τη διάρκεια της πανδημίας.

Αξιολογήθηκε τόσο με βάση τις προηγούμενες επιδόσεις της όσο και μέσω ενός προγράμματος διαλογής με τεχνητή νοημοσύνη, του HireVue. Αναφέρει ότι βαθμολογήθηκε καλά στην αξιολόγηση των δεξιοτήτων – αλλά αφού το εργαλείο τεχνητής νοημοσύνης βαθμολόγησε τη γλώσσα του σώματός της άσχημα, έμεινε οριστικά χωρίς δουλειά.

Σημειώνεται ότι η HireVue, η εν λόγω εταιρεία, αφαίρεσε τη λειτουργία ανάλυσης προσώπου το 2021). Άλλοι εργαζόμενοι έχουν υποβάλει καταγγελίες κατά παρόμοιων πλατφορμών, λέει η Schellmann.

Πολλοί αλγόριθμοι επιλογής εκπαιδεύονται σε έναν τύπο εργαζομένου – πράγμα που σημαίνει ότι υποψήφιοι με διαφορετικό υπόβαθρο ή πιστοποιήσεις μπορεί να αποκλειστούν.

Οι υποψήφιοι για εργασία σπάνια γνωρίζουν αν αυτά τα εργαλεία είναι ο μοναδικός λόγος που οι εταιρείες τους απορρίπτουν, καθώς το λογισμικό δεν ενημερώνει τους χρήστες για το πώς έχουν αξιολογηθεί. Ωστόσο, επισημαίνει ότι υπάρχουν πολλά κραυγαλέα παραδείγματα συστημικών ατελειών.

Σε μια περίπτωση, ένας χρήστης που είχε απορριφθεί υπέβαλε την ίδια αίτηση, αλλά τροποποίησε την ημερομηνία γέννησης για να γίνει νεότερος. Με αυτή την αλλαγή, εξασφάλισε μια συνέντευξη.

Σε μια άλλη εταιρεία, ένα πρόγραμμα διαλογής βιογραφικών με τεχνητή νοημοσύνη είχε εκπαιδευτεί σε βιογραφικά σημειώματα υπαλλήλων που εργάζονταν ήδη στην εταιρεία, δίνοντας επιπλέον βαθμούς σε εκείνους που ανέγραφαν “μπέιζμπολ” ή “μπάσκετ” – χόμπι που συνδέονταν με πιο επιτυχημένο προσωπικό, συχνά άνδρες. Όσοι ανέφεραν “σόφτμπολ” – συνήθως γυναίκες – υποβαθμίζονταν.

Σε ορισμένες περιπτώσεις, τα μεροληπτικά κριτήρια επιλογής είναι σαφή – όπως ο ηλικιακός ρατσισμός ή ο σεξισμός – αλλά σε άλλες, είναι θολά. Στο πλαίσιο της έρευνάς της, η Schellmann υπέβαλε αίτηση για μια θέση εργασίας σε τηλεφωνικό κέντρο, για να ελεγχθεί από την τεχνητή νοημοσύνη. Είχε λάβει υψηλή βαθμολογία στη συνέντευξη, παρά το γεγονός ότι μιλούσε ανοησίες στα γερμανικά, ενώ υποτίθεται ότι μιλούσε αγγλικά, αλλά έλαβε κακή βαθμολογία για τα πραγματικά σχετικά προσόντα της στο προφίλ της στο LinkedIn.

Ανησυχεί ότι οι αρνητικές επιπτώσεις θα εξαπλωθούν καθώς η χρήση της τεχνολογίας διευρύνεται. “Ένας προκατειλημμένος διευθυντής προσλήψεων μπορεί να βλάψει πολλούς ανθρώπους μέσα σε ένα χρόνο, και αυτό δεν είναι καλό”, τονίζει. “Αλλά ένας αλγόριθμος που ίσως χρησιμοποιείται σε όλες τις εισερχόμενες αιτήσεις σε μια μεγάλη εταιρεία… αυτό θα μπορούσε να βλάψει εκατοντάδες χιλιάδες υποψηφίους”.

Κανείς δεν ξέρει που ακριβώς βρίσκεται το πρόβλημα

“Το πρόβλημα είναι ότι κανείς δεν ξέρει που ακριβώς εντοπίζεται το πρόβλημα”, εξηγεί. Και, δεδομένου ότι οι εταιρείες έχουν εξοικονομήσει χρήματα αντικαθιστώντας το προσωπικό διαχείρισης ανθρώπινου δυναμικού με τεχνητή νοημοσύνη – η οποία μπορεί να επεξεργαστεί σωρούς βιογραφικών σε κλάσματα δευτερολέπτου, -πιστεύει ότι οι εταιρείες μπορεί να έχουν ελάχιστα κίνητρα για να προσπαθήσουν να διορθώσουν τις ατέλειες της πλατφόρμας.

Από την έρευνά της, η Schellmann ανησυχεί επίσης ότι οι εταιρείες διαλογής-λογισμικού “βιάζονται” να βγάλουν στην αγορά χαμηλής ποιότητας, ακόμη και ελαττωματικά προϊόντα για να επωφεληθούν της ζήτησης.

Οι εταιρίες ΑΙ δεν πρόκειται να βγουν δημόσια και να πουν ότι το εργαλείο τους δεν λειτούργησε ή ότι ήταν επιβλαβές για τους ανθρώπους, ενώ οι εταιρείες που το έχουν χρησιμοποιήσει θα το αποκρύψουν απέναντι στο ενδεχομένο νομικών κυρώσεων.

Είναι σημαντικό να αποκτήσουμε αυτή την τεχνολογία σωστά, λέει η Sandra Wachter, καθηγήτρια τεχνολογίας και κανονισμών στο Ινστιτούτο Διαδικτύου του Πανεπιστημίου της Οξφόρδης.

“Το να έχουμε τεχνητή νοημοσύνη που είναι αμερόληπτη και δίκαιη δεν είναι μόνο το ηθικά και νομικά αναγκαίο πράγμα, είναι επίσης κάτι που κάνει μια εταιρεία πιο κερδοφόρα”, τονίζει .”Υπάρχει μια πολύ σαφής ευκαιρία να επιτραπεί η εφαρμογή της ΤΝ με τρόπο ώστε να λαμβάνει πιο δίκαιες και πιο ισότιμες αποφάσεις που βασίζονται στην αξία και που αυξάνουν επίσης το τελικό αποτέλεσμα μιας εταιρείας”.

Η Wachter εργάζεται για να βοηθήσει τις εταιρείες να εντοπίσουν τη μεροληψία μέσω της συνδημιουργίας του Conditional Demographic Disparity test, ενός δημόσια διαθέσιμου εργαλείου που “λειτουργεί ως σύστημα συναγερμού που ειδοποιεί αν ο αλγόριθμός είναι μεροληπτικός..Από την ανάπτυξή του το 2020, η Amazon και η IBM είναι μεταξύ των επιχειρήσεων που το έχουν εφαρμόσει.

Η Schellmann, εν τω μεταξύ, ζητά να υπάρξουν σε ολόκληρη τη βιομηχανία “προστατευτικές δεικλίδες και ρυθμίσεις” από κυβερνήσεις ή μη κερδοσκοπικούς οργανισμούς για να διασφαλιστεί ότι τα σημερινά προβλήματα δεν θα συνεχιστούν. Αν δεν υπάρξει παρέμβαση τώρα, εκτιμά ότι η τεχνητή νοημοσύνη θα μπορούσε να καταστήσει τον εργασιακό χώρο του μέλλοντος πιο άνισο από ό,τι πριν.

Σχετικά Άρθρα