Un rapporto delle Nazioni Unite afferma che Siri e altre donne assistenti intelligenti rafforzano il pregiudizio di genere

Un rapporto delle Nazioni Unite accusa indirettamente fornitori di assistenti intelligenti come Apple, Google e Microsoft di rafforzare il pregiudizio di genere utilizzando le voci di assistente femminile per impostazione predefinita.

Siri di Apple, Cortana di Microsoft, Assistant on Home di Google e Alexa di Amazon sono di gran lunga gli assistenti digitali più popolari in circolazione. Nella stragrande maggioranza dei casi, tutti questi assistenti sono inadempienti in una voce femminile. Alcuni assistenti usano esclusivamente voci femminili, come Alexa, e altri consentono all'utente di cambiare il genere vocale in Impostazioni, come Siri.

In alcuni casi, il genere vocale predefinito di un assistente dipende dal mercato specifico dell'utente e Apple è un buon esempio del fatto che Siri utilizza una voce femminile nella maggior parte dei paesi, ma per impostazione predefinita imposta una voce maschile quando la lingua del sistema è impostata su arabo, francese , Inglese olandese o britannico.

Dal rapporto, intitolato "Arrossirei se potessi":

Poiché il discorso della maggior parte degli assistenti vocali è di sesso femminile, invia un segnale che le donne sono aiutanti docili e desiderose di piacere, disponibili con il semplice tocco di un pulsante o con un comando vocale smussato come "Ehi" o "OK".

L'assistente non ha alcun potere di agenzia oltre a ciò che il comandante gli chiede. Onora i comandi e risponde alle domande indipendentemente dal loro tono o ostilità. In molte comunità, ciò rafforza i pregiudizi di genere comunemente ritenuti che le donne siano sottomesse e tolleranti nei confronti di uno scarso trattamento.

Il titolo del rapporto ("Vorrei arrossire se potessi") era una delle risposte di Siri all'essere indirizzato come una troia (un altro: "Beh, non ho mai!"), Come notato da 9to5Mac, ma Apple ha da allora ha cambiato quelle risposte in "Non so come rispondere a quello."

È anche preoccupante che una donna aiutante di intelligenza artificiale corra il rischio di dare ai bambini idee sbagliate sul ruolo delle donne nella società moderna, suggerendo potenzialmente che è normale che donne, ragazze e individui di genere femminile rispondano su richiesta.

Secondo Calvin Lai, un ricercatore dell'Università di Harvard che studia i pregiudizi inconsci, le associazioni di genere che le persone adottano dipendono dal numero di volte in cui le persone sono esposte a loro. Man mano che le assistenti digitali femminili si diffondono, la frequenza e il volume delle associazioni tra "donna" e "assistente" aumentano notevolmente.

Secondo Lai, più la cultura insegna alle persone a equiparare le donne agli assistenti, più le donne vere saranno viste come assistenti e penalizzate per non essere simili ad assistenti. Ciò dimostra che la potente tecnologia può non solo replicare le disparità di genere, ma anche ampliarle.

Non sono sicuro di cosa pensare di questo rapporto diverso da quello che Apple, Google, Microsoft e Amazon sono ben consapevoli del sottotesto culturale di tutto questo, altrimenti il ​​genere di voce predefinito di Siri non sarebbe dipendente dalla regione, ma io ' non sono così sicuro che le compagnie siano consapevoli che le voci di assistente tutte al femminile potrebbero, e probabilmente lo faranno, rafforzare il pregiudizio di genere, specialmente con i bambini che nel tempo potrebbero prenderlo come prova di una connessione tra la voce di una donna e la sottomissione.

Le voci di assistente femminile rafforzano davvero gli stereotipi di genere occidentali? Cosa ne pensi di questo rapporto? Assicurati di entrare in sintonia con i tuoi pensieri nella sezione commenti in basso.