In un mondo sempre più dipendente dalla tecnologia, l’intelligenza artificiale (IA) sta diventando uno strumento apparentemente indispensabile per l’attività di governi e grandi aziende in tutto il mondo.
L’utilizzo dell’IA promette di velocizzare i processi di check-in negli aeroporti, migliorare l’esperienza di acquisto dei consumatori e semplificare l’organizzazione di dati complessi. Tuttavia, mentre queste tecnologie sembrano portare solo benefici, non sono da trascurare anche possibili gravi rischi per le comunità marginalizzate, tra cui anche la comunità LGBTQIA+.
I sistemi in intelligenza artificiale spesso si basano infatti sulla suddivisione delle persone in due categorie di genere: maschio e femmina. Ciò significa che per coloro che non si identificano con il genere assegnato alla nascita, questi algoritmi risultano intrinsecamente discriminatori e dannosi.
Il vero pericolo dell’IA è però a monte: questa tecnologia si basa sulla concezione errata che il genere e l’orientamento sessuale si possano determinare da tratti fisici, comportamentali o persino dal nome di una persona. Questo errore fondamentale può facilmente alimentare la discriminazione, e non solo verso la comunità LGBTQIA+.
In questo articolo, esploreremo più approfonditamente i pericoli dell’IA, discutendo come queste tecnologie rischiano di perpetuare la discriminazione e la violenza contro le comunità marginalizzate.
Il riconoscimento facciale in Intelligenza Artificiale: come funziona e dove viene utilizzato
Il riconoscimento facciale IA è una tecnologia sempre più diffusa e utilizzata da governi e aziende in tutto il mondo per identificare e tracciare cittadini e consumatori.
Questa tecnologia consentirebbe anche – almeno secondo chi la promuove – di identificare il genere e l’orientamento sessuale degli individui analizzando il loro nome, l’aspetto fisico, il modo di parlare o di muoversi.
Tuttavia, poiché l’IA non è in grado di riconoscere con precisione il genere o l’orientamento sessuale di una persona, può solo fornire una previsione approssimativa.
Il riconoscimento facciale IA è attualmente utilizzato in una vasta gamma di ambiti, tra cui i terminali di check-in degli aeroporti, negozi e alcune piattaforme di social media. L’obiettivo principale è teoricamente quello di semplificare e velocizzare i processi di identificazione e di tracciamento dei consumatori, ma potrebbe invece fare più danni che altro.
Quali sono i rischi per la comunità LGBTQIA+?
Tenendo in considerazione i bias intrinsechi degli algoritmi di intelligenza artificiale (IA), essa rappresenta una minaccia concreta per la comunità LGBTQIA+.
Molti di questi software sono programmati per suddividere le persone in due sole categorie di genere, maschio e femmina, non tenendo in considerazione l’esistenza di identità di genere non conformi o di persone intersex.
Questa limitazione nella comprensione del genere delle persone, basata esclusivamente sull’aspetto fisico e sui dati anagrafici, può portare a conseguenze psicologiche, emotive – ma anche di carattere amministrativo – disastrose per chi non si identifica con il genere assegnato.
Senza contare che gli algoritmi – che imparano dall’essere umano – sono spesso programmati secondo stereotipi di genere e di razza radicati, che possono essere estremamente dannosi per le fasce marginalizzate in ottica più ampia.
Ad esempio, essi possono fare affidamento su preconcetti comuni, quali l’idea che le persone gay siano più effeminate, o che le persone trans siano sempre fisicamente differenti dal genere con cui si identificano. Il che può portare a discriminazione e a violenza contro le persone LGBTQIA+, alimentando l’omofobia, la transfobia e il razzismo.
Le persone transgender e non conformi sono particolarmente a rischio in contesti in cui l’intelligenza artificiale viene utilizzata per l’accesso a spazi pubblici o di lavoro, come bagni e spogliatoi. L’uso di questi software può portare le persone non conformi a venire escluse da spazi dedicati solo perché un’IA ha deciso così.
Gli scenari più inquietanti, tuttavia, si potrebbero realizzare in quei paesi in cui sono presenti leggi anti-LGBTQIA+. Qui, le autorità governative potrebbero utilizzare il riconoscimento facciale per rintracciare le persone appartenenti alla comunità e perseguitarle.
Ad esempio, in alcuni paesi l’omosessualità è ancora considerata un reato penale, e le autorità utilizzano strumenti come l’IA per identificare e arrestare persone LGBTQIA+.
È possibile fermare la diffusione dei sistemi IA per il riconoscimento?
Sul fronte delle buone notizie, nell’aprile del 2021, la Commissione europea, il ramo esecutivo dell’Unione europea, ha annunciato l’intenzione di presentare un pacchetto di norme e linee guida per regolamentare l’utilizzo dei sistemi d’intelligenza artificiale.
“Il quadro giuridico proposto dalla Commissione europea nell’aprile 2021 non ha preso sufficientemente in considerazione il riconoscimento automatico del genere e dell’orientamento sessuale nell’elenco delle applicazioni vietate, lasciando le persone queer esposte al rischio di essere eccessivamente monitorate, ingiustamente prese di mira e discriminate. In mani sbagliate, come quelle delle forze dell’ordine in Paesi con leggi anti-LGBT+, questi strumenti potrebbero portare a gravi danni per le persone queer. Per questo motivo, è importante aumentare la pressione sul Parlamento europeo, che sta iniziando a discutere di potenziali divieti. Si tratta di un’opportunità unica per vietare queste tecnologie difettose e dannose nell’UE e impedire che tali strumenti vengano esportati in tutto il mondo“. Yuri Guaiana, Senior campaign manager di All Out.
Questa proposta rappresenta un’opportunità unica per la comunità internazionale di affrontare le problematiche legate alla tecnologia in relazione alla protezione dei diritti umani.
In particolare, All Out, un’organizzazione internazionale che si batte per i diritti LGBT+, insieme ad Access Now e Reclaim Your Face, ha lanciato una campagna per chiedere all’Unione europea di vietare il riconoscimento automatico del genere e dell’orientamento sessuale.
Questa richiesta risponde alla necessità di evitare discriminazioni ingiuste e prevenire la violazione dei diritti delle persone LGBT+. È possibile firmare la petizione qui.
Gay.it è anche su Whatsapp. Clicca qui per unirti alla community ed essere sempre aggiornato.