Ecco perché l’Intelligenza Artificiale rappresenta una minaccia per la comunità LGBTQIA+

Come l'utilizzo dell'Intelligenza Artificiale può portare a discriminazione, violenza e persecuzione della comunità LGBTQIA+, mettendo a rischio i diritti umani fondamentali.

ascolta:
0:00
-
0:00
intelligenza-artificiale-comunita-lgbtqia
4 min. di lettura

In un mondo sempre più dipendente dalla tecnologia, l’intelligenza artificiale (IA) sta diventando uno strumento apparentemente indispensabile per l’attività di governi e grandi aziende in tutto il mondo.  

L’utilizzo dell’IA promette di velocizzare i processi di check-in negli aeroporti, migliorare l’esperienza di acquisto dei consumatori e semplificare l’organizzazione di dati complessi. Tuttavia, mentre queste tecnologie sembrano portare solo benefici, non sono da trascurare anche possibili gravi rischi per le comunità marginalizzate, tra cui anche la comunità LGBTQIA+. 

I sistemi in intelligenza artificiale spesso si basano infatti sulla suddivisione delle persone in due categorie di genere: maschio e femmina. Ciò significa che per coloro che non si identificano con il genere assegnato alla nascita, questi algoritmi risultano intrinsecamente discriminatori e dannosi.  

Il vero pericolo dell’IA è però a monte: questa tecnologia si basa sulla concezione errata che il genere e l’orientamento sessuale si possano determinare da tratti fisici, comportamentali o persino dal nome di una persona. Questo errore fondamentale può facilmente alimentare la discriminazione, e non solo verso la comunità LGBTQIA+.  

In questo articolo, esploreremo più approfonditamente i pericoli dell’IA, discutendo come queste tecnologie rischiano di perpetuare la discriminazione e la violenza contro le comunità marginalizzate. 

Il riconoscimento facciale in Intelligenza Artificiale: come funziona e dove viene utilizzato 

Il riconoscimento facciale IA è una tecnologia sempre più diffusa e utilizzata da governi e aziende in tutto il mondo per identificare e tracciare cittadini e consumatori.  

Questa tecnologia consentirebbe anche – almeno secondo chi la promuove – di identificare il genere e l’orientamento sessuale degli individui analizzando il loro nome, l’aspetto fisico, il modo di parlare o di muoversi.  

Tuttavia, poiché l’IA non è in grado di riconoscere con precisione il genere o l’orientamento sessuale di una persona, può solo fornire una previsione approssimativa. 

Il riconoscimento facciale IA è attualmente utilizzato in una vasta gamma di ambiti, tra cui i terminali di check-in degli aeroporti, negozi e alcune piattaforme di social media. L’obiettivo principale è teoricamente quello di semplificare e velocizzare i processi di identificazione e di tracciamento dei consumatori, ma potrebbe invece fare più danni che altro. 

Quali sono i rischi per la comunità LGBTQIA+? 

Tenendo in considerazione i bias intrinsechi degli algoritmi di intelligenza artificiale (IA), essa rappresenta una minaccia concreta per la comunità LGBTQIA+.  

Molti di questi software sono programmati per suddividere le persone in due sole categorie di genere, maschio e femmina, non tenendo in considerazione l’esistenza di identità di genere non conformi o di persone intersex.  

Questa limitazione nella comprensione del genere delle persone, basata esclusivamente sull’aspetto fisico e sui dati anagrafici, può portare a conseguenze psicologiche, emotive – ma anche di carattere amministrativo – disastrose per chi non si identifica con il genere assegnato.  

Senza contare che gli algoritmi – che imparano dall’essere umano – sono spesso programmati secondo stereotipi di genere e di razza radicati, che possono essere estremamente dannosi per le fasce marginalizzate in ottica più ampia.  

Ad esempio, essi possono fare affidamento su preconcetti comuni, quali l’idea che le persone gay siano più effeminate, o che le persone trans siano sempre fisicamente differenti dal genere con cui si identificano. Il che può portare a discriminazione e a violenza contro le persone LGBTQIA+, alimentando l’omofobia, la transfobia e il razzismo. 

Le persone transgender e non conformi sono particolarmente a rischio in contesti in cui l’intelligenza artificiale viene utilizzata per l’accesso a spazi pubblici o di lavoro, come bagni e spogliatoi. L’uso di questi software può portare le persone non conformi a venire escluse da spazi dedicati solo perché un’IA ha deciso così.  

Gli scenari più inquietanti, tuttavia, si potrebbero realizzare in quei paesi in cui sono presenti leggi anti-LGBTQIA+. Qui, le autorità governative potrebbero utilizzare il riconoscimento facciale per rintracciare le persone appartenenti alla comunità e perseguitarle.  

Ad esempio, in alcuni paesi l’omosessualità è ancora considerata un reato penale, e le autorità utilizzano strumenti come l’IA per identificare e arrestare persone LGBTQIA+. 

È possibile fermare la diffusione dei sistemi IA per il riconoscimento?  

Sul fronte delle buone notizie, nell’aprile del 2021, la Commissione europea, il ramo esecutivo dell’Unione europea, ha annunciato l’intenzione di presentare un pacchetto di norme e linee guida per regolamentare l’utilizzo dei sistemi d’intelligenza artificiale.  

Il quadro giuridico proposto dalla Commissione europea nell’aprile 2021 non ha preso sufficientemente in considerazione il riconoscimento automatico del genere e dell’orientamento sessuale nell’elenco delle applicazioni vietate, lasciando le persone queer esposte al rischio di essere eccessivamente monitorate, ingiustamente prese di mira e discriminate. In mani sbagliate, come quelle delle forze dell’ordine in Paesi con leggi anti-LGBT+, questi strumenti potrebbero portare a gravi danni per le persone queer. Per questo motivo, è importante aumentare la pressione sul Parlamento europeo, che sta iniziando a discutere di potenziali divieti. Si tratta di un’opportunità unica per vietare queste tecnologie difettose e dannose nell’UE e impedire che tali strumenti vengano esportati in tutto il mondo“. Yuri Guaiana, Senior campaign manager di All Out.

Questa proposta rappresenta un’opportunità unica per la comunità internazionale di affrontare le problematiche legate alla tecnologia in relazione alla protezione dei diritti umani. 

In particolare, All Out, un’organizzazione internazionale che si batte per i diritti LGBT+, insieme ad Access Now e Reclaim Your Face, ha lanciato una campagna per chiedere all’Unione europea di vietare il riconoscimento automatico del genere e dell’orientamento sessuale.  

Questa richiesta risponde alla necessità di evitare discriminazioni ingiuste e prevenire la violazione dei diritti delle persone LGBT+. È possibile firmare la petizione qui.  

Gay.it è anche su Whatsapp. Clicca qui per unirti alla community ed essere sempre aggiornato.

© Riproduzione riservata.

Partecipa alla
discussione

Per inviare un commento devi essere registrato.

Trending

Parigi 2024, è ufficiale. Tom Daley parteciperà alla sua 5a olimpiade, record britannico nei tuffi - Tom Daley - Gay.it

Parigi 2024, è ufficiale. Tom Daley parteciperà alla sua 5a olimpiade, record britannico nei tuffi

Corpi - Redazione 8.5.24
Those About To Die, arriva la serie di Roland Emmerich ambientata nell'omoerotica Antica Roma - Those About To Die arriva la serie di Roland Emmerich ambientata nellomoerotica Antica Roma - Gay.it

Those About To Die, arriva la serie di Roland Emmerich ambientata nell’omoerotica Antica Roma

Serie Tv - Redazione 8.5.24
boy-scouts-of-america-nome-gender-neutral

I “Boy Scout” cambieranno nome per essere gender neutral

News - Francesca Di Feo 9.5.24
Eurovision 2024, prima semifinale da urlo. Trionfo queer tra Grindr, Orgoglio e senso dello spettacolo (VIDEO) - persona non binaria in rappresentanza dellIrlanda ha vestito i colori della bandiera transgender dopo aver - Gay.it

Eurovision 2024, prima semifinale da urlo. Trionfo queer tra Grindr, Orgoglio e senso dello spettacolo (VIDEO)

Culture - Federico Boni 8.5.24
Libri LGBT, cinque novità in libreria nella primavera 2024 - Libri LGBT primavera 2024 - Gay.it

Libri LGBT, cinque novità in libreria nella primavera 2024

Culture - Federico Colombo 8.5.24
Pillion, Harry Melling e Alexander Skarsgard motociclisti innamorati nel perverso film queer di Harry Lighton - Pillion - Gay.it

Pillion, Harry Melling e Alexander Skarsgard motociclisti innamorati nel perverso film queer di Harry Lighton

Cinema - Redazione 9.5.24

Leggere fa bene

Intelligenza artificiale e comunit lgbtiqa

Intelligenza artificiale e impatto su comunità LGBTQIA+ e gruppi marginalizzati

Culture - Francesca Di Feo 22.12.23
chat gay gratis italiana

Chat per incontri gay: le 7 migliori app del 2024

Lifestyle - Redazione 5.1.24