Intelligenza artificiale e impatto su comunità LGBTQIA+ e gruppi marginalizzati

A che modello si ispirano tecnologie in procinto di assumere connotati sempre più umani? E quali sono le ipotesi per regolamentarle?

ascolta:
0:00
-
0:00
Intelligenza artificiale e comunit lgbtiqa
Intelligenza artificiale e comunit lgbtiqa
5 min. di lettura

Il 2023 è stato l’anno delle intelligenze artificiali generative. Con il debutto di ChatGPT, tecnologia avanzata di modelli di linguaggio naturale, milioni di utenti in tutto il mondo hanno iniziato a esplorare le potenzialità di un futuro che, fino a pochi anni fa, sembrava relegato ai libri di fantascienza.

L’IA è, nella sua concezione più pragmatica, un lavoratore instancabile: genera immagini, testi, crea interi software da zero ed è perfino capace di diventare un assistente personale disponibile 24 ore su 24.

Ed è forse anche per questo motivo che questa tecnologia ci spaventa: da chi teme un uprising delle macchine in salsa sci-fi, a chi invece rimane con i piedi per terra e delinea uno scenario catastrofico per il mercato del lavoro a livello globale, l’idea che qualcun altro – o meglio, qualcos’altro – acquisisca le nostre stesse capacità di elaborare dati e generare input unici fa paura.

La verità, però, è che le intelligenze artificiali generative si trovano al mero stato embrionale, ed il loro potenziale – positivo o negativo che sia – è ancora tutto da esplorare. Starà all’essere umano, unico attore nello sviluppo dell’IA generativa, dare loro la giusta direzione.

Nonostante i progressi, oggi affidare interamente un compito a un modello di IA presenta infatti delle sfide notevoli.

Oltre alla qualità discutibile del lavoro compiuto dalle IA nella generazione di output, i dataset utilizzati per il loro addestramento possono includere bias e veicolare informazioni polarizzate, un aspetto particolarmente rilevante per i modelli che accedono a informazioni disponibili sul web.

E qui arriviamo al nocciolo della questione. Diversi esperti hanno già lanciato l’allarme in riferimento alle conseguenze sconosciute – e potenzialmente terrificanti – dell’adozione a tappeto di queste tecnologie sulla società, e in particolare sui gruppi marginalizzati, tra cui la comunità LGBTQIA+. Ma partiamo dall’inizio.

bacio gay foto dell'artista Gorka Male
foto creata con Intelligenza Artificiale dall’artista Gorka Male – utilizzata in questo articolo di cronaca >

Il potenziale impatto delle intelligenze artificiali generative sulla comunità LGBTQIA+

L’IA non è nata con ChatGPT, ma è parte della nostra quotidianità da molto più tempo di quanto pensiamo. La differenza fondamentale sta nella capacità dei nuovi modelli di elaborare dati e generare, appunto, output unici e naturali.

Ed è anche parte di un avanzamento tecnologico che ha assunto, negli anni, un ruolo cruciale nell’ampliare la visibilità e il sostegno alla comunità LGBTQIA+.

Attraverso gli algoritmi social, è stata possibile la creazione di reti di attivismo globali che trascendono i confini geografici, facilitando l’aggregazione e l’unione di gruppi marginalizzati da ogni angolo del globo in comunità virtuali, diventate spazi vitali per combattere l’isolamento e promuovere l’inclusione.

Pensiamo a cosa ne sarebbe dei movimenti per i diritti civili e sociali senza il web. Isole, sparse qua e là, incapaci di raggiungere chi ne ha più bisogno. Per farci un’idea, non è neanche necessario andare troppo indietro – del resto, la diffusione globale dell’internet risale a poco più di trent’anni fa.

Dai preistorici blog in HTML degli anni 90’, in pochi decenni la tecnologia si è evoluta in modi impensabili e con una rapidità impressionante. E proprio come accadde prima con l’internet, poi con i social, l’intelligenza artificiale generativa rappresenta l’ennesima pietra miliare che segna l’inizio di una nuova era.

Tuttavia, è importante riconoscere che il progresso sociale non procede al ritmo accelerato del progresso tecnologico. Questa discrepanza è al centro delle preoccupazioni espresse da molti esperti nell’osservare la tecnologia assumere connotati sempre più umani. 

Per comprendere meglio queste preoccupazioni, possiamo paragonare i modelli di IA a bambini superintelligenti la cui comprensione del mondo è modellata esclusivamente dalle informazioni che ricevono, senza l'”ostacolo” dell’etica. 

Se un bambino dotato di un quoziente intellettivo elevato cresce in un ambiente chiuso e omofobo, il suo modo di pensare sarà inevitabilmente influenzato da tali condizioni. Analogamente, se un modello di IA viene addestrato con dati che riflettono pregiudizi o visioni limitate, tenderà a perpetuarle e amplificarle. 

Un algoritmo, magari utilizzato a livello istituzionale o aziendale, non adeguatamente formato con dati consistenti sugli individui non conformi ai parametri standard, avrebbe quindi un impatto devastante sull’accesso a risorse, opportunità e servizi per le comunità già marginalizzate. 

Un esempio pratico sono le piattaforme di job search. In ottica automazione, le aziende potrebbero eliminare i dipartimenti HR ed affidarsi unicamente alle tecnologie IA.

Se non adeguatamente formati, questi modelli andrebbero però ad escludere a priori l* candidat* che non rientrano nello schema binario, andando di fatto ad aggravare la situazione già critica della comunità LGBTQIA+ nel mercato del lavoro.

E se prima abbiamo parlato di algoritmi social favorevoli, guardiamo l’altra faccia della medaglia: una comunità LGBTQIA+ che sta nella propria echo-chamber, a cui vengono suggeriti solo contenuti e profili che rispecchiano la propria visione, è una comunità ferma, che non ricerca il dialogo e il confronto, che si isola dal mondo a cui invece dovrebbe rivolgersi.

Al contrario, a chi invece sta nella propria echo-chamber omofoba non verranno fornite informazioni dissonanti.

Ma non abbiamo ancora raggiunto le istanze più critiche. Anche se, in una prospettiva ideale, i modelli di linguaggio più diffusi venissero addestrati con dataset inclusivi, si porrebbe un altro problema: quello della privacy.

La comunità LGBTQIA+ rappresenta circa il 10% della popolazione mondiale. Pensiamo a quei paesi in cui orientamento sessuale e identità di genere possono determinare il diritto o no alla libertà – o addirittura alla vita.

È di pochi mesi fa la notizia dello sviluppo di un controverso algoritmo capace di identificare – finora con altissimo margine d’errore – una persona gay o transgender.

Analizziamo il contesto in cui si stanno sviluppando queste tecnologie, caratterizzato dalla crescita delle correnti populiste e di estrema destra, da conflitti persistenti e da una profonda crisi economica.

Esperti e attivisti ipotizzano – nello scenario più catastrofico – l’implementazione di un Grande Fratello intelligente per “stanare” gruppi marginalizzati e dissidenti politici nei paesi dove questi vengono presi di mira, per consegnarli alle autorità in molto meno tempo rispetto ai metodi analogici.

Schedari attivi, contenenti una mole impensabile di dati, verrebbero messi a disposizione da chi intende sfruttarli per una persecuzione 2.0.

Per questo, diventa fondamentale una regolamentazione di queste tecnologie prima che esse ci sfuggano di mano. Ma come bilanciare la libertà creativa degli sviluppatori con la tutela dei diritti umani?

Gli esperti sulla regolamentazione delle IA generative

Le strategie proposte dagli specialisti per fronteggiare le sfide associate alle tecnologie di intelligenza artificiale sono variegate e complesse.

In questo contesto, l’Unione Europea è stata ancora una volta pioniera, stabilendo un importante precedente a livello internazionale. Con un accordo storico, l’UE ha introdotto il primo regolamento a livello globale dedicato specificamente alle intelligenze artificiali.

L’approccio adottato dai legislatori europei è basato sulla valutazione del rischio: più alto è il rischio associato ad un sistema di IA, più stringenti saranno le regole da rispettare. Per i sistemi di IA con rischio limitato, sono previsti requisiti di base, principalmente in termini di trasparenza.

Tuttavia, quando i rischi per i diritti delle persone e la società diventano più significativi, come nel caso dei sistemi utilizzati per la gestione delle risorse umane, i dispositivi medici, le reti di società di servizi pubblici e simili, si applicano obblighi più stringenti in termini di governance dei dati, privacy, cybersicurezza, gestione del rischio e supervisione umana.

Importante è il divieto imposto da questa normativa a certe applicazioni dell’IA. Tra queste, si annoverano l’uso non mirato dello scraping di immagini facciali da internet o da riprese di telecamere di sorveglianza per creare database per il riconoscimento facciale, e l’impiego del riconoscimento delle emozioni nei luoghi di lavoro e negli istituti di istruzione, in quanto considerati invasivi e potenzialmente dannosi.

Il testo definitivo dell’AI Act è previsto per la pubblicazione sulla Gazzetta Ufficiale dell’Unione Europea all’inizio del 2024, ma solo alcuni punti diventeranno obbligatori da subito.

Mentre il futuro delle intelligenze artificiali è ancora in gran parte da scrivere, le decisioni prese oggi determineranno il corso che prenderà questo promettente ma complesso settore tecnologico.

Se un singolo blocco occidentale adotta un regolamento specifico, assistiamo però a una situazione globale in cui diversi paesi e organizzazioni studiano attentamente il potenziale impatto delle intelligenze artificiali generative senza adottare provvedimenti decisivi in merito.

Il 2023 ha rappresentato un periodo di esplorazione e di formulazione di ipotesi: un vero e proprio sandbox dove sperimentare e valutare le possibilità. Questo porta a interrogarsi: il 2024 segnerà un punto di svolta, trasformandosi nell’anno in cui verranno finalmente affrontate le sfide poste da queste tecnologie con soluzioni concrete e definitive?

 

foto cover tratta da GAYSI

Gay.it è anche su Whatsapp. Clicca qui per unirti alla community ed essere sempre aggiornato.

© Riproduzione riservata.

Partecipa alla
discussione

Per inviare un commento devi essere registrato.

Trending

meloni orban

Ungheria, condanna del Parlamento Europeo, ma la destra italiana vota contro

News - Redazione Milano 25.4.24
Gianna Nannini: "Carla mi ha salvata, l'unica persona che in tutta la mia vita mi ha sempre sostenuto" - Sei nellanima foto Ralph Palka SNA 491A7764 - Gay.it

Gianna Nannini: “Carla mi ha salvata, l’unica persona che in tutta la mia vita mi ha sempre sostenuto”

Culture - Federico Boni 24.4.24
Ornella Vanoni Elisa Calcutta Madame Mahmood

Ornella Vanoni “Senza fine”: Madame, Elisa, Calcutta, Mahmood, Patty Pravo e tutti gli ospiti di due concerti che passeranno alla storia

Musica - Emanuele Corbo 25.4.24
Miguel Bernardeau

Miguel Bernardeau, chi è l’attore spagnolo che interpreterà Diego de la Vega?

Culture - Luca Diana 26.4.24
Kim Petras cancella tutti i concerti estivi per "problemi di salute" - Kim Petras 1 - Gay.it

Kim Petras cancella tutti i concerti estivi per “problemi di salute”

Musica - Redazione 26.4.24
Vincenzo Schettini

Vincenzo Schettini tra coming out e amore: “Francesco mi completa, è la mia metà” (VIDEO)

News - Redazione 24.4.24

Hai già letto
queste storie?

chat gay gratis italiana

Chat per incontri gay: le 7 migliori app del 2024

Lifestyle - Redazione 5.1.24