Ten o tradutor de Google sesgos de xénero? Por que 'beleza' se asocia á muller e 'intelixente' ao home?

A xornalista especializada en intelixencia artificial, Raquel Holgado, explica que "este algoritmo faise a partir do pensamento das sociedades, coa información que vai recopilando, e é ás sociedades ás que corresponde correxir as condutas machistas para que poidamos ter máquinas que non reproduzan eses patróns".

Por Ángela Precedo | SANTIAGO | 28/11/2023 | Actualizada ás 20:59

Comparte esta noticia

A intelixencia artificial (IA) chegou para quedarse. Xa é unha realidade que está a impregnar todos os espazos. E hai que ter moi en conta que a IA bebe directamente dos nosos pensamentos e das nosas manifestacións como humanos. Non é unha entidade con vontade propia, realmente intelixente, senón que a súa intelixencia se constrúe a partir do noso coñecemento. Así as cousas, nunha sociedade na que a violencia contra a muller e os micromachismos seguen moi presentes, como non vai ter a IA sesgos de xénero? É imposible que no momento da súa creación non os teña, outra cousa é que logo poidan ir correxíndose. Así o explica Raquel Holgado, redactora de Tecnoloxía do diario dixital '20 minutos', no Congreso 'Intelixencia artificial: unha ferramenta para a igualdade?', organizado este martes pola Asociación de Xornalistas de Galicia.

Intelixencia artificial para a tradución de idiomas
Intelixencia artificial para a tradución de idiomas | Fonte: Business Insider - Arquivo

"É o algoritmo que usa o tradutor de Google machista?", plantexa Holgado, que exemplifica varios casos de como traduce idiomas con palabras sen xénero para demostrar que, en certo modo, está sesgado. En húngaro, a palabra 'szép', non ten xénero, polo que se usa tanto para dicir que 'el é guapo' como 'ela é guapa', pero o tradutor de Google sempre arroxaba o mesmo resultado: 'ela é guapa'. Por outra banda, 'okos' significaba tanto 'el é intelixente' como 'ela é intelixente', pero o resultado escollido polo tradutor sempre era 'el é intelixente'. O mesmo sucedía con outros idiomas como o eúskaro ou o inglés, onde hai palabras que tampouco se asocian a un xénero en concreto. Así, 'coser' sempre o asociaba a 'elas' e 'conducir' a 'eles'. "Un usuario do tradutor deuse de conta e este problema se solucionou, de tal maneira que agora Google cambiou a forma en que traduce unha palabra neutra e arroxa nos resultados as dúas versións", afirma Holgado. 

Por que sucedía isto? Era o algoritmo do tradutor de Google conscientemente machista? Non. Tal e como explica a xornalista, "este algoritmo faise a partir do pensamento das sociedades, coa información que vai recopilando, e é ás sociedades ás que corresponde correxir as condutas machistas para que poidamos ter máquinas que non reproduzan eses patróns". E é que isto non é algo exclusivo de Google, senón que también hai outros exemplos onde as tecnoloxías que usan intelixencia artificial amosan tintes racistas e homofóbicos. Holgado expón o caso dos propios filtros de Instagram ou Tik Tok, que usan a IA para cambiar un rostro real por un debuxo animado, por exemplo, e "ás veces non recoñecen a persoas racializadas, asiáticas ou negras". Ademais, outros filtros que usan o recoñecemento facial para mellorar a imaxe da persoa e facela máis guapa, tamén se basean en sesgos machistas, pois son maioritariamente usados por mulleres. "Como no caso no tradutor de Google, as queixas da xente poden facer que as empresas traballen por cambialo", prevé Holgado.

A SUBSTITUCIÓN DE TRABALLADORES COMEZARA POLAS MULLERES?

Ademais, no mundo actual a maior preocupación que supón a intelixencia artificial para a poboación en xeral é a substitución de traballos. Pero, é realmente o avance da IA un perigo para a muller neste senso? "Que a IA estea en boca de todos fai que moitas persoas teman polos seus postos de traballo, e hai quen teme que modelos de xeración conversacional como Chat GPT comecen a quitar empregos á xente", evidencia a xornalista, que aporta unha serie de datos ao respecto. O pasado ano 2018 o Fondo Monetario Internacional (FMI) concluíu que as mulleres se enfrentaban a un risco dun 11 % de perder o seu traballo debido á automatización do emprego, fronte ao risco do 9 % que tiñan os homes. A explicación atopábase en que as mulleres tiñan un 15 % menos de probabilidades de ser xerentes ou altos cargos nas súas profesións, mentres que ocupaban un 19 % máis de funcións administrativos e de prestación de servizos, máis rutineiras e, polo tanto, máis facilmente substituíbles por unha intelixencia artificial.

Estes son datos de fai cinco anos e, "aínda que o normal sería pensar que eses sesgos, ao igual que ocorreu co caso do tradutor de Google, fóronse eliminando", o certo é que "non é así", lamenta Holgado. Un estudo da Universidade de Carolina do Norte, en Estados Unidos, dicía que o 79 % da man de obra feminina se verá afectada polos avances da intelixencia artificial, fronte a un 58 % da masculina. Outro recente estudo da Organización Internacional do Traballo (OIT) temía que os postos administrativos e outros ocupados por mulleres serían os máis afectados pola IA, aínda que, como concede a xornalista, "tamén lanzaba un mensaxe de tranquilidade, pois dicía que non se destruiría o traballo, senón que melloraría a calidade do mesmo". Ademais, Holgado considera que, "polo momento, o desenvolvemento da IA só está dando os seus primeiros pasos, a pesares de que xa as empresas levan moito tempo traballando nela, o que nos levaría a pensar que ao mellor o avance vai ser máis lento do que a sociedade cre".

É NECESARIA UNHA LEXISLACIÓN SOBRE INTELIXENCIA ARTIFICIAL XA

Aínda que non é menos certo que é necesario crear xa lexislación ao respecto, porque "os estudos son só suposicións, e están lonxe de cuantificar cales son as consecuencias reais". Así que, mentres se analizan as perspectivas de futuro, na Unión Europea xa se está a redactar un borrador de lei sobre a IA, pendente de aprobación na actualidade, que Holgado cre que "está á volta da esquina, porque é evidente que precisamos unha lei". Cando esta se aprobe para a Unión Europea, España tamén estará amparada por ela. A xornalista cre que este documento é "moi importante para que o avance se faga sin riscos, sen os que se están previndo, e que sexa beneficioso para o conxunto da sociedade e non só para uns poucos, non só para os homes". Deste xeito, o que se coñece xa do borrador desta lei marca como "inaceptable" que "o modelo supoña un risco para as persoas" e "evita que se usen técnicas subliminais que manipulen ou se aproveiten das vulnerabilidades das persoas". 

Comparte esta noticia
¿Gústache esta noticia?
Colabora para que sexan moitas máis activando GCplus
Que é GC plus? Achegas    icona Paypal icona VISA
Comenta