Por Ángela Precedo | SANTIAGO | 28/01/2024 | Actualizada ás 14:00
O ano 2018 supuxo un antes e un despois na Historia do ser humano. A Organización das Nacións Unidas (ONU), supuxo que nese momento houbo un cambio de paradigma social, polo cal saímos da sociedade postindustrial e do coñecemento e entramos na sociedade dixital. E é que é evidente que cada vez se están a dixitalizar máis actividades das que realizamos diariamente. Neste contexto xurdiu a intelixencia artificial (IA), amparada no desenvolvemento da tecnoloxía: o internet das cousas, o 5G, a computación de altas prestacións, o 'blockchain' e os sensores portátiles que fixeron posible recoller cada vez máis datos de lugares recónditos, que estes viaxen máis rápido a uns centros onde aloxalos e analizalos en máis cantidade, máis depresa e con máis seguridade. O problema está en que ningunha destas tecnoloxías nos di o que contan os datos, a que de verdade nos di como usar eses datos para xestionar ou coñecer mellor fenómenos complexos é a IA.
Tal e como apunta Karina Gibert Oliveiras, catedrática en Intelixencia Artificial da Universidade Politécnica de Catalunya, "a IA non é nada novo, nace no ano 1956 na Universidade de Darmaouth, cando un profesor encerra durante dous meses a alumnos coa conxectura de pensar se as actividades que realizan os humanos e que requiren de intelixencia poden ser simuladas por unha máquina". De aí que "o primeiro obxectivo fose crear máquinas que imitasen o comportamento intelixente que temos os humanos". E é que "a ambición de querer construír unha entidade que nos imite vén de moi antigo, pois xa hai referencias á creación de humanoides na 'Ilíada' de Homero". Hoxe en día, "mesmo estamos coa creación de robots sexuais, xa comercializados no mercado xaponés, con pinta bastante humana e que interactúan coas persoas". O problema? Como indica Gibert, que "as bases científicas destes robots sempre as puxeron homes".
Esta catedrática apunta que toda a IA descansa sobre tres cousas: "os datos, manexados a través de técnicas que os sofistican e versións máis modernas da álxebra e a estadística; o coñecemento, o que a xente sabe, como se fose a lóxica, a partir de métodos lóxicos saen todos os sistemas de procesamento automático; e as linguaxes de programación, que permiten que todos os algoritmos se concreten e dean solucións a problemas reais". Hoxe en día xa vivimos rodeados de IA, entre as Siris e as Alexas, sistemas de recoñecemento de voz e da linguaxe natural; os GPS, que resolveron a planificación evitando xa dende fai décadas que a xente se perda; as 'roombas', que levan un sistema de visión e toda unha serie de controladores de movemento que evitan que se tiren polas escaleiras ou se suban á alfombra; o diagnóstico baseado na imaxe médica, con tantos tumores que foron detectados a tempo porque a IA puido ver nunha radiografía algo que se escapaba ao ollo humano; os 'chatbots', cada vez máis mellorados grazas aos avances na IA xerativa...
A IA NON É INFALIBLE, E "NUNCA DEBERÍA TOMAR AS DECISIÓNS DEFINITIVAS SOBRE NADA"
Con todo, e aínda que a IA innegablemente facilitou as nosas vidas, non é infalible. Como apunta a profesora Gibert, "nun 3 ou nun 5 % dos casos equivócase" e "se isto significa que non che van dar un tratamento contra o cancro que padeces ou que non che van propor para directora por ser muller, ten implicacións moi serias". Neste senso, pon o exemplo dun escándalo acontecido no ano 2021, cando todo o goberno holandés dimitiu case ao completo porque "demostrouse que unha IA que puxera o goberno anterior en marcha estaba abrindo expedientes sancionadores unicamente ás persoas de cor, cun sesgo espantoso, e aínda que esas persoas habían dito en repetidas ocasións que non habían feito as cousas das que se lles acusaba, ninguén as escoitaba, o que derivou en moitos suicidios, enfermidades mentais, prisión para inocentes... Foi un verdadeiro escándalo". Por que aconteceu isto? Primeiro, polo sesgo que tiña a IA, pero tamén "polo rol que se lle deu".
"A intelixencia artificial podemos usala para que nos dea unha información adicional sobre a decisión a tomar, pero a IA nunca debería tomar as decisións definitivas sobre nada, porque ela ten unha visión do mundo que non é o mundo en realidade", advirte Gibert, que precisa que "o que ten son uns cantos datos sobre a persoa, e unha persoa non é só os seus datos, é as súas circunstancias, a súa historia persoal...". Por iso, insiste en que "nunca deberiamos ter intelixencias artificiais que decidan nada, as IAs teñen que dar información e, quen sexa, revisala e decidir con toda a información". A ética é unha compoñente fundamental no uso da intelixencia artificial para Gibert, que fala "de ética, e non de normativa, porque a lei chega ata un punto, e a ética vai máis aló, pois hai cousas legais que non por selo son éticas".
Neste punto por o exemplo do coitelo, "un elemento clave para que o ser humano puidese chegar ao nivel de civilización que ten agora, pois permitiulle alimentarse doutra maneira". Pero o coitelo tamén é unha ferramenta que "pode ter moito risco, e uns malos usos". Pese a eses malos usos, "non prescindimos del, o encadramos en como o queriamos usar, para saber socialmente cales dos usos desa tecnoloxía queriamos e cales non, e lexislalos". Actualmente, a catedrática da Politécnica de Barcelona cre que a IA está neste punto, pois "ten uns usos moi bos e outros que non son desexables". Neste senso, Europa é a primeira potencia mundial que aborda o debate ético sobre o seu uso: "Unha IA centrada na persoa, empregada para o ben común, segura e confiable e que preserve dereitos, que non xere desigualdades de xénero nin doutro tipo".
A IA TEN "SESGOS DE XÉNERO", PORQUE "NON HAI TANTAS MULLERES NO SECTOR COMO PARA QUE NON OS TEÑA"
Pero, máis aló de todo isto, hai que ter en conta para facer un correcto emprego da IA que "ten sesgos de xénero", como asegura Gibert, que considera que estes parten de que "non hai tantas mulleres no sector creando IA como para que non haxa sesgos". Así, aporta a modo de exemplo uns datos sobre o sector en Cataluña: en 2022, había unhas 20.000 compañías TIC na comunidade que sostiñan un 175.000 postos de traballo e facturaban uns 30.000 millóns de euros ao ano (supoñendo o 13 % do PIB); o sector tiña case plena ocupación, só cun 5 % de paro, pero só un 8,5 % das empregadas eran mulleres (aínda que a cifra oficial está no 17 % porque contan a teleoperadoras, mulleres de recursos humanos, limpadoras...). Isto tradúcese en que "as mulleres non deseñan os algoritmos que usan as IAs, porque se unha empresa non ten un equipo de informáticos de 10 persoas, entre os integrantes non vai haber ningunha muller".
E todo iso a pesares de que, como evidencia, "é un sector de oportunidades de emprego de cara ao futuro", pois en Cataluña calcúlase que hai un déficit de profesionais de 16.000 persoas, é dicir, "a academia non forma suficientes profesionais e aí hai un oco importante no que as mulleres que queiran entrar teñen espazo, sen necesidade de desprazar aos homes, porque falta xente". A nivel europeo, de feito, calcúlase que en 2030 faltarán 82,5 millóns de profesionais TIC no mundo, polo que "é un espazo de oportunidade para as mulleres, con traballos que se pagan ben". Ademais, vendo a evolución do mercado, Gibert apunta que "no 2025 agárdase que o 85 % dos empregos requiran competencias dixitais, polo que se o mundo vai cara o dixital e as mulleres non, quen traballará? Os homes, e con tantos séculos que nos custou saír do ámbito doméstico e estar no mundo laboral se non nos subimos a este tren o risco de exclusión do mundo laboral por razóns de xénero aumentará de maneira moi perigosa".
UN CHAT GPT RACISTA E MACHISTA OU UN AMAZON QUE NON PROMOCIONA CURRÍCULOS DE MULLERES
Hoxe por hoxe, o prezo de que as mulleres non estean presentes no ámbito tecnolóxico xa é evidente: os sesgos de xénero impactan en toda a cadea de valor de desenvolvemento da intelixencia artificial. A mellor forma de entendelo e evidencialo é a través dalgúns exemplos aportados por Gibert. Fai uns anos, Microsoft lanzara como un antecedente de Chat GPT, un asistente de voz que querían que aprendese a ter conversas con humanos, así que o meteron en Internet para que fose interactuando e aprendendo. En 16 horas tivérono que retirar porque volvérase xenófobo, racista e machista. "Moitos pensaremos que nós non vemos tanto odio na rede, pero o certo é que nós solo vemos unha pequena parte, recomendada polas nosas 'cookies', pero esta IA víao todo, non só un trociño, e ao final o que gaña na Internet son esas tendencias, o que quere dicir que no mundo tamén dominan esas tendencias".
Como explica a catedrática, "este tipo de sesgos impactan directamente nas mulleres, e se eres muller, negra e pobre, impáctanche o triplo". E é que "a IA aprende en función dos datos, e se lle dás datos con sesgos, ela comportarase de xeito sesgado". Pasando a exemplos vinculados ao ámbito laboral, o xigante Amazon creou unha IA para que lle axudara a cribar as solicitudes de emprego, porque recibía moitas e quería filtrar só as máis prometedoras para que pasasen aos recursos humanos. Tiveron que retirala nun mes, porque a entrenaron cos currículos dos mellores traballadores que tiña a compañía: homes, mozos, brancos e sen ningún tipo de discapacidade. Os demandantes de emprego que cumprían con estes parámetros ían a recursos humanos e os que non quedaban fóra. Non promocionaba o currículo de ningunha muller. Afortunadamente, "déronse conta rápido e retirárona, pero houbo que poñela en marcha para darse de conta de que non estaba funcionando".
CRÉDITOS DE APPLE CON 20 VECES MÁIS CONTÍA PARA HOMES E FALTA DE PROBAS EPO PARA MULLERES
Outro bo exemplo son os créditos de Apple, que asignaban unha contía de préstamo a través da valoración que facía a intelixencia artificial do solicitante. En parellas cotitulares de contas bancarias, dáballe 20 veces máis crédito ao home que á muller. Tamén estes sesgos de xénero están moi presentes nos videoxogos. Que pasa cando nun equipo que crea as personaxes dos videoxogos non hai mulleres? Pois que os homes aparecen como guerreiros ataviados con casco e armadura para loitar contra os inimigos e as mulleres guerreiras van case espidas, o que tamén terá un impacto nos mozos, os maiores consumidores deste tipo de entretemento, que "vén cousificada á muller de xeito escandaloso". "E mentres non haxa mulleres deseñando personaxes de videoxogo isto seguirá sendo así", advirte Gibert.
Tamén a intelixencia artificial arroxa sesgos de usabilidade. Por exemplo, a enfermidade pulmonar obstrutiva (EPO) está moi ligada ao tabaquismo, e os que maioritariamente ao longo da historia sufriron esta enfermidade foron os homes, por ser tamén os que máis fumaban. Entón, actualmente a IA só selecciona aos homes para facer probas de EPO, se eres muller non che farán as probas. E isto "débese a unha confusión dos efectos, porque a causa de padecer esa enfermidade non é ser home, a causa é fumar, e hoxe en día xa hai moitas mulleres que fuman e poden desenvolver esta enfermidade". O mesmo ocorre coa interpretación de datos, pois as IAs podían dicir que na pandemia houbo moitos máis homes que pasaron a covid que mulleres, pero non ían máis aló, cando a realidade era que "moitas mulleres vulnerables estaban traballando de forma irregular, polo que non comunicaban a enfermidade". "Se non se lle pon a perspectiva de xénero aos números poden levar a tomar decisións totalmente contrarias ao que está acontecendo", alerta a catedrática.
UN MUNDO HERDADO ADAPTADO PARA OS HOMES: DENDE OS COCHES ATA O DESEÑO DAS BEIRARRÚAS
E mesmo fala de sesgos de xénero na construción do mundo actual. "Como conducimos as mulleres? Co longo do volante entre as pernas, témonos que abrir de pernas, e esa postura non é cómoda, pero esíxenola o coche", apunta, e engade que "cando o mundo xa nolo dan feito, collémolo como vén, así que aínda que non sexa cómodo conducir así imos coas pernas abertas e non o cuestionamos, tragámonolo como vén". E, neste caso, "nos anos 20 ou 30, cando se comezaron a deseñar os coches, as mulleres levaban saia longa, polo que se nese momento houbese mulleres na industria os coches non serían como son na actualidade", pero "vimos herdando un deseño feito por homes". Por sorte, como comenta a catedrática, "as súas implicacións son moderadas, pero é un bo exemplo do que pasa cnado construímos un mundo sen mulleres".
Outro bo exemplo son os datos dos accidentes de tráfico, pois, como apunta, hai un 17 % máis de mortes en accidentes de coche en mulleres que en homes e estas tamén sofren un 47 % máis de lesións graves. Por que? Como explica a profesora da Politécnica de Barcelona, "os test de seguridade fanse con maniquís de homes, é dicir, garanten a seguridade do home, e as mulleres, que adoitamos ser menos corpulentas, facémonos máis dano no esternón ou na clavícula". Finalmente, cita tamén ao mundo da arquitectura, pois "decidiu poñer esas lastras nas beirarrúas que fan que as mulleres que levan tacón teñan que cruzar a rúa por outros lugares ou ben levantarse cada día pensando en que se van pasar por aí teñen que poñerse zapatillas en vez de tacóns". Isto serve para evidenciar que "a falta de mulleres nos procesos de deseño impáctanos ata en ter que pensar como nos temos que vestir cada día, porque non podemos ir con zapatos de tacón aínda que queiramos a certos sitios".
Se tes problemas ou suxestións escribe a webmaster@galiciaconfidencial.com indicando: sistema operativo, navegador (e versións).
Agradecemos a túa colaboración.