Por Ángela Precedo | SANTIAGO | 30/11/2023 | Actualizada ás 21:20
A día de hoxe a intelixencia artificial aínda non está o suficientemente regulada como para evitar que as súas accións afecten ás persoas. Xa non só falamos do que a ameaza de perda de empregos se refire, senón tamén á suplantación da identidade. Fai tan só uns anos saltaban á palestra unhas imaxes do expresidente dos Estados Unidos, Donald Trump, esposado para entrar en prisión. Moita xente deulle credibilidade ata que se soubo que se trataba dunha imaxe falsa, xerada por IA a partir da petición dun usuario e do coñecemento que esta tiña, tras a recopilación de todos os datos cos que foi entrenada, de Trump. Igual lle sucedeu a Tom Cruise e a moitos outros actores, que se declararon recentemente en folga pola ameaza que esta tecnoloxía supón para o sector. Pero, o máis grave, é que esta problemática na actualidade está a causar graves acosos contra as mulleres. Así nolo conta Violeta Molina Gallardo, correspondente de xénero da Axencia EFE e gañadora do V Premio Xornalismo contra a Violencia de Xénero (da Fundación Aliados pola Integración), participante no Congreso 'Intelixencia artificial: unha ferramenta para a igualdade?', organizado pola Asociación de Xornalistas de Galicia.
"A intelixencia artificial é quen de converter todo o que imaxinas nun vídeo", advirte Molina. Isto inclúe a calquera muller. E, a día de hoxe, "a xeración de vídeo máis pedida é a de pornografía de mulleres", non de calquera, senón de mulleres reais, cuxa imaxe a IA é capaz de tomar e convertir nunha escea pornográfica que semella ser real. Aporta un dato: o 99 % da totalidade das vítimas de pornografía 'fake' son mulleres. Por que se fai? Os motivos son moitos e moi variados, como asegura a xornalista: "a modo de vinganza porque a muller en cuestión non quería ser parella desa persoa, como unha forma de desprestixiala, de desacreditala, de chantaxeala para que acceda a favores sexuais...". "Cunha única foto e sen o consentimento da vítima pódese crear un 'deep fake' que se faga viral a través das redes sociais", alerta.
As consecuencias? Moi graves: "dano emocional, mental, social, físico e mesmo económico (a muller pode perder o seu traballo)". E é que, como afirma Molina, "son imaxes e vídeos hiperrealistas, imposibles de detectar que son falsos" e que "atentan contra a liberdade sexual e a honra das mulleres", co único obxectivo de "reforzar a idea da muller como obxecto sexual". Así as cousas, o Instituto Europeo para a Igualdade de Xénero, como asegura Molina, "xa fala desta pornovinganza como unha forma de violencia machista" máis. "Como vos quedariades se recibides por WhatsApp un vídeo no que salides vós ou unha muller que queredes sendo violada por un grupo de homes, ou facendo unha orxía, e máis se se trata dunha nena ou dunha adolescente?", plantexa a xornalista.
NIN CÓDIGO PENAL NIN INICIATIVA NO CONGRESO DOS DEPUTADOS
Conscientes desta problemática, a pasada primaveira no Congreso dos Deputados presentouse unha iniciativa para introducir no Código Penal un castigo a este tipo de prácticas, pero "finalmente non saiu adiante, porque consideraron que non era o momento de abordalo e deixaron pasar a oportunidade" de adiantarse ao que meses despois estamos vendo case a diario. Molina explica que, nesa iniciativa, plantexábase "introducir penas con cárcere para quenes fixesen este tipo de vídeos e multas para quen os redifundise". Ambas cousas que a lei, polo momento, non castiga. Pero si están incluídas como canal de atención prioritario pola Axencia Española de Protección de Datos, que penaliza os vídeos que atentan contra os dereitos das persoas. Que pasa? "Que realmente as imaxes xeradas por intelixencia artificial son falsas, así que... Como retirar algo que é falso? A proteción de datos, por esa banda, di que aínda sendo xenerada a imaxe con IA estanse a usar datos da persona agraviada", explica a xornalista, de xeito que tamén está penalizado.
Entón, está todo solucionado? O certo é que non, pois tal e como indica Molina, "tanto este recurso da Axencia Española de Protección de Datos como a futura lexislación que o Congreso saque ao respecto para castigar actos semellantes entra en escena cando o dano xa se produxo", é dicir, non supón unha prevención. Neste senso, a xornalista considera preciso "educar en igualdade dende idades moi temperás", facendo saber aos rapaces que "un vídeo porno sen consentimento é un comportamento violento", e tamén "a industria tecnolóxica debe sabelo". Pois o certo é que "a violencia dixital da que forman parte estes 'deep fakes' xa forman parte da nosa realidade cotiá", e iso é algo do que debemos ser conscientes e actuar en consecuencia para evitalo, conclúe Molina.
UNHA DE CADA 4 MULLERES DE 16 A 25 ANOS SUFRIU INSINUACIÓNS EN REDES
A xornalista tamén aporta outros datos ao respecto, como que, segundo un informe do Observatorio Nacional da Tecnoloxía e da Sociedade, o 54 % das mulleres que sufriu acoso nas redes experimentou ansiedade e estrés como consecuencia; e o 42 % das nenas acosadas nestas plataformas desenvolveron unha baixa autoestima e perda de autocoñecemento. "Unha de cada catro mulleres de entre 16 e 25 anos en España sufriu insinuacións inapropiadas a través das redes", denuncia Molina, que lamenta que, en consecuencia, "as nenas a miúdo rematan por retirarse da esfera dixital, sendo silenciadas e ailladas, e perdendo así oportunidades que lle puidesen xurdir de estar máis en contacto coa sociedade". Por todo iso, considera fundamental "que non nos deixemos ás mulleres polo camiño". Neste senso, valora o feito de que "a lexislación galega considera a violencia dixital como unha forma máis de violencia contra as mulleres, pero isto non é algo moi extendido noutros lugares".
Ademais, quere romper unha lanza a favor das propias empresas de desenvolvemento da intelixencia artificial, que "cada vez están máis implicadas en lograr unha xustiza algorítmica, é dicir, en ser capaces de mitigar patróns de discriminación que existen nos datos, dando ferramentas ao sistema para que evite dar resultados sesgados". Así, a IA pode verse coma unha inimiga ou coma unha aliada. Como aliada, Molina aporta algúns exemplos: VioGén é un sistema que a través da IA calcula o risco que ten unha vítima de violencia de xénero de volver a ser agredida pola súa parella, ou mesmo asasinada, o que se convirte nunha ferramenta esencial para a Fiscalía e os xulgados; ou na Universidade Carlos III de Madrid traballan con IA para detectar a reacción de medo dunha muller maltratada ante unha situación de perigo, cunha tecnoloxía que combina un colgante e unha pulseira con sensores que é quen de medir a través da pel e do movemento ese medo, cruzar datos para detectar a situación de risco e avisar directamente a unha persoa de referencia escollida pola vítima ou directamente ás autoridades e corpos de seguridade.
Se tes problemas ou suxestións escribe a webmaster@galiciaconfidencial.com indicando: sistema operativo, navegador (e versións).
Agradecemos a túa colaboración.