Por Ángela Precedo | SANTIAGO | 08/06/2024 | Actualizada ás 14:00
A intelixencia artifical chegou para quedarse, para complementar as nosas tarefas e, o máis preocupante segundo algúns, para substituílas. Xa é unha realidade innegable que non para de desenvolverse e que cada vez o fai a un ritmo máis acelerado. Tanto é así que semella que as máquinas sempre van un paso por diante da regulación sobre as mesmas. Cando se lexisla sobre un aspecto, xa a intelixencia artificial está entrando noutro que tamén require de regulación. E, o que máis medo dá nestes momentos, é esa idea da intelixencia artifical autónoma e emocionalmente consciente, algo que, segundo a maior parte dos expertos, aínda está moi lonxe. A enxeñeira de telecomunicación e investigadora da UVigo Silvia García Méndez explicou a pasada semana no ciclo Aida Fernández Ríos organizado pola Real Academia Galega de Ciencias e a Deputación de Pontevedra en que punto estamos.
"O escenario no que estamos hoxe en día está baseado en sistemas de intelixencia artifical que nos axudan na toma de decisións, como os recomendadores, con todo, nun futuro, fálase de modelos de intelixencia artifical que aprenderán de xeito interactivo e automático", explica García Méndez. A diferenza entre un e outro está "no nivel de intervención humana", aínda que o ideal sería que "nun futuro mellorado por intelixencia artificial se mantivese o criterio de responsabilidade humana, xa que son os expertos en análise de datos os que deseñan os algoritmos e realizan a toma de decisión tendo en conta a información que proporciona a IA". Pero semella que cando se pensa no futuro, pénsase nunha IA "propia das novelas de ciencia ficción, composta por algoritmos interactivos que aprenden por si mesmos".
O problema que habería con isto? Pois é un problema que xa estamos experimentando hoxe: os datos sintéticos, que como explica García Méndez, "se xeran de xeito automático por unha intelixencia artificial e poden levar nesgos". E é que "esa IA xa non só usa datos con nesgos para entrenar, como se fai coas intelixencias artificiais actuais, senón que ademais xeraría ela mesma datos con nesgos, axudando a perpetualos". A gran pregunta para a investigadora e para os expertos a día de hoxe é: "a IA ten actualmente ou terá no futuro próximo capacidade para valorar temas éticos relevantes como pode ser a valoración da liberdade de expresión dos usuarios nas redes?", por poñer un exemplo.
Cando García Méndez fala de modelos de intelixencia artificial, divídeos en catro tipos: os modelos reactivos, baseados en regras, unha primeira versión da IA que aporta solucións moi limitadas deseñadas para tarefas moi específicas, sen capacidade para manexar datos do pasado para aprender de cara a datos futuros; os modelos de memoria limitada, que si teñen en conta a información do pasado para predecir sistemas futuros, imitando a capacidade que teñen os seres humanos de desenvolver diferentes respostas ante unha mesma pregunta manexando a memoria do contexto, pero aínda con certas limitacións técnicas; a IA cognitiva, capaz de manexar as emocións que se consideran propias do ser humano e que permite potenciar a comunicación humano-máquina (as aplicacións que se usan a día de hoxe poden estar nesta categoría, aínda que hai autores que din que aínda non o están); e a IA consciente, capaz de detectar e simular unha emoción, e comprende todo o proceso que realiza o cerebro humano para xestionar unha emoción e reproducila nun usuario.
CASOS REAIS DE EMPREGO DE IA
NO CAMPO DA SAÚDE:
Para García Méndez o maior problema cos sistemas de intelixencia artifical no campo da saúde atópase na "falta de información médica para poder proporcionar datos de calidade a estes sistemas". E é que neste caso choca coas políticas de privacidade. Ademais, tamén apunta á "limitada interpretabilidade e explicabilidade" das decisións, polos nesgos nos datos que levan a que o seu funcionamento non sexa igualitario, puidendo chegar a discriminar a certos grupos de usuarios. "Hai moito que facer aínda en materia legal, sobre todo en xestión do consentimento dos usuarios finais que se involucran nos deseños experimentais destas ferramentas", considera a investigadora da UVigo.
NO CAMPO EDUCATIVO:
Para a investigadora da UVigo o desenvolvemento destas ferramentas depende de que "involucren a profesores e alumnado de xeito correcto no deseño e no plano experimental" das mesmas, con casos reais en colexios, institutos e universidades. "Dentro das aplicacións de intelixencia artificial usadas no sistema educativo, as máis empregadas con diferenza son os asistentes virtuais, seguidas da xeración de preguntas e a avaliación de respostas", explica García Méndez, aínda que tamén asegura que se empregan moito "na explicación de código de programación e no resumo de textos".
NO CAMPO DA INDUSTRIA:
"O emprego da intelixencia artificial na industria vai en aumento", confesa a investigadora da UVigo, que asegura que "tamén ten as súas limitacións, como a compatibilidade e interoperabilidade das ferramentas de IA entre unha industria e outra". Non serve igual unha IA empregada no sector do aluminio que unha no sector naval, por exemplo, e "ese é o gran problema". Ademais, García Méndez tamén apunta "a falta de coñecementos dos traballadores sobre estas ferramentas, por falta de cursos de implementación das mesmas nas fábricas e por falta de equipos de traballo especializados en intelixencia artificial".
NO CAMPO DO GALEGO:
BASE PRIMORDIAL NA REGULACIÓN: OS USUARIOS TEÑEN DEREITO A COMPRENDER OS RESULTADOS ARROXADOS POLA IA NA TOMA DE DECISIÓNS
De cara ao futuro, para García Méndez está claro que aínda quedan moitos desafíos por resolver, como "manter o control sobre a dependencia que as IA poden crear ao ser humano co seu uso". Ademais, tamén apunta a outro desafío relacionado co proceso de aprendizaxe destes modelos, pois "estamos a vivir o modelo dos datos sintéticos, xerados de forma automática e que se integran nas IA", así que "debemos preguntarnos se ten sentido usar datos que non proveñen do mundo real". Neste senso entraría a problemática dos 'deep fakes'.
E é que é unha evidencia que os sistemas de intelixencia artificial evolucionan máis rápido que as regulacións e as leis. García Méndez apunta a que a regulación europea aprobada fai ben pouco para a IA "limita o uso de información biométrica para fins sociométricos". Ademais, tamén "prohíbe explotar vulnerabilidades, como sexo, idade, xénero... perfilando aos usuarios". Por último, tamén incide claramente no "dereito dos usuarios a comprender o funcionamento dos resultados arroxados pola IA na toma de decisións". E aínda que todo isto é un paso, "non é suficiente, porque a medida que os deseños evolucionan xorden novas cuestións éticas e legais que fan preciso actualizar continuamente as normativas, sendo moi difícil competir coa velocidade de desenvolvemento das compañías comerciais", conclúe a investigadora da UVigo.
Se tes problemas ou suxestións escribe a webmaster@galiciaconfidencial.com indicando: sistema operativo, navegador (e versións).
Agradecemos a túa colaboración.