La idea de que la Inteligencia Artificial (IA) puede sustituir del todo al ser humano ignora (o pretende ignorar) que la IA «ni siente ni padece», como dijo Liubba El Haddi Hamed (LEHH), ingeniera y tecnóloga, participante destacada en el debate al que hacíamos referencia en la entrada anterior de este mismo artículo. https://periodistas-es.com/europa-y-el-desarrollo-disperso-de-la-inteligencia-artificial-1-208569
En ese debate, organizado por la asociación Europa en Suma https://europaensuma.org/ en febrero de 2026, se hicieron varias comparaciones con los distintos modelos de IA, así como con la responsabilidad europea para que este desafío tecnológico no se distancie ni abandone «los valores europeos», sin permitir imposiciones contrarias de China o de los Estados Unidos.
A veces, resulta fácil comprobar que los marcos regulatorios son distintos y que la perspectiva respecto a los derechos democráticos tampoco es la misma. No todo tienen que ser proyectos puramente comerciales.
El moderador, Alejandro Sacristán (AS), resumió lo hablado hasta ese momento, refiriéndose a los dilemas de la UE ante la IA: «No son cien metros lisos, sino una maratón, una carrera que tiene sesgos fundamentalmente masculinos, así como sesgos racistas y machistas, sobre todo en la IA generativa (GPT, Gemini, Perplexity, etc) que nos llega de EEUU». Para ejemplificarlo, AS constató que «el 75% de los jóvenes en España, entre 16 y 24 años, utiliza estas herramientas de la IA generativa, la mayoría plataformas estadounidenses, pero también algunas chinas». Un éxito para algunos, un fracaso si recordamos la dependencia similar respecto a las redes sociales.
Para RMC, ese porcentaje de uso por parte del 75% de nuestros jóvenes demuestra su interés hacia la IA, en principio un interés muy abierto, «pero también puede ser un fracaso estratégico porque a través de todas esas herramientas incorpora una serie de valores (señalados antes) que no son los de la UE. De modo que estamos exponiendo a esos jóvenes de entre 16 y 24 años, a contenidos y valores ajenos.¿Eso es un fracaso estratégico? Pienso que sí». Citó al senador estadounidense Bernie Sanders para alertar sobre las incertidumbres emocionales, psicológicas, de esa franja de la población. «Quizá esos espacios a los que acceden no son los más adecuados», concluyó RMC.
Para LEHH la conclusión que hay que extraer es que «hay que educar y alfabetizar sobre la IA, que lo que hace es decir lo que tú quieras, y por eso mismo tú tienes que entrenarla para que te diga lo que es verdad, no lo que tú quieras escuchar. El problema es que la población de 16 a 24 años no ha recibido esa educación para tratar la con un pensamiento crítico, entendiendo muy bien lo que son esas IAs. Podrán grandes cosas si saben situarlo como una herramienta y no como elemento sustitutivo del ser humano».
En una segunda parte de su intervención, LEHH señaló que la ley europea sobre la IA (artículo 4) prevé que los empleadores tengan «la obligación de formar a sus empleados para que puedan manejar dichas herramientas conforme a los valores europeos, etcétera. Y no sólo referido a los jóvenes, sino también a los profesionales en general».
En el plano de los distintos niveles de esa normativa, LEHH distinguió tres niveles: el nivel profesional, el nivel de toma de decisiones (administraciones públicas) y el nivel o l ámbito de la educación de nuestros hijos». Habría que cambiar el currículum para que aprendieran o comprendieran los lenguajes de la programación: «Pensar en los algoritmos, abstraerlos y presentarlos en cachitos, en trozos muy pequeñitos, porque son problemas que pueden ofrecerse así en el ámbito digital, del cero al uno. Los niños tienen que poder empezar, que eso sí se está haciendo muy bien en China, a pensar en el algoritmo como una una capacidad, una habilidad más». Añadió que para eso es preciso formar también al profesorado.
«La UE ya está pensando en el 2040», añadió Rafael Martínez-Cortiña (RMC), mediante varios escenarios «desde el más distópico al más positivo», donde el sistema educativo apunta a la « ética y la diversidad en pensamiento crítico ». La CE ha publicado un informe (Empowernig Learners for Age of AI ) que invita «a formar a niños desde primaria para cocrear con la IA. En China, los niños de primaria ya juegan a hacer algoritmos sin necesidad de pantallas». Se trata de repensar el sistema educativo y toda la población, no únicamente las empresas.
En la proyección de un segundo vídeo suyo, Ramón López de Mántaras volvió a preguntarse:
–¿En qué medida es artificial? Bueno, las últimas tendencias en IA son los llamados ChatGPT, una palabra mágica, comodín. Los cuñados en las comidas de cumpleaños hablan de los ChatGPT. Bueno, una IA generativa es mucho más. Centrémonos en lo que la gente conoce más, los chatbots, que llaman también conversacionales. Puedes hacer preguntas y o decir ‘hazme un resumen de esto’ o de lo de más allá. Hay que reconocer que funcionan bien, siempre y cuando sepas del tema y seas capaz de hacer un análisis crítico de lo que te dicen. Errores factuales lo que llaman algunos “alucinaciones” que es otro término que a mí no me gusta usar, pero bueno, porque es muy antropomórfico. Son errores y ya está porque están basados en técnicas probabilísticas y hacen errores. No preservan la verdad. Para que funcionen mínimamente bien, lo que mucha gente no sabe es que hay millones y no digo millones por decir cualquier cosa, está comprobado: millones de personas que refinan, entrenan estos sistemas como ChatGPT. Solo en Filipinas, se calcula que hay por menos dos millones de jóvenes, no sé cuántos millones en Kenia, en Pakistán en India, explotados, dura mano de obra barata, baratísima 50/60 céntimos de dólar por hora. Y cuando cobran, porque con la excusa de que a lo mejor no han hecho muy bien su trabajo a veces ni reciben nada. No hay contrato ni nada, se les paga muchas veces a través de PayPal y cosas de estas, estos sistemas. Ellos no pueden reclamar nada nunca a nadie porque no tienen acceso a nadie. Son gente muy joven que llena los cibercafés. The Washinton Post publicó una foto y un titular en portada de uno de esos cibercafés filipinos, repleto de estos jóvenes con los ordenadores, porque no tienen ni tan siquiera la capacidad económica de tener en casa su propio portátil, ni pagarse la conexión a internet. Tienen que ir a los cibercafés y ¿qué hacen están? Etiquetan imágenes para los para vehículos autónomos, por ejemplo. Esto es un árbol, esto es un peatón, están etiquetando imágenes continuamente que les van mostrando, desde donde sea. Luego les muestran también respuestas de ChatGPT y de otros sistemas y nos tienen que decir si la respuesta es correcta o no es correcta. Más de una vez se les proponen varias alternativas de respuesta a las preguntas que han recolectado antes de la gente. Cuando utilizamos estos sistemas, recolectamos todo eso, todo es en base a la información que hacen ellos, para que la siguiente versión funcione mejor. Quienes están haciendo eso son personas, no es una Inteligencia Artificial capaz de analizar nada ni de aprender por sí
misma.
La IA no siente, ni padece
El moderador hizo en ese momento un repaso de la figura de Ramón López de Mántaras (y agradeció los vídeos prestados por Vidas Ajenas), citando investigaciones sobre ordenadores emocionales, sobre «cómo introducir las emociones en los sistemas de la IA» y la experimentación paralela que llevan a cabo en China mediante robots. RMC hizo entonces un elogio del pensamiento y la trayectoria de Ramón López de Mántaras y lo llamó «Séneca del siglo XXI».
LEHH se distanció del concepto ‘alucinaciones’, utilizado por determinados expertos en IA en estos casos, y dijo que «el término alucinaciones es demasiado antropomórfico. Hay que quitarle el sesgo humano porque precisamente, esas calificaciones hacen que nos creamos ese cuento, que nos creamos que realmente estamos hablando con una persona. No, la IA no es una persona, ni siente ni padece».
Al hablar de la IA, como software y hardware, LEHH recordó que «los chips que tienen teléfonos móviles, como IPhone, son altamente inteligentes y difíciles de construir. Y NVIDIA, que es una empresa estadounidense, es capaz de diseñarlo. Volvemos así al tema de la soberanía digital, que es una de uno de nuestros bottlenecks, de los cuellos de botella que tenemos los europeos».
Hay una cadena de valor asociada a los chips que necesita la IA y a la producción de los semiconductores. Silicon Valley lleva veinte años haciendo chips High Plattform Computing (HPC). En España, concretamente en Málaga, ya hay lanzado un proyecto del Gobierno para crear «una fábrica de chips para alta computación, de supercomputación, Europa está dando pasos».
Los ponentes concordaron que el ritmo europeo, más lento, puede ser mejor a medio plazo, porque ese avance lento puede acotar o limitar los sesgos de la tecnología. «China está interesada en nuestro software de IA», según precisó LEHH (quieren el Open-Source Software, OSS, europeo).
¿Cuantos modelos de IA ?
Hay que puntualizar que hay tres modelos europeos en comparación con los cuarenta estadounidenses, que no tienen en cuenta el concepto ‘derechos humanos’. Hay que hacerse las preguntas pertinentes, ¿cuánto tiempo llevamos con Microsoft? OPEN AI ¿cuánto tiempo llevamos trabajando con Google? Gemini. Ellos ya están en nuestros ordenadores, el mercado estaba copado y entrar es ahora un reto complejo, no imposible.
Para RMC, la UE debe hacerse también otras preguntas: «¿Queremos llegar antes y mal? Porque, a lo mejor, lo que vamos a construir no es coherente con la dignidad humana, no es coherente con la democracia, es decir, queremos llegar antes y mal o es preferible ir más lentos y luego construir el tipo de sociedad que queremos. Quizá no tenemos por qué participar en una guerra tecnológica que a lo mejor no nos atañe y podemos construir una alternativa nueva». Según el ponente, «se puede legislar (como la UE), pero a la vez innovar». Hay que transferir todo el conocimiento generado en nuestras universidades hacia las empresas. Ya hay planes para avanzar en ese sentido. No se trata de que hay que optar entre legislación e investigación, se pueden hacer ambas cosas a la vez.
Los ponentes estuvieron de acuerdo en que Europa legisla también para «generar el marco en el que poder innovar», de modo que consideraron falso el dilema legislar-o-innovar.
LEHH consideró posible que haya equivocaciones en la actual estrategia de la legislación europea, pero lo valoró con la perspectiva científica de los ensayos que sólo tienen éxito después de la sucesión prueba-error-prueba-error-prueba-éxito. «La tecnología está en continuo cambio por lo cual la regulación también lo ha de estar», concluyó. Desde su posición, involucrada en varios proyectos europeos (Digital Skills Academy, por ejemplo), hay que intentar «entender cómo el ser humano y la máquina pueden evolucionar juntos.» Puso ejemplos prácticos: un proyecto que se denomina tech connect que está conectando casos de uso en hospitales. «Un enfermero no tiene por qué saber cómo manejar con herramientas que de repente llegan a su departamento. Se trata de formarle y con él a toda la organización para que adopte la línea más adaptada a sus objetivos. Esto lo está haciendo ahora la UE». Citó su lectura de un artículo estadounidense reciente criticando la IA americana, publicado hace diez días.Tras leerlo, pensó ¡lo estamos haciendo bien!
Hay un calendario europeo para la IA
RMC explicó el calendario de desarrollo europeo de la IA, que tiene en cuenta los informes Letta y Draghi que hicieron recomendaciones diversas, precisamente para que Europa acelere y genere mayor inversión. «Lo bueno es que de nuevo hay un nuevo acuerdo entre 27 países que comprenden que hay una parte de la ley que se puede prolongar hasta 2 de agosto del 27 y seguiremos viendo cosas porque acabamos de empezar el 26, pero estamos viendo que la Comisión reacciona, claro que reacciona».
LEHH habló de «los sistemas de alto riesgo, estrictamente regulados ,por leso la Ley les ha concedido un plazo mayor Precisamente para dejar que la innovación avance y no frenarla. «¿Qué hemos hecho? Todas las empresas que quieran diseñar un sistema de riesgos, por ejemplo, una aplicación que va a desarrollar una empresa para seleccionar los currículos para el departamento de Recursos Humanos. Eso es un sistema de alto riesgo porque entra en conflicto con varios derechos fundamentales ¿Qué hacemos? Pues estamos diseñando laboratorios de prueba. En España lo está liderando la AESIA, dependiente del Ministerio de Transformación Digital. Yo tengo una aplicación que quiero vender a las empresas para hacer cribado currículos y que priorice, según sus necesidades la mejor manera posible. No estoy segura si cumplo con la Ley IA, pues me voy a la AESIA, su ventanilla única, funciona muy rápido y hasta 2027, podré estar tranquila porque no me van a sancionar, puedo probar y seguir innovando».
Tras esas amplias exposiciones, hubo un turno de preguntas de los asistentes en los que se debatieron asuntos como el impacto de la IA en las desigualdades, la justicia social y las derivas autoritarias en las sociedades democráticas. Sobre las capacidades de manipulación de las redes sociales y la IA para dañar o arañar en la privacidad.
RMC habló de esos problemas y de cómo los ha debatido en ámbitos científicos y/o universitarios: «En diciembre, distintos alumnos me decían que la IA era mi mejor amiga. Les expliqué las IA (s) pueden robar su atención, no curar sus posibles depresiones. No los curará. Tenderá a generarles niveles de dependencia como la droga, por que cuando una IA te da toda la razón durante demasiado tiempo, pierdes la capacidad de gestionar la complejidad humana y te retraes».
Desigualdad, derechos de autor e IA
LEHH volvió a referirse a la idea de «contrarrestar la desigualdad» frente a la IA, planteado por el presidente de Europa en Suma, para mostrarse optimista: «Hace un siglo pocos podían ir a la universidad. No había estado del bienestar, ni oportunidades. Ahora para seguir esa vía será necesario el pensamiento crítico, la formación, aprender a diseñar algoritmos. Aprender a dialogar con estas herramientas. Y sobre la deriva autoritaria, aplicar el imperio de la ley, con mano dura si es preciso».
Ya casi al final del debate, Juan Villanueva, que se definió como periodista de formación, planteó una pregunta sobre la indefinición actual de los derechos de autoría en la normativa europea con relación a la IA, sin que quedara claro si eso está –por ahora– bien provisto jurídicamente a favor de los autores y de los medios de comunicación. Más bien lo contrario. AMC y el moderador citaron casos concretos de uso ilícito de artículos y trabajos periodísticos por parte de las plataformas digitales. Según ellos, el problema podría agravarse con la IA.
El moderador, explicó «una respuesta autorizada, del Club de Editores, que agrupa a más de 150 medios, se hacen eco del último informe de Reuters Institute. Destacan que la expectativa es que el tráfico desde buscadores caerá más del 40% en los próximos tres años, impulsado por la transformación de Google y otros motores de búsqueda, pero fundamentalmente los motores de Google de respuestas basadas en IA».
A una pregunta de Lola Albiac (vicepresidenta de Europa en Suma), sobre la disputa estratégica UE-China-EEUU y cómo una pequeña inversión china (Deep Seek) había podido hacer frente a una inversión extraordinaria de la administración Trump, LEHH contestó que «China es un gobierno, no 27. En Europa no tenemos esa capacidad de empoderar así. Mistral ha hecho un poco, Francia lo ha acompañado, pero no deja de ser Francia contra China en cuanto a datos. La clave de la potencia de un modelo ETL es la cantidad de datos que tenga. Lo que estamos desarrollando ahora nosotros en Europa es el plan de la IA Federal, un campeón mundial, un modelo con datos de los 27 estados. Sería una IA federada con datos distribuidos, pero estamos construyéndolo. No somos China y ministerio con una base de datos de mil cuatrocientos millones de personas».
Escéptico, Daniel Peral (socio de Europa en Suma), dijo que quizá Europa no había empezado aún la verdadera carrera de la IA. Le respondió RMC que el retraso de la UE es cierto y que hay que tomar decisiones para huir de los escenarios distópicos en los que los europeos permanecerían como «siervos digitales» de China y los EEUU. Sin embargo, estimó que aún no estamos ahí. «Para eso queda todavía muchísimo tiempo. Pienso que ya se ha comprendido perfectamente y ya se han empezado a dar los primeros pasos». Elogió el plan de construcción de gigafactorías de la UE. Dijo que también hay elementos que no han hecho los demás y los europeos sí. «Hay muchísimos compromisos de todos los gobiernos de la Unión Europea, no hay ningún anti-IA, hay mucha cohesión y ya se sabe lo que se puede hacer. No conocemos el futuro».
A pesar del reto al que se enfrenta la IA europea, no hay dilema alguno. Los ponentes se declararon optimistas con los planes de Bruselas y los acuerdos de los 27 sobre el futuro de la Inteligencia Artificial europea.


