Diez exámenes a la IA desde los derechos humanos: máquina o herramienta, pero nunca persona

VIII Congreso sobre Derechos Humanos: Derechos Humanos e Inteligencia Artificial
“Estás usando la IA y lo sabes”. Concepción Acuña parafraseó a Julio Iglesias para poner sobre la mesa la popularización de la inteligencia artificial (IA) generativa, tras la irrupción de Chat GPT en 2022. Sin embargo, la IA ya tiene más de ochenta años. Nació en 1943, cuando McCulloch y Pitts presentaron su modelo de neuronas artificiales. Su nombre llegó después, se lo dio John McCarthy en 1956. Ahora, en 2025 la revisamos desde la óptica de los derechos humanos.

Bajo la dirección académica de los catedráticos de Filosofía del Derecho y Filosofía Política, Vicente Bellver Capella y Ángeles Solanes, junto a Jorge Sebastián Lozano, doctor en Historia del Arte y presidente de la Fundación Mainel, el VIII Congreso sobre Derechos Humanos: Derechos Humanos e Inteligencia Artificial, ha congregado a 21 ponentes, procedentes de diversos campos de especialización.

Celebrado en el Ilustre Colegio de Abogados de Valencia los días 16 y 17 de octubre de 2025, también incluyó la presentación de 22 comunicaciones. Así mismo, contó con la participación como asistentes de 431 personas (122 presencialmente y 309 online). Más de una quinta parte (21,45%) profesionales de la abogacía, seguidos de docentes (17,72%), estudiantes (13,52%), ONG/ONGD (12,82%) y funcionariado (11,66%).

A lo largo de dos días de conversaciones, no ha habido acuerdo sobre si la IA es herramienta (que se maneja) o máquina (que solo necesita enchufarse). Tampoco sobre si procede ser optimista (porque nos ayudará) o catastrofista (porque nos sustituirá). Pero sí sobre que su uso no es opcional, sobre su trascendencia en nuestra cotidianidad, sobre su impacto medioambiental, sobre la necesidad de una metaética de la IA y sobre el poder ciudadano. Este diálogo multidisciplinar ha sido muy enriquecedor y nos deja cuestiones claves sobre las que pensar y, sobre todo, actuar.

Lo resumimos en diez exámenes, de los que extraemos lecciones y tareas.

1. Ética de la inteligencia artificial: según pensemos la IA, será el desarrollo de la propia sociedad

“La inteligencia artificial ni es inteligente ni es artificial”. Con esta provocadora cita de Ramón López Mántaras, ha roto el hielo Fernando Llano Alonso, catedrático de Filosofía del Derecho en la Universidad de Valencia. En su opinión, sería más preciso hablar de conocimiento aumentado, cuyo crecimiento descontrolado podría llegar a poner en jaque la vida humana. Por tanto, existe una responsabilidad ética respecto a la IA, que recae en los seres humanos, no en las máquinas que diseñan los seres humanos.

Además de la necesaria exigencia legal a los gobiernos, Llanos también nos aconseja internalizarla como individuos: ser conscientes de la importancia que juega la ética y, como seres éticos, actuar como ciudadanos críticos.

Llano apela al humanismo digital: saber conciliar nuestro paradigma humano con la IA.

Precisamente, Ángeles Solanes, catedrática de Filosofía del Derecho y Política, remarca esa mirada transversal desde los derechos humanos, que hila todo el Congreso.

2. Big tech, corporaciones transnacionales y ciudadanía: ¿aliadas o rivales?

“No vamos a ser libres mientras nuestros datos sean mercancía”, alerta Ignacio Gil Pechuán, recordándonos nuestra responsabilidad individual: “Somos cómplices por comodidad, aceptamos sin leer”. Califica de brutal la capacidad de influencia de las big tech. Cree que la tecnología era neutral, pero ya no. El neuromarketing digital tiende a aislarnos en una burbuja, hasta el punto de que el populismo está amenazando la democracia. Se pregunta quién defiende los derechos digitales cuando las plataformas están por encima de los estados y afirma que necesitamos un nuevo “plan Marshall” para europeizar la IA que se concrete en inversión (fondos europeos) y regulación (ética, innovación con valores).

Celia Fernández Aller, profesora de Derecho y Ética en la Universidad Politécnica de Madrid, nos invitó a creernos “lo del abuso de ChatGPT”, que no es banal, y a aplicar autodisciplina: ayuno tecnológico. También pone sobre la mesa la vulnerabilidad sociodigital: estamos sujetos a interferencias y tomamos decisiones guiadas, de manera que ahora vulnerables ya no son unos pocos, somos todos.

Judith Membrives, responsable de Digitalización de Lafede, destaca el impacto medioambiental que está provocando la popularización del uso de herramientas de IA: “No tenemos planeta para tanta IA generativa”. Así mismo, señala que gran parte de las vulneraciones que está sufriendo el Sur Global por el colonialismo digital tiene que ver con este crecimiento exponencial: centros de datos que requieren gran cantidad de energía y agua para su refrigeración, que están esquilmando los recursos del territorio, como ha ocurrido en Queretaro (México).

Por su parte, Rafael Marimón, catedrático de Derecho Mercantil y director de la Cátedra Minsait (Indra Group)-UV en LegalTech & AI de la Universidad de Valencia, ha dibujado el mapa de la IA: Estados Unidos inventa, China copia y Europa regula. A la normativa europea le ve aciertos y errores y reclama la existencia de una capa de ética infranqueable, que considera posible. Y, para demostrarlo, pone como ejemplo a Japón, donde “la comunidad ha conseguido unir los valores de desarrollo y sostenibilidad”.

Conclusiones conjuntas de este grupo de ponentes incluyen considerar imprescindible la transparencia y una regulación interdisciplinaria, así como formar a la ciudadanía y hacerla consciente de que el poder de los individuos es inmenso, dado que la IA se enfoca en la satisfacción de sus usuarios.

3. Riesgos y oportunidades para el desarrollo humano

“La tecnología nos aporta mucha capacidad, pero, a la vez, nos ha llevado al activismo de sofá”, ha expuesto Vicente Bellver, catedrático de Filosofía del Derecho y Política en la Universitat de València. En su opinión, “debemos proteger a las nuevas generaciones del abuso de la tecnología para que se desarrollen adecuadamente”.

David Moratal, catedrático de Ingeniería Electrónica de la Universitat Politècnica de València, ha remarcado la transcendencia de la IA generativa. Expone que ha producido un desajuste evolutivo solo comparable a cambios como la dieta del paleolítico al neolítico o la revolución industrial. “Somos seres analógicos y no podemos perder las capacidades analógicas”, asegura, “la alfabetización digital debe darse después”, no antes.

4. Sesgos, discriminación y otros algoritmos

Rafael Merino, responsable de Proyectos en la Fundación Pombo, alerta de que “los jóvenes se están criando sin privacidad y con pérdida de control sobre sus datos”. También, debido a la capacidad de los algoritmos para manipularnos, del riesgo que corren derechos como la libertad de pensamiento o la justicia (ej. Compas para determinar el riesgo de reincidencia). En este sentido, apela a la creación de neuroderechos que nos protejan. Así mismo, propone tres medidas para avanzar hacia una sociedad más justa e inclusiva: educar en valores, ética y derechos humanos; desarrollar habilidades de uso de sistemas inteligentes; y avanzar en la homogeneización de la legislación global.

Eduard Chaveli, presidente de la Sección de Derecho Digital y Legaltech del Ilustre Colegio de Abogados de Valencia, ve imparable este proceso y considera que no se trata de una disyuntiva entre IA y ser humano, sino de IA + SH y que esta combinación no suma, multiplica”, siendo la supervisión humana imprescindible. Respecto a los sesgos, califica a la IA como altavoz o multiplicador. Pero, a la vez, cree que esto es una oportunidad porque, si la IA pone de relieve lo que ya existía, nos ayuda a identificar esos sesgos y nos facilita gestionarlos.

5. Universalización de la atención médica: ¿realidad, utopía o distopía?

El director de la Cátedra de Bioética de la Universidad Pontificia de Comillas, Rafael Amo, ha remarcado las distintas injusticas que se producen cuando la IA se aplica a la salud. Entre ellas, la injusticia por pobreza de datos (la pobreza económica lleva a la menor atención médica, lo que deriva en pobreza de su historial clínico). También la injusticia epistémica o la injusticia procedimental, que se traducen en exclusión de prioridades de investigación y falta de equidad en la toma de decisiones.

Por su parte, a Luis Echarte, profesor de Filosofía de la Medicina y la Bioética en la Universidad de Navarra, le inquieta que la tecnología pueda convertirse en el remedio para todo lo sanitario, que médicos y pacientes se adapten a la máquina y no al revés. En este sentido, recomienda para el futuro prudencia, esperanza y vigilancia.

6. ¿Qué pasa con el Sur Global?

“La IA contiene sesgos heredados de sus entrenadores que, a su vez heredan sus usuarios”, de manera que se refuerza su perpetuación, afirma Alfredo Marcos, catedrático de Filosofía de la Ciencia en la Universidad de Valladolid. Por eso concluye que la educación es crucial y pone en valor tecnovirtudes como el control de nuestros datos, prácticas de silencio tecnológico (aprovechar el tiempo que somos un poco libres) o activismo frente a la concentración del poder digital, en la medida en que los sistemas de IA son sistemas sociales. En su opinión, a medida que los individuos sean capaces de controlarse y no dejarse manipular, afectará a las instituciones. Así mismo, apunta a la tendencia a crear derechos digitales, que incluso pueden incluir a los robots, aunque él no es partidario de una “nueva generación de derechos humanos”.

“La IA no es una herramienta, que necesite quien la maneje, es una máquina y solo necesita enchufarse”, según José Pedro García Sabater, catedrático de Organización de Empresas en la Universitat Politécnica de València. Dado que sus inversores se han gastado un trillón de dólares en dos años, considera obvio que lo que les empuja es recuperar su inversión. Los desarrolladores de la IA dicen que es una herramienta que reduce costes, pero la riqueza que genera en realidad es solo un movimiento desde abajo hacia arriba, lo que aumenta la desigualdad. Por eso, cree que va a aumentar el Sur Global dentro del Norte.

En todo caso, García Sabater también considera que hay aspectos de la IA que ayudan al Sur Global: mejora la accesibilidad, libera de carga de trabajo y cubre carencias sociales.

7. Consecuencias de la IA en el sector cultural

Violeta Dávila, gestora cultural y cofundadora de BeCooltural, aplaude muchas oportunidades que trae la IA, como la accesibilidad, la creación aumentada (magnifica las capacidades de las personas), la ayuda en la preservación del patrimonio cultural… pero también señala riesgos. Por ejemplo, que crezcan las diferencias norte-sur, que aumente precariedad laboral o que se apropie de derechos de autor. Le preocupa que haya cultura sin experiencia, que se quede en la superficie, e insiste en lo fundamental que resulta la educación digital. Por otra parte, apunta a un panorama judicial incierto respecto a los derechos de autor, ¿tiene la IA derechos de autor o la autoría es enteramente humana?

Por su parte, Federico Buyolo, director cultural de la Fundación Ortega-Marañón, sugiere que vivimos un momento de ludismo artificial y scroll infinito (siempre esperando a que nos interese lo siguiente), en una sociedad del cansancio. Y, a la vez, de desmaterialización de la economía porque “nos venden la idea de que la IA es gratuita y las aplicaciones sí, pero no social y culturalmente”. En esta nueva economía de datos, cuantos más analicen, más capacidad de predicción tienen. Así mismo, que la IA produce un resultado efectista que damos por veraz en un momento de cultura e intelectualidad superficial, pero que los algoritmos son opacos y apagan discursos porque, aunque no nos dicen qué pensar, sí sobre qué pensar, de manera que lo viral se hace más importante que lo esencial. Vivimos entre nuestras burbujas individuales y el espacio compartido.

La cultura se crea en el espacio compartido. Por tanto, nos queda elegir entre una cultura sin fricción (cómoda y delegando decisiones) o una cultura con fricción, imaginando e inventando nuestro futuro. En nuestra mano está la autoría del relato o conformarnos con ser actores secundarios.

8. Innovación social en IA

La presidenta del Observatorio de Impacto Social y Ético de la IA (OdiseIA) y profesora de Periodismo en la Universidad San Pablo CEU, Idoia Salazar, subraya el gran impacto social de la IA (mayor que el que tuvo la electricidad) y nos advierte de que tendemos a personalizar a la IA. O a confundirla con Chat GPT o con cualquier otro GPT (Generative Pre-trained Transformer) o Transformador Generativo Pre-entrenado como Copilot, Gemini… Nos recuerda que la IA no es una persona, pero sí lo son quienes están detrás de ella. Su desarrollo responde a intereses económicos, políticos… Por otra parte, destaca también que está orientada a optimizar la experiencia de uso. Y, precisamente por eso, nuestro poder individual es enorme. Nuestro comportamiento computa.

En cuanto a Concepción Acuña, presidenta de la Asociación Mujeres del Sector Público, profesora de Derecho Administrativo (URV) y experta en Gestión Pública, también nos previene frente al sesgo de automatización y recomienda “sentidiño” porque “estamos viviendo más atropellados que conduciendo”. Por eso, nos recomienda no dejarnos llevar y pasar a la cabina a conducir, ya que, según sostiene, “la IA no tiene el brillo de la mente humana, pero potencia nuestra capacidad”. Sugiere usar sandbox, en un entorno controlado, para explorar nuevas fórmulas creativas para mejorar la calidad de vida de las personas. También reclama un espacio para la sociedad civil, que nos invita a ocupar.

Salazar coincide en que estamos en un periodo crucial en el que necesitamos una ciudadanía consciente, regulación y que las estrategias se guíen por principios éticos. Así mismo, anuncia que están trabajando en un sello de confianza de IA.

9. Los recursos humanos y el futuro del trabajo en la era del capitalismo digital

Aída Ponce del Castillo, investigadora del European Trade Union Institute, denuncia la infraestructura opaca de la IA, que lleva a la invisibilidad del trabajo y de los trabajadores que la hacen posible, una servidumbre digital que sustenta esta automatización desde el Sur Global. También pone el foco en el impacto que tiene en las condiciones de trabajo: si se automatiza la supervisión y la toma de decisiones, provoca carga cognitiva y estrés, además de afectar a derechos fundamentales. Explica que la normativa en protección de datos está en expansión y opina que debe evolucionar, que necesitamos un marco de gobernanza adaptable y, aunque la mayoría de los derechos son individuales, también pueden enmarcarse en los colectivos (laborales) y negociarse.

“La IA es la quiebra más importante que ha tenido la humanidad porque esta tecnología nos supera”, afirma Adrián Todolí, profesor de Derecho del Trabajo y de la Seguridad Social de la Universitat de Valéncia. Respecto a su impacto en los puestos de trabajo, cita a la Universidad de Oxford (2017), que prevé que el 50% de las profesiones desaparezcan en 30 años. Pero también al MIT, que discrepa, su modelo dice que no sustituye profesiones sino tareas, que va a cambiar la forma de trabajar en el 60% de las profesiones. También apunta a que los mandos intermedios son los más amenazados y que cuando la IA decide, tiene consecuencias en la salud laboral (precipitación, riesgo de accidentes), así como en la discriminación (ej. selección de personal de Amazon). En su opinión, necesitamos una normativa específica (directiva) de protección frente a los algoritmos del trabajo, reglas para proteger a las personas. Denuncia los algoritmos extractivos y apuesta por los algoritmos productivos.

10. ¿Es posible una gobernanza mundial sobre IA?

Lorenzo Cotino Hueso, presidente de la Agencia Española de Protección de Datos, considera que no ha habido nada parecido a la IA en la historia de la humanidad: “la tecnología anterior nos amplificaba, esta nos supera, es peligrosa”. Estados Unidos y China están luchando por el liderazgo de la IA, pero tienen que pactar unos mínimos o el sistema se destruirá. Porque, “¿dónde está físicamente la IA? Los monopolios de chips, sistemas avanzados… los tienen Estados Unidos, Taiwán, Corea del Sur y Japón”.

Respecto a la normativa vigente, afirma que el Reglamento de la IA europeo es muy complejo (1.500 páginas) y que, aunque en Estados Unidos no rige, en muchos de sus estados se está emulando. También señala que, desde el punto de vista práctico, se están dando unos consensos mínimos (conceptos comunes y aspectos técnicos): protocolos de ciberseguridad, de consumo energético

En cuanto a la gobernanza mundial, apunta a la resolución de la ONU de agosto, con un panel científico y un foro sobre la IA para construir consensos. Pero también alerta de sus problemas de financiación y de la Competencia USA-China (también, en menor medida Rusia e India). Cree que los principios están claros, pero que les falta convertirse en normas. Que nos encontramos en un periodo de simplificación que confía en que no lleve a la paralización.

Congreso sobre Derechos Humanos e Inteligencia Artificial

Este encuentro ha sido posible gracias al apoyo financiero del Ayuntamiento de Valencia y del Ministerio de Asuntos Exteriores, Unión Europa y Cooperación del Gobierno de España.  También ha contado con la colaboración de la facultad de Derecho y el Instituto de Derechos Humanos de la Universitat de València (UV), el Máster de Cooperación de la Universitat Politècnica de València (UPV), el Ilustre Colegio de Abogados de Valencia, la Cátedra Legal Tech & IA Minsait (Indra Group) de la UV, la Cátedra Samsung Innovation Campus de la UPV, la Cátedra de Brecha Digital y Discapacidad dicaTIC de la UPV, el Foro EHT/CV Empresa, Humanismo y Tecnología y Comunicadores por Europa.

Resumen no asistido por la IA

Este resumen no ha contado con apoyo de ninguna herramienta de IA generativa, para lo bueno y para lo malo. Procede de notas tomadas durante el Congreso sobre Derechos Humanos e Inteligencia Artificial. Por ello, te invitamos a ver su grabación completa en nuestro canal de Youtube.

Por favor, ayúdanos a mejorar

Antes de irte, te agradeceremos que nos indiques cuál es el grado de interés que consideras que tiene esta noticia y, a continuación, pulses en el botón de «Enviar valoración».

¿Te ha parecido útil esta información? (1 nada, 5 mucho)

Si te ha gustado, compártelo: