EURANET PLUS
EURANET PLUS

La irrupción de la inteligencia artificial está transformando todos los ámbitos de la sociedad, desde la salud hasta la gestión pública. Pero para el investigador Francisco Herrera, uno de los mayores desafíos no está en la tecnología, sino en el ser humano. “El reto es definir la capacidad aumentada de cualquier persona en su trabajo. Tenemos que lograr lo que llamamos el “profesional aumentado”, capaz de colaborar con sistemas inteligentes para ser más eficaz sin perder su sentido crítico”, explica.

Francisco cita el concepto de “cointeligencia” para referirse a esta nueva etapa de cooperación entre humanos e inteligencia artificial. “Estamos entrando en un modelo de colaboración humano–IA, y nuestro objetivo debe ser integrar ambas inteligencias para potenciar las capacidades humanas”, afirma.

Aplicaciones concretas y beneficios sociales

Herrera recuerda que la inteligencia artificial ya está generando resultados tangibles en la administración pública, especialmente en la detección de fraude o la gestión sanitaria. “El procesamiento masivo de datos y el cruce inteligente de bases de datos permiten identificar fraudes y aumentar la transparencia, mejorando la recaudación y la eficiencia del sistema público”, señala.

También destaca el impacto positivo en la salud: “En áreas como la radiología, los sistemas inteligentes ya integran subprocesos y ayudan a los profesionales a diagnosticar mejor y más rápido”.

Sin embargo, advierte que junto a los beneficios surgen riesgos. Además de los tradicionales como la privacidad o los ciberataques, el investigador pone el foco en los riesgos cognitivos derivados del uso cotidiano de la IA. “Existe el peligro de una pasividad del humano, lo que llamamos habituación: dejar de cuestionar lo que dice el sistema y perder la capacidad crítica”, explica.

Uno de los conceptos que más le preocupan es la deuda cognitiva, un fenómeno documentado recientemente por el MIT, según el cual los profesionales que trabajan de forma continuada con IA generativa “pierden atención, retienen menos información y olvidan con mayor rapidez lo que acaban de producir”.

“La población no está preparada”

Francisco considera que tanto las administraciones como la ciudadanía aún no están preparadas para esta nueva convivencia con la inteligencia artificial. “Estamos en los primeros años de esta revolución: la IA generativa tiene apenas tres años de vida. Ahora debemos formar a los trabajadores públicos y a la población general para que comprendan que la IA no es un oráculo, sino una herramienta”, señala.

Esa formación, dice, debe centrarse en mantener el pensamiento crítico y aprender a detectar sesgos, errores o manipulaciones que pueden derivarse del uso masivo de sistemas inteligentes.

La regulación europea

Respecto al Reglamento Europeo de Inteligencia Artificial, aprobado recientemente, Francisco lo califica como “un paso pionero a nivel mundial”. “Por primera vez se analizan los riesgos de la IA por áreas de aplicación, no por tecnologías. La norma protege los derechos fundamentales y obliga a auditar los sistemas de alto riesgo, como los que afectan a la salud o a la seguridad”, explica.

No obstante, advierte que el verdadero reto empieza ahora: diseñar los mecanismos de gobernanza que garanticen su cumplimiento. “La ley está bien, pero si no creamos un sistema de gobernanza eficaz para los miles de modelos de IA que existen en Europa, se quedará coja”, afirma.

“La decisión final debe seguir siendo humana”

Ante la pregunta de si la IA podría llegar a tomar decisiones políticas, Francisco es tajante: “No. En los escenarios de riesgo definidos por la ley, la última decisión siempre debe ser humana”.

Aun así, reconoce un peligro latente: “Si los responsables públicos se acostumbran a aceptar las recomendaciones de la IA sin cuestionarlas, acabaríamos delegando el poder de decisión en los algoritmos. Por eso es fundamental educar para mantener el análisis crítico y la responsabilidad humana”.

Programa completo, pinche aquí.

Ver más noticias de Castilla y León