Álvaro López y Judith Saínz-Pardo, investigadores del Grupo de Computación Avanzada y E-Ciencia del Instituto de Física de Cantabria (IFCA), un centro mixto del CSIC y la Universidad de Cantabria (UC), han publicado dos investigaciones clave sobre privacidad y protección de datos sensibles en entornos de inteligencia artificial. Los trabajos han sido recogidos por las prestigiosas revistas Scientific Data (Nature) y Artificial Intelligence Review (Springer Nature).
En el primero de estos estudios, los investigadores presentan el software Anjana, una herramienta desarrollada en Python que permite anonimizar datos sensibles de manera segura antes de su publicación o uso en modelos de inteligencia artificial. «Anjana ofrece una solución innovadora para proteger la privacidad y la integridad de los datos personales, esencial en un entorno cada vez más digitalizado», explica Judith Saínz-Pardo.
Aplicaciones en medicina y banca
El segundo artículo, enmarcado en el proyecto europeo AI4EOSC, ha contado con la colaboración de centros de investigación en Valencia, Bratislava (Eslovaquia) y Karlsruhe (Alemania). Este trabajo analiza la evolución de las herramientas para el desarrollo de modelos de inteligencia artificial, centrándose en la privacidad de los datos utilizados en campos como la medicina, la industria y el sector bancario.
«En medicina, trabajamos con datos altamente sensibles, pero también en el sector bancario o empresarial, donde pueden manejarse datos relevantes sin que necesariamente identifiquen a una persona», explica Saínz-Pardo. Este análisis resulta crucial para abordar las cuestiones éticas y técnicas que surgen en el manejo de información sensible.
Hacia un uso seguro y ético de la inteligencia artificial
Ambos estudios no solo buscan garantizar la privacidad de los datos, sino también fomentar su uso ético y eficiente en investigaciones y aplicaciones prácticas. En un contexto global donde la inteligencia artificial se integra en numerosos aspectos de la vida cotidiana, estos avances del IFCA resultan esenciales para hacer un uso seguro de esta tecnología.
Las investigaciones contribuyen a la creación de herramientas y métodos que refuerzan la confianza en los sistemas de inteligencia artificial, protegiendo tanto a las personas como a las organizaciones que dependen de estos datos.