La inteligencia artificial (IA) ha transformado sectores clave de la sociedad, desde la medicina hasta las finanzas, pasando por el transporte, la educación o la industria, gracias a su capacidad para tomar decisiones complejas con una precisión sin precedentes. Sin embargo, esta potencia viene acompañada de un desafío creciente: entender cómo y por qué los modelos de IA llegan a ciertas conclusiones. La opacidad de estos sistemas, conocidos como ‘cajas negras’, plantea serios retos de confianza, transparencia y responsabilidad. ¿Cómo puede una persona confiar en una IA que toma decisiones sin ofrecer explicaciones claras y comprensibles?
Etiqueta: Data Science & Big Data Lab
Una nueva métrica revoluciona la explicabilidad en la inteligencia artificial
Un grupo de investigación de la UPO diseña una solución de inteligencia artificial para la gestión óptima de datos energéticos
La Universidad Pablo de Olavide y Ferrovial Servicios han desarrollado un proyecto de predicción de consumo energético con el objetivo de obtener una gestión más eficiente de los recursos energéticos haciendo uso de la inteligencia artificial. Se trata de un estudio que servirá como base para futuros análisis y que se ha llevado a cabo en un hospital gestionado por esta empresa multinacional.
Un grupo de investigación de la UPO diseña un software para el reconocimiento automático de desperfectos en pista aeroportuarias
El grupo de investigación Data Science & Big Data Lab de la Universidad Pablo de Olavide está diseñando un software que permite reconocer de manera automática desperfectos en pistas de aeropuertos. Esta herramienta será empleada en una solución integral denominada ‘Airport Pavement Inspection by Aerial Robotic System’, propiedad de Soologic Technological Solutions S.L, empresa con una dilatada experiencia en este sector.
Lo Más Visto
@pablodeolavide
























