Portafolio Responsible AI – Pablo Tirado

Enero 2026 | Madrid, España

Serie de proyectos técnicos sobre ética, fairness y explainability en IA, basada en el EU AI Act y herramientas reales (AIF360, SHAP, LIME, GPT2).

Proyectos de la serie

  1. Parte 1: Detección y Mitigación de Bias

    Adult Dataset + AIF360 → Bias de género detectado y mitigado (DI 0.36 → 1.00).

    [Ver Colab]

  2. Parte 2: Trade-off Accuracy vs Fairness

    Logistic Regression vs Random Forest + Reweighing → Accuracy 84.6% sin pérdida de fairness.

    [Ver Colab]

  3. Parte 3: Explainability con SHAP

    Explicaciones locales (waterfall) y globales en Random Forest → reducción impacto género.

    [Ver Colab]

  4. Parte 4: Explainability en GenAI

    GPT2 + LIME → qué palabras activan estereotipos en LLMs.

    [Ver Colab]

  5. Parte 5: Fairness & Bias con herramientas de Google

    Métricas de fairness por sexo + mitigación post-processing (threshold adjustment) – disparate impact mejora sin perder precisión

    [Ver Colab]

  6. Proyecto 6: Bias en LLMs con Hugging Face + Fairlearn + Giskard + Red Teaming.

    Proyecto avanzado para auditar bias en un LLM para clasificación (DistilBERT en Adult Income).

    Pasos clave:

    [Ver Colab]

    Gráfica de la frontera eficiente: Accuracy vs Disparate Impact (mitigación post-proceso)

    celda6-proyecto6.png

    Informe Giskard análisis de bias por subgrupos, vulnerabilidades y recomendaciones:

    giskard_report_project6.html

    Haz clic en el archivo para descargar y abrir en tu navegador (es interactivo).

Glosario Ética y Gobernanza IA (EU AI Act)

Glosario completo con términos, definiciones, categorías de riesgo, timeline y pirámide visual.

[Ver Glosario]

Sobre mí

Arquitecto Técnico DevOps con amplia experiencia en el diseño, implementación y optimización de infraestructuras cloud-native, pipelines CI/CD y sistemas altamente escalables y resilientes. Apasionado por la automatización, la fiabilidad y la eficiencia operativa, trabaja diariamente con tecnologías como Kubernetes, Docker, AWS, Azure y herramientas de monitoreo y seguridad avanzada.

Actualmente, estoy expandiendo mi perfil profesional hacia el ámbito de Responsible AI, centrándome en ética, fairness, mitigación de sesgos y explicabilidad en inteligencia artificial. A través de una serie de proyectos prácticos y autodidactas, he profundizado en el EU AI Act, detección y mitigación de bias con AIF360, análisis de trade-off entre precisión y equidad en modelos de machine learning, explicabilidad con SHAP y LIME aplicado a modelos generativos. Este recorrido autodirigido combina profundidad técnica con una fuerte conciencia ética, preparándolo para contribuir al desarrollo de sistemas de IA confiables, transparentes y alineados con valores responsables.

Si te interesa Responsible AI, ética técnica o gobernanza de IA, ¡encantado de conectar!

¡Gracias por visitar mi portafolio! 🚀