Serie de proyectos técnicos sobre ética, fairness y explainability en IA, basada en el EU AI Act y herramientas reales (AIF360, SHAP, LIME, GPT2).
Parte 1: Detección y Mitigación de Bias
Adult Dataset + AIF360 → Bias de género detectado y mitigado (DI 0.36 → 1.00).
Parte 2: Trade-off Accuracy vs Fairness
Logistic Regression vs Random Forest + Reweighing → Accuracy 84.6% sin pérdida de fairness.
Parte 3: Explainability con SHAP
Explicaciones locales (waterfall) y globales en Random Forest → reducción impacto género.
Parte 4: Explainability en GenAI
GPT2 + LIME → qué palabras activan estereotipos en LLMs.
Parte 5: Fairness & Bias con herramientas de Google
Métricas de fairness por sexo + mitigación post-processing (threshold adjustment) – disparate impact mejora sin perder precisión
Proyecto 6: Bias en LLMs con Hugging Face + Fairlearn + Giskard + Red Teaming.
Proyecto avanzado para auditar bias en un LLM para clasificación (DistilBERT en Adult Income).
Pasos clave:
Gráfica de la frontera eficiente: Accuracy vs Disparate Impact (mitigación post-proceso)

Informe Giskard análisis de bias por subgrupos, vulnerabilidades y recomendaciones:
Haz clic en el archivo para descargar y abrir en tu navegador (es interactivo).
Glosario completo con términos, definiciones, categorías de riesgo, timeline y pirámide visual.
Arquitecto Técnico DevOps con amplia experiencia en el diseño, implementación y optimización de infraestructuras cloud-native, pipelines CI/CD y sistemas altamente escalables y resilientes. Apasionado por la automatización, la fiabilidad y la eficiencia operativa, trabaja diariamente con tecnologías como Kubernetes, Docker, AWS, Azure y herramientas de monitoreo y seguridad avanzada.
Actualmente, estoy expandiendo mi perfil profesional hacia el ámbito de Responsible AI, centrándome en ética, fairness, mitigación de sesgos y explicabilidad en inteligencia artificial. A través de una serie de proyectos prácticos y autodidactas, he profundizado en el EU AI Act, detección y mitigación de bias con AIF360, análisis de trade-off entre precisión y equidad en modelos de machine learning, explicabilidad con SHAP y LIME aplicado a modelos generativos. Este recorrido autodirigido combina profundidad técnica con una fuerte conciencia ética, preparándolo para contribuir al desarrollo de sistemas de IA confiables, transparentes y alineados con valores responsables.
Si te interesa Responsible AI, ética técnica o gobernanza de IA, ¡encantado de conectar!
¡Gracias por visitar mi portafolio! 🚀