Skip to content

GobLab-UAI/Herramienta_transparencia_del_modelo

Repository files navigation

Herramienta de Transparencia del modelo - UAI

Este es el repositorio de la herramienta de transparencia de modelos para documentar el funcionamiento sobre el apoyo en la toma de decisiones de los modelos de decisiones automatizadas que se basan en IA, desarrollada por el equipo del proyecto de algoritmos éticos responsables del GobLab en la Universidad Adolfo Ibáñez.

Descripción

Esta herramienta puede ser utilizada por cualquier persona, equipo u organización que desee transparentar el uso de sus modelos. La herramienta permite, por medio de una interfáz gráfica, exponer un cuestionario para responder preguntas sobre el modelo, los datos y las decisiones que se toman con el modelo. Además, la herramienta permite generar un reporte en formato PDF con las respuestas del cuestionario. renderizadas en formato de model card.

Instalación

Para instalar la herramienta, se debe clonar el repositorio y luego instalar las dependencias necesarias. Para clonar el repositorio, se debe ejecutar el siguiente comando:

git clone 

Luego, se debe crear un ambiente virtual en python e instalar las dependencias necesarias. Para ello, se debe ejecutar el siguiente comando:

cd Herrramienta_transparencia_del_modelo
python -m venv .venv
source .venv/bin/activate

pip install -r requirements.txt

Finalmente, se debe ejecutar el siguiente comando para iniciar la herramienta:

streamlit run home.py

Note

Esta herramienta no comparte tus datos, ya que todo el procesamiento se realiza en tu computadora y no se envía a ningún servidor externo, pero si almacenamos el feedback que nos des para mejorar su funcionamiento.

Uso de la herramienta

Para usar la herramienta, debes responder cada una de las preguntas que se presentan en la interfaz gráfica. Luego, debes hacer clic en el botón Generar model card para obtener el reporte en formato PDF.

Note

La herramienta no generá el informe si no respondes las preguntas marcadas con un asterisco (*) ya que son obligatorias.

Finalmente, una vez completadas las preguntas obligatorias, se debe hacer clic en el botón Generar model card para obtener el reporte en formato PDF y poder descargarlo.

Note

Para realizar el model card se recomienda tener a la mano información sobre el modelo, los datos y las decisiones que se toman con el modelo. Considere la necesidad de un experto técnico del proyecto para responder las preguntas de manera correcta.

Exención de responsabilidad

La ficha de transparencia es como su nombre lo indica, una herramienta desarrollada para apoyar la transparencia en la implementación de modelos de ciencia de datos e inteligencia artificial (IA). La ficha está diseñada únicamente como un soporte para quienes buscan entregar mayor información a sus usuarios o al público sobre el desarrollo de sus modelos, con el fin de fomentar la explicabilidad de las decisiones que utilizan IA o ciencia de datos. Esta es una herramienta de referencia, que debe ser completada con la información requerida por los encargados de las instituciones que la utilizarán.

La Universidad Adolfo Ibáñez (UAI) no ofrece garantías sobre el funcionamiento o el desempeño de los sistemas de ciencia de datos e IA que utilicen esta ficha. La Universidad no es responsable de ningún tipo de daño directo, indirecto, incidental, especial o consecuente, ni de pérdidas de beneficios que puedan surgir directa o indirectamente de la aplicación de la ficha en el uso o la confianza en los resultados obtenidos a través de esta herramienta.

El empleo de las herramientas desarrolladas por la Universidad no implica ni constituye un sello ni certificado de aprobación por parte de la Universidad Adolfo Ibáñez respecto al cumplimiento legal, ético o funcional de un algoritmo de inteligencia artificial.

Aquellos interesados en ser considerados como un caso de éxito mediante el uso de estas herramientas de IA responsable deben inscribirse en los pilotos a través del formulario https://algoritmospublicos.cl/quiero_participar. Es importante destacar que el uso de nuestras herramientas y los resultados derivados de las mismas no aseguran por sí mismos que un algoritmo cumpla con los estándares éticos requeridos.

Agradecimientos

ANID, Subdirección de Investigación Aplicada/Concurso IDeA I+D 2023 proyecto ID23I10357

About

Repositorio de MVP para herramientas de IA responsable

Resources

License

Stars

Watchers

Forks

Packages

 
 
 

Contributors