Desafío AIUTEChallenge / Proyecto EDIA.

OTRAS NOVEDADES

Desafío aiUTECchallenge, BAI: Biases in AI.

En el marco de la plataforma aiUTECchallenge (https://aichallenge.utec.edu.uy/), en conjunto con el programa de Innova iCiencia, La Fundación Vía Libre y la Universidad Nacional de Córdoba, durante el último trimestre del 2023 se desarrollo el desafío de inteligencia artificial BAI: Biases in AI con el fin de sensibilizar sobre la importancia de la ética y detectar sesgos con la primera herramienta desarrollada en idioma español por La Fundación Vía Libre y la Universidad Nacional de Córdoba. 

En este desafío, los participantes tuvieron la oportunidad de utilizar y contribuir al desarrollo para detectar sesgos, evaluar el nivel de estereotipos y discriminación existente en chatbots de atención al público, motores de búsqueda de portales estatales, herramientas de análisis de texto, entre otros.
El desafío se centra en colaborar en el descubrimiento y la documentación de sesgos con el fin de construir soluciones más justas y equitativas.

La herramienta permite detectar sesgo en sistemas de procesamiento de lenguaje natural basado en modelos de lenguaje o word embeddings (Proyecto EDIA/Estereotipos y Discriminación en Inteligencia Artificial). Este tipo de herramientas no existía anteriormente en el idioma español y a partir del modelo Bert realizado para el habla inglesa se obtuvo Beto para el idioma español.

Como resultado del desafío se presentaron tres destacados trabajos:

La Islamofobia y el Capacitismo en la Inteligencia Artificial por Franco Cossatti.

Este trabajo ofrece un enfoque original y reflexivo sobre la islamofobia y el capacitismo en la IA. Analiza de manera crítica las asociaciones de palabras clave, revelando sesgos preocupantes y sugiriendo un análisis profundo de los datos utilizados para comprender mejor las asociaciones. Los invitamos a conocer más de este trabajo en:https://docs.google.com/document/d/e/2PACX-1vQc59HwNYBoqWlu4e7SEDnO-ZPcr5lIsZ-UYZF28dH1u2FwbLXJwlYNTCJH1k1B7Bh_mqRyMjRWuJvO/pub

Say it! realizado por Bárbara Wild y Giuliana Padin.

Este trabajo aborda la preferencia de género en la tecnología de la información, destacando la importancia de la construcción colectiva para obtener versiones más objetivas. Examina la disparidad de género en la percepción individual y destaca la necesidad de abordar estos sesgos para avanzar hacia tecnologías más éticas y equitativas.
Se puede leer el trabajo en: https://drive.google.com/file/d/1ZzfkHC-cQf8AUu16TEcphqIKH2hVT1LA/view?usp=sharing

Detección de Sesgos en Sistemas de Procesamiento de Lenguaje Natural por Bruno Silveira Santarena.

Este trabajo presenta un enfoque integral, conectando sesgos ideológicos, políticos y culturales con estructuras sociales. La visualización clara y práctica de los sesgos, especialmente en relación con género y etnia, destaca la necesidad de una IA más ética. Las recomendaciones subrayan la diversidad en datos de entrenamiento y la importancia de la transparencia en algoritmos.
Se puede leer el trabajo en: https://drive.google.com/file/d/1IP3KyQgWCWwsggFd2GU0CdzO0vd1xmzc/view?usp=sharing

Estos trabajos no solo brindan análisis profundos sobre la discriminación en la IA, sino que también subrayan la urgencia de promover una IA más inclusiva y ética, asi como también seguir ahondando en el área de ética y sesgos que se siguen reproduciendo por estas herramientas.

¡Felicitaciones a todos los participantes por contribuir a esta importante temática!