Ally AI: el desafío de crear una certificación inclusiva para la inteligencia artificial

Ally AI: el desafío de crear una certificación inclusiva para la inteligencia artificial

Ally AI: el proyecto que busca certificar la inclusividad en la inteligencia artificial

“An inclusive AI future” es la promesa que destaca en el sitio web de Ally AI, una iniciativa impulsada por la organización sin fines de lucro LGBT Tech. Su objetivo es ambicioso: desarrollar la primera certificación de inclusividad para sistemas de inteligencia artificial, enfocada especialmente en proteger a comunidades históricamente marginadas, como la LGBTIQA+.

En un mundo donde la IA ya interviene en decisiones críticas —como el acceso a servicios de salud, créditos bancarios, justicia penal o beneficios sociales—, los sesgos existentes en los modelos de lenguaje pueden agravar aún más la vulnerabilidad de estos grupos. Ally AI busca contrarrestar ese riesgo con un sello de calidad que garantice que los sistemas sean conscientes y respetuosos con la diversidad.

Una solución urgente ante los sesgos y exclusiones de la inteligencia artificial

Para Christopher Wood, director ejecutivo y cofundador de LGBT Tech, el desarrollo de tecnologías inclusivas no es opcional: es una necesidad urgente. Según explica, muchos miembros de la comunidad LGBTQ+ han aprendido a desconfiar de las plataformas digitales debido a años de exclusión, invisibilización o maltrato.

“En la historia, en Alemania, hemos visto qué ocurre cuando se borra información de los libros”, recuerda Wood. “Lleva décadas recuperar esa memoria”. Por eso, impulsa Ally AI como una herramienta que garantice que las voces queer sean representadas y consideradas en cada etapa del desarrollo tecnológico.

¿Puede existir una inteligencia artificial completamente libre de sesgos?

Aunque la intención es positiva, la posibilidad de construir una IA verdaderamente libre de sesgos genera escepticismo entre la comunidad científica. Especialistas como Sabine Weber, experte en procesamiento de lenguaje natural y miembro de Queer in AI, explican que los modelos como ChatGPT se entrenan con grandes cantidades de datos de internet, que reflejan sobre todo el discurso dominante.

Esto provoca dos problemas principales: la infrarrepresentación de las comunidades minoritarias y la imposibilidad de distinguir con precisión entre el contenido ofensivo y la autoexpresión legítima. “Mucho contenido queer se filtra automáticamente por contener palabras mal clasificadas como inapropiadas”, señala Weber.

Weber destaca que sería necesario validar manualmente enormes cantidades de datos, algo poco viable. Otra opción sería hacer ajustes en fases posteriores con aprendizaje por refuerzo humano, pero incluso esta técnica resulta insuficiente en contextos del mundo real.

Los parches técnicos no son suficientes frente a los riesgos reales

Raj Korpan, director del TIER Lab en la Universidad de Nueva York (CUNY) y también integrante de Queer in AI, advierte que los “parches” técnicos pueden fallar fácilmente cuando los sistemas se integran en contextos físicos, como la robótica o servicios de asistencia.

“En cuanto pongas un parche en un sitio, va a surgir otro problema en otro lado”, alerta Korpan. Por eso, propone un enfoque más pragmático: sistemas conscientes del sesgo, como sugiere también Davide Cirillo desde el Barcelona Supercomputing Center.

Representar a todas las personas es un desafío técnico y cultural

La investigadora Nataly Buslón, experta en IA responsable en la Universitat Pompeu Fabra, también considera irreal diseñar un sistema universal y libre de sesgos. Sin embargo, cree que sí se pueden mitigar mediante auditorías constantes y protocolos similares a los que se usan en la medicina para tomar decisiones representativas y controladas.

el riesgo del rainbow-washing en proyectos tecnológicos

Todos los especialistas consultados reconocen el valor de Ally AI, pero coinciden en que una certificación no debe convertirse en una estrategia de marketing superficial o rainbow-washing.

“No puede hacerse una sola vez y ya está”, enfatiza Korpan, quien insiste en la importancia de actualizar las auditorías continuamente. “Estás capturando la inclusión en un momento específico, pero la cultura y las identidades evolucionan”.

Transparencia y participación: claves para evitar el oportunismo

Para Buslón, la clave está en la transparencia y en la participación de las poblaciones afectadas. Sugiere acciones adicionales, como abrir el código al escrutinio público, formar a la población en IA responsable, y garantizar que quienes diseñan y evalúan estos sistemas representen también la diversidad.

“Si no puedo hacer algo efectivo para todas las personas, al menos debo ser transparente sobre sus limitaciones”, compara Buslón, aludiendo al modelo de comunicación de efectos adversos en la medicina.

¿cómo se relacionan estas certificaciones con la legislación en inteligencia artificial?

Actualmente, solo la Unión Europea cuenta con un marco normativo formal: la AI Act, que se aplicará por completo hasta 2026. No obstante, esta ley quedó rezagada frente al auge de modelos generativos como ChatGPT, lo que dejó a muchas aplicaciones fuera de control efectivo.

la certificación como complemento a leyes aún en desarrollo

Buslón considera que las certificaciones pueden ser útiles para complementar la legislación, especialmente en lo que respecta a grupos vulnerables. Korpan cree que podrían incentivar a las empresas a ir más allá de lo mínimo legal. “La ley marca el piso, no el techo”, comenta.

Sin embargo, los especialistas también alertan sobre los peligros de concentrar la regulación en organismos únicos que pueden estar influenciados por ideologías políticas. “Hay gobiernos que preferirían que las personas queer no existieran”, advierte Weber, quien subraya la necesidad de garantizar independencia y transparencia en los entes reguladores.

el futuro incierto de ally ai y su adaptación al panorama global

Debido al panorama político global —particularmente en Estados Unidos—, el desarrollo de Ally AI ha enfrentado retrasos. “Parece que el proyecto no avanza, pero estamos siendo cautelosos”, aclara Wood. El equipo de LGBT Tech incluso contempla empezar por certificar a personas que diseñan tecnologías inclusivas, antes de certificar sistemas completos.

Por ahora, no hay fecha definitiva de lanzamiento. Aunque la web prometía que la certificación estaría lista a finales de junio, el proyecto aún está en fase de revisión. “Nuestra misión es crear tecnología que promueva la inclusividad, la equidad y el respeto para todas las personas”, insiste Wood.

conclusión: hacia una inteligencia artificial que no deje a nadie fuera

La iniciativa Ally AI representa un esfuerzo pionero por crear una inteligencia artificial verdaderamente inclusiva, especialmente para comunidades como la LGBTIQA+ que históricamente han sido marginadas por la tecnología.

Si bien los desafíos técnicos y políticos son enormes, el consenso entre especialistas es claro: no se trata de alcanzar la perfección, sino de trabajar por un progreso constante y responsable. Y en ese camino, la transparencia, la participación y la rendición de cuentas deben ser pilares fundamentales.

Valentina Rodríguez