Por Jorge Lukowski
Las empresas y los profesionales del sector tecnológico debemos unirnos a este esfuerzo por una herramienta que no excluya a nadie y que represente a nuestra comunidad de manera plena.
Los Modelos de Lenguaje de Gran Escala (LLM por sus siglas en inglés) como ChatGPT, están transformando la forma en la que nos comunicamos y obtenemos información; sin embargo, estos avances tecnológicos enfrentan desafíos significativos en la prevención de sesgos, particularmente de aquellos que afectan al colectivo LGTBIQ+ y otros grupos o diversidades.
En este sentido, el estudio The AI Index Report 2024 de la Universidad de Stanford revela que en los datos utilizados para entrenar LLM predominan sesgos de género y raciales. Igualmente, las alertas del último informe de la UNESCO, en marzo de este año, han señalado esta problemática relacionada con estereotipos de género regresivos. Esta realidad, puede llevar a perpetuarlos, y a su vez excluir la gran variedad de voces. Además, un informe de McKinsey & Company señala que las organizaciones que cuentan con equipos diversos, inclusivos, y equitativos son más eficientes, productivos, innovadores y creativos.
En este contexto, una preocupación que surge en la comunidad es cómo extender ese compromiso asumido en el mundo real de justicia social y derechos humanos, al ámbito de la virtualidad en general y, específicamente, en el desarrollo de tecnologías avanzadas como los LLM para que arrojen resultados que contemplen todas las diversidades para ser representativos de la sociedad de manera plena.
Y es que, para lograr este objetivo, es vital considerar varios aspectos clave. Desde una perspectiva económica, el mercado laboral actual, de la informática en general y en el de estos sistemas en particular, no es lo suficientemente amplio para satisfacer todas las necesidades tecnológicas. Fomentar la diversidad, ayuda a cubrir esta brecha al atraer a más personas de distintos orígenes, además de promover la generación de soluciones más ingeniosas y efectivas para abordar los desafíos más críticos de la sociedad. Además, en términos de justicia y equidad, los potenciales prejuicios en los conjuntos de datos pueden llevar a resultados problemáticos si no se abordan adecuadamente.
Por lo tanto, es crucial que los modelos de IA sean auditados y revisados constantemente para identificar y mitigar sesgos, los cuales, generalmente, tienen que ver con la asociación de ciertos roles profesionales o emociones a géneros específicos. Esta predisposición también se puede extrapolar a otros aspectos de identidad, como la orientación sexual y la identidad de género.
Cuando las “alucinaciones” de las IA no son inclusivas en su totalidad
Las "alucinaciones" en los LLM representan un grave problema, ya que estos sistemas generan respuestas que, aunque sintáctica y semánticamente son correctas, están desconectadas de la realidad.
Uno de los casos recientes más relevantes fue el de Google, que suspendió la creación de imágenes de personas con IA tras descubrirse que, al solicitarle una imagen del Papa, la herramienta generaba resultados que incluían a un hombre negro y a una mujer india. Para este gigante tecnológico, el lanzamiento de Gemini ha planteado posibles problemas legales y sociales debido al uso incorrecto de esta tecnología.
Otro ejemplo se observa cuando los modelos de inteligencia artificial generan incorrectamente citas y afirmaciones sobre cuestiones LGTBIQ+. Por ejemplo, un modelo podría afirmar erróneamente que una figura pública, conocida por su apoyo a los derechos LGTBIQ+, ha hecho declaraciones negativas sobre la comunidad debido a la falta de datos diversos y precisos en su entrenamiento. En otra circunstancia, podría difundir también citas falsas sobre la orientación sexual, fundamentándose en estereotipos que se encuentran dentro de los datos.
Y es que, actualmente se está prestando especial atención a estas alucinaciones, dado que es muy fácil crear contenido falso con fines políticos y maliciosos como, por ejemplo, noticias falsas acerca de situaciones que no son reales o fotografías modificadas para tergiversar la historia. Existe una preocupación creciente de que el futuro de Internet pueda estar saturado de información carente de veracidad.
En este sentido, el esfuerzo de las empresas tecnológicas por promover la igualdad en sus productos es esencial encontrar un equilibrio entre ser precisos e inclusivos. Las organizaciones deben ser cuidadosas al programar modelos de IA para tener en cuenta ambas variables sin cometer imprecisiones y sesgos. Para garantizar una tecnología inclusiva, es esencial implementar acciones concretas, como el uso de diferentes fuentes en el entrenamiento de los LLM, para asegurar una representación justa de todas las identidades.
La falta de una representación diversa en los datos de entrenamiento podría perpetuar las desigualdades actuales, dejando de reflejar fielmente la composición real de la sociedad. La lucha por la justicia algorítmica es, en esencia, una extensión de la lucha por los derechos humanos. Necesitamos asegurarnos de que la tecnología que construimos sea equitativa, de modo que sirva a todos y no excluya a nadie.
Otra medida crucial es la formación de los desarrolladores en estas prácticas, para lo cual existen diversas herramientas y recursos disponibles que pueden asistir a las empresas y sus profesionales a detectar prejuicios en sus modelos de lenguaje.
Es importante reafirmar nuestro compromiso con la diversidad, equidad e inclusión, no solo en nuestros espacios físicos, sino también en el mundo digital. Juntos, podemos construir una tecnología que no solo refleje nuestra diversidad, sino que también la celebre y empodere. Las empresas y profesionales del sector tecnológico debemos unirnos a este esfuerzo por una IA más inclusiva. Al avanzar en esta dirección, construimos un mundo digital más justo y equitativo para todos. La tecnología inclusiva es fundamental para reflejar y respetar la diversidad humana en todas sus formas.
Director global de Marketing y Comunicación de NEORIS. Miembro de Forbes Council, de la Asociación Española de MKT y de REDI LGTBIQ+