El problema de esta IA de Google no gira en torno a ningún 'sesgo racial', sino a una polémica socio-política
"La inteligencia artificial desarrollada por Google para detectar el 'lenguaje de odio' parece ser racista" . Así o en términos muy similares están titulando diversos medios anglosajones en referencia a una investigación académica en torno a Perspective , una IA desarrollada por el Equipo Anti-abusos de Google para otorgar calificaciones de 'toxicidad' a textos online, y que es usada en labores de moderación de debates online por diversas organizaciones, entre ellas el New York Times. Así dicho, parece la enésima noticia sobre el 'sesgo racial' de una inteligencia artificial (un sesgo que, en la mayoría de los casos, es atribuible más bien a una mala selección de los datos usados para entrenar a las IAs), sin embargo el problema en este caso no reside en ninguna red neuronal ni en ningún dataset, sino en la corrección política. ¿El doble de probabilidad de ser considerado ofensivo si eres afroamericano? Empecemos por el principio: un equipo de in