Los artistas están hartos de que las IAs generativas roben sus obras. Así que las están envenenando
Getty Images demandó a Stability AI —responsables de Stable Diffusion— hace meses. La conocida agencia de imágenes había detectado que parte de su catálogo había sido utilizado para entrenar este modelo de IA generativa, y detonó un debate que nos ha acompañado todo el año . Esa demanda no ha servido de mucho de momento, así que los artistas han tomado otro camino. Uno mucho más ingenioso. Nightshade . Así se llama la nueva herramienta creada por un grupo de académicos como parte de un reciente estudio . Con ella los artistas pueden "envenenar" sus obras para que si alguien las usa para entrenar sus modelos de IA generativa, las imágenes que luego generen esos modelos no respondan al 'prompt' de los usuarios. Glaze . Ben Zhao, profesor de la Universidad de Chicago, es el máximo responsable tanto del desarrollo anterior como de Glaze , otra herramienta que permite que los artistas "enmascaren" su estilo personal para evitar que sea plagiado por las IAs