Una extensión de Chrome basada en machine learning nos permite ajustar el nivel de "toxicidad" de los comentarios que visualizamos
Un informe de 2017 elaborado por Pew Research Center mostraba que el 40% de los internautas estadounidenses. había sufrido en alguna ocasión acoso online, y aproximadamente un 25% de ellos habían decidido no publicar algún comentario por temor a un posterior acoso, mientras que el 10% había terminado optando por no usar algún sitio web en modo alguno.
"La mayoría de nosotros pasamos más tiempo leyendo los comentarios online que escribiéndolos o moderándolos. A medida que leemos, un solo post tóxico puede hacer que nos damos por vencidos en una discusión y que perdamos así la opción de acceder a pensamientos valiosos, enterrados ajo de los gritos.
La toxicidad también tiene un efecto negativo sobre las conversaciones, haciendo que la gente sea menos propensa a participar en los debates online".
Quien habla así es C.J. Adams, director de producto de Jigsaw, una compañía propiedad de Alphabet (como la propia Google) dedicada a desarrollar tecnología para hacer frente a "los retos globales de ciberseguridad", publicó hace unas horas en la Chrome Web Store una extensión llamada Tune, integrante del proyecto de investigación Conversation-AI.
Tune ha sido diseñada con el fin de ayudar a moderar comentarios tóxicos en las redes sociales (Twitter y Facebook), así como en algunas de las webs y servicios de comentarios más populares (Youtube, Reddit y Disqus).
Esta herramienta, de la que ya pueden disfrutar todos los usuarios del navegador de Google en cualquier sistema operativo, se basa en la misma tecnología de machine learning en la que se basa la plataforma Perspective, lanzada por Jigsaw en 2017 con el fin de dejar atrás la moderación de comentarios basada en la selección manual. Medios como The Economist, la Wikipedia o El País hacen uso de ella.
Para que Chrome pueda acceder a la API de Perspective, es necesario que el usuario inicie sesión en su cuenta Google. Una vez logueado, la configuración de Tune le ofrecerá un 'regulador de volumen' que nos permite indicar a qué nivel de ruido (o toxicidad de los comentarios) queremos vernos expuestos mientras navegamos.
Además, también se nos ofrece la opción de configurar qué criterios usará la extensión para determinar la toxicidad de cada comentario. Por defecto, Tune tiene en cuenta los insultos, las 'malas palabras, los ataques a la identidad, las amenazas o las referencias sexualmente explícitas... pero podemos desactivar cualquiera de estos criterios a conveniencia.
¿La mala noticia? Que, por desgracia, Tune funciona únicamente a la hora de analizar comentarios en inglés.
¿Qué es y qué no es Tune?
Desde Jigsaw admiten que Tune es todavía un experimento, lo que significa que "sigue sin ver algunos comentarios tóxicos y esconde de forma incorrecta algunos comentarios no tóxicos". En palabras de Adams,
"Estamos trabajando constantemente para mejorar la tecnología subyacente, y los usuarios pueden proporcionarnos feedback fácilmente a través de la herramienta para ayudarnos a mejorar nuestros algoritmos".
"Tune no está destinado a ser una solución para las personas que son objeto de acoso ni es una solución para todo tipo de toxicidad. Más bien, se trata de un experimento para mostrar a la gente el modo en que la tecnología de machine learning puede crear nuevas formas para proteger a los usuarios online".
Tune intenta ser un ensayo de lo que sucede cuando el usuario asume parte de la responsabilidad que hoy por hoy se arrogan las redes sociales. ¿Qué ocurre si se deja que éste decida por sí mismo, decidiendo en cada momento qué se desea ver y qué no?
Así, en lugar de dejarlo todo en manos de los grandes portales, y trabajar directamente con ellos para mejorar su gestión de comentarios, Jigsaw ha preferido dejar la potencia de la inteligencia artificial en manos del navegador.
Pero a su vez se plantea otro debate, ¿qué efecto tendrá este tipo de iniciativas sobre cómo conversamos en Internet? ¿Lograremos construir una mejor conversación o sólo una conversación más fragmentada?
Vía | 9 to 5 Google
recommendation.header
Gasolina, diésel, híbrido… Cómo acertar con la propulsión
Seeing AI, la app de Microsoft que va describiendo el contenido de las fotos a las personas ciegas
-
the.news Una extensión de Chrome basada en machine learning nos permite ajustar el nivel de "toxicidad" de los comentarios que visualizamos originally.published.in por Marcos Merino .
Fuente: Xataka
Enlace: Una extensión de Chrome basada en machine learning nos permite ajustar el nivel de "toxicidad" de los comentarios que visualizamos
Comentarios
Publicar un comentario