Poner a escribir noticias a ChatGPT y a Bard puede acabar como el teléfono estropeado: los peligros de usar inteligencia artificial para “informar”
¿Que no te has enterado de la última polémica del Barça y el caso Negreira? Una preguntita rápida a Bing y en un par de segundos te resuelve el tema futbolístico de la semana. Lo mismo podrás preguntarle a Google Bard cuando esté disponible (por el momento en lista de espera y solo en dos países ). Lo que antaño hacíamos tirando de Google y un par de clicks en tus medios de confianza, los que aparecían arriba del todo del buscador o en ambos casos y su posterior lectura, ahora puede hacerse mucho más rápido gracias a los modelos de chat conversacionales con inteligencia artificial, que entienden, contextualizan, tiran de fuentes y sintetizan por ti. ¿El problema? Que no son perfectos: la IA tiene sesgos, limitaciones y que como nos pasa a los humanos, a veces tomamos como referencia información que es falsa . De hecho cuando estos chatbots dejen de ser la novedad para pasar a ser una herramienta habitual en nuestro día a día (o en algunos casos, directamente hagan nuestros trabajos