La amabilidad con ChatGPT le está saliendo cara a OpenAI. Los “por favor” y “gracias” tienen un coste absurdo cada mes

La amabilidad con ChatGPT le está saliendo cara a OpenAI. Los “por favor” y “gracias” tienen un coste absurdo cada mes

Probablemente en estos días, haciendo scroll en redes sociales, te hayas cruzado con alguno de esos memes que lo dicen todo con una imagen: un hombre a punto de ser eliminado por robots se salva en el último momento porque, según uno de ellos, “siempre decía gracias”. Un gesto mínimo, casi automático, que lo redime ante las máquinas en un futuro distópico y que nos arranca una sonrisa entre tanto algoritmo.

Obviamente, no esperamos que los robots tomen el control del planeta. Pero no es casual que esa idea se haya hecho viral. El cine y la literatura llevan décadas alimentando ese imaginario entre la fascinación y el miedo. Lo curioso es que, más allá de la ficción, hay algo real en todo esto: ser educados con la inteligencia artificial (IA) no es gratis. Nuestra amabilidad, por rutinaria que sea, cuesta dinero. Y no precisamente poco.

El funcionamiento de la IA no es precisamente barato. Cuando usamos un chatbot de inteligencia artificial, rara vez pensamos en el consumo de recursos que implica cada una de nuestras peticiones. ChatGPT y otros sistemas similares funcionan gracias a grandes modelos de lenguaje, también conocidos como LLM, que operan en centros de datos equipados con hardware de alto rendimiento, como las GPU H100 de NVIDIA. La ejecución de esos modelos, lo que técnicamente se denomina inferencia, requiere una enorme capacidad de procesamiento y, por tanto, una cantidad considerable de electricidad.

A todo esto hay que sumar la inversión necesaria para construir y mantener estas infraestructuras, así como su impacto ambiental. Sabemos, por ejemplo, que muchos de estos centros consumen grandes volúmenes de agua para refrigerar los sistemas, ya que este tipo de computación genera calor. Mucho calor. No hay consenso sobre cuánto cuesta cada petición, y las cifras varían según la compañía. Aun así, Sam Altman ha dado una pista.

El sorprendente coste de la amabilidad. Hace unos días, un usuario preguntó en redes sociales cuánto dinero habría perdido OpenAI solo porque la gente añade “por favor” y “gracias” al interactuar con sus modelos. La respuesta del CEO no pasó desapercibida: “decenas de millones de dólares bien gastados”. No hablaba de una sola interacción, por supuesto, sino de la acumulación de millones de mensajes amables a lo largo del tiempo.

Altman Amabilidad 1 Pulsa para ver el mensaje original en X

Resulta curioso que, pese al alto coste energético y económico que eso representa, Altman considere que es un gasto justificado.

¿Hay que ser amable con una IA? Como ocurre en cualquier otro ámbito, hay personas que prefieren ir directo al punto y otras que optan por mantener un tono más cuidado y educado. Probablemente esa diferencia también tenga que ver con la forma en que cada uno se comunica en su día a día. Y en este contexto, la amabilidad no es solo una cuestión de modales.

Un estudio titulado “Should We Respect LLMs? A Cross-Linguistic Study of Prompt Politeness in Academic Performance” analizó el papel de la cortesía en las indicaciones y dejó algunas conclusiones interesantes. Entre ellas, que los mensajes descorteses tienden a generar un peor rendimiento. Aunque, eso sí, el exceso de cortesía no garantiza mejores resultados.

Lo que sí parece claro para quienes usamos a diario este tipo de chatbots, y más ahora que son capaces de aprender y recordar con más precisión, es que pueden adaptarse al tono del usuario. Si queremos una interacción más respetuosa, más coherente y un poco más humana, probablemente deberíamos empezar por dar ese paso nosotros.

Imágenes | Captura de pantalla X

En Xataka | Las alucinaciones siguen siendo el talón de Aquiles de la IA: los últimos modelos de OpenAI inventan más de la cuenta

-
La noticia La amabilidad con ChatGPT le está saliendo cara a OpenAI. Los “por favor” y “gracias” tienen un coste absurdo cada mes fue publicada originalmente en Xataka por Javier Marquez .




Fuente: Xataka
Enlace: La amabilidad con ChatGPT le está saliendo cara a OpenAI. Los “por favor” y “gracias” tienen un coste absurdo cada mes

Comentarios