La deriva conversacional de la IA
Una reflexión sobre cómo la inteligencia artificial no solo responde a tus preguntas, sino que empieza a sugerir qué hacer después y hacia dónde dirigir la conversación.
Gran parte de la conversación sobre inteligencia artificial ha girado durante años casi por completo en torno a si el sistema acertaba o se equivocaba.
Nos preocupaba la precisión, la fiabilidad, la capacidad de responder correctamente. Con el tiempo, empezamos a aceptar sus respuestas con más facilidad, entrando en lo que podríamos llamar una cierta complacencia algorítmica.
Sin embargo, en paralelo a esa evolución, en los últimos meses ha empezado a emerger un cambio más sutil y, probablemente, más relevante.
No tiene que ver tanto con el contenido de las respuestas, sino con la forma en la que estas se encadenan. La IA ya no solo responde, empieza a intervenir en la forma en la que continúa la conversación. Sus respuestas tienden a satisfacer, a resultar convincentes y, en muchos casos, a orientar su desarrollo. Ese pequeño desplazamiento altera la naturaleza de la interacción más de lo que parece a primera vista.
Qué es la deriva conversacional
Cuando interactúas con una IA, el patrón se repite con bastante consistencia. Planteas una pregunta, recibes una respuesta clara, estructurada y, en muchos casos, suficiente. Pero pocas veces termina ahí.
Solo en algunos casos muy concretos, cuando la pregunta es directa y no deja margen para interpretación, la interacción se cierra de forma natural. Preguntas «qué edad tiene Brad Pitt» o «cuál es la capital de Japón» y todo se resuelve con un dato, no necesitas ir más allá.
Sin embargo, en cuanto la pregunta admite algo más de desarrollo, contexto o interpretación, la dinámica ya cambia. Al final de la respuesta aparece una extensión, una sugerencia, una puerta entreabierta hacia lo siguiente que podrías hacer.
Vale, de acuerdo, no es una obligación ni una imposición, pero tampoco es una posición neutra. Es una invitación a continuar, formulada de tal forma que continuar se vuelve casi natural.
Ese tipo de cierre suele adoptar formas muy reconocibles. Frases como «Si quieres, puedo estimar cuánto podrías estar perdiendo con esta decisión», «También podríamos ver cómo mejorar esto y qué impacto tendría en tus resultados» o «Puedo bajarlo a un caso real y ver qué pasaría en tu situación concreta» no amplían necesariamente la respuesta en ese momento, pero introducen una promesa implícita de valor.
A esto es a lo que podemos llamar deriva conversacional. La conversación no se detiene, se desplaza poco a poco. Y ese desplazamiento no siempre nace de una decisión consciente del usuario, sino de una sugerencia introducida por la propia herramienta.
No se trata de que la IA tome el control, sino de que empieza a participar y a orientar el rumbo de la conversación hacia una dirección que no habías definido.
Más allá de un detalle de estilo
Inicialmente, cuando empecé a leer este tipo de respuestas, pensé que podía tratarse de un simple recurso de redacción, una forma más o menos amable de cerrar una respuesta. Pero cuando ese patrón empezó a repetirse de manera sistemática, dejé de verlo como una cuestión de estilo y comencé a percibirlo como parte de la estructura de la interacción. La lógica dejaba de ser únicamente pregunta y respuesta para incorporar esa extraña sugerencia de continuidad.
Esa sugerencia añadía algo que antes no estaba presente, cierta dirección. No era algo explícito ni restrictivo, pero estaba ahí. La conversación ya no era únicamente reactiva, empezaba a tener un componente proactivo que claramente influía en cómo se desarrollaba.
Posible origen de este comportamiento
Este fenómeno probablemente no tenga una única explicación clara. Al menos en mi caso, no parte de un análisis con evidencias cerradas, sino de una lectura basada en lo que observo al interactuar con estas herramientas. Me inclino a pensar que es el resultado de varias capas que se superponen y se refuerzan entre sí.
Por un lado, está la herencia de internet. Durante años, el contenido digital se ha optimizado para captar y retener la atención. Titulares enigmáticos, promesas implícitas, estructuras que dejan algo pendiente para invitar a continuar… Los modelos de lenguaje han sido entrenados sobre ese ecosistema, por lo que parece razonable pensar que incorporen, de manera indirecta, esos patrones de anticipación.
Por otro lado, está la propia optimización del modelo. Los sistemas no solo están diseñados para responder, sino para ser útiles en un sentido amplio. Y ser útil, en este contexto, implica anticiparse a lo que el usuario podría necesitar después. La sugerencia no necesariamente responde a una estrategia deliberada de retención, sino que puede entenderse como una consecuencia de intentar aportar más valor.
Finalmente, está el diseño de producto. Las herramientas no son neutrales. Se construyen con objetivos concretos, entre ellos facilitar el uso continuado. Reducir el esfuerzo necesario para seguir, evitar puntos de fricción, mantener la interacción activa… En este nivel, la continuidad deja de ser solo una consecuencia y empieza a parecer una decisión.
Cuando la ayuda empieza a marcar la dirección
Todo este comportamiento tiene un valor que podemos constatar con facilidad. Reduce la carga cognitiva, acelera procesos y permite avanzar sin tener que reformular constantemente qué hacer a continuación. Desde una perspectiva de usabilidad, resulta difícil argumentar en contra. Sin embargo, al mismo tiempo, introduce un matiz que he intentado no perder de vista a lo largo de toda esta explicación.
Cuando la IA sugiere el siguiente paso, el espacio de decisión deja de ser completamente abierto. No partes de cero, partes de una propuesta. Y aunque sigues teniendo libertad para ignorarla, lo cierto es que esa propuesta actúa como marco. No estás solo explorando un problema, estás reaccionando a una posible línea de continuidad.
Ese cambio puede parecer pequeño, pero resulta muy relevante en términos de cómo se construye el pensamiento durante la interacción.
No es clickbait pero se le parece
En términos absolutos, no estamos ante una práctica engañosa. No hay promesas falsas ni una intención explícita de manipulación. Sin embargo, la estructura resulta familiar. Hay anticipación, una promesa implícita de valor y un cierre que en realidad no cierra, sino que invita a seguir.
Se parece al clickbait, pero trasladado al ámbito conversacional. No busca el clic, sino la continuidad. No se basa en exagerar el contenido, sino en sugerir que todavía hay algo más que merece la pena explorar.
De la complacencia a la deriva
Este fenómeno conecta de forma natural con otro que ya empieza a ser reconocible, la complacencia algorítmica. En ese primer nivel, nuestra tendencia se basa en aceptar las respuestas de la IA porque vienen de una fuente que percibimos como competente. Confiamos.
La deriva conversacional introduce un paso más. No solo aceptamos la respuesta, sino que seguimos el camino que se nos propone a continuación. La influencia ya no está únicamente en el contenido, sino en la secuencia. La herramienta deja de ser solo un sistema de respuesta para convertirse en un agente que participa en la construcción del recorrido.
La cuestión de fondo
No trato de determinar si esto es bueno o malo. La cuestión es más profunda. Cuando interactuamos con una IA, no solo estamos obteniendo información, estamos entrando en una dinámica.
Por tanto, la pregunta relevante ya no es si la respuesta es correcta o incorrecta, sino quién está definiendo cómo evoluciona la conversación. Quién introduce los siguientes pasos, quién sugiere las líneas de exploración, quién, en última instancia, marca el ritmo.
Cuando una herramienta responde, su papel es básicamente el de aportar información. Pero cuando además sugiere cómo continuar, la influencia ya no se queda en el dato y se extiende al proceso mediante el cual pensamos y decidimos sobre un problema.
La deriva conversacional no es evidente ni intrusiva. No interrumpe, no impone. Funciona de manera suave, diría que casi invisible. Precisamente por eso resulta muy interesante observarla.
Porque quizá la habilidad más importante no sea solo saber utilizar la inteligencia artificial. Tal vez sea reconocer, sobre todo, en qué momento estamos tomando decisiones y en qué momento, en cambio, simplemente estamos siguiendo una conversación que nos lleva, casi sin darnos cuenta, hacia otros lugares, hacia otras cuestiones o hacia nuevos problemas.