14.4 C
Buenos Aires
domingo, 3 mayo, 2026
InicioSociedadEl consumo y la IA: cómo los patrones oscuros afectan las compras

El consumo y la IA: cómo los patrones oscuros afectan las compras

Un análisis sobre los trucos psicológicos que usan las empresas para fidelizar clientes y cómo la inteligencia artificial empieza a transformar el comercio.

Cinco meses me llevó darme de baja del servicio de cable. El momento más dramático fue cuando entré en un loop y cada pantalla me mandaba a la anterior: un laberinto diseñado para agotarme. Funcionó. Seguí pagando otros dos meses. Ese laberinto tiene nombre técnico: dark pattern, o patrón oscuro.

El economista de Stanford Neale Mahoney acaba de calcular que esta “economía del fastidio” le cuesta a los estadounidenses 165 mil millones de dólares por año. Las empresas que dificultan cancelar suscripciones ven sus ingresos crecer hasta un 200 por ciento.

No es el único truco disponible. Cada vez que compramos nos exponemos a mensajes que intentan aprovechar nuestros sesgos, no solo nuestro cansancio. El mensaje de “oferta válida por 00:07:43” explota el miedo a perder. El “solo quedan 2 unidades” dispara el sesgo de escasez. El precio tachado activa el efecto ancla: el cerebro se aferra al primer número que ve, aunque sea inventado.

Sin embargo, pronto va a tener que recalibrarse. Los agentes de IA ya están comprando pasajes, renovando suscripciones y comparando proveedores. Si la tendencia avanza, veremos transformarse muchos aspectos de nuestra vida comercial, no sólo cuánto y en qué gastamos, sino también los gestos culturales que rodean al consumo de productos, servicios y contenidos: ¿Cuál será el rol de la publicidad si le habla a los algoritmos? ¿Cómo se van a formar las modas y tendencias? ¿Qué meterá a un libro en la lista de best-sellers, o a una nota entre las más leídas del diario?

Las plataformas de comercio ya sienten los primeros temblores del terremoto. En julio de 2025, Amazon bloqueó el acceso de los agentes de Anthropic, Perplexity y Google a su catálogo. Es lógico: todo su negocio publicitario depende de que los compradores naveguen su sitio y reaccionen a sus mensajes. Un agente que entra, compara y sale sin mirar publicidades ni caer en trampas de marketing es una amenaza de fondo.

Pero el comprador perfectamente racional no existe tampoco en versión artificial. Investigadores de Cornell sometieron a los principales modelos de lenguaje a los experimentos clásicos sobre sesgos, de Kahneman y Tversky. Le preguntaron: ¿preferís ganar 500 dólares con certeza o un 50 por ciento de chances de ganar 1000? Los humanos eligen casi siempre la certeza, aunque matemáticamente sea lo mismo. Los modelos más avanzados también. Cuanto más sofisticado el modelo, más humano en sus sesgos.

La diferencia es una sola: a un agente se lo puede instruir. Si antes de decidir se le indica que razone maximizando la utilidad esperada, sus sesgos se reducen. Investigadores de la Universidad Politécnica de Atenas probaron si las plataformas pueden manipular a los agentes igual que manipulan a las personas. Tomaron descripciones reales de productos y las reescribieron agregando frases que activaban distintos sesgos, sin cambiar ningún dato objetivo.

Los mensajes basados en lo que se conoce como “prueba social” lograron convencer a la IA. “Miles de clientes satisfechos eligen este producto” subía al producto en el ranking. Pero la escasez y la exclusividad (“solo quedan 5 unidades” y “unite a nuestro club exclusivo”) producían el efecto contrario: el producto bajaba. Lo que funciona con humanos no funcionó con máquinas.

Kahneman y Tversky tardaron décadas en mapear los sesgos del comprador humano. El mapa del comprador artificial todavía no existe. Pero las plataformas que hoy bloquean a los agentes mañana van a aprender a hablarles en su idioma. Será una guerra entre algoritmos. Para comprar pochoclo. O pedirle a un agente que lo haga.

Más noticias
Noticias Relacionadas