Hay algo curioso en lo que está pasando con la inteligencia artificial en 2026. Si lo miras desde fuera, con ojos de marketing, lo que ves es una guerra de producto perfectamente reconocible: nuevos modelos cada pocas semanas, funcionalidades que se solapan, precios que tantean el mercado, versiones gratuitas diseñadas para crear hábito, versiones de pago que prometen más potencia. Freemium clásico. Penetración de mercado por uso masivo. La apuesta de que quien más se usa, más se queda.

Las grandes tecnológicas llevan décadas haciendo esto. Lo hizo Google con el buscador. Lo hizo Spotify con la música. Lo hizo Netflix con el vídeo. Primero el usuario. Después el modelo de negocio.

Con la IA no es diferente. Todavía en mayo de 2026 no hay consenso sobre qué precio «normal» tendrá usar un modelo de conversación avanzado, generar imágenes de calidad profesional, producir vídeo, automatizar flujos de trabajo completos o integrar distintas IAs en una sola plataforma. Estamos en la fase en que el mercado aprende a valorar algo que no existía hace tres años.

Eso es marketing puro. Y mientras ocurre, hay una pregunta debajo que no es de marketing, pero que el marketing no puede ignorar.

La conquista de mercado tiene un coste que no aparece en el pricing

Cuando una tecnología nueva entra en un sector, desplaza algo. A veces desplaza ineficiencias — procesos lentos, tareas repetitivas, intermediarios innecesarios. A veces desplaza personas.

Con la IA, las dos cosas ocurren a la vez, y distinguirlas no siempre es fácil. Un agente que automatiza el filtrado de currículums puede liberar tiempo a un recruiter para hacer lo que realmente importa: las conversaciones que requieren juicio humano. O puede reemplazar al recruiter directamente y dejar que un solo coordinador supervise a cincuenta agentes.

Las dos opciones son tecnológicamente posibles. Cuál se elige depende de decisiones de negocio, no de limitaciones técnicas.

Y ahí es donde la conversación sobre IA suele perder honestidad. Se habla mucho de «augmentación» — la IA que amplifica al humano — y menos de los casos donde la ecuación económica favorece directamente la sustitución. No por malicia. Porque los incentivos lo empujan en esa dirección. Menos personas haciendo el mismo trabajo es, en el corto plazo, una mejora de margen.

El problema de fondo es este: si las personas que deberían aplicar criterio sobre cómo se usa la IA son las mismas que fueron sustituidas por ella, ese criterio desaparece del sistema. No porque la IA sea mala. Sino porque cada vez hay menos gente dentro del proceso para cuestionarla.

La IA se nutre del conocimiento humano. Y tiene sentido del humor con eso.

Hay una paradoja que no se menciona suficiente: la inteligencia artificial, en su estado actual, es una destilación del conocimiento que los seres humanos han producido y dejado registrado. Texto, imágenes, código, conversaciones, libros, artículos, foros. Todo eso es el material del que están hechos los modelos.

Es decir: la IA aprende de lo que las personas saben. Y ahora, en algunos casos, compite con esas mismas personas por hacer el trabajo que les permitiría seguir produciendo conocimiento nuevo.

Sí, los modelos más avanzados aprenden solos, generan síntesis que ningún humano habría formulado exactamente igual, encuentran patrones en volúmenes de datos inaccesibles para cualquier mente individual. Eso es real. Pero también es real que esa capacidad se construye sobre una base que es, en última instancia, humana. Y que mantener y renovar esa base requiere que las personas sigan teniendo espacio para pensar, equivocarse, crear y relacionarse.

Si ese espacio se reduce demasiado rápido, el modelo de entrenamiento a largo plazo se resiente. No en meses. En años. Pero se resiente.

Lo que la IA no puede aprender en pocas semanas

Hay habilidades que se aprenden rápido. El manejo de una herramienta, un proceso, un protocolo. Con las IAs de aprendizaje personalizado actuales, esa curva se ha comprimido todavía más. Lo que antes requería meses de formación ahora puede adquirirse en semanas con el acompañamiento adecuado.

Pero hay algo que no sigue esa curva. La calidad de atención a las personas — la real, no la simulada — no se aprende en semanas. Se construye durante años de conversaciones, de leer situaciones con matices, de saber cuándo alguien necesita que le resuelvan el problema y cuándo necesita que le escuchen antes. De entender que hay una diferencia entre dar la respuesta correcta y dar la respuesta oportuna.

Aristóteles lo llamaba el zoon politikon: el ser humano como animal político, social por naturaleza. No como metáfora bonita. Como descripción funcional de algo que nos define: necesitamos relacionarnos, y esa relación tiene una textura que importa. La calidez, la empatía, el humor en el momento justo, el silencio que también dice algo. Eso no es ornamental. Es parte de lo que hace que una interacción funcione o no.

Los sectores con mayor déficit histórico en atención al cliente son, paradójicamente, los que ahora tienen la oportunidad más clara. Si todo el mundo va a automatizar la parte fría del servicio, quien decida invertir en la parte cálida va a destacar de forma visible. No como diferenciación de lujo. Como diferenciación real en un mercado donde el estándar va a bajar antes de subir.

El criterio no es un extra. Es la función.

Se habla mucho de que hay que usar la IA «con criterio». Es verdad. Pero esa conversación suele quedarse en el nivel individual — tú, como usuario, debes saber para qué sirve y para qué no, debes verificar lo que genera, debes mantener el juicio activo.

Todo eso es necesario. Y también es insuficiente si el criterio se concentra en cada vez menos manos.

Un agente de IA diseñado y supervisado por una sola persona o un equipo muy pequeño lleva incorporada la visión de esa persona o ese equipo. Sus sesgos, sus prioridades, sus puntos ciegos. Cuando ese agente interactúa con miles o millones de usuarios, los puntos ciegos escalan con él.

La diversidad de criterio no es un ideal abstracto. Es un mecanismo de corrección. Cuando muchas personas con perspectivas distintas participan en un sistema, los errores tienen más probabilidades de ser detectados antes de que se conviertan en problemas sistémicos. Cuando ese número se reduce, la capacidad de autocorrección se reduce con él.

Eso no es un argumento contra la IA. Es un argumento sobre cómo integrarla sin perder lo que hace que los sistemas funcionen bien a largo plazo.

El mercado de la IA va a encontrar su precio. La pregunta es qué decidimos que tiene valor mientras tanto.

En algún momento, el freemium de la IA se acabará de definir. Los modelos que sobrevivan serán los que encontraron suficientes usuarios dispuestos a pagar lo suficiente. La lógica de mercado hará su trabajo.

Lo que no hace la lógica de mercado, por sí sola, es decidir qué tipo de trabajo sigue siendo humano y por qué. Esa es una decisión que se toma o se deja tomar. Si se deja tomar, la toman los incentivos económicos de corto plazo. Si se toma, requiere que haya personas con criterio suficiente para tomarla — en empresas, en regulación, en la conversación pública.

Y volvemos al principio: para que haya personas con criterio, tiene que haber personas dentro del sistema. Con experiencia real. Con el tipo de conocimiento que no se adquiere supervisando agentes desde fuera, sino haciendo el trabajo de verdad durante tiempo suficiente.

La IA es una tecnología extraordinaria. Y como toda tecnología extraordinaria, lo que haga con las personas que la rodean depende menos de lo que puede hacer y más de lo que decidimos pedirle.

Eso también es una decisión de marketing. Solo que con consecuencias bastante más largas que un ciclo de producto.