¿Dónde está el Terminator?

Escuché un episodio de Pausa y lo dejé reposar. Dos días después, el tema apareció en un chat profesional como si fuera algo rutinario. Quizá lo inquietante no sea el robot humanoide, sino la naturalidad con la que ya hablamos de delegar decisiones en sistemas automatizados

¿Dónde está el Terminator?
Photo by Gabriele Malaspina / Unsplash

Hay ideas que uno escucha y deja reposar. No porque no sean importantes, sino porque necesitan sedimentar antes de convertirse en texto. El episodio de Pausa que escuché estos días fue uno de esos: lo terminé con la sensación de que no hablaba en realidad de robots humanoides, sino de algo más incómodo y más cercano. Nuestra prisa por delegar decisiones sin haber decidido antes quién responde por ellas.

Lo curioso es que esa incomodidad no se quedó en la esfera del podcast. Dos días después, el tema apareció en un chat profesional, sin solemnidad, sin ciencia ficción y sin música épica de fondo. Se habló de precios, de mantenimiento, de quién los programaría, de si la adopción sería lenta o exponencial. Alguien preguntó por la infraestructura. Otro por la responsabilidad. Y, casi como quien deja una nota al margen, surgió una frase que lo reordenó todo: “Los agentes de IA también son robots”.

Paréntesis necesario antes de seguir.

Al final del post hay un bonus para quienes están en la lista de correo.
Se llama «Un post a la semana, o cuando sale», es gratis, llega por mail y está pensada para leer con calma, lejos de gurús y del algoritmo.

Luego no digas que no avisé. Seguimos.

Parece interesante

Esa frase es la grieta por la que se cuela todo.

Porque el robot que más está transformando nuestro entorno no es el que camina con piernas metálicas, sino el que ya toma pequeñas decisiones en segundo plano. Sistemas que enrutan tareas, herramientas que clasifican, automatismos que sugieren y que, con el tiempo, dejan de sugerir y pasan a empujar. El humanoide es vistoso. El algoritmo invisible es cotidiano. Y aun así, el imaginario colectivo sigue fijado en el mayordomo mecánico que abre el lavavajillas como si la modernidad consistiera en mover platos de sitio.

El episodio era interesante precisamente por eso: desmontaba la fantasía sin negarla. Sí, existen robots humanoides capaces de caminar, mantener el equilibrio y ejecutar movimientos complejos. Sí, el avance técnico ha sido notable. Pero entre dar una voltereta en un entorno preparado y convivir en una casa real hay un abismo. No tanto por la fuerza, ni por la motricidad, ni siquiera por la capacidad de repetir una secuencia, sino por lo que una casa es de verdad.

Una casa no es un laboratorio. Es un sistema de excepciones.

La alfombra no está perfectamente extendida. Las zapatillas aparecen donde no deberían. Hay objetos que no se tocan aunque parezcan inútiles. La taza no siempre debe retirarse aunque esté vacía. Y, sobre todo, hay momentos. Un humano sabe cuándo interrumpir y cuándo no. Sabe leer el contexto. Ese conocimiento no es geométrico ni matemático: es social. Y ahí la promesa tecnológica se vuelve resbaladiza, porque el problema ya no es mover un brazo, sino entender qué significa moverlo en este momento concreto, en este lugar concreto, con estas personas alrededor.

En el chat apareció otra discusión que suele repetirse: por qué humanoides. La industria lo defiende con un argumento razonable. El mundo está diseñado para cuerpos humanos: escaleras, pomos, encimeras, herramientas. Un robot con forma humana podría adaptarse sin obligarnos a rediseñarlo todo. La explicación tiene sentido, pero convive con otra más profunda y menos confesable: queremos vernos reflejados. Queremos que la máquina tenga postura, manos, rostro. Queremos que parezca “alguien”, no “algo”.

El problema es que la forma humana no es eficiente. Es inestable, compleja y costosa. Muchas tareas se resuelven mejor con diseños menos ambiciosos y más específicos. Lo humanoide no es el camino corto: es el camino simbólico. Y los símbolos tienen consecuencias económicas. A fuerza de perseguir una estética, terminamos pagando un coste operativo que luego alguien intenta recuperar por la vía más previsible: dependencia.

Porque en cuanto el robot entra en casa bajo un modelo de cuota, deja de ser un aparato y se convierte en relación contractual. Actualizaciones, funciones que aparecen y desaparecen, asistencia remota, condiciones de uso que nadie lee. Ya no compras un objeto, compras una dependencia. Y entonces la pregunta deja de ser si puede doblar la ropa y pasa a ser quién controla el sistema, quién accede a los datos, quién audita su comportamiento y qué pasa cuando el servicio cambia las reglas.

En ese punto reaparecen, como un reflejo cultural, las viejas leyes de Asimov. No dañarás. Obedecerás. Te protegerás. Se citan como si fueran un seguro moral universal. Pero eran literatura. Funcionan en una novela porque el autor gobierna el conflicto. En la vida real, el conflicto no es un giro narrativo: es estructural.

¿Qué significa “daño” en un hogar o en una organización? ¿Solo daño físico? ¿También económico? ¿También reputacional? ¿Qué ocurre cuando la orden es legal pero imprudente? ¿Qué sucede si la máquina actúa “correctamente” según su configuración y aun así el resultado es inaceptable? Y lo más incómodo de todo: ¿qué hacemos con la tentación de refugiarnos en la frase “lo decidió la máquina” cuando las cosas salen mal?

En el chat alguien apuntó una idea sensata: niveles de autonomía, como en la conducción automatizada. Me parece una intuición útil porque obliga a pensar en límites. No es lo mismo sugerir que ejecutar. No es lo mismo ejecutar bajo validación que hacerlo sin intervención posible. No es lo mismo una demostración comercial que una implantación en entornos reales. Y no es lo mismo un error que se corrige con un reinicio que un error que desencadena consecuencias jurídicas.

Aquí la palabra clave deja de ser innovación y pasa a ser supervisión. Es menos brillante, pero más decisiva. Supervisar no es mirar por encima del hombro. Supervisar implica definir límites, registrar decisiones, garantizar trazabilidad y asignar responsabilidades claras. Implica aceptar que, cuando algo falle, no podemos escondernos detrás de una pantalla ni detrás de un proveedor. Implica que el sistema no puede convertirse en una coartada.

Porque la máquina no decide en el vacío. Decide dentro de un marco diseñado por alguien, financiado por alguien y desplegado por alguien.

Esta discusión, por cierto, suele atascarse cuando se mezcla lo espectacular con lo útil. El podcast hacía bien en ponerlos en paralelo. Por un lado, el mayordomo doméstico que alimenta el imaginario y la promesa comercial. Por otro, una robótica menos vistosa y mucho más transformadora: la que mejora cirugías, la que ayuda en rehabilitación, la que asiste a personas con enfermedades degenerativas. Esa tecnología no necesita parecer humana. Necesita ser fiable, accesible y segura. Y cuando el foco se desplaza a ese terreno, la conversación cambia de tono. Ya no hablamos de comodidad: hablamos de dignidad.

Esa comparación deja una asimetría difícil de ignorar. El robot que mete platos en el lavavajillas acapara titulares. El dispositivo que permite a alguien recuperar un gesto mínimo apenas ocupa espacio mediático. Tal vez porque uno alimenta la fantasía y el otro exige políticas públicas, financiación sostenida, normas técnicas y estándares rigurosos. Uno se vende con vídeos. El otro se sostiene con trabajo paciente.

Volviendo al punto de partida, quizá lo más revelador no fue la sofisticación técnica de los robots descritos. Fue la naturalidad con la que el tema saltó a una conversación ordinaria. Que estemos debatiendo sobre programación, costes, mantenimiento y responsabilidad en un chat cotidiano indica que la cuestión ya no pertenece a la ciencia ficción. Está entrando, poco a poco, en el terreno de las decisiones pequeñas, las que se toman sin ceremonia y que, por repetición, acaban determinando cómo trabajamos y cómo vivimos.

No estamos esperando al Terminator.

Estamos gestionando, casi sin darnos cuenta, la entrada progresiva de sistemas automatizados en decisiones cada vez más próximas. Y esa transición no será dramática ni cinematográfica. Será gradual, contractual y, si no somos cuidadosos, opaca. Se colará por la promesa de ahorro de tiempo, por la reducción de fricción, por el “solo es para ayudar”. Y en ese “solo” suele esconderse el cambio de poder.

Por eso me tranquiliza que los robots todavía duden con una regadera. Esa torpeza nos concede tiempo. Tiempo para discutir marcos normativos, para exigir transparencia, para diferenciar entre automatización útil y delegación irresponsable. Tiempo para decidir qué nivel de autonomía aceptamos en nuestras casas y en nuestras organizaciones. Tiempo para construir cultura de trazabilidad, que es una manera adulta de decir: si algo importa, debe poder explicarse.

La pregunta, en el fondo, no es dónde está el Terminator.

La pregunta es si estamos diseñando con suficiente cuidado el mundo en el que, sin darnos cuenta, ya convivimos con sus versiones más discretas.

¿Recuerdas que al principio dije que había un bonus?

Está justo debajo.

El post termina arriba. Esto es el postre.

Si sigues, es porque quieres.