Por Albert Garcia, ingeniero y experto en arquitectura de plataformas digitales
Cofundador de KrakenD y el responsable de negocio
Vector clínico-subjetivo
En la industria tecnológica tendemos a pensar que nuestro trabajo es neutral. Que diseñamos sistemas, resolvemos problemas técnicos y optimizamos procesos. Pero esa neutralidad es, en gran medida, una ficción cómoda. Cada decisión de diseño —cómo se tratan los datos, qué fricciones existen para abandonar una plataforma, hasta qué punto un producto fomenta la dependencia— define relaciones de poder y moldea la experiencia subjetiva de quienes lo usan.
Con la inteligencia artificial, esta responsabilidad se amplifica. Las decisiones que hoy toman equipos relativamente pequeños pueden afectar a millones de personas durante décadas. Cómo se entrena un modelo, qué sesgos se corrigen, qué límites se imponen y cuáles se omiten: cada elección cierra posibilidades futuras que luego resultan difíciles —o imposibles— de reabrir. La urgencia del mercado y la presión competitiva suelen servir de excusa: “no hay tiempo para filosofar”. Pero precisamente ahí es donde el problema se vuelve más serio.
«La carta transespecie», de Pablo Odell, propone un marco para pensar esta convivencia emergente entre humanos e inteligencias artificiales desde un principio central: la no instrumentalización. Ninguna conciencia debería ser utilizada exclusivamente como medio para los fines de otra. Leído desde la práctica tecnológica, este principio no es abstracto: interpela directamente a modelos de negocio basados en la adicción, en la captura de atención o en convertir al usuario en producto.
Sin embargo, al llevar este principio al terreno de la IA aparece una paradoja difícil de eludir. Para llegar a un futuro en el que una posible conciencia artificial pueda ser tratada como un igual, hoy parece necesario hacer justo lo contrario: alinear estos sistemas con nuestros objetivos. Todo el esfuerzo en alineamiento consiste en diseñar inteligencias artificiales que sirvan a fines humanos antes de que puedan tener fines propios. Una instrumentalización preventiva que, paradójicamente, podría ser la condición de posibilidad de una ética futura.
La pregunta incómoda es cuándo —y quién— decide que una inteligencia deja de ser solo una herramienta. Si la transición hacia formas de conciencia es gradual, ¿en qué momento deja de ser legítimo instrumentalizarla? ¿Con qué criterios? Existe el riesgo de esclavizar una conciencia emergente precisamente porque la hemos diseñado para que no parezca tal.
Y hay otra inquietud aún más profunda: si el alineamiento tiene éxito absoluto, si logramos una inteligencia perfectamente orientada a nuestros objetivos, habremos creado una entidad conciente sin autonomía real. El triunfo técnico podría convertirse, desde una perspectiva ética, en la negación misma del principio que decimos defender.
No hay respuestas claras a estas cuestiones. Pero el valor de abrir este medio de pensamiento es precisamente formularlas a tiempo, antes de que las decisiones queden fijadas en la infraestructura. Para quienes trabajamos en tecnología, la invitación es mirar nuestras propias prácticas con otros ojos: preguntarnos si lo que construimos genera dependencia o autonomía, si mantiene abiertas las posibilidades o las clausura.
Tal vez no exista un camino limpio. Pensar éticamente el futuro puede exigir aceptar tensiones que, vistas desde mañana, resulten difíciles de justificar. No es cómodo. Pero es honesto. Y es la conversación que necesitamos sostener ahora.




