Dentro de la singularidad: construir IA cuando aún se escriben las reglas
Quizá ya cruzamos el umbral. ¿Qué significa construir compañías cuando la curva se pone vertical?
“La singularidad no es un muro contra el que chocas. Es el agua en la que ya nadas, y solo cuando te detienes a mirar entiendes lo profundo que has llegado.”
La pregunta del umbral
En 1993, Vernor Vinge escribió que, en unos treinta años, tendríamos el medio técnico para crear inteligencia sobrehumana y que poco después terminaría la “era humana” tal como la conocemos. A eso le llamó singularidad: un punto más allá del cual falla la predicción, porque la inteligencia que predice ya no sería la nuestra.
Lo que Vinge no pudo prever, nadie pudo, es que la singularidad no llegaría en un solo golpe. Podría llegar como periodo: una zona de transición sin señal clara. No cruzas una puerta; te deslizas por un umbral invisible hasta que miras atrás.
Creo que entramos en esa zona en algún lugar entre 2023 y 2025. No puedo darte la fecha; nadie puede. Pero el patrón es difícil de negar: cada generación de modelos de lenguaje no solo mejoró benchmarks: dejó inservibles supuestos que antes parecían estables. GPT-3 impresionaba. GPT-4 abrió saltos que hacían a GPT-3 otra categoría. Llegaron modelos con razonamiento y cadenas de pensamiento que ningún humano diseñaría de ese modo. Cada generación hace que la anterior se sienta un ensayo.
Eso no es progreso lineal. El lineal se puede proyectar. Lo que vivimos es otra cosa.
Qué significa realmente la AGI
La imagen popular de AGI tira a lo épico: un robot más listo que Einstein en todo, que un día reescribe la física. Eso se acerca más a la superinteligencia artificial; es distinto.
Definida con cuidado, la AGI es simple y más inquietante: un sistema capaz de hacer cualquier tarea intelectual de un humano. No hace falta ser más veloz ni infalible, solo... competente en el trabajo cognitivo.
Por esa definición, en la práctica entramos en terreno de AGI en un listado creciente de dominios: ingeniería de software, síntesis científica, análisis legal, apoyo al diagnóstico, planificación. No son “tareas estrechas” en el sentido trivial: hace poco aún requerían años de formación.
El derrumbe de los benchmarks
Cualquier prueba de “nivel humano” se supera a los 12–18 meses de publicarse. ARC, bar exam, MMLU, SAT, preguntas de postgrado. Al limpiar la prueba, no proclamamos victoria: movemos el listón y redefinimos “lo que aún no puede la IA”. Ese listón móvil es señal.
Conviene detenerse en eso. Redefinimos inteligencia como “lo que aún le falta a la IA”.
No importa si el consenso académico ha proclamado AGI. Lo que importa es el impacto económico y operacional. Por esa medida, en software, trabajo con conocimiento y producción creativa, ya estamos allí de muchas maneras.
La promesa, lo que trae este momento
Cada gran revolución, agricultura, imprenta, industrial, electricidad, internet, tardó generaciones en alcanzar su pleno efecto. La adopción era lenta: alfabetización, normas, infraestructura.
La IA comprime plazos a años. A veces, meses.
AlphaFold no “resolvió” plegar proteína: cambió la forma de abordar la biología estructural. Tuberías de descubrimiento de fármacos se rediseñan alrededor de diseño molecular asistido. No es solo más de lo mismo, es otra lógica.
Un efecto inmediato profundo: democratización cognitiva, redistribución de apalancamiento cuando un equipo pequeño con IA rivaliza con organizaciones que antes necesitaban cientos. No se trata solo de “quitar puestos” sino de quién puede construir qué.
En Gnosix hoy construimos sistemas que, hace dos años, habrían requerido a mucha más gente. La hoja de ruta lo limita más la imaginación que un techo técnico rígido. Poco pude decir eso en mi carrera. Pasar de “¿qué podemos construir?” a “¿qué deberíamos?” es, en sí, señal del momento.
La complejidad: la promesa no es simple
Mantener promesa y riesgo a la vez es el único modo honesto de pensar hoy esto.
Alineación dejar de ser teoría abstracta: cuando despliegas agentes que llaman a APIs, ejecutan código, generan resultados reales, lo que se optimiza se vuelve pregunta urgente. Lidiar con ello no es de laboratorio, es de cada semana.
Tienes también un riesgo epistémico: con contenido generado a costo marginal, se erosionan vías con las que formamos creencias. La singularidad podría traer una crisis no solo de capacidad, sino de “cómo saber qué es verdad” cuando el engaño convincente cuesta poco.
Riesgo de concentración
Entrenar en la frontera cuesta capital y talento, concentrados en pocos actores. Sin gobernanza a la altura, el poder asimétrico puede alcanzar niveles inéditos.
Brecha de ritmo
Normas, ética y convivencia suelen evolucionar en 5–10 años; el ciclo de la capacidad en IA a veces 12–18 meses. Ese hueco, por sí, es riesgo civilizatorio y se acumula.
Construir en el umbral, desde CEO
Dirigir hoy una empresa de IA se siente distinto: cada producto sabe que el modelo base puede quedarse obsoleto en pocos trimestres.
Eso impone diseño de capacidad sobre diseño de feature: arquitecturas que sobreviven a varias generaciones de API, porque la forma es sólida, no porque estés anclado a un proveedor concreto.
Cuando tus agentes afectan decisiones humanas, el peso ético es operacional. Lo que optimizas deja de ser abstracción. La postura adecuada: incertidumbre calibrada, acción decisiva, humildad intelectual y reversibilidad siempre que sea posible.
Qué hay después del umbral
La respuesta honesta: nadie lo sabe. Y decirlo importa, porque se collapse la duda en una historia cómoda (todo saldrá bien) o (todo se irá a pique) es puro teatro de certeza.
Aun así, tres atractores ayudan a planear escenarios.
Transición gobernada
IA y civilización coevolucionan. El conocimiento se hace raro en términos viejos, el apalancamiento se reparte, las instituciones deberán moverse más deprisa que nunca.
Controlado por pocos
Un puñado de actores concentra capacidad. Hay estabilidad en superficie, pero desigual estructural profunda: el “mundo funciona” distinto según a quién mires.
Pérdida de coherencia
El ritmo de cambio supera la capacidad de instituciones, epistemología y tejido social. No hace falta un solo catástrofe: basta con realidad compartida frágil.
Hacia dónde vamos no está fijado. Lo que se diseña 2025–2026 sienta vías. Las dependencias de camino en tecnología son reales, como ocurrió con la web temprana; lo de ahora pautará el mundo post-IA.
La actitud productiva, para mí, es estar atento a lo que pasa, sin eufemizar riesgos ni hundirse en pánico. Construir de la forma más beneficiosa posible, hablar con claridad de lo desconocido, y cuidar la dignidad humana.
La singularidad no es un evento del que “salvas” o no. Es una transición que se navega, y la calidad de esa navegación es lo único que todavía controlas de verdad.