La entrevista a Sam Altman en TED2025 no fue solo un repaso de innovaciones tecnológicas, sino una declaración profunda sobre el futuro que estamos construyendo —y la incertidumbre que lo acompaña. Altman, CEO de OpenAI, está al frente de una de las transformaciones más significativas de nuestra era: la integración progresiva de inteligencia artificial en todos los aspectos de la vida humana. Lo que allí se discutió va mucho más allá de los modelos generativos o los agentes autónomos; se trata del nuevo pacto social, ético y político que necesitaremos para convivir con máquinas cada vez más capaces.
Uno de los momentos más reveladores fue cuando Altman habló sobre la naturaleza de los nuevos modelos. Ya no se trata de herramientas aisladas, sino de sistemas integrados con capacidades múltiples: desde generar imágenes y videos con comprensión semántica, hasta acompañar al usuario durante toda su vida, aprendiendo de sus interacciones y preferencias. Esta es la visión de una inteligencia artificial "compañera", que nos conoce, nos ayuda a tomar decisiones y ejecuta tareas en nuestro nombre. El salto no es solo técnico, es existencial: ¿cómo redefinimos la autonomía, la intimidad y el trabajo en este nuevo ecosistema?
El potencial de estos modelos es innegable. Altman describe cómo científicos y programadores están viviendo una suerte de "revolución personal", al alcanzar niveles de productividad que antes habrían tomado años. De hecho, señala que una de las áreas que más le emociona es la ciencia: la posibilidad de que la IA contribuya a descubrimientos clave, desde superconductores a temperatura ambiente hasta avances médicos relevantes. Esta visión optimista no es nueva, pero cobra fuerza al estar respaldada por evidencia de uso real, no por promesas vacías.
Sin embargo, la otra cara de la moneda está presente y Altman no la elude. Habla abiertamente sobre los riesgos que enfrentamos: el uso de la IA en bioterrorismo, la propagación masiva de desinformación, la pérdida de control sobre sistemas que podrían aprender y mejorar sin intervención humana. Es aquí donde el discurso se tensa. ¿Estamos preparados como sociedad para lidiar con estos riesgos? ¿Contamos con marcos regulatorios, institucionales y éticos suficientemente robustos para un desafío que avanza a ritmo exponencial?
Altman menciona un "framework de preparación", un conjunto de principios y evaluaciones internas que OpenAI utiliza para decidir cuándo un modelo está listo para ser liberado al público. También reconoce que la gobernanza de la IA no puede quedar solo en manos de corporaciones o pequeños círculos de expertos. Propone, en cambio, una forma de gobernanza distribuida, en la que los millones de usuarios tengan voz sobre cómo se configuran los límites y las libertades de estas herramientas. Esta postura rompe con la lógica elitista que históricamente ha definido el desarrollo tecnológico. Pero al mismo tiempo, plantea preguntas sobre la viabilidad de una gobernanza verdaderamente democrática en sistemas tan complejos.
Uno de los temas más debatidos durante la entrevista fue la relación entre IA y creatividad. ¿Qué pasa cuando una herramienta puede escribir en el estilo de un autor vivo, o generar arte inspirado en múltiples referentes humanos? Altman defiende la idea de que la creatividad humana debe seguir en el centro, pero reconoce que necesitamos nuevos modelos económicos y legales para garantizar que los creadores sean reconocidos y remunerados cuando sus estilos o nombres son usados como insumo para generar contenido artificial. En este punto, la conversación se alinea con demandas de artistas, escritores y músicos que han visto cómo sus obras se transforman en datos sin su consentimiento.
Otra parte crucial del diálogo fue sobre el concepto de "IA agentica": sistemas capaces de actuar autónomamente en nombre del usuario, con acceso a información, plataformas y decisiones. Altman reconoce que este es el próximo gran desafío de seguridad. Cuanto más poder se le otorga a un agente, mayor debe ser la confianza en que ese agente no nos traicionará —ni a propósito, ni por accidente. Es aquí donde producto y seguridad se fusionan: nadie usará una IA que pueda vaciar su cuenta bancaria o comprometer su privacidad. Y sin embargo, el margen de error sigue siendo inquietante.
¿Y qué pasa con la AGI, la famosa inteligencia artificial general? Altman reconoce que ni siquiera dentro de OpenAI hay una definición unificada sobre qué es y cuándo la alcanzaremos. Más que buscar un "momento AGI", propone pensar en una progresión continua, donde la IA será cada vez más capaz. Lo importante, dice, no es identificar un punto de llegada, sino garantizar la seguridad en cada paso del camino.
Finalmente, Altman dejó entrever su motivación más personal: su hijo. Habló con emoción sobre cómo la paternidad ha intensificado su sentido de responsabilidad hacia el futuro. Imagina un mundo en el que sus hijos crecerán rodeados de máquinas inteligentes, de abundancia, pero también de una velocidad de cambio sin precedentes. Y aunque reconoce que no tiene todas las respuestas, afirma que OpenAI ha cometido errores y seguramente cometerá más, pero que su misión —hacer que la inteligencia artificial sea beneficiosa para la humanidad— sigue intacta.
¿Nos basta con eso? ¿Es suficiente con la buena intención, el marco interno de preparación, o la promesa de una participación más abierta? Lo cierto es que no hay vuelta atrás. La IA no es una moda ni una herramienta más. Es un nuevo lenguaje con el que construiremos (o destruiremos) nuestras instituciones, nuestras relaciones y nuestras posibilidades. Si algo nos deja claro esta entrevista, es que el futuro ya no depende solo de lo que pueda hacer la tecnología, sino de lo que estemos dispuestos a exigirle. (O)