-TECNOLOGÍA-
La elite tecnológica invierte en búnkeres por temor a que se descontrole la inteligencia artificial

Los principales impulsores de esta tecnología que genera cambios irreversibles en el funcionamiento de la sociedad global temen a sus creaciones e invierten en refugios fortificados.

San Juan 18:25 4/11/2025
elinformadordecuyo@gmail.com

La elite tecnológica mundial, detrás de las principales compañías del sector que se encuentran volcadas cada vez más al desarrollo acelerado de la inteligencia artificial, invierten a su vez en recursos para defenderse de ella ante un eventual caso en el que se descontrolen y generen graves problemas económicos y sociales. 

En ese sentido, millonarios tecnológicos y altos directivos de las principales empresas (Meta, Palantir y otras) adquirieron búnkeres de lujo, armas y refugios fortificados en enclaves remotos. 

El dueño de OpenAI, Samuel Altman, aseguró que mantiene reservas de armas, oro, equipos de comunicación y propiedades remotas para posibles escenarios de emergencia.

La principal motivación de estas acciones que despiertan inquietud radica en el temor a la llegada de la inteligencia artificial general o AGI, por sus siglas en inglés. 

Al respecto, Altman admitió que una tecnología de este tipo es capaz de superar la inteligencia humana y puede desencadenar un desastre global. 


Pensar en todos los escenarios por las dudas 

El desarrollo de la AGI genera divisiones en el sector, mientras el fundador de OpenAI y otros líderes aseveran que habrá avances sustanciales entre los próximos 5 0 10 años, la mayoría de los expertos académicos sostienen que aún existen obstáculos técnicos de significancia y que no está cerca de materializarse. 

Lo cierto es que estas adquisiciones por parte de la oligarquía tech forman parte de lo que en el mundo de los superricos se ha dado en llamar “seguro apocalíptico”, un concepto creado por el cofundador de LinkedIn, Reid Hoffman. 

El “Seguro Apocalíptico” representa una batería de inversiones en recursos para una supervivencia segura y holgada en caso de colapsos de tipo ambiental, social y económico, en el que un escenario en el que una superinteligencia artificial se sale del control humano forma parte del variado menú de causales.

Cabe destacar que, alrededor de este frenesí de los multimillonarios tecnológicos por asegurar su supervivencia en caso de un apocalipsis, se genera toda una industria dedicada a la seguridad de esta índole.