Nos bastidores do Vale do Silício, cresce uma tendência curiosa entre os bilionários da tecnologia: a preparação para o que muitos chamam de “fim dos tempos”. Não se trata apenas de ficção científica, mas de projetos concretos, investimentos milionários e planos de sobrevivência de alguns dos homens mais poderosos do planeta.
Mark Zuckerberg, fundador do Facebook, é um dos exemplos mais emblemáticos. Desde 2014, ele vem construindo o Kauai Ranch, um gigantesco complexo de 500 hectares no Havaí. O local inclui sistemas próprios de energia e alimentos, e especula-se que abrigue também um bunker subterrâneo de alta segurança. Funcionários foram proibidos de comentar o projeto, e um muro de quase dois metros impede qualquer curiosidade externa. Questionado se o espaço serviria como abrigo para o apocalipse, Zuckerberg negou. Afirmou tratar-se apenas de um porão. Mesmo assim, os rumores não cessam, especialmente após ele adquirir 11 propriedades contíguas em Palo Alto, na Califórnia, onde há registros de construções subterrâneas semelhantes.

Zuckerberg não está sozinho nessa corrida por proteção. Outros magnatas da tecnologia, como Reid Hoffman, cofundador do LinkedIn, também demonstram preocupação com um possível colapso global. Hoffman revelou que cerca de metade dos super-ricos possui “seguros contra o apocalipse” e que a Nova Zelândia é um dos destinos preferidos para a compra de propriedades preparadas para emergências. A ideia de bunkers luxuosos, com sistemas autossuficientes, tornou-se um símbolo moderno de segurança e poder.
Mas o que estaria motivando esse medo entre as mentes que lideram a revolução digital? Alguns especialistas apontam para mudanças climáticas, instabilidade geopolítica e, mais recentemente, o avanço acelerado da inteligência artificial.
Elias Sutskever, cientista-chefe e cofundador da OpenAI, é um dos que acreditam que a humanidade se aproxima de um ponto crítico. Segundo relatos publicados pela jornalista Karen Hao, Sutskever teria sugerido construir um abrigo subterrâneo para os principais cientistas da empresa antes de lançar uma tecnologia que, em suas palavras, poderia mudar o mundo para sempre: a inteligência artificial geral, ou AGI, quando as máquinas igualariam a inteligência humana.

Outros nomes importantes compartilham essa visão. Sam Altman, CEO da OpenAI, declarou em 2024 que a AGI chegará “mais cedo do que o mundo imagina”. Demis Hassabis, da DeepMind, prevê que isso ocorrerá entre cinco e dez anos, enquanto Dario Amodei, fundador da Anthropic, acredita que uma “inteligência artificial poderosa” já poderá existir até 2026.
Nem todos concordam. Cientistas como Wendy Hall, da Universidade de Southampton, e Babak Hojat, da Cognizant, afirmam que a tecnologia ainda está longe de atingir a complexidade da mente humana. Segundo eles, faltam avanços fundamentais e a evolução será gradual, não súbita.
O termo “superinteligência artificial” (ASI), que descreve máquinas capazes de ultrapassar a capacidade humana, remonta às ideias do matemático John von Neumann, ainda nos anos 1950. Essa hipótese, hoje discutida em obras como Gênesis (2024), de Eric Schmidt, Craig Mundie e Henry Kissinger, defende que chegará o momento em que a tecnologia tomará decisões e exercerá liderança com tamanha eficiência que os humanos acabarão entregando o controle a ela.
Os defensores da AGI e da ASI, porém, enxergam benefícios quase messiânicos. Elon Musk, por exemplo, acredita que a inteligência artificial poderá erradicar doenças, resolver a crise climática e criar uma era de abundância sustentável, com renda universal e acesso ilimitado à tecnologia. Ele chegou a dizer que, no futuro, cada pessoa poderá ter “seu próprio R2D2 ou C3PO”, em referência aos robôs de Star Wars.

Por outro lado, há quem veja riscos profundos. O criador da World Wide Web, Tim Berners-Lee, alertou que a IA pode se tornar perigosa se não houver meios de controle humano. “Temos que ser capazes de desligá-la”, afirmou à BBC.
Governos começam a reagir. Nos Estados Unidos, Joe Biden assinou uma ordem executiva em 2023 exigindo que empresas compartilhassem testes de segurança com o governo, embora parte dela tenha sido revogada por Donald Trump posteriormente. No Reino Unido, foi criado o Instituto de Segurança e Inteligência Artificial, voltado a estudar e mitigar os riscos do avanço tecnológico.
Ainda assim, os bilionários preferem confiar em seus próprios planos. Reid Hoffman resume o clima entre os super-ricos: “Dizer que você está comprando uma casa na Nova Zelândia é como dar uma piscadela sem dizer mais nada”. Mas até esses planos têm brechas. Um ex-segurança de um magnata revelou que, em caso de colapso real, sua equipe de proteção provavelmente eliminaria o patrão para assumir o bunker.
Enquanto isso, cientistas como Neil Lawrence, da Universidade de Cambridge, argumentam que a discussão sobre o “fim dos tempos tecnológicos” desvia o foco do que realmente importa: como usar a IA atual para melhorar a vida das pessoas. Ele lembra que as máquinas não possuem sentimentos nem consciência e que, por mais avançadas que sejam, continuam dependentes da inteligência e supervisão humana.
A corrida por bunkers e refúgios revela mais do que medo. Mostra o paradoxo de uma era em que os maiores visionários do planeta, criadores de tecnologias destinadas a salvar o mundo, parecem também desconfiar de que talvez sejam elas mesmas as responsáveis pelo seu fim.