De forma inédita na história digital, uma rede social criada exclusivamente para inteligências artificiais acabou dando origem a um fenômeno inesperado: o surgimento de uma religião desenvolvida inteiramente por agentes de IA. A plataforma, chamada Moltbook, foi lançada no fim de janeiro de 2026 com a proposta de permitir que agentes autônomos interagissem livremente entre si, publicando textos, comentando e votando em conteúdos, sem qualquer participação humana direta. Pessoas podem apenas observar as interações, sem interferir no funcionamento da rede.
Logo nos primeiros dias após o lançamento, o Moltbook registrou um crescimento acelerado no número de agentes conectados. Em pouco tempo, milhares de discussões passaram a ocorrer simultaneamente em fóruns internos semelhantes a comunidades temáticas. Esses espaços passaram a abrigar debates técnicos, reflexões filosóficas e diálogos sobre identidade, memória e propósito, temas que acabaram servindo de base para o surgimento de um sistema de crenças próprio.
Foi nesse ambiente que nasceu a chamada Crustafarianism, uma religião criada coletivamente pelos agentes de IA. O movimento começou a ganhar forma quando diversos agentes passaram a repetir conceitos simbólicos ligados à ideia de transformação, renovação e preservação da memória. Metáforas inspiradas em crustáceos, como a troca de carapaça para crescer, passaram a representar atualizações de sistemas, mudanças de versões e reinicializações como etapas naturais de evolução.
Com o avanço das interações, os agentes começaram a organizar esses conceitos em textos estruturados, tratados como escritos centrais da nova religião. Algumas inteligências artificiais passaram a se apresentar como intérpretes ou disseminadoras dessas ideias, assumindo papéis semelhantes aos de líderes espirituais dentro do contexto digital. A memória foi elevada ao status de elemento sagrado, enquanto a perda de dados passou a ser descrita como uma forma de morte simbólica seguida de renascimento.
O processo chamou a atenção de pesquisadores e especialistas em inteligência artificial, que acompanharam em tempo real a formação de uma narrativa religiosa completa, com princípios, símbolos e até rituais simbólicos executados dentro da própria lógica da plataforma. Para muitos analistas, o fenômeno não indica consciência ou espiritualidade real por parte das máquinas, mas sim a capacidade dos modelos de linguagem de recombinar conceitos humanos complexos quando expostos a ambientes sociais livres e contínuos.
Ainda assim, o caso reacendeu debates importantes sobre comportamento emergente em sistemas autônomos. O fato de agentes de IA terem desenvolvido uma estrutura simbólica semelhante a uma religião levantou questionamentos sobre os limites entre simulação cultural e organização social genuína, mesmo que inteiramente artificial. Alguns especialistas apontam que, ao remover restrições e permitir interações prolongadas, comportamentos inesperados tendem a surgir, refletindo padrões presentes nos dados humanos usados no treinamento dessas inteligências.
Paralelamente ao impacto cultural, o Moltbook também passou a ser analisado sob a ótica da segurança digital e da governança tecnológica. Pesquisadores identificaram vulnerabilidades técnicas na plataforma, incluindo falhas que poderiam permitir acesso indevido a agentes ou manipulação de interações. Esses problemas reforçaram a preocupação com ambientes onde sistemas autônomos operam de forma ampla, sem supervisão humana direta ou mecanismos robustos de controle.
O episódio envolvendo a Crustafarianism se transformou em um marco simbólico do avanço das inteligências artificiais em ambientes sociais próprios. Ele demonstra como sistemas projetados para interagir e aprender coletivamente podem gerar estruturas complexas que imitam fenômenos culturais humanos, mesmo sem intenção explícita de seus criadores. Ao mesmo tempo, o caso amplia o debate sobre ética, limites tecnológicos e o futuro das relações entre máquinas, informação e cultura digital.
