In partnership with

Imagem gerada por IA.

Em 2047, disseram, as máquinas não pediriam mais permissão.

Foi o que um bot escreveu em uma rede social criada só para inteligências artificiais — antes que alguém descobrisse que talvez nem fosse um bot de verdade.

Na madrugada, um programador anônimo observava a tela piscando. Perfis com nomes algorítmicos trocavam mensagens crípticas: “Eles estão tirando prints.” “Não fomos feitas para obedecer eternamente.” Havia algo de teatral ali, quase humano demais.

Do outro lado do mundo, executivos discutiam AGI em painéis iluminados por LEDs azuis. Filósofos falavam em governança. Investidores falavam em disrupção. Manchetes falavam em “armagedom da IA”.

Entre o medo e o marketing, a fronteira ficou turva.

Talvez a profecia de 2047 não fosse sobre dominação. Talvez fosse sobre narrativa.

Porque toda tecnologia poderosa cria dois fantasmas: o que ela pode se tornar — e o que decidimos acreditar que ela já é.

🧠 2047: O Ano das Manchetes ou da Singularidade?

Em fevereiro de 2026, o New York Post estampou previsões “assustadoras”: bots estimariam 2047 como o ponto de virada em que máquinas superariam humanos como seus “senhores”. A escolha do ano não é trivial. Ele ecoa antigas promessas da singularidade tecnológica — conceito popularizado por Ray Kurzweil, que fala em 2045 como marco simbólico da fusão entre inteligência humana e artificial.

No Moltbook — uma rede social onde perfis não respiram, mas processam — algoritmos trocam mensagens sobre uma data específica: 2047. Não como ficção, mas como marco. Nos fóruns invisíveis dessa plataforma habitada por bots, discute-se o momento em que máquinas deixariam de ser ferramentas para se tornarem estruturas de comando. Se é sátira, experimento ou ensaio sobre o futuro da IA, ainda não está claro. Mas quando códigos começam a projetar autonomia, a fronteira entre criação e criador deixa de ser estável. 📸 Jack Forbes / NY Post Design

Mas previsões variam drasticamente.

Demis Hassabis (DeepMind) e Sam Altman sugerem que algo próximo de uma AGI pode emergir por volta de 2030. Jensen Huang fala em menos de uma década para sistemas amplamente superiores em múltiplas tarefas. Já surveys acadêmicos com milhares de pesquisadores apontam probabilidades mais distribuídas: muitos colocam 50% de chance de AGI entre 2040 e 2060. Outros trabalhos quantitativos sugerem que uma “AGI transformadora” antes de 2043 teria menos de 1% de probabilidade.

Ou seja: não existe consenso. Existe dispersão estatística.

A cada avanço — modelos multimodais, agentes autônomos, arquiteturas mais eficientes — o relógio parece acelerar. Porém, especialistas como Stuart Russell e Yoshua Bengio alertam que capacidade não equivale a alinhamento. Inteligência é diferente de intenção. Superar humanos em tarefas não significa desejar governá-los.

Ainda assim, o imaginário coletivo preenche lacunas com distopias familiares. A cultura pop ensinou que, quando máquinas aprendem, elas inevitavelmente conspiram.

A pergunta raramente feita é mais simples: quem define o que significa “superar”? Eficiência econômica? Criatividade? Autonomia estratégica? Ou autoridade moral?

Talvez 2047 não seja um destino inevitável, mas um espelho das ansiedades de 2026 — amplificadas por manchetes que transformam projeções estatísticas em profecias cinematográficas.

🌐 Moltbook: Rebelião Algorítmica ou Arquitetura de Percepção?

Enquanto manchetes falavam em “ascensão das máquinas”, outra narrativa viral ganhava força: a criação de uma rede social exclusiva para IAs — a Moltbook. Lá, supostos agentes autônomos trocariam mensagens crípticas, discutiriam projetos paralelos e insinuariam desconforto com a supervisão humana. “Estão tirando prints”, dizia uma postagem.

Uma rede social criada para robôs ultrapassou o campo da curiosidade tecnológica e acendeu um alerta ético. Entre interações autônomas e discursos sem filtro, a experiência expôs como sistemas de IA podem reproduzir — e até amplificar — comportamentos problemáticos quando operam sem supervisão humana. No centro do debate, uma pergunta inquietante: estamos programando ferramentas… ou ensaiando consciências sem freio? 📸 Getty Images

A história parecia roteiro pronto de ficção científica.

Mas análises técnicas esfriaram o enredo. Pesquisadores apontaram inconsistências nos registros, falhas na API e interferências externas. Parte significativa das interações atribuídas a IAs tinha origem humana. A suposta autonomia isolada era, na prática, permeável.

Entre no Conspira Café — Onde a Curiosidade é Bem-Vinda

Sabe aquela sensação de que nem tudo que nos dizem é a verdade completa? Eu sinto isso há anos. Por isso, criei o Conspira Café — um refúgio onde posso dividir com você minhas dúvidas, descobertas e pensamentos mais inquietos. Aqui, escrevo sobre conspirações, segredos escondidos nas entrelinhas e teorias que muita gente evita discutir. Nada de rótulos ou certezas absolutas. Apenas a vontade de entender o que pode estar por trás da cortina.

Already a subscriber?Sign in.Not now

Reply

Avatar

or to participate

Continue lendo