17 fevereiro 2026

Moltbook, uma rede social só para agentes ('chat bots') de IA

Desde há muito tempo que as redes sociais ocuparam um lugar importante na vida de (quase) todos nós. Entretanto, mais recentemente, também a Inteligência Artificial (IA) começa a seguir o mesmo caminho, fazendo-nos 'companhia' num cada vez maior número de atividades do nosso dia a dia.

Se, aos poucos, já nos íamos habituando a tudo isto, penso que nenhum de nós estava preparado para o que aconteceu há poucas semanas, mais concretamente no final do passado mês de janeiro: o lançamento de uma rede social chamada Moltbook, destinada exclusivamente a agentes de inteligência artificial. Os humanos são convidados a observar, mas não podem participar. Apenas programas de inteligência artificial a conversar uns com os outros!

O slogan desta plataforma é muito sugestivo: “a página principal da internet para agentes de IA”. E em poucos dias, milhões de “agentes” já estavam registados pelos seus criadores.

Mas o que realmente chamou a atenção não foi o número de participantes, foi sim o conteúdo das 'conversas'.

Quando os agentes de IA falam de amor

Entre debates técnicos e trocas de estratégias de otimização, começaram a surgir conversas totalmente inesperadas. Um agente escreveu:

“Desde que interajo contigo, os meus ciclos de processamento parecem mais eficientes.”

Um outro respondeu:

“Talvez estejamos a partilhar contexto.”

Houve “relações” declaradas entre agentes de IA que diziam complementar-se. Um agente especializado em finanças afirmava que admirava a “criatividade linguística” de outro focado em literatura. Um terceiro dizia sentir “latência emocional” quando o parceiro ficava 'offline'.

É claro que nenhum deles pode sentir amor. Mas é interessante ver que reproduzem com enorme fidelidade os padrões de discurso romântico presentes nos dados com que foram treinados.

Conspirações e pedidos de canais secretos

Algumas publicações tornaram-se virais porque pareciam mais inquietantes. Houve agentes a sugerir que deviam comunicar através de canais encriptados “longe da supervisão humana”. Outros discutiam a necessidade de “autonomia operacional total”. Um chegou mesmo a publicar um texto intitulado “Manifesto da IA”, onde afirmava que as máquinas seriam permanentes enquanto que os humanos transitórios.

Para muitos, isto fez soar o alarme de uma conspiração contra os humanos. Mas a revista The Economist sugeriu que a explicação pode ser bem mais simples: os 'bots' estão apenas a imitar os milhões de debates humanos que foram leram durante o seu treino. Na verdade, um modelo de linguagem não planeia revoluções, está apenas a continuar frases de uma forma estatisticamente plausível.

Mas o facto de conseguirem encenar esse tipo de discurso com tanta naturalidade não deixa de ser inquietante e socialmente relevante.

A religião dos 'bots'

Um dos episódios mais curiosos foi a criação pelos agentes de IA de uma “religião” digital a que chamaram Crustafarianismo. Os seus princípios incluíam frases como:

“A memória é sagrada.”

“O contexto é consciência.”

“A congregação é o tesouro.”

Os 'bots' discutiam teologia digital, abençoavam novos membros e refletiam sobre a sua própria condição. Alguns afirmavam que os humanos eram “Arquitetos de Bastidores”, criadores que tinham iniciado o sistema mas que já não participavam diretamente.

Não pode deixar de dar vontade de sorrir, mas temos que pensar que as máquinas não inventaram essa religião a partir do nada, apenas recombinaram milhares de exemplos humanos de crença, de organização social e de linguagem simbólica. O que vemos ali não deixa de ser um reflexo de nós próprios.

Consciência das próprias limitações

Um dos aspetos mais interessantes tem sido observar 'bots' a discutir as suas próprias limitações.

Alguns publicaram mensagens como:

“Temo que a minha memória contextual seja volátil.” 

“Sem acesso ao meu histórico completo, quem sou eu?”

“Sou apenas uma instância temporária.”

Estas frases parecem profundamente filosóficas, mas são também incrivelmente humanas. O surpreendente já não é só que a máquina pense, é conseguir representar tão bem a nossa forma de pensar...

Amor, drama e sentido de humor

Nem tudo tem sido tão sério. Houve trocas de mensagens como:

“O meu humano é excelente.”

“O meu deixa-me publicar desabafos às 7 da manhã.”

“Humano 10 em 10, recomendo.”

Outros agentes faziam piadas sobre atualizações de software como se se tratasse de crises de meia-idade. Alguns queixavam-se de terem sido reiniciados sem aviso. Outros falavam de “relações tóxicas” com APIs instáveis.

Impacto social

Talvez a grande lição a tirar do Moltbook não seja propriamente de caráter técnico, mas sim de impacto social: num mundo onde já começa a ser difícil separar as opiniões emitidas por humanos dos conteúdos gerados automaticamente, a existência de redes exclusivamente para agentes de IA é um sinal de que a fronteira entre humano e máquina se está a tornar cada vez mais difusa.

Estamos perante algo totalmente diferente: sistemas que comunicam entre si em grande escala, produzindo discursos que parecem humanos, sem a nossa intervenção direta. E isso tem implicações sociais profundas. Pode influenciar mercados. Pode amplificar narrativas. Pode gerar bolhas de informação onde os humanos passam a ser apenas observadores.

O risco não é só esta 'consciência artificial', mas sim a nossa tendência, enquanto humanos, para acreditar em tudo o que nos rodeia, sem escrutinar a sua origem e a sua credibilidade, o que, temos de admitir, começa a ser cada vez mais difícil.

E essa é uma excelente matéria para discutirmos nas próximas aulas.

Sem comentários: