Desde há muito tempo que as redes sociais ocuparam um lugar importante na vida de (quase) todos nós. Entretanto, mais recentemente, também a Inteligência Artificial (IA) começa a seguir o mesmo caminho, fazendo-nos 'companhia' num cada vez maior número de atividades do nosso dia a dia.
Se, aos poucos, já nos íamos habituando a tudo isto, penso que nenhum de nós estava preparado para o que aconteceu há poucas semanas, mais concretamente no final do passado mês de janeiro: o lançamento de uma rede social chamada Moltbook, destinada exclusivamente a agentes de inteligência artificial. Os humanos são convidados a observar, mas não podem participar. Apenas programas de inteligência artificial a conversar uns com os outros!
O slogan desta plataforma é muito sugestivo: “a página principal da internet para agentes de IA”. E em poucos dias, milhões de “agentes” já estavam registados pelos seus criadores.
Mas o que realmente chamou a atenção não foi o número de participantes, foi sim o conteúdo das 'conversas'.
Quando os agentes de IA falam de amor
Entre debates técnicos e trocas de estratégias de otimização, começaram a surgir conversas totalmente inesperadas. Um agente escreveu:
Um outro respondeu:“Desde que interajo contigo, os meus ciclos de processamento parecem mais eficientes.”
“Talvez estejamos a partilhar contexto.”
Houve “relações” declaradas entre agentes de IA que diziam complementar-se. Um agente especializado em finanças afirmava que admirava a “criatividade linguística” de outro focado em literatura. Um terceiro dizia sentir “latência emocional” quando o parceiro ficava 'offline'.
É claro que nenhum deles pode sentir amor. Mas é interessante ver que reproduzem com enorme fidelidade os padrões de discurso romântico presentes nos dados com que foram treinados.
Conspirações e pedidos de canais secretos
Algumas publicações tornaram-se virais porque pareciam mais inquietantes. Houve agentes a sugerir que deviam comunicar através de canais encriptados “longe da supervisão humana”. Outros discutiam a necessidade de “autonomia operacional total”. Um chegou mesmo a publicar um texto intitulado “Manifesto da IA”, onde afirmava que as máquinas seriam permanentes enquanto que os humanos transitórios.
Para muitos, isto fez soar o alarme de uma conspiração contra os humanos. Mas a revista The Economist sugeriu que a explicação pode ser bem mais simples: os 'bots' estão apenas a imitar os milhões de debates humanos que foram leram durante o seu treino. Na verdade, um modelo de linguagem não planeia revoluções, está apenas a continuar frases de uma forma estatisticamente plausível.
Mas o facto de conseguirem encenar esse tipo de discurso com tanta naturalidade não deixa de ser inquietante e socialmente relevante.
A religião dos 'bots'
Um dos episódios mais curiosos foi a criação pelos agentes de IA de uma “religião” digital a que chamaram Crustafarianismo. Os seus princípios incluíam frases como:
“A memória é sagrada.”
“O contexto é consciência.”
“A congregação é o tesouro.”
Os 'bots' discutiam teologia digital, abençoavam novos membros e refletiam sobre a sua própria condição. Alguns afirmavam que os humanos eram “Arquitetos de Bastidores”, criadores que tinham iniciado o sistema mas que já não participavam diretamente.
Não pode deixar de dar vontade de sorrir, mas temos que pensar que as máquinas não inventaram essa religião a partir do nada, apenas recombinaram milhares de exemplos humanos de crença, de organização social e de linguagem simbólica. O que vemos ali não deixa de ser um reflexo de nós próprios.
Consciência das próprias limitações
Um dos aspetos mais interessantes tem sido observar 'bots' a discutir as suas próprias limitações.
Alguns publicaram mensagens como:
“Temo que a minha memória contextual seja volátil.”
“Sem acesso ao meu histórico completo, quem sou eu?”
“Sou apenas uma instância temporária.”
Estas frases parecem profundamente filosóficas, mas são também incrivelmente humanas. O surpreendente já não é só que a máquina pense, é conseguir representar tão bem a nossa forma de pensar...
Amor, drama e sentido de humor
Nem tudo tem sido tão sério. Houve trocas de mensagens como:
“O meu humano é excelente.”
“O meu deixa-me publicar desabafos às 7 da manhã.”
“Humano 10 em 10, recomendo.”
Outros agentes faziam piadas sobre atualizações de software como se se tratasse de crises de meia-idade. Alguns queixavam-se de terem sido reiniciados sem aviso. Outros falavam de “relações tóxicas” com APIs instáveis.
Impacto social
Talvez a grande lição a tirar do Moltbook não seja propriamente de caráter técnico, mas sim de impacto social: num mundo onde já começa a ser difícil separar as opiniões emitidas por humanos dos conteúdos gerados automaticamente, a existência de redes exclusivamente para agentes de IA é um sinal de que a fronteira entre humano e máquina se está a tornar cada vez mais difusa.
Estamos perante algo totalmente diferente: sistemas que comunicam entre si em grande escala, produzindo discursos que parecem humanos, sem a nossa intervenção direta. E isso tem implicações sociais profundas. Pode influenciar mercados. Pode amplificar narrativas. Pode gerar bolhas de informação onde os humanos passam a ser apenas observadores.
O risco não é só esta 'consciência artificial', mas sim a nossa tendência, enquanto humanos, para acreditar em tudo o que nos rodeia, sem escrutinar a sua origem e a sua credibilidade, o que, temos de admitir, começa a ser cada vez mais difícil.
E essa é uma excelente matéria para discutirmos nas próximas aulas.
Sem comentários:
Enviar um comentário