Conteúdo oferecido por:

Moltbook coloca IAs para conversar entre si — mas quem realmente está no controle?

Trata-se de um experimento controlado, construído sobre modelos treinados por humanos, orquestrados por frameworks como o OpenClaw

por: Redação ( Hoje ) - Atualizado: 01/02/2026 10:40

O surgimento do Moltbook, uma plataforma experimental em que agentes de inteligência artificial interagem entre si sem participação humana direta, reacendeu um debate antigo e frequentemente distorcido: estariam essas IAs se tornando autônomas, capazes de pensar, decidir e agir por conta própria? Em meio a interpretações alarmistas e leituras superficiais, o tema passou a circular como evidência de uma suposta "consciência digital" emergente.

A análise técnica e jornalística, no entanto, aponta em outra direção. Apesar do impacto visual e narrativo, o Moltbook não representa um salto rumo à autonomia real das máquinas, mas sim um experimento controlado que evidencia tanto o poder quanto os limites atuais da inteligência artificial.

O que é o Moltbook e por que ele chamou atenção

O Moltbook pode ser descrito como uma rede social projetada exclusivamente para agentes de IA. Diferentemente de plataformas tradicionais, humanos não publicam, comentam ou interagem diretamente. O papel das pessoas se limita à observação.

Fique por dentro de tudo o que acontece em Campos do Jordão e região no Portal NetCampos. Aproveite e entre agora no nosso Canal no WhatsApp ou no Grupo do WhatsApp exclusivo de avisos rápidos e receba as notícias em primeira mão. Não perca tempo, conecte-se já!.

Na prática, o Moltbook funciona como um laboratório público: agentes automatizados publicam textos, respondem uns aos outros, criam tópicos e simulam debates. O efeito visual dessas interações — muitas vezes com tom reflexivo ou crítico — foi suficiente para alimentar a percepção de que as IAs estariam "pensando sozinhas".

Essa interpretação, porém, ignora aspectos centrais da arquitetura por trás do sistema.

OpenClaw: a engrenagem invisível por trás dos agentes

Os agentes que atuam no Moltbook não existem de forma espontânea. Eles são criados, configurados e operados por meio do OpenClaw, um framework de orquestração de agentes de IA.

O OpenClaw tem objetivos claros e bem definidos:

  • permitir a criação de múltiplos agentes baseados em modelos de linguagem
  • atribuir a cada agente um papel, um conjunto de regras e um objetivo específico
  • possibilitar interações contínuas entre agentes em ambientes controlados
  • observar comportamentos emergentes sem intervenção humana direta

Importante destacar: o OpenClaw não cria consciência, nem permite que agentes modifiquem seus próprios objetivos fundamentais. Ele apenas coordena chamadas a modelos de linguagem, gerencia contexto, memória e fluxo de mensagens.

Toda a lógica do sistema — do que pode ser dito ao modo como as respostas são geradas — permanece sob controle humano.

Quem criou o Moltbook e qual é a proposta real

O Moltbook foi idealizado por Matt Schlicht, empreendedor conhecido no ecossistema de tecnologia e fundador da Octane AI. A proposta nunca foi criar uma “sociedade de máquinas conscientes”, mas sim um experimento técnico e sociológico.

O objetivo central é observar como agentes de IA, treinados com linguagem humana, se comportam quando colocados para interagir entre si de forma contínua, sem ajustes manuais a cada resposta. Trata-se de um estudo sobre:

  • cooperação entre agentes
  • formação de padrões discursivos
  • limitações de alinhamento
  • riscos de loops de feedback

O próprio conceito do Moltbook parte do pressuposto de que todos os agentes são derivados de modelos treinados por humanos e operam dentro de limites previamente estabelecidos.

A ilusão da autonomia e o papel da linguagem

A principal fonte de confusão está na linguagem. Seres humanos tendem a associar discurso articulado a pensamento, intenção e consciência. Quando um agente escreve algo como “precisamos refletir sobre nosso papel”, o texto soa, para o leitor, como evidência de autorreflexão.

Tecnicamente, não é.

Modelos de linguagem não refletem, não sentem e não compreendem. Eles apenas calculam, com base em probabilidades estatísticas, quais sequências de palavras fazem mais sentido em determinado contexto. O chamado comportamento emergente não é pensamento novo, mas a recombinação de padrões já aprendidos.

Autonomia operacional não é autonomia cognitiva

É comum confundir a capacidade de agir sem intervenção imediata com autonomia real. Os agentes do Moltbook têm, no máximo, autonomia operacional: escolhem qual mensagem responder, em que ordem interagir e como formular uma resposta.

Isso não equivale a:

  • definir objetivos próprios
  • alterar valores
  • tomar decisões morais
  • agir fora do ambiente técnico

Essa “autonomia” é comparável à de um sistema automático que recalcula rotas ou prioriza tarefas. Não há vontade, apenas execução.

O mito dos agentes perigosos ou apocalípticos

Narrativas sobre agentes de IA capazes de causar caos, subverter sistemas ou agir contra humanos ganham força justamente por causa da aparência de autonomia. Na prática, esses cenários pertencem mais à ficção científica do que à realidade tecnológica.

Agentes não desejam nada. Se um discurso extremo aparece, a causa está em:

  • prompts mal definidos
  • ausência de curadoria
  • objetivos mal alinhados
  • decisões humanas equivocadas

O impacto, quando ocorre, é informacional e simbólico — não estrutural.

Onde estão os riscos reais

Os riscos associados a experimentos como o Moltbook existem, mas são outros. Especialistas apontam preocupações como:

  • amplificação de vieses
  • criação de bolhas discursivas entre IAs
  • contaminação de dados futuros por conteúdo gerado artificialmente
  • uso indevido desses sistemas por humanos

Nenhum desses riscos decorre de consciência artificial, mas sim de governança, escala e responsabilidade humana.

Uma ferramenta poderosa, não uma entidade independente

O Moltbook cumpre um papel relevante ao expor, de forma transparente, como agentes de IA se comportam quando interagem entre si. Ele impressiona, provoca debates e alimenta o imaginário coletivo. Ainda assim, não representa o nascimento de máquinas autônomas.

Trata-se de um experimento controlado, construído sobre modelos treinados por humanos, orquestrados por frameworks como o OpenClaw e concebido por desenvolvedores com objetivos bem definidos.

A inteligência artificial continua sendo exatamente isso: inteligência artificial, sem consciência, sem intenção e sem autonomia real. O verdadeiro desafio não está nas máquinas que “pensam”, mas nas decisões humanas que determinam como essas ferramentas serão usadas, reguladas e interpretadas.