Não nasceu da noite pro dia: A história da evolução das IAs.
A história dos chatbots é, no fundo, uma boa forma de enxergar como a própria Inteligência Artificial evoluiu — e também como nossas expectativas sobre “máquinas inteligentes” mudaram ao longo do tempo.
Tudo começa com a ELIZA, nos anos 1960. Ela não entendia nada do que era dito, mas fazia algo curioso: devolvia perguntas bem formuladas, geralmente reformulando a fala do usuário. Isso já era suficiente para causar impacto. Muitas pessoas sentiram que estavam sendo “ouvidas”. Daí nasce o chamado efeito ELIZA: a tendência humana de projetar inteligência, empatia e intenção onde só existem regras simples. O mais interessante é que esse efeito continua vivo até hoje.
Logo depois veio o PARRY, que adicionou algo novo: um estado interno. Ele simulava crenças e emoções (no caso, paranoia). Ainda era baseado em regras, mas já tentava manter coerência psicológica. Foi um passo importante, porque mostrou que conversas parecem mais “humanas” quando existe consistência, não apenas respostas soltas.
Nos anos seguintes, surgem sistemas como Jabberwacky e ALICE. Aqui a evolução não foi exatamente em “inteligência”, mas em escala e organização. O Jabberwacky tentou aprender diretamente com conversas humanas, enquanto o ALICE organizou milhares de regras usando AIML. O resultado foi previsível: diálogos mais longos e variados, mas ainda frágeis. Funcionavam bem… até sair do roteiro.
Com o SmarterChild, no início dos anos 2000, acontece algo novo: popularização. Pela primeira vez, milhões de pessoas conversavam com um bot no dia a dia, em mensageiros instantâneos. Ele não era profundo, mas era útil. Isso marcou uma mudança importante: chatbots deixam de ser apenas experimentos acadêmicos e passam a ter valor prático.
O Watson, da IBM, representa outro salto — e também uma bifurcação. Ele não foi pensado como um “chatbot social”, mas como um sistema que responde perguntas difíceis com base em evidências. No Jeopardy!, isso funcionou muito bem. O Watson mostrou que máquinas podiam lidar com linguagem natural de forma séria, desde que o problema fosse bem delimitado. Ao mesmo tempo, deixou claro o custo: enorme esforço de engenharia, curadoria de dados e pouca flexibilidade fora do domínio planejado.
A grande virada vem com os LLMs, culminando em sistemas como o ChatGPT. Aqui o paradigma muda de vez. Em vez de regras explícitas ou hipóteses pontuadas manualmente, o modelo aprende padrões da linguagem em escala massiva. Não há “script”, nem base fixa de perguntas e respostas. O sistema generaliza. Isso explica por que a conversa flui, muda de assunto, adapta tom e estilo — algo que nenhum chatbot anterior conseguia fazer de forma consistente.
Mas é importante manter os pés no chão. ChatGPT e outros LLMs não entendem como humanos, não têm consciência e ainda cometem erros convincentes. De certa forma, o efeito ELIZA voltou com força total — só que agora sustentado por estatística, não por regras simples.
Olhando a linha evolutiva como um todo, fica claro que:
- ELIZA mostrou o mínimo necessário para enganar nossa percepção;
- os chatbots intermediários exploraram estado, escala e utilidade;
- o Watson priorizou precisão e evidência;
- os LLMs priorizam fluidez, generalização e adaptação.
A evolução dos chatbots não é uma linha reta rumo à “mente artificial”, mas uma sequência de trocas: controle por flexibilidade, explicabilidade por naturalidade, certeza por plausibilidade. Entender isso ajuda a usar essas tecnologias melhor — e também a não esperar delas o que ainda não podem entregar.




