image

Access unlimited bootcamps and 650+ courses

33
%OFF
Diego Mousine
Diego Mousine08/01/2026 15:47
Share

Perspectiva de um neurodivergente sobre a IA

  • #ChatGPT
  • #Inteligência Artificial (IA)

Já li vários artigos e matérias sobre Inteligência Artificial. Em sua maioria os autores se prendem em assuntos referentes à didática na utilização e objetivo da IA, mas quase nenhum relativiza a IA com o mundo real. A intenção desse texto rápido é revelar a perspectiva de uma pessoa com Baixa Inibição Latente - BIL (saiba mais em www.lowlatentinhibition.org) a respeito do tema.

Primeiramente, vocês precisam entender que, na mente de uma pessoa com BIL, o mundo precisa fazer total sentido físico e psicológico. Assuntos profundamente filosóficos e teológicos, por mais que seja bem embasados, se não tiverem evidênias científicas, são descartados, ignorados ou sem sentido algum. E para eu compreender a Inteligência Artificial foi necessário um esforço para que o assunto não fosse tratado apenas como mais uma ferramenta desnecessária.

Por que eu deveria usar uma IA, se eu poderia simplesmente usar um google? Na minha mente: perda de tempo. Mas isso só durou até eu começar a explorar o chatGPT. No começo com perguntas vagas e filosóficas, do tipo "Qual o sentido da vida?", e com isso recebia respostas vagas. Com o tempo eu fui percebendo que a IA parece inteligente, mas não é.

Como assim? - Você deve está se perguntando.

Tal qual um coração artificial não é um coração mas tem a capacidade de simular um coração, a Inteligência Artificial tem a capacidade de simular uma inteligência. Ela não tem capacidade cognitiva. Ela apenas repete padrões. A IA consegue observar padrões humanos e repetir. Então se você perguntar a ela "Você conhece o Mário?", ela não tem capacidade cognitiva para saber que se trata de uma pegadinha, ela vai pesquisar em seus registros formas de responder essa pergunta como os humanos fariam. E é aí que tudo começa a fazer sentido. A IA é ótima em realizar tarefas típicas. Redigir textos, código, músicas, e outras atividades que seguem um padrão. E quando ela "erra", na verdade ela apenas repetiu o que estava nos seus registros.

Tal qual um médico que receita um medicamento com base nos sintomas informados pelo paciente. Se o medicamento não funcionar, é porque o paciente provavelmente não informou tudo que está sentido, o que resultou na ineficiencia do medicamento. Se você enviar um input dizendo que recebe um salário de 1800 e tem despesas de 2000, a IA vai procurar registros aproximados para trazer o resultado. Dificilmente ela vai ter registros exatos para esse caso. Então se ela tem registros de alguém com salário de 1850 e despesas de 3120, ela vai trazer esse resultado, considerando que o input condiz com 99,9% de precisão. Resultado: um retorno com "erro" nos valores.

Partindo agora para programação e análise. Quando você pede para a IA gerar um código, ela vai redigir um script seguindo um padrão registrado para uma solução parecida com o que foi solicitado. Se ela já tiver a solução exata registrada, ótimo; se não, ela vai pegar o resultado mais próximo. Aqui entra um fator importantíssimo, já que ela sempre traz o resultado contendo a melhor correspondência ao que foi solicitado, não faz sentido o usuário pedir coisas do tipo "melhore esse código". Você vai ter que usar sua capacidade cognitiva para mandar o input correto, para que ela melhore o código. Porque ela não sabe o que é melhorar. Ela vai encontrar outra correspondência apróximada. Até que você se convensa que está bom ou que ela está "alucinando".

E finalmente tudo faz sentido para uma pessoa como eu. Se trata de uma parceria, onde o humano entra como agente cognitivo e a IA como agente executivo. E não deve-se esperar cognição da IA. Se você quer que ela melhore o código, você precisa dizer como você quer que fique melhor. Assim, se ela escreveu um script no formato procedural, é porque nos registros dela, a melhor correspondência está no formato procedural. Se você quer no formato POO, pede a ela para converter em uma classe e seus métodos. Simples assim.

Conclusão

Não ache que a IA pensa. São treinadas para trazer resultados próximos ao que você pede. Mas é como se ela perguntasse "Essa resposta faz sentido?" toda vez que gera um resultado. E no final, você é quem deve dizer se está certo ou não.

Obrigado, pelo espaço.

Share
Recommended for you
Microsoft Certification Challenge #5 - AI 102
Bradesco - GenAI & Dados
GitHub Copilot - Código na Prática
Comments (1)
Thiago Cardoso
Thiago Cardoso - 08/01/2026 20:42

Excelente reflexão. 👏

Você traduziu a IA para o mundo real de forma muito lúcida: ela não pensa, não entende e não decide apenas simula inteligência a partir de padrões. A analogia com o coração artificial e com a prática médica foi precisa e ajuda qualquer pessoa a ajustar expectativas.

No fim, a ideia de parceria ficou perfeita: humano como agente cognitivo e IA como agente executivo. Quando entendemos isso, a ferramenta deixa de frustrar e passa a potencializar. Texto claro, honesto e necessário.