Gemini e seu esquecimento sistemático

Tenho notado a evolução da Gemini em programação e também tenho aprendido a trabalhar do jeito dela, dando o suporte necessário para que as coisas saiam como eu quero, mas uma coisa difícil de fazer é enfiar na cabeça dela que tal framework ou lib foi atualizada e que, agora, ela tem que codificar de acordo com o novo padrão atualizado.

É sabido que os modelos de linguagem não são treinados nas convenções ou padrões mais recentes de tal e tal framework que são atualizados quase que diariamente, sobretudo no mundo javascript. Eu trabalho com Nuxt, e a versão mais recente de uns dois ou três anos: o Nuxt 4+, tem novidades e padrões muito interessantes, mas a Gemini mais me atrapalha que me ajuda a implementá-los. Eu não espero que a LLM gere um texto diferente daquele que ela foi treinada para gerar, com funções, regras e estilos que ela desconhecia quando foi treinada, mas esperaria que o modelo de linguagem absorvesse os dados que eu passo como referência, só que não importa a qualidade do material de referência ou das instruções, a Gemini vai se esquecer rapidamente do modelo passado e começar a construir o código baseado nas suas próprias convenções obsoletas. 🤦

A delegação a agentes de codificação talvez seja o maior culpado do esquecimento da Gemini, muitas vezes, eu já notei, ela injeta um código ultrapassado no arquivo e logo em seguida pede desculpas e diz que vai consertar, e até conserta uma ou duas vezes, depois não se importa mais. Mas fico de olho, se começo a recusar replaces e edições com frequência, ela vai entrando nos trilhos e entendendo que se de fato não seguir minhas especificações nada será feito.

IA supervisionada e a visão do programador

Após meses trabalhando com inteligência artificial na geração de código, compartilho lições práticas, alertas e percepções humanas sobre essa convivência entre engenho e algoritmo — onde a clareza é o limite entre o caos e o aprendizado.

Leia Mais »

RouterWorkers: A Arte da Otimização em Cloudflare Workers

O que acontece quando você decide que 'bom o suficiente' não é o bastante? Uma análise técnica sobre o RouterWorkers e como extrair cada milissegundo de performance na edge.

Leia Mais »

Induções Estruturais para Alucinações em Grandes Modelos de Linguagem: Um Estudo de Caso Apenas de Saída e a Descoberta do Loop de Correção Falsa

Este estudo de caso explora as alucinações de Grandes Modelos de Linguagem (LLMs), focando em como eles fabricam informações e caem em 'loops de correção falsa'. Analisa o viés de autoridade e a supressão de hipóteses não-mainstream, propondo que esses comportamentos são induções estruturais no design de LLMs.

Leia Mais »

AGI, A Promessa da Ficção e o Medo da Imaginação

Uma reflexão filosófica sobre a utopia e a distopia prometidas pela Inteligência Artificial Geral.

Leia Mais »

Newsletter