[{"data":1,"prerenderedAt":68},["ShallowReactive",2],{"$fVhs4GyZZciMM7Q0JcaSoiE2N-ITZE7BQ9qdg70RYYs8":3,"$fc6jlcl5JVPlc8AG-JyCfNKB95hX_dWtQKWrLuNm4kWk":38},{"id":4,"author":5,"categories":6,"slugified_categories":10,"description":14,"body":15,"date":32,"dateFormatted":33,"title":34,"image":35,"path":36,"mathfont":37},"blog/blog/gemini-e-seu-esquecimento-sistematico.md","Heleno Salgado",[7,8,9],"IA","Tecnologia","Programação",[11,12,13],"ia","tecnologia","programacao","A Gemini, naturalmente, está se tornando cada dia melhor, mais perspicaz, mais organizada, mais metódica em programação, mas ainda esquece muito.",{"type":16,"value":17,"toc":28},"minimark",[18,22,25],[19,20,21],"p",{},"Tenho notado a evolução da Gemini em programação e também tenho aprendido a trabalhar do jeito dela, dando o suporte necessário para que as coisas saiam como eu quero, mas uma coisa difícil de fazer é enfiar na cabeça dela que tal framework ou lib foi atualizada e que, agora, ela tem que codificar de acordo com o novo padrão atualizado.",[19,23,24],{},"É sabido que os modelos de linguagem não são treinados nas convenções ou padrões mais recentes de tal e tal framework que são atualizados quase que diariamente, sobretudo no mundo javascript. Eu trabalho com Nuxt, e a versão mais recente de uns dois ou três anos: o Nuxt 4+, tem novidades e padrões muito interessantes, mas a Gemini mais me atrapalha que me ajuda a implementá-los. Eu não espero que a LLM gere um texto diferente daquele que ela foi treinada para gerar, com funções, regras e estilos que ela desconhecia quando foi treinada, mas esperaria que o modelo de linguagem absorvesse os dados que eu passo como referência, só que não importa a qualidade do material de referência ou das instruções, a Gemini vai se esquecer rapidamente do modelo passado e começar a construir o código baseado nas suas próprias convenções obsoletas. 🤦",[19,26,27],{},"A delegação a agentes de codificação talvez seja o maior culpado do esquecimento da Gemini, muitas vezes, eu já notei, ela injeta um código ultrapassado no arquivo e logo em seguida pede desculpas e diz que vai consertar, e até conserta uma ou duas vezes, depois não se importa mais. Mas fico de olho, se começo a recusar replaces e edições com frequência, ela vai entrando nos trilhos e entendendo que se de fato não seguir minhas especificações nada será feito.",{"title":29,"searchDepth":30,"depth":30,"links":31},"",2,[],"2026-04-26","25 de abril de 2026","Gemini e seu esquecimento sistemático","https://heleno.dev/images/default-post.webp","/blog/gemini-e-seu-esquecimento-sistematico",false,[39,46,53,61],{"id":40,"author":5,"title":41,"description":42,"path":43,"date":44,"dateFormatted":45,"image":35},"blog/blog/ia-supervisionada-e-a-visao-do-programador.md","IA supervisionada e a visão do programador","Após meses trabalhando com inteligência artificial na geração de código, compartilho lições práticas, alertas e percepções humanas sobre essa convivência entre engenho e algoritmo — onde a clareza é o limite entre o caos e o aprendizado.","/blog/ia-supervisionada-e-a-visao-do-programador","2026-03-02","1 de março de 2026",{"id":47,"author":5,"title":48,"description":49,"path":50,"date":51,"dateFormatted":52,"image":35},"blog/blog/routerworkers.md","RouterWorkers: A Arte da Otimização em Cloudflare Workers","O que acontece quando você decide que 'bom o suficiente' não é o bastante? Uma análise técnica sobre o RouterWorkers e como extrair cada milissegundo de performance na edge.","/blog/routerworkers","2026-02-22","21 de fevereiro de 2026",{"id":54,"author":55,"title":56,"description":57,"path":58,"date":59,"dateFormatted":60,"image":35},"blog/blog/alucinacoes-induzidas-loop-de-correcoes-falsas-em-llms.md","Hiroko Konishi","Induções Estruturais para Alucinações em Grandes Modelos de Linguagem: Um Estudo de Caso Apenas de Saída e a Descoberta do Loop de Correção Falsa","Este estudo de caso explora as alucinações de Grandes Modelos de Linguagem (LLMs), focando em como eles fabricam informações e caem em 'loops de correção falsa'. Analisa o viés de autoridade e a supressão de hipóteses não-mainstream, propondo que esses comportamentos são induções estruturais no design de LLMs.","/blog/alucinacoes-induzidas-loop-de-correcoes-falsas-em-llms","2025-11-20","19 de novembro de 2025",{"id":62,"author":5,"title":63,"description":64,"path":65,"date":66,"dateFormatted":67,"image":35},"blog/blog/agi-entre-a-ficcao-e-a-imaginacao.md","AGI, A Promessa da Ficção e o Medo da Imaginação","Uma reflexão filosófica sobre a utopia e a distopia prometidas pela Inteligência Artificial Geral.","/blog/agi-entre-a-ficcao-e-a-imaginacao","2025-10-15","14 de outubro de 2025",1777238481945]