Congrats On The Model!
Obrigado pela contribuição pelos modelos de fundação em Português!
Pessoal, aqui no LABHDUFBA estamos usando o modelos em RAGs para análise de mensagens extremistas. Está um show! Parabens!
Excelente modelo, fiz uns testes aqui no Ollama com brunoconterato/Gemma-3-Gaia-PT-BR-4b-it:f16 e cnmoro/gemma3-gaia-ptbr-4b-vision:q8_0, vou usar com RAG. Obrigado, Deus abençoe!
Alguem conseguiu usar ? Pois tentei usar Inference API ou pipeline. Nao funcionou.
Eu estou testando o modelo no Ollama com brunoconterato/Gemma-3-Gaia-PT-BR-4b-it:f16 . Minha intenção é testar com RAG. Parabéns.
Eu estou testando o modelo no Ollama com brunoconterato/Gemma-3-Gaia-PT-BR-4b-it:f16 . Minha intenção é testar com RAG. Parabéns.
Conseguiu fazer RAG? Se sim, mesmo processo como fazer usando lang chain com Gemini ou OpenIA?
Estou sem minha máquia com GPU, porem deu certo usar brunoconterato/Gemma-3-Gaia-PT-BR-4b-it:f16 ?
Eu ainda não consegui fazer RAG. Testei com o Llama e funcionou bem. Só tem exigido muito da minha máquina. Apesar disso, quando bem contextualizado, o modelo é melhor para realizar traduções de EN -> pt-BR, principalmente na compreensão de entidades que são mais relevantes aqui do que em EN.