🧠 WNL468M — Modelo de Raciocínio Lógico em Português para Ensino e Educação
WNL468M é um modelo de linguagem com aproximadamente 468 milhões de parâmetros, desenvolvido especialmente para tarefas de raciocínio lógico e compreensão em português, com foco em ensino, educação e suporte acadêmico. Este projeto foi inspirado e criado para um projeto acadêmico de destaque em uma feira de ciências, com o objetivo de contribuir para o avanço do ensino de inteligência artificial aplicada ao idioma português.
✨ Origem do Nome
WNL é uma homenagem a três colegas que foram a inspiração inicial para o projeto:
- W — Weia
- N — Náuria
- L — Leonilda
Embora elas não participem diretamente, seus nomes simbolizam a motivação que deu origem ao desenvolvimento do modelo.
👥 Equipe Fundadora
Marius Jabami (Λ) – Desenvolvedor principal, integração com modelo, lógica central e liderança técnica
Ilson Lopes – Apoio geral ao desenvolvimento e testes técnicos
Délcio Pro – Interface visual (Kivy), processamento de texto, usabilidade
José Bukete – Lógica do chat em Kivy, controle de eventos e exibição de mensagens
Fernando Queta – Integração com modelo Transformers, geração de respostas
Inácio Oicani – Histórico de conversa, normalização de texto, refinamento de UI/UX
Daniel Raimundo – Estilo visual, fontes, cores, animações e experiência do usuário
Celsio Simplício – Testes, simulações, depuração e melhoria de desempenho
Arsênio Afonso – Suporte em testes e revisão técnica
Cristiano Jomba – Testes diversos, análise de comportamento do chatbot
🧩 Dataset Utilizado
O modelo foi finamente ajustado utilizando o dataset:
📚 cnmoro/LogicReasoningEnglishPortuguese
Este conjunto bilíngue contém pares de perguntas e respostas que exigem raciocínio lógico, proporcionando uma base robusta para treinar o modelo em tarefas de compreensão, dedução e resposta estruturada, essenciais para aplicações educacionais.
🔍 Informações Técnicas Detalhadas
- Parâmetros: ~468 milhões
- Arquitetura Base: Adaptada do LLaMA, conhecida pela eficiência em tarefas de linguagem natural
- Tokenizador: SentencePiece (formato LLaMA)
- Método de Treinamento: Fine-tuning com LoRA, seguido de mesclagem dos pesos para otimização
- Framework: PyTorch com Hugging Face Transformers
- Tipo de Modelo: Causal Language Model (modelo generativo para texto)
- Idiomas: Português (principal), com suporte a dados em inglês do dataset bilíngue
- Uso: Aplicações educacionais, chatbots acadêmicos, ferramentas de ensino e suporte ao raciocínio lógico
🎯 Propósito e Aplicações
O WNL468M foi desenvolvido com foco pedagógico, visando:
- Facilitar o aprendizado e o ensino de lógica e raciocínio no idioma português
- Servir como base para projetos acadêmicos e feiras de ciências, mostrando a viabilidade de modelos customizados para educação
- Criar ferramentas interativas que ajudem estudantes e educadores a explorarem conceitos complexos de forma acessível e inteligente
- Demonstrar que projetos de IA podem ser desenvolvidos colaborativamente em ambientes educacionais
💻 Como Usar o Modelo
from transformers import AutoTokenizer, AutoModelForCausalLM, TextStreamer
import torch
repo_id = "lambdaindie/WNL468M"
tokenizer = AutoTokenizer.from_pretrained(repo_id)
model = AutoModelForCausalLM.from_pretrained(repo_id, device_map="auto", torch_dtype=torch.float16)
model.eval()
streamer = TextStreamer(tokenizer)
while True:
prompt = input("Você: ")
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
_ = model.generate(**inputs, max_new_tokens=100, streamer=streamer)
🚀 Próximos Passos
Ampliação do dataset com mais exemplos em português
Desenvolvimento de versões maiores com foco em domínio acadêmico específico
Integração com plataformas educacionais para testes reais em sala de aula
Criado com dedicação, conhecimento e fé no futuro da educação. Equipe fundadora empenhada em transformar aprendizado através da inteligência artificial.
🔒 Licença
Este modelo está licenciado sob:
CC BY-NC-ND 4.0 (Creative Commons Attribution-NonCommercial-NoDerivatives 4.0)
Você é livre para:
- Compartilhar — copiar e redistribuir o material em qualquer meio ou formato
Desde que siga os termos:
- Atribuição — Deve creditar os autores (ver seção "Equipe Fundadora").
- Não Comercial — Não pode usar o material para fins comerciais.
- Sem Derivações — Não pode remixar, transformar ou criar a partir do material.
Este modelo é exclusivo para fins acadêmicos e educacionais.
- Downloads last month
- 313
Model tree for lambdaindie/WNL468M
Base model
nicholasKluge/TeenyTinyLlama-460m