🧠 WNL468M — Modelo de Raciocínio Lógico em Português para Ensino e Educação

WNL468M é um modelo de linguagem com aproximadamente 468 milhões de parâmetros, desenvolvido especialmente para tarefas de raciocínio lógico e compreensão em português, com foco em ensino, educação e suporte acadêmico. Este projeto foi inspirado e criado para um projeto acadêmico de destaque em uma feira de ciências, com o objetivo de contribuir para o avanço do ensino de inteligência artificial aplicada ao idioma português.

✨ Origem do Nome

WNL é uma homenagem a três colegas que foram a inspiração inicial para o projeto:

  • W — Weia
  • N — Náuria
  • L — Leonilda

Embora elas não participem diretamente, seus nomes simbolizam a motivação que deu origem ao desenvolvimento do modelo.

👥 Equipe Fundadora

  • Marius Jabami (Λ) – Desenvolvedor principal, integração com modelo, lógica central e liderança técnica

  • Ilson Lopes – Apoio geral ao desenvolvimento e testes técnicos

  • Délcio Pro – Interface visual (Kivy), processamento de texto, usabilidade

  • José Bukete – Lógica do chat em Kivy, controle de eventos e exibição de mensagens

  • Fernando Queta – Integração com modelo Transformers, geração de respostas

  • Inácio Oicani – Histórico de conversa, normalização de texto, refinamento de UI/UX

  • Daniel Raimundo – Estilo visual, fontes, cores, animações e experiência do usuário

  • Celsio Simplício – Testes, simulações, depuração e melhoria de desempenho

  • Arsênio Afonso – Suporte em testes e revisão técnica

  • Cristiano Jomba – Testes diversos, análise de comportamento do chatbot

🧩 Dataset Utilizado

O modelo foi finamente ajustado utilizando o dataset:

📚 cnmoro/LogicReasoningEnglishPortuguese

Este conjunto bilíngue contém pares de perguntas e respostas que exigem raciocínio lógico, proporcionando uma base robusta para treinar o modelo em tarefas de compreensão, dedução e resposta estruturada, essenciais para aplicações educacionais.

🔍 Informações Técnicas Detalhadas

  • Parâmetros: ~468 milhões
  • Arquitetura Base: Adaptada do LLaMA, conhecida pela eficiência em tarefas de linguagem natural
  • Tokenizador: SentencePiece (formato LLaMA)
  • Método de Treinamento: Fine-tuning com LoRA, seguido de mesclagem dos pesos para otimização
  • Framework: PyTorch com Hugging Face Transformers
  • Tipo de Modelo: Causal Language Model (modelo generativo para texto)
  • Idiomas: Português (principal), com suporte a dados em inglês do dataset bilíngue
  • Uso: Aplicações educacionais, chatbots acadêmicos, ferramentas de ensino e suporte ao raciocínio lógico

🎯 Propósito e Aplicações

O WNL468M foi desenvolvido com foco pedagógico, visando:

  • Facilitar o aprendizado e o ensino de lógica e raciocínio no idioma português
  • Servir como base para projetos acadêmicos e feiras de ciências, mostrando a viabilidade de modelos customizados para educação
  • Criar ferramentas interativas que ajudem estudantes e educadores a explorarem conceitos complexos de forma acessível e inteligente
  • Demonstrar que projetos de IA podem ser desenvolvidos colaborativamente em ambientes educacionais

💻 Como Usar o Modelo

from transformers import AutoTokenizer, AutoModelForCausalLM, TextStreamer
import torch

repo_id = "lambdaindie/WNL468M"

tokenizer = AutoTokenizer.from_pretrained(repo_id)
model = AutoModelForCausalLM.from_pretrained(repo_id, device_map="auto", torch_dtype=torch.float16)
model.eval()

streamer = TextStreamer(tokenizer)

while True:
    prompt = input("Você: ")
    inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
    _ = model.generate(**inputs, max_new_tokens=100, streamer=streamer)

🚀 Próximos Passos

Ampliação do dataset com mais exemplos em português

Desenvolvimento de versões maiores com foco em domínio acadêmico específico

Integração com plataformas educacionais para testes reais em sala de aula


Criado com dedicação, conhecimento e fé no futuro da educação. Equipe fundadora empenhada em transformar aprendizado através da inteligência artificial.


🔒 Licença

Este modelo está licenciado sob:

CC BY-NC-ND 4.0 (Creative Commons Attribution-NonCommercial-NoDerivatives 4.0)

Você é livre para:

  • Compartilhar — copiar e redistribuir o material em qualquer meio ou formato

Desde que siga os termos:

  • Atribuição — Deve creditar os autores (ver seção "Equipe Fundadora").
  • Não Comercial — Não pode usar o material para fins comerciais.
  • Sem Derivações — Não pode remixar, transformar ou criar a partir do material.

Este modelo é exclusivo para fins acadêmicos e educacionais.


Downloads last month
313
Safetensors
Model size
468M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for lambdaindie/WNL468M

Finetuned
(12)
this model

Dataset used to train lambdaindie/WNL468M

Space using lambdaindie/WNL468M 1