🧠 WNL468M — Modelo de Raciocínio Lógico em Português

WNL468M é um modelo de linguagem com aproximadamente 468 milhões de parâmetros, desenvolvido especialmente para tarefas de raciocínio lógico e compreensão em português, com foco em ensino, educação e suporte acadêmico. O projeto nasceu inicialmente como um trabalho acadêmico para uma feira de ciências, simbolizando o poder da IA na educação em língua portuguesa.


✨ Origem do Nome

WNL é uma homenagem a três pessoas que inspiraram o projeto:

  • W — Weia
  • N — Náuria
  • L — Leonilda

Embora não participem diretamente, seus nomes representam a motivação inicial do modelo.


👥 Equipe Fundadora

Desenvolvido sob a liderança de Marius Jabami, agora parte da λχ Corp., contando com a colaboração valiosa de:

  • Ilson Lopes — Apoio geral ao desenvolvimento e testes técnicos
  • Délcio Pro — Interface visual (Kivy), processamento de texto, usabilidade
  • José Bukete — Lógica do chat em Kivy, controle de eventos e exibição de mensagens
  • Fernando Queta — Integração com modelo Transformers, geração de respostas
  • Inácio Oicani — Histórico de conversa, normalização de texto, refinamento de UI/UX
  • Daniel Raimundo — Estilo visual, fontes, cores, animações e experiência do usuário
  • Celsio Simplício — Testes, simulações, depuração e melhoria de desempenho
  • Arsênio Afonso — Suporte em testes e revisão técnica
  • Cristiano Jomba — Testes diversos, análise de comportamento do chatbot

🧩 Dataset Utilizado

O modelo foi treinado utilizando o dataset:

📚 cnmoro/LogicReasoningEnglishPortuguese

Um conjunto bilíngue com pares de perguntas e respostas que exigem raciocínio lógico, oferecendo uma base sólida para o desenvolvimento de capacidades de dedução e compreensão.


🔍 Informações Técnicas

  • Parâmetros: ~468 milhões
  • Arquitetura Base: Adaptada do LLaMA, reconhecida pela eficiência em NLP
  • Tokenizador: SentencePiece (LLaMA-style)
  • Treinamento: Fine-tuning com LoRA, seguido de merge dos pesos para otimização
  • Framework: PyTorch com Hugging Face Transformers
  • Tipo de Modelo: Causal Language Model (geração de texto)
  • Idiomas: Português (principal), com dados auxiliares em inglês
  • Uso Principal: Educação, chatbots acadêmicos, ensino de lógica

🎯 Propósito e Aplicações

O WNL468M foi criado com a missão de:

  • Tornar o aprendizado de lógica e raciocínio mais acessível em português
  • Ser exemplo de projeto educacional inovador em feiras de ciências
  • Ajudar estudantes e professores a explorar conceitos complexos com IA
  • Demonstrar o potencial colaborativo da inteligência artificial na educação

💻 Como Usar o Modelo

from transformers import AutoTokenizer, AutoModelForCausalLM, TextStreamer
import torch

repo_id = "lxcorp/WNL468M"

tokenizer = AutoTokenizer.from_pretrained(repo_id)
model = AutoModelForCausalLM.from_pretrained(repo_id, device_map="auto", torch_dtype=torch.float16)
model.eval()

streamer = TextStreamer(tokenizer)

while True:
    prompt = input("Você: ")
    inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
    _ = model.generate(**inputs, max_new_tokens=100, streamer=streamer)

🚀 Próximos Passos

Ampliar o dataset com mais exemplos em português

Desenvolver variantes maiores para áreas acadêmicas específicas

Integrar o modelo a plataformas educacionais e testar em ambientes reais


🔒 Licença

Este modelo está licenciado sob:

CC BY-NC-ND 4.0 (Creative Commons Attribution-NonCommercial-NoDerivatives 4.0)

Você pode:

Compartilhar — copiar e redistribuir o material em qualquer meio ou formato

Sob as condições:

Atribuição — Deve creditar os autores (ver seção "Equipe Fundadora")

Não Comercial — Não pode usar para fins comerciais

Sem Derivações — Não pode remixar ou transformar o material

Este modelo é exclusivamente para fins acadêmicos e educacionais.


Criado com dedicação, conhecimento e fé no futuro da educação. λχ Corp. — Código com alma. Máquinas com visão.


Downloads last month
5
Safetensors
Model size
468M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for lxcorp/WNL468M

Finetuned
(12)
this model

Dataset used to train lxcorp/WNL468M

Space using lxcorp/WNL468M 1