🧠 WNL468M — Modelo de Raciocínio Lógico em Português
WNL468M é um modelo de linguagem com aproximadamente 468 milhões de parâmetros, desenvolvido especialmente para tarefas de raciocínio lógico e compreensão em português, com foco em ensino, educação e suporte acadêmico. O projeto nasceu inicialmente como um trabalho acadêmico para uma feira de ciências, simbolizando o poder da IA na educação em língua portuguesa.
✨ Origem do Nome
WNL é uma homenagem a três pessoas que inspiraram o projeto:
- W — Weia
- N — Náuria
- L — Leonilda
Embora não participem diretamente, seus nomes representam a motivação inicial do modelo.
👥 Equipe Fundadora
Desenvolvido sob a liderança de Marius Jabami, agora parte da λχ Corp., contando com a colaboração valiosa de:
- Ilson Lopes — Apoio geral ao desenvolvimento e testes técnicos
- Délcio Pro — Interface visual (Kivy), processamento de texto, usabilidade
- José Bukete — Lógica do chat em Kivy, controle de eventos e exibição de mensagens
- Fernando Queta — Integração com modelo Transformers, geração de respostas
- Inácio Oicani — Histórico de conversa, normalização de texto, refinamento de UI/UX
- Daniel Raimundo — Estilo visual, fontes, cores, animações e experiência do usuário
- Celsio Simplício — Testes, simulações, depuração e melhoria de desempenho
- Arsênio Afonso — Suporte em testes e revisão técnica
- Cristiano Jomba — Testes diversos, análise de comportamento do chatbot
🧩 Dataset Utilizado
O modelo foi treinado utilizando o dataset:
📚 cnmoro/LogicReasoningEnglishPortuguese
Um conjunto bilíngue com pares de perguntas e respostas que exigem raciocínio lógico, oferecendo uma base sólida para o desenvolvimento de capacidades de dedução e compreensão.
🔍 Informações Técnicas
- Parâmetros: ~468 milhões
- Arquitetura Base: Adaptada do LLaMA, reconhecida pela eficiência em NLP
- Tokenizador: SentencePiece (LLaMA-style)
- Treinamento: Fine-tuning com LoRA, seguido de merge dos pesos para otimização
- Framework: PyTorch com Hugging Face Transformers
- Tipo de Modelo: Causal Language Model (geração de texto)
- Idiomas: Português (principal), com dados auxiliares em inglês
- Uso Principal: Educação, chatbots acadêmicos, ensino de lógica
🎯 Propósito e Aplicações
O WNL468M foi criado com a missão de:
- Tornar o aprendizado de lógica e raciocínio mais acessível em português
- Ser exemplo de projeto educacional inovador em feiras de ciências
- Ajudar estudantes e professores a explorar conceitos complexos com IA
- Demonstrar o potencial colaborativo da inteligência artificial na educação
💻 Como Usar o Modelo
from transformers import AutoTokenizer, AutoModelForCausalLM, TextStreamer
import torch
repo_id = "lxcorp/WNL468M"
tokenizer = AutoTokenizer.from_pretrained(repo_id)
model = AutoModelForCausalLM.from_pretrained(repo_id, device_map="auto", torch_dtype=torch.float16)
model.eval()
streamer = TextStreamer(tokenizer)
while True:
prompt = input("Você: ")
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
_ = model.generate(**inputs, max_new_tokens=100, streamer=streamer)
🚀 Próximos Passos
Ampliar o dataset com mais exemplos em português
Desenvolver variantes maiores para áreas acadêmicas específicas
Integrar o modelo a plataformas educacionais e testar em ambientes reais
🔒 Licença
Este modelo está licenciado sob:
CC BY-NC-ND 4.0 (Creative Commons Attribution-NonCommercial-NoDerivatives 4.0)
Você pode:
Compartilhar — copiar e redistribuir o material em qualquer meio ou formato
Sob as condições:
Atribuição — Deve creditar os autores (ver seção "Equipe Fundadora")
Não Comercial — Não pode usar para fins comerciais
Sem Derivações — Não pode remixar ou transformar o material
Este modelo é exclusivamente para fins acadêmicos e educacionais.
Criado com dedicação, conhecimento e fé no futuro da educação. λχ Corp. — Código com alma. Máquinas com visão.
- Downloads last month
- 5
Model tree for lxcorp/WNL468M
Base model
nicholasKluge/TeenyTinyLlama-460m