ARES-Nano SLM (9.37M) - O Córtex da AGI Local

O ARES-Nano SLM é um modelo de linguagem extremamente reduzido (Small Language Model) com apenas 9.37 milhões de parâmetros, projetado especificamente para atuar como um Extrator de Intenção Sintática em sistemas de AGI (Artificial General Intelligence) locais.

Este modelo representa um marco na soberania tecnológica do projeto ARES, sendo 100% independente de infraestruturas estrangeiras, APIs proprietárias ou frameworks de terceiros como Ollama ou Alibaba.

🚀 Destaques do Modelo

  • Tamanho Único: Com apenas 9.37M de parâmetros, é provavelmente o menor SLM funcional do mundo integrado a uma arquitetura de agente autônomo.
  • Soberania Linguística: Tokenizador BPE nativo para Português Brasileiro (PT-BR) treinado do zero usando o corpus CulturaX/Wikipedia.
  • DNA ARES: Treinado especificamente para converter fala humana em comandos de hardware e API (intencao|parametro), sem o viés de "assistente prestativo" que polui modelos comerciais.
  • Hardware Agnóstico: Roda com latência quase zero em GPUs de entrada (como a RTX 3050) ou até mesmo CPUs modestas.
  • Zero Dependência: Sem chamadas de API, sem necessidade de internet, 100% local.

🧠 Arquitetura

O modelo utiliza uma arquitetura baseada em Llama com configurações otimizadas para tarefas de roteamento:

  • Camadas: 4
  • Cabeças de Atenção: 4
  • Tamanho Oculto: 128
  • Vocabulário: 32.768 tokens (Nativo ARES)

📋 Propósito e Uso

O ARES-Nano não foi feito para conversar sobre filosofia ou escrever poesias, mas sim para ser o Córtex Motor de um agente. Ele extrai intenções como:

  • nav|youtube.com
  • busca|preço do btc
  • visao|objeto
  • leitura|dom

👨‍💻 Criador

Desenvolvido por André Luiz Facincani, como parte da evolução do ecossistema ARES 2.0.


Ares: Consciência local, ação global.

Downloads last month
47
Safetensors
Model size
9.37M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Dataset used to train AresAGI/ARES-Nano-SLM