cnmoro commited on
Commit
382ac7c
·
verified ·
1 Parent(s): 08d0dee

Create README.md

Browse files
Files changed (1) hide show
  1. README.md +143 -0
README.md ADDED
@@ -0,0 +1,143 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: mit
3
+ language:
4
+ - pt
5
+ base_model:
6
+ - Qwen/Qwen2.5-0.5B-Instruct
7
+ pipeline_tag: text-generation
8
+ datasets:
9
+ - adalbertojunior/openHermes_portuguese
10
+ - cnmoro/smoltalk-555k-ptbr
11
+ - cnmoro/RagMixPTBR-Legal-Alpaca-2M
12
+ - cnmoro/LogicReasoningEnglishPortuguese
13
+ ---
14
+
15
+ Qwen2.5-0.5B finetuned for proficiency in Portuguese language and increased intelligence, as well as supporting
16
+ reasoning (can be toggled on or off)
17
+
18
+ ```plaintext
19
+ https://ollama.com/cnmoro/Qwen2.5-0.5B-Portuguese-Hybrid-Reasoning
20
+ ```
21
+
22
+ ---
23
+
24
+ Load the model
25
+
26
+ ```python
27
+ from transformers import AutoModelForCausalLM, AutoTokenizer
28
+
29
+ model_name = "cnmoro/Qwen2.5-0.5B-Portuguese-Hybrid-Reasoning"
30
+
31
+ model = AutoModelForCausalLM.from_pretrained(
32
+ model_name,
33
+ torch_dtype="auto",
34
+ device_map="auto"
35
+ )
36
+ tokenizer = AutoTokenizer.from_pretrained(model_name)
37
+
38
+ prompt = "Escreva uma breve introdução sobre LLMs (Large Language Models) e suas aplicações."
39
+ ```
40
+
41
+ ---
42
+
43
+ Reasoning **OFF**
44
+
45
+ ```python
46
+ # System prompt is always injected and hardcoded automatically
47
+ # for ideal performance in portuguese language.
48
+ # No need to write it.
49
+ messages = [
50
+ {"role": "user", "content": prompt}
51
+ ]
52
+ text = tokenizer.apply_chat_template(
53
+ messages,
54
+ tokenize=False,
55
+ add_generation_prompt=True
56
+ )
57
+ model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
58
+
59
+ generated_ids = model.generate(
60
+ **model_inputs,
61
+ max_new_tokens=512
62
+ )
63
+ generated_ids = [
64
+ output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
65
+ ]
66
+
67
+ response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
68
+ response
69
+ # LLMs são sistemas avançados de inteligência artificial projetados para imitar a cognição humana. Elas são capazes de processar grandes # quantidades de dados de texto, permitindo que as máquinas entendam, respondam e gerem linguagem complexa.
70
+ #
71
+ # As LLMs têm diversas aplicações importantes:
72
+ #
73
+ # 1. Comunicação: Elas podem facilitar interações humanóides entre humanos e computadores.
74
+ # 2. Análise de Dados: Eles ajudam na extração de insights significativos de grandes volumes de dados.
75
+ # 3. Assistentes Virtuais: LMLs podem criar assistentes virtuais com recursos como tradução de idiomas e previsão de sentimentos.
76
+ # 4. Processamento de Linguagem Natural: Eles permitem que os chatbots interpretem e respondam à linguagem natural.
77
+ # 5. Aprendizado de Máquina: LMLs podem treinar modelos de aprendizado de máquina para reconhecimento de padrões e geração de texto.
78
+
79
+ # Ao combinar processamento de linguagem profundo, visão computacional e aprendizado de máquina, as LLMs estão preparadas para desafios # complexos em vários campos. Essas aplicações levaram a inovações revolucionárias em áreas como saúde, educação e finanças, onde sistemas de IA tradicionais poderiam ter dificuldades para fornecer soluções eficazes.
80
+ ```
81
+
82
+ ---
83
+
84
+ Reasoning **ON**
85
+
86
+ ```python
87
+ messages = [
88
+ {"role": "system", "content": "Reason"}, # Use "Reason" as the system message and it will be handled automatically through the custom template
89
+ {"role": "user", "content": prompt}
90
+ ]
91
+ text = tokenizer.apply_chat_template(
92
+ messages,
93
+ tokenize=False,
94
+ add_generation_prompt=True
95
+ )
96
+ model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
97
+
98
+ generated_ids = model.generate(
99
+ **model_inputs,
100
+ max_new_tokens=512
101
+ )
102
+ generated_ids = [ # Note the "-3" in the line below
103
+ output_ids[len(input_ids)-3:] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
104
+ ]
105
+
106
+ response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
107
+ response
108
+ # <think>
109
+ # Para escrever uma introdução sobre LLMs, preciso considerar os principais aspectos dos LLMs e sua aplicação.
110
+
111
+ # O usuário está pedindo uma introdução, então devo focar na definição básica e em como ela se relaciona com a tecnologia LLM.
112
+
113
+ # Vamos dividir isso passo a passo:
114
+
115
+ # 1. Definir Large Language Models (LLMs)
116
+ # 2. Explicar sua funcionalidade principal
117
+ # 3. Descrever sua aplicação
118
+ # 4. Mencionar os benefícios
119
+
120
+ # Agora, vamos prosseguir com a introdução:
121
+ # </think>
122
+ # LLMs ou Large Language Models, são inteligência artificial avançada projetadas para simular a cognição humana em linguagem natural. Eles foram desenvolvidos para processamento de texto e fala complexos, permitindo que sistemas de IA compreendam, interpretem e gerem texto e fala humanos.
123
+
124
+ # Os LLMs funcionam por meio de um algoritmo de aprendizado profundo inspirado no cérebro humano. Eles usam redes neurais com múltiplas camadas para analisar grandes quantidades de dados de texto e fala, permitindo que as máquinas entendam e respondam a perguntas complexas.
125
+
126
+ # As aplicações de LLMs são vastas e variadas. Alguns exemplos incluem:
127
+ # - Resumo automático de artigos acadêmicos
128
+ # - Geração de conteúdo original
129
+ # - Análise de sentimentos em mídias sociais
130
+ # - Processamento de linguagem natural para chatbots
131
+ # - Reconhecimento de entidades nomeadas em documentos
132
+ # - Tomada de decisões em negociações internacionais
133
+ # - Modelagem financeira
134
+ # - Gerenciamento da saúde mental
135
+
136
+ # Apesar de suas inúmeras possibilidades, os LLMs enfrentam desafios significativos, como:
137
+ # - Falta de contexto nos dados de treinamento
138
+ # - Problemas de generalização para novos tópicos
139
+ # - Potencial de manipulação de dados
140
+ # - Dificuldade em entender e interpretar a própria consciência
141
+
142
+ # À medida que a tecnologia LLM continua a evoluir, podemos esperar vê-la utilizada em vários setores e áreas, desde educação até finanças.
143
+ ```