File size: 1,064 Bytes
497e57e
502bbe0
 
9d138e8
 
502bbe0
9d138e8
 
502bbe0
9d138e8
 
 
497e57e
9d138e8
 
 
502bbe0
9d138e8
 
 
 
 
 
 
 
 
 
 
492bec3
9d138e8
 
497e57e
 
 
9d138e8
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36



import gradio as gr
from transformers import AutoTokenizer, AutoModelForCausalLM

# Especifica el nombre del modelo
model_name = "BSC-LT/ALIA-40b"

# Cargar el tokenizador y el modelo
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)

def generar_texto(entrada):
    # Tokenizar la entrada
    input_ids = tokenizer.encode(entrada, return_tensors="pt")
    
    # Generar texto con el modelo
    output = model.generate(input_ids, max_length=100, num_return_sequences=1)
    
    # Decodificar y retornar el texto generado
    texto_generado = tokenizer.decode(output[0], skip_special_tokens=True)
    return texto_generado

# Crear la interfaz de Gradio
interfaz = gr.Interface(
    fn=generar_texto,
    inputs=gr.inputs.Textbox(lines=2, placeholder="Escribe tu prompt aquí..."),
    outputs="text",
    title="Generador de Texto con ALIA-40b",
    description="Este modelo genera texto utilizando ALIA-40b, un modelo LLM entrenado por BSC-LT."
)

if __name__ == "__main__":
    interfaz.launch()