Amside-Ai / app.py
Hodely's picture
Update app.py
aecb052 verified
raw
history blame
1.03 kB
import gradio as gr
from transformers import pipeline
import torch
import os
from huggingface_hub import login
# Login con token seguro
hf_token = os.environ["HF_TOKEN"]
login(token=hf_token)
# Usa GPU si hay
device = 0 if torch.cuda.is_available() else -1
# Modelo de tipo chat liviano
pipe = pipeline(
"text-generation",
model="mistralai/TinyMistral-248M-Chat-v1",
device=device
)
# Formato chat para prompts
def responder(prompt):
formatted_prompt = f"[INST] {prompt} [/INST]"
respuesta = pipe(
formatted_prompt,
max_new_tokens=80,
do_sample=True,
temperature=0.7,
top_k=50,
top_p=0.9
)[0]["generated_text"]
return respuesta.replace(formatted_prompt, "").strip()
# Interfaz Gradio
with gr.Blocks() as demo:
gr.Markdown("## ⚡ AmInside 1.0 – Versión Chat Ligera")
entrada = gr.Textbox(label="Escribe tu mensaje")
salida = gr.Textbox(label="Respuesta")
entrada.submit(fn=responder, inputs=entrada, outputs=salida)
demo.launch()