Spaces:
Runtime error
Runtime error
import gradio as gr | |
from transformers import AutoTokenizer, AutoModelForSequenceClassification | |
import torch | |
# Загрузка модели и токенизатора | |
model_name = "your-username/your-model-name" # Замените на путь к вашей модели на HF | |
tokenizer = AutoTokenizer.from_pretrained(model_name) | |
model = AutoModelForSequenceClassification.from_pretrained(model_name) | |
# Перевод модели в режим оценки | |
device = torch.device("cuda" if torch.cuda.is_available() else "cpu") | |
model = model.to(device) | |
model.eval() | |
# Словарь для маппинга индексов на категории | |
id2label = { | |
0: 'climate', 1: 'conflicts', 2: 'culture', 3: 'economy', 4: 'gloss', | |
5: 'health', 6: 'politics', 7: 'science', 8: 'society', 9: 'sports', 10: 'travel' | |
} | |
def predict(text): | |
inputs = tokenizer(text, return_tensors="pt", truncation=True, padding=True).to(device) | |
with torch.no_grad(): | |
outputs = model(**inputs) | |
predicted_label_id = outputs.logits.argmax(-1).item() | |
predicted_label = id2label[predicted_label_id] | |
# Получаем вероятности для всех классов | |
probabilities = torch.nn.functional.softmax(outputs.logits, dim=-1) | |
probs_dict = {id2label[i]: float(prob) for i, prob in enumerate(probabilities[0])} | |
return predicted_label, probs_dict | |
# Создание интерфейса Gradio | |
iface = gr.Interface( | |
fn=predict, | |
inputs=gr.Textbox(lines=5, label="Введите текст новости"), | |
outputs=[ | |
gr.Label(label="Предсказанная категория"), | |
gr.Label(label="Вероятности категорий") | |
], | |
title="Классификатор новостей", | |
description="Введите текст новости, и модель предскажет её категорию." | |
) | |
iface.launch() |