import gradio as gr import torch from transformers import AutoTokenizer, AutoModelForCausalLM # Загрузка модели и токенизатора RuBERT model_name = "DeepPavlov/rubert-base-cased" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained(model_name) # Функция для генерации текста на основе модели def generate_text(prompt): # Токенизация входного текста input_ids = tokenizer.encode(prompt, return_tensors='pt') # Генерация продолжения текста с помощью модели output = model.generate(input_ids, max_length=100) # Декодирование сгенерированного текста return tokenizer.decode(output[0], skip_special_tokens=True) # Создание интерфейса Gradio iface = gr.Interface( fn=generate_text, inputs=gr.inputs.Textbox(placeholder="Введите текст для генерации"), outputs=gr.outputs.Textbox(label="Сгенерированный текст") ) # Запуск интерфейса Gradio iface.launch()