File size: 1,762 Bytes
be0ab41
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
import streamlit as st
from transformers import pipeline, MarianMTModel, MarianTokenizer, AutoModelForCausalLM, AutoTokenizer

# Inizializza il traduttore italiano-inglese
tokenizer_it_en = MarianTokenizer.from_pretrained("Helsinki-NLP/opus-mt-it-en")
model_it_en = MarianMTModel.from_pretrained("Helsinki-NLP/opus-mt-it-en")

# Inizializza il traduttore inglese-italiano
tokenizer_en_it = MarianTokenizer.from_pretrained("Helsinki-NLP/opus-mt-en-it")
model_en_it = MarianMTModel.from_pretrained("Helsinki-NLP/opus-mt-en-it")

# Carica il modello fairseq-dense-2.7B
model_name = "KoboldAI/fairseq-dense-2.7B"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)

# Creazione della pipeline di generazione del testo
chatbot = pipeline("text-generation", model=model, tokenizer=tokenizer)

# Funzione per la traduzione
def translate(text, model, tokenizer):
    inputs = tokenizer(text, return_tensors="pt", padding=True)
    outputs = model.generate(**inputs)
    return tokenizer.decode(outputs[0], skip_special_tokens=True)

# Interfaccia utente Streamlit per il chatbot
st.title("Chatbot Lucilla")

user_input = st.text_input("Scrivi qui per parlare con Lucilla:")

if st.button("Invia"):
    input_in_english = translate(user_input, model_it_en, tokenizer_it_en)
    responses = chatbot(input_in_english, max_length=50, num_return_sequences=1, temperature=0.9, do_sample=True)
    response_in_english = responses[0]['generated_text']
    response_in_italian = translate(response_in_english, model_en_it, tokenizer_en_it)
    st.text_area("Risposta:", value=response_in_italian, height=100)

# Slider esempio
st.write("Esempio Slider:")
x = st.slider('Select a value')
st.write(x, 'squared is', x * x)