jordigonzm commited on
Commit
33a1100
1 Parent(s): 75c2a7c

Create app.py

Browse files
Files changed (1) hide show
  1. app.py +36 -0
app.py ADDED
@@ -0,0 +1,36 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ import gradio as gr
2
+ from transformers import pipeline
3
+
4
+ # Cargar el modelo
5
+ model_name = "google/gemma-2-27b-it"
6
+ generator = pipeline("text-generation", model=model_name, device=0 if torch.cuda.is_available() else -1)
7
+
8
+ # Función para procesar la entrada y generar la respuesta
9
+ def generate_response(text):
10
+ output = generator(text, max_length=512, num_return_sequences=1)
11
+ response = {
12
+ "choices": [
13
+ {
14
+ "text": output[0]['generated_text'],
15
+ "index": 0,
16
+ "logprobs": None,
17
+ "finish_reason": "stop"
18
+ }
19
+ ],
20
+ "id": "req-12345", # Reemplazar con un ID único
21
+ "model": model_name,
22
+ "created": int(time.time())
23
+ }
24
+ return response
25
+
26
+ # Interfaz Gradio
27
+ iface = gr.Interface(
28
+ fn=generate_response,
29
+ inputs="text",
30
+ outputs="json",
31
+ title="API compatible con OpenAI",
32
+ description="Introduce texto para obtener una respuesta del modelo Gemma."
33
+ )
34
+
35
+ # Ejecutar la interfaz
36
+ iface.launch()