jordigonzm commited on
Commit
45a2312
1 Parent(s): 98ba4d0

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +23 -33
app.py CHANGED
@@ -4,47 +4,37 @@ import time
4
 
5
  # Cargar el token desde la variable de entorno
6
  token = os.environ.get("HUGGINGFACE_HUB_TOKEN")
 
7
 
8
- # Asegúrate de que el token esté presente
9
- if not token:
10
- print("Error: No se encontró el token HUGGINGFACE_HUB_TOKEN en las variables de entorno.")
11
- exit(1)
12
-
13
- # Crear el cliente de inferencia para el modelo Meta-Llama-3-8B-Instruct
14
  try:
15
- client_llama = InferenceClient(
16
- model="meta-llama/Meta-Llama-3-8B-Instruct",
17
- token=token
 
 
18
  )
19
- print("Cliente de inferencia creado correctamente.")
20
  except Exception as e:
21
- print(f"Error al crear el cliente de inferencia: {e}")
22
  exit(1)
23
 
24
  # Función para procesar la entrada y generar la respuesta
25
  def generate_response(text):
26
- try:
27
- # Realizar la inferencia utilizando el cliente
28
- output = client_llama(text, max_length=512, num_return_sequences=1)
29
-
30
- # Formatear la respuesta en un formato similar a OpenAI
31
- response = {
32
- "choices": [
33
- {
34
- "text": output['generated_text'],
35
- "index": 0,
36
- "logprobs": None,
37
- "finish_reason": "stop"
38
- }
39
- ],
40
- "id": "req-12345", # Reemplazar con un ID único
41
- "model": "meta-llama/Meta-Llama-3-8B-Instruct",
42
- "created": int(time.time())
43
- }
44
- return response
45
- except Exception as e:
46
- print(f"Error al generar la respuesta: {e}")
47
- return {"error": str(e)}
48
 
49
  # Configuración de la interfaz Gradio
50
  import gradio as gr
 
4
 
5
  # Cargar el token desde la variable de entorno
6
  token = os.environ.get("HUGGINGFACE_HUB_TOKEN")
7
+ model_name = "google/gemma-2-27b-it"
8
 
 
 
 
 
 
 
9
  try:
10
+ generator = pipeline(
11
+ "text-generation",
12
+ model=model_name,
13
+ device=0 if torch.cuda.is_available() else -1,
14
+ use_auth_token=token
15
  )
16
+ print("Modelo cargado correctamente.")
17
  except Exception as e:
18
+ print(f"Error al cargar el modelo: {e}")
19
  exit(1)
20
 
21
  # Función para procesar la entrada y generar la respuesta
22
  def generate_response(text):
23
+ output = generator(text, max_length=512, num_return_sequences=1)
24
+ response = {
25
+ "choices": [
26
+ {
27
+ "text": output[0]['generated_text'],
28
+ "index": 0,
29
+ "logprobs": None,
30
+ "finish_reason": "stop"
31
+ }
32
+ ],
33
+ "id": "req-12345", # Reemplazar con un ID único
34
+ "model": model_name,
35
+ "created": int(time.time())
36
+ }
37
+ return response
 
 
 
 
 
 
 
38
 
39
  # Configuración de la interfaz Gradio
40
  import gradio as gr