aixsatoshi commited on
Commit
248b38e
1 Parent(s): beb5c13

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +2 -6
app.py CHANGED
@@ -13,8 +13,8 @@ model = AutoModelForCausalLM.from_pretrained(
13
  torch_dtype=torch.float16,
14
  device_map="sequential",
15
  trust_remote_code=True,
16
- offload_folder="offload", # オフロードフォルダの指定
17
- offload_state_dict=True # 必要に応じてstate_dictをオフロード
18
  )
19
 
20
  TITLE = "<h1><center>Tanuki-8x8B-dpo-v1.0-AWQ Chat webui</center></h1>"
@@ -70,10 +70,6 @@ def stream_chat(message: str, history: list, temperature: float, max_new_tokens:
70
  temperature=temperature,
71
  eos_token_id=[128001, 128009],
72
  )
73
-
74
- # `inputs` を直接渡すのではなく、不要な key を取り除いた後に渡す
75
- input_data = {key: value for key, value in inputs.items() if key != 'token_type_ids'}
76
- generate_kwargs.update(input_data)
77
 
78
  thread = Thread(target=model.generate, kwargs=generate_kwargs)
79
  thread.start()
 
13
  torch_dtype=torch.float16,
14
  device_map="sequential",
15
  trust_remote_code=True,
16
+ #offload_folder="offload", # オフロードフォルダの指定
17
+ #offload_state_dict=True # 必要に応じてstate_dictをオフロード
18
  )
19
 
20
  TITLE = "<h1><center>Tanuki-8x8B-dpo-v1.0-AWQ Chat webui</center></h1>"
 
70
  temperature=temperature,
71
  eos_token_id=[128001, 128009],
72
  )
 
 
 
 
73
 
74
  thread = Thread(target=model.generate, kwargs=generate_kwargs)
75
  thread.start()