SuperAI2-Machima commited on
Commit
5e119d2
1 Parent(s): a341294

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +4 -4
README.md CHANGED
@@ -9,9 +9,9 @@ datasets:
9
  - wiki-documents-nsc
10
  - ThaiQACorpus-DevelopmentDataset
11
  widget:
12
- - text: "พลเอก ประยุทธ์ จันทร์โอชา (เกิด 21 มีนาคม พ.ศ. 2497) ชื่อเล่น ตู่ เป็นนักการเมืองและอดีตนายทหารบกชาวไทย"
13
- example_title: "Example 01"
14
  - text: "โรงเรียนบ้านขุนด่าน ตั้งอยู่ที่ขุนด่าน จ.นครนายก"
 
 
15
  example_title: "Example 02"
16
  - text: "วันที่ 1 กันยายน 2550 12:00 น. ตำรวจภูธรจ.บุรีรัมย์บุกตรวจยึดไม้แปรรูปหวงห้ามกว่า 80 แผ่น"
17
  example_title: "Example 03"
@@ -28,7 +28,7 @@ from transformers import T5Tokenizer, T5ForConditionalGeneration, T5Config
28
  model = T5ForConditionalGeneration.from_pretrained('SuperAI2-Machima/mt5-small-thai-qg')
29
  tokenizer = T5Tokenizer.from_pretrained('SuperAI2-Machima/mt5-small-thai-qg')
30
 
31
- source_text = 'พลเอก ประยุทธ์ จันทร์โอชา (เกิด 21 มีนาคม พ.ศ. 2497) ชื่อเล่น ตู่ เป็นนักการเมืองและอดีตนายทหารบกชาวไทย'
32
 
33
  print('Predicted Summary Text : ')
34
  tokenized_text = tokenizer.encode(source_text, return_tensors="pt").to(device)
@@ -40,5 +40,5 @@ summary_ids = model.generate(tokenized_text,
40
  output = tokenizer.decode(summary_ids[0], skip_special_tokens=True)
41
  print(output)
42
  #Predicted Summary Text :
43
- #answer: 21 question: ตู่ เป็นนักการเมืองและอดีตนายทหารบกชาวไทย เกิดเมื่อวันที่เท่าไร
44
  ```
 
9
  - wiki-documents-nsc
10
  - ThaiQACorpus-DevelopmentDataset
11
  widget:
 
 
12
  - text: "โรงเรียนบ้านขุนด่าน ตั้งอยู่ที่ขุนด่าน จ.นครนายก"
13
+ example_title: "Example 01"
14
+ - text: "พลเอก ประยุทธ์ จันทร์โอชา (เกิด 21 มีนาคม พ.ศ. 2497) ชื่อเล่น ตู่ เป็นนักการเมืองและอดีตนายทหารบกชาวไทย"
15
  example_title: "Example 02"
16
  - text: "วันที่ 1 กันยายน 2550 12:00 น. ตำรวจภูธรจ.บุรีรัมย์บุกตรวจยึดไม้แปรรูปหวงห้ามกว่า 80 แผ่น"
17
  example_title: "Example 03"
 
28
  model = T5ForConditionalGeneration.from_pretrained('SuperAI2-Machima/mt5-small-thai-qg')
29
  tokenizer = T5Tokenizer.from_pretrained('SuperAI2-Machima/mt5-small-thai-qg')
30
 
31
+ source_text = 'บุกยึดไม้เถื่อน อดีต ส.ส.บุรีรัมย์ เตรียมสร้างคฤหาสน์ทรงไทย 1 กันยายน 2550 12:00 น. ตำรวจภูธรจ.บุรีรัมย์บุกตรวจยึดไม้แปรรูปหวงห้ามกว่า 80 แผ่น'
32
 
33
  print('Predicted Summary Text : ')
34
  tokenized_text = tokenizer.encode(source_text, return_tensors="pt").to(device)
 
40
  output = tokenizer.decode(summary_ids[0], skip_special_tokens=True)
41
  print(output)
42
  #Predicted Summary Text :
43
+ #answer: 80 แผ่น question: ตํารวจภูธรจ.บุรีรัมย์บุกตรวจยึดไม้แปรรูปหวงห้ามกว่ากี่แผ่น
44
  ```