Files changed (1) hide show
  1. README.md +16 -18
README.md CHANGED
@@ -1,6 +1,6 @@
1
  # Carte du modèle : Guillaume Tell
2
 
3
- [Version française](#Version-française1) / [English version](#English-version)
4
 
5
  ---
6
  # Version française
@@ -13,11 +13,11 @@
13
  2. [Utilisation](#utilisation)
14
  - [Contexte de création](#contexte-de-création)
15
  - [Finalités et limites du modèle](#finalités-et-limites-du-modèle)
16
- - [Cas d'usage et utilisateurs](#cas-d’usage-et-utilisateurs)
17
  - [Exemple](#exemple)
18
  3. [Prompt](#prompt)
19
  4. [Informations sur le finetuning](#informations-sur-le-finetuning)
20
- 5. [Utilisation d'Albert pour des tâches de RAG](#utilisation-d’Albert-pour-des-tâches-de-RAG)
21
  5. [Glossaire](#glossaire)
22
  ---
23
 
@@ -39,7 +39,7 @@ Le modèle "Guillaume Tell" vise à améliorer la vérifiabilité de la généra
39
  ---
40
  ## Utilisation
41
  ### Contexte de création
42
- Guillaume Tell a été developpé pour **ALBERT**, l’outil d’IA Générative interministérielle de l’État, et plus particulièrement dans le cadre de [l'expérimentation d'un modèle d'assistance aux conseillers numériques](https://www.france-services.gouv.fr/actualites/experimentation-dun-modele-dassistance-france-services-IA) [France services](#Glossaire) basé sur l’intelligence artificielle. Guillaume Tell vise à répondre aux besoins spécifiques des conseillers face à un LLM, en l'occurence la vérification des réponses générées par Albert pour s'assurer de leur justesse avant de les transmettre à des usagers accueillis en maison France services.
43
 
44
  ### Finalités et limites du modèle
45
  Guillaume Tell est un modèle de langage, avec des capacités conversationnelles et de recherche d'information sourcée. Il peut être utilisé pour formuler une réponse à des questions relatives à l'administration française (eg. démarches administratives) en allant récupérer des informations pertinentes dans sa base de connaissances (RAG) et en synthétisant une réponse à partir de celles-ci.
@@ -131,7 +131,7 @@ Guillaume Tell a été fine tuné en utilisant l'approche LORA et une quantizati
131
  Le code de finetuning `finetuning.py` est disponible dans la section `Files and versions`.
132
 
133
  ---
134
- ## Utilisation d'Albert pour des tâches de [RAG](#Glossaire)
135
 
136
  Il est possible d'utiliser des techniques de RAG afin d'optimiser la pertinence de la réponse du modèle. Nous pouvons ainsi obtenir des réponses basées sur les bonnes données adaptées à la question.
137
  C'est ce que nous faisons actuellement en production avec ALBERT.
@@ -159,16 +159,16 @@ C'est ce que nous faisons actuellement en production avec ALBERT.
159
 
160
  ---
161
  ## Table of contents
162
- 1. [Model details](#Model-details)
163
- 2. [Uses](#Uses)
164
- - [Creation context](#Creation-context)
165
- - [Purposes and limitations of the model](#Purposes-and-limitations-of-the-model)
166
- - [Use-cases-and-users](#Use-cases-and-users)
167
- - [Example](#Example)
168
- 3. [Prompt](#Prompt1)
169
- 4. [Finetuning information](#Finetuning-information)
170
- 5. [Using Albert for RAG tasks](#Using-Albert-for-RAG-tasks)
171
- 5. [Glossary](#Glossary)
172
  ---
173
 
174
  ## Model details
@@ -279,7 +279,7 @@ Guillaume Tell was fine-tuned using the LORA approach and 4-bit quantization on
279
  The finetuning code `finetuning.py` is available in the `Files and versions` section.
280
 
281
  ---
282
- ## Using Albert for [RAG](#Glossary) tasks
283
 
284
  RAG techniques can be used to optimize the relevance of the model's response. In this way, we can obtain answers based on the right data for the right question.
285
  This is what we are currently doing in production with ALBERT.
@@ -303,5 +303,3 @@ At the time of the model's release, the data for ALBERT's RAG consisted of the f
303
  ## Evaluation
304
 
305
  <!-- This section describes the evaluation protocols and provides the results. -->
306
-
307
-
 
1
  # Carte du modèle : Guillaume Tell
2
 
3
+ [Version française](#version-française) / [English version](#english-version)
4
 
5
  ---
6
  # Version française
 
13
  2. [Utilisation](#utilisation)
14
  - [Contexte de création](#contexte-de-création)
15
  - [Finalités et limites du modèle](#finalités-et-limites-du-modèle)
16
+ - [Cas d'usage et utilisateurs](#cas-dusage-et-utilisateurs)
17
  - [Exemple](#exemple)
18
  3. [Prompt](#prompt)
19
  4. [Informations sur le finetuning](#informations-sur-le-finetuning)
20
+ 5. [Utilisation d'Albert pour des tâches de RAG](#utilisation-dalbert-pour-des-tâches-de-ragglossaire)
21
  5. [Glossaire](#glossaire)
22
  ---
23
 
 
39
  ---
40
  ## Utilisation
41
  ### Contexte de création
42
+ Guillaume Tell a été developpé pour **ALBERT**, l’outil d’IA Générative interministérielle de l’État, et plus particulièrement dans le cadre de [l'expérimentation d'un modèle d'assistance aux conseillers numériques](https://www.france-services.gouv.fr/actualites/experimentation-dun-modele-dassistance-france-services-IA) [France services](#glossaire) basé sur l’intelligence artificielle. Guillaume Tell vise à répondre aux besoins spécifiques des conseillers face à un LLM, en l'occurence la vérification des réponses générées par Albert pour s'assurer de leur justesse avant de les transmettre à des usagers accueillis en maison France services.
43
 
44
  ### Finalités et limites du modèle
45
  Guillaume Tell est un modèle de langage, avec des capacités conversationnelles et de recherche d'information sourcée. Il peut être utilisé pour formuler une réponse à des questions relatives à l'administration française (eg. démarches administratives) en allant récupérer des informations pertinentes dans sa base de connaissances (RAG) et en synthétisant une réponse à partir de celles-ci.
 
131
  Le code de finetuning `finetuning.py` est disponible dans la section `Files and versions`.
132
 
133
  ---
134
+ ## Utilisation d'Albert pour des tâches de [RAG](#glossaire)
135
 
136
  Il est possible d'utiliser des techniques de RAG afin d'optimiser la pertinence de la réponse du modèle. Nous pouvons ainsi obtenir des réponses basées sur les bonnes données adaptées à la question.
137
  C'est ce que nous faisons actuellement en production avec ALBERT.
 
159
 
160
  ---
161
  ## Table of contents
162
+ 1. [Model details](#model-details)
163
+ 2. [Uses](#uses)
164
+ - [Creation context](#creation-context)
165
+ - [Purposes and limitations of the model](#purposes-and-limitations-of-the-model)
166
+ - [Use-cases-and-users](#use-cases-and-users)
167
+ - [Example](#example)
168
+ 3. [Prompt](#prompt-1)
169
+ 4. [Finetuning information](#finetuning-information)
170
+ 5. [Using Albert for RAG tasks](#using-albert-for-rag--tasks)
171
+ 5. [Glossary](#glossary)
172
  ---
173
 
174
  ## Model details
 
279
  The finetuning code `finetuning.py` is available in the `Files and versions` section.
280
 
281
  ---
282
+ ## Using Albert for [RAG](#glossary) tasks
283
 
284
  RAG techniques can be used to optimize the relevance of the model's response. In this way, we can obtain answers based on the right data for the right question.
285
  This is what we are currently doing in production with ALBERT.
 
303
  ## Evaluation
304
 
305
  <!-- This section describes the evaluation protocols and provides the results. -->