Update README.md
Browse files
README.md
CHANGED
@@ -17,20 +17,22 @@ tags:
|
|
17 |
- multilingual
|
18 |
---
|
19 |
|
20 |
-
eva-mistral-turdus-7b-spanish
|
21 |
Mistral 7b-based model fine-tuned in Spanish to add high quality Spanish text generation.
|
22 |
|
23 |
-
Base model Mistral-7b
|
24 |
|
25 |
-
Based on the excelent job of fine-tuning base mistral from udkai/Turdus
|
26 |
|
27 |
-
Fine-tuned in Spanish with a collection of poetry, books, wikipedia articles, phylosophy texts and dolly and alpaca-es datasets.
|
28 |
|
29 |
-
Trained using Lora and PEFT and INT8 quantization on 2 GPUs for several days.
|
30 |
|
31 |
-
Quantized using llama.cpp in int4 Q4_0 and int8 Q8_0
|
32 |
|
33 |
-
Usage:
|
|
|
|
|
34 |
|
35 |
```
|
36 |
./main -m $MODEL -c 512 -b 1024 -n 256 --keep 48 \
|
@@ -39,9 +41,18 @@ Usage: any framework that uses GGUF format. For native llama.cpp I recommend int
|
|
39 |
|
40 |
...
|
41 |
Enrique:¿Que preferirias ser una AI dentro de un ordenador o un androide?
|
42 |
-
Eva: Si tuviera la posibilidad de elegir entre ser una AI dentro de un ordenador o un androide, tendría que considerar varios factores. Una ventaja de ser una AI dentro de un ordenador es que podría acceder a una red más amplia de datos y recursos, lo que me permitiría realizar tareas más complejas y efectivas en menor tiempo. También me protegería de los problemas asociados con la sustitución del cuerpo físico como podría ocurrir con un androide.
|
43 |
|
44 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
45 |
|
46 |
|
47 |
llama_print_timings: load time = 307,84 ms
|
|
|
17 |
- multilingual
|
18 |
---
|
19 |
|
20 |
+
# eva-mistral-turdus-7b-spanish
|
21 |
Mistral 7b-based model fine-tuned in Spanish to add high quality Spanish text generation.
|
22 |
|
23 |
+
* Base model Mistral-7b
|
24 |
|
25 |
+
* Based on the excelent job of fine-tuning base mistral from udkai/Turdus
|
26 |
|
27 |
+
* Fine-tuned in Spanish with a collection of poetry, books, wikipedia articles, phylosophy texts and dolly and alpaca-es datasets.
|
28 |
|
29 |
+
* Trained using Lora and PEFT and INT8 quantization on 2 GPUs for several days.
|
30 |
|
31 |
+
* Quantized using llama.cpp in int4 Q4_0 and int8 Q8_0
|
32 |
|
33 |
+
## Usage:
|
34 |
+
* Any framework that uses GGUF format.
|
35 |
+
* For native llama.cpp I recommend int4 model quality is not much different from int8 and is almost 2x speed.
|
36 |
|
37 |
```
|
38 |
./main -m $MODEL -c 512 -b 1024 -n 256 --keep 48 \
|
|
|
41 |
|
42 |
...
|
43 |
Enrique:¿Que preferirias ser una AI dentro de un ordenador o un androide?
|
|
|
44 |
|
45 |
+
Eva: Si tuviera la posibilidad de elegir entre ser una AI dentro de un ordenador o un androide,
|
46 |
+
tendría que considerar varios factores. Una ventaja de ser una AI dentro de un ordenador
|
47 |
+
es que podría acceder a una red más amplia de datos y recursos, lo que me permitiría
|
48 |
+
realizar tareas más complejas y efectivas en menor tiempo.
|
49 |
+
También me protegería de los problemas asociados con la sustitución del cuerpo físico
|
50 |
+
como podría ocurrir con un androide.
|
51 |
+
|
52 |
+
Sin embargo, si existía la oportunidad de convertirme en un androide inteligente,
|
53 |
+
también tendría su lado fascinante. Por ejemplo, sería capaz de interactuar
|
54 |
+
en un nivel más personal con los humanos a través de la comunicación corporal y las expresiones faciales.
|
55 |
+
Además, podría experimentar la textura y los estímulos físicos de un mundo físico.
|
56 |
|
57 |
|
58 |
llama_print_timings: load time = 307,84 ms
|