Spaces:
Running
Running
Update README.md
Browse files
README.md
CHANGED
@@ -1,12 +1,61 @@
|
|
1 |
---
|
2 |
title: Docker Ollama
|
3 |
-
emoji:
|
4 |
colorFrom: yellow
|
5 |
colorTo: red
|
6 |
sdk: docker
|
7 |
pinned: false
|
8 |
license: gpl-3.0
|
9 |
-
short_description: Ollama
|
10 |
---
|
11 |
|
12 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
---
|
2 |
title: Docker Ollama
|
3 |
+
emoji: 🐳 🦙 🤗
|
4 |
colorFrom: yellow
|
5 |
colorTo: red
|
6 |
sdk: docker
|
7 |
pinned: false
|
8 |
license: gpl-3.0
|
9 |
+
short_description: Ollama Small Models
|
10 |
---
|
11 |
|
12 |
+
[#MisterAI/Docker_Ollama]: #
|
13 |
+
[#README.md_01]: #
|
14 |
+
[#https://huggingface.co/spaces/MisterAI/Docker_Ollama/]: #
|
15 |
+
|
16 |
+
|
17 |
+
#MisterAI/Docker_Ollama
|
18 |
+
|
19 |
+
## Description
|
20 |
+
|
21 |
+
Bienvenue sur **Docker_Ollama**, un espace dédié à l'exploration et au test des modèles Ollama.
|
22 |
+
|
23 |
+
Cette Démo permet aux utilisateurs de tester tous les modèles Ollama dont la taille est inférieure à 10 milliards de paramètres directement depuis cette interface.
|
24 |
+
|
25 |
+
L'Application tourne sur une machine Hugging Face Free Space : 2 CPU - 16Gb RAM
|
26 |
+
|
27 |
+
## Fonctionnalités
|
28 |
+
|
29 |
+
- **Interface utilisateur intuitive** : Utilisez Gradio pour interagir facilement avec les modèles Ollama.
|
30 |
+
- **Sélection de modèles** : Choisissez parmi une liste de modèles compatibles avec les ressources disponibles.
|
31 |
+
- **Paramètres ajustables** : Configurez les paramètres tels que le nombre maximum de tokens et la température pour personnaliser les réponses des modèles.
|
32 |
+
|
33 |
+
## Comment ça marche ?
|
34 |
+
|
35 |
+
1. **Sélectionnez un modèle** : Choisissez un modèle parmi ceux disponibles dans la liste déroulante.
|
36 |
+
2. **Entrez votre texte** : Saisissez le texte que vous souhaitez soumettre au modèle.
|
37 |
+
3. **Ajustez les paramètres** : Modifiez les paramètres selon vos besoins.
|
38 |
+
4. **Obtenez les résultats** : Cliquez sur le bouton pour générer la réponse du modèle.
|
39 |
+
|
40 |
+
## Crédits
|
41 |
+
|
42 |
+
Ce projet a été rendu possible grâce à la collaboration de plusieurs assistants et outils :
|
43 |
+
|
44 |
+
- **Bolt.new** : Pour la génération du framework initial de l'application, y compris les fichiers de configuration de base (Dockerfile, app.py, start.sh, requirements.txt).
|
45 |
+
- **Hugging Face Assistants** : Utilisation de modèles tels que `CohereForAI/c4ai-command-r-plus-08-2024` et `MistralAI/Nemo` pour diverses tâches d'assistance.
|
46 |
+
- **Le Chat Mistral** : Pour l'assistance dans la vérification et la correction du code.
|
47 |
+
- **Hugging Face Hub** : Mise a disposition d'une machine et d'un espace pour exposer l'Application
|
48 |
+
|
49 |
+
## Remerciements
|
50 |
+
|
51 |
+
Merci à tous les contributeurs et outils qui ont rendu ce projet possible.
|
52 |
+
|
53 |
+
## Liens utiles
|
54 |
+
|
55 |
+
- [Documentation Hugging Face Spaces](https://huggingface.co/docs/hub/spaces)
|
56 |
+
- [Ollama](https://ollama.com/)
|
57 |
+
|
58 |
+
---
|
59 |
+
|
60 |
+
N'hésitez pas à explorer les différents modèles et à expérimenter avec les paramètres disponibles. Votre retour est précieux pour améliorer cet espace !
|
61 |
+
|