File size: 2,501 Bytes
be9df71
 
0f7730b
be9df71
 
 
 
 
0f7730b
be9df71
 
d1f708d
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
---
title: Docker Ollama
emoji: 🐳 🦙 🤗 
colorFrom: yellow
colorTo: red
sdk: docker
pinned: false
license: gpl-3.0
short_description: Ollama Small Models Chat
---

[#MisterAI/Docker_Ollama]: #
[#README.md_01]: #
[#https://huggingface.co/spaces/MisterAI/Docker_Ollama/]: #


#MisterAI/Docker_Ollama

## Description

Bienvenue sur **Docker_Ollama**, un espace dédié à l'exploration et au test des modèles Ollama. 

Cette Démo permet aux utilisateurs de tester tous les modèles Ollama dont la taille est inférieure à 10 milliards de paramètres directement depuis cette interface.

L'Application tourne sur une machine Hugging Face Free Space : 2 CPU - 16Gb RAM

## Fonctionnalités

- **Interface utilisateur intuitive** : Utilisez Gradio pour interagir facilement avec les modèles Ollama.
- **Sélection de modèles** : Choisissez parmi une liste de modèles compatibles avec les ressources disponibles.
- **Paramètres ajustables** : Configurez les paramètres tels que le nombre maximum de tokens et la température pour personnaliser les réponses des modèles.

## Comment ça marche ?

1. **Sélectionnez un modèle** : Choisissez un modèle parmi ceux disponibles dans la liste déroulante.
2. **Entrez votre texte** : Saisissez le texte que vous souhaitez soumettre au modèle.
3. **Ajustez les paramètres** : Modifiez les paramètres selon vos besoins.
4. **Obtenez les résultats** : Cliquez sur le bouton pour générer la réponse du modèle.

## Crédits

Ce projet a été rendu possible grâce à la collaboration de plusieurs assistants et outils :

- **Bolt.new** : Pour la génération du framework initial de l'application, y compris les fichiers de configuration de base (Dockerfile, app.py, start.sh, requirements.txt).
- **Hugging Face Assistants** : Utilisation de modèles tels que `CohereForAI/c4ai-command-r-plus-08-2024` et `MistralAI/Nemo` pour diverses tâches d'assistance.
- **Le Chat Mistral** : Pour l'assistance dans la vérification et la correction du code.
- **Hugging Face Hub** : Mise a disposition d'une machine et d'un espace pour exposer l'Application

## Remerciements

Merci à tous les contributeurs et outils qui ont rendu ce projet possible.

## Liens utiles

- [Documentation Hugging Face Spaces](https://huggingface.co/docs/hub/spaces)
- [Ollama](https://ollama.com/)

---

N'hésitez pas à explorer les différents modèles et à expérimenter avec les paramètres disponibles. Votre retour est précieux pour améliorer cet espace !