Paul720810 commited on
Commit
fb25a4d
·
verified ·
1 Parent(s): 211d52d

Update README with multi-format conversion results

Browse files
Files changed (1) hide show
  1. README.md +55 -42
README.md CHANGED
@@ -1,65 +1,78 @@
1
- # GGUF Models Collection
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
2
 
3
- 這個倉庫包含轉換為 GGUF 格式的模型檔案。
 
 
 
 
 
 
4
 
5
  ## 轉換摘要
6
 
7
  - 📊 成功轉換: 3/4 個模型
8
  - 📈 成功率: 75.0%
9
- - 🔧 主要格式: FP16
10
- - 🕒 更新時間: 2025-08-29 03:48:56
11
 
12
  ## 模型列表
13
 
14
- | 模型名 | 原始倉庫 | 格式 | 檔案大小 | 狀態 |
15
- |--------|----------|------|----------|------|
16
- | deepseek-1.3b-sql-final-t4x2 | [Paul720810/deepseek-1.3b-sql-final-t4x2](https://huggingface.co/Paul720810/deepseek-1.3b-sql-final-t4x2) | FP16 | 2569.5MB | ✅ 成功 |
17
- | codegemma-2b-sql-coder-finetuned | [Paul720810/codegemma-2b-sql-coder-finetuned](https://huggingface.co/Paul720810/codegemma-2b-sql-coder-finetuned) | FP16 | 4786.0MB | ✅ 成功 |
18
- | qwen2-7b-sql-merged-final-t4x2 | [Paul720810/qwen2-7b-sql-merged-final-t4x2](https://huggingface.co/Paul720810/qwen2-7b-sql-merged-final-t4x2) | N/A | N/A | ❌ 失敗 |
19
- | qwen-coder-1.5b-sql-final-t4x2 | [Paul720810/qwen-coder-1.5b-sql-final-t4x2](https://huggingface.co/Paul720810/qwen-coder-1.5b-sql-final-t4x2) | FP16 | 2950.4MB | ✅ 成功 |
 
20
 
21
  ## 使用說明
22
 
23
  ### 下載模型
24
- ```bash
25
- # 使用 huggingface_hub(Python)
26
  from huggingface_hub import hf_hub_download
27
- model_path = hf_hub_download(repo_id="Paul720810/gguf-models", filename="模型名.fp16.gguf", repo_type="dataset")
28
- ```
29
 
30
- ### 支援的推理工具
31
- - llama.cpp: 原生支援
32
- - Ollama: 直接匯入
33
- - LM Studio: 拖放檔案
34
- - text-generation-webui: 放入 models 目錄
35
-
36
- ### 量化建議
37
-
38
- 注意:目前為 FP16 檔案,若需更小體積可本地量化:
 
 
 
 
 
39
 
40
- ```bash
41
- # 量化為 Q4_K_M(推薦)
42
- ./quantize your_model.fp16.gguf your_model.q4_k_m.gguf Q4_K_M
43
 
44
- # 量化為 Q8_0(高品質)
45
- ./quantize your_model.fp16.gguf your_model.q8_0.gguf Q8_0
46
- ```
47
 
48
  ## 技術資訊
49
- - 🛠️ 轉換工具: llama.cpp(Python 轉換腳本)+ Python
 
50
  - 🌐 轉換環境: Kaggle Notebook
51
  - 📦 格式標準: GGUF
52
- - 🔧 量化類型(主要): FP16
53
-
54
- ## 故障排除
55
- 1. 檔案完整性:確認下載完整
56
- 2. 工具版本:使用最新版的推理工具
57
- 3. 記憶體要求:確保有足夠的 RAM
58
- 4. 格式相容性:確認工具支援 GGUF
59
-
60
- ## 更新日誌
61
- - 初始轉換: 共處理 4 個模型,成功 3 個
62
- - 更新時間: 2025-08-29 03:48:56
63
 
64
  ---
65
- *自動生成於 Kaggle Notebook*
 
1
+ ---
2
+ pretty_name: GGUF Models Collection (Multi-Format)
3
+ tags:
4
+ - gguf
5
+ - llama.cpp
6
+ - inference
7
+ - quantization
8
+ - fp16
9
+ - q4_k_m
10
+ - q8_0
11
+ license: other
12
+ ---
13
+
14
+ # GGUF Models Collection - 多格式版本
15
+
16
+ 這個倉庫包含多種量化格式的 GGUF 模型檔案。
17
 
18
+ ## 格式說明
19
+
20
+ | 格式 | 描述 | 品質 | 檔案大小 | 推薦用途 |
21
+ |------|------|------|----------|----------|
22
+ | FP16 | 16位浮點 | 最高 | 最大 | 高精度推理、微調基準 |
23
+ | Q8_0 | 8位量化 | 高 | 中等 | 高品質推理、伺服器部署 |
24
+ | Q4_K_M | 4位混合量化 | 良好 | 最小 | 本地部署、快速推理 |
25
 
26
  ## 轉換摘要
27
 
28
  - 📊 成功轉換: 3/4 個模型
29
  - 📈 成功率: 75.0%
30
+ - 🔧 支援格式: FP16, Q8_0, Q4_K_M
31
+ - 🕒 更新時間: 2025-08-29 04:34:43
32
 
33
  ## 模型列表
34
 
35
+ | 模型名 | FP16 | Q8_0 | Q4_K_M | 狀態 |
36
+ |--------|------|------|--------|------|
37
+ | deepseek-1.3b-sql-final-t4x2 | 2569.5MB | N/A | N/A | ✅ 成功 |
38
+ | codegemma-2b-sql-coder-finetuned | 4786.0MB | N/A | N/A | ✅ 成功 |
39
+ | qwen2-7b-sql-merged-final-t4x2 | N/A | N/A | N/A | ❌ 失敗 |
40
+ | qwen-coder-1.5b-sql-final-t4x2 | 2950.4MB | N/A | N/A | ✅ 成功 |
41
+
42
 
43
  ## 使用說明
44
 
45
  ### 下載模型
46
+ ```python
 
47
  from huggingface_hub import hf_hub_download
 
 
48
 
49
+ # FP16 版本(最高品質)
50
+ fp16_model = hf_hub_download(
51
+ repo_id="Paul720810/gguf-models",
52
+ filename="模型名.fp16.gguf",
53
+ repo_type="dataset"
54
+ )
55
+
56
+ # Q4_K_M 版本(平衡,推薦)
57
+ q4_model = hf_hub_download(
58
+ repo_id="Paul720810/gguf-models",
59
+ filename="模型名.q4_k_m.gguf",
60
+ repo_type="dataset"
61
+ )
62
+ ```
63
 
64
+ ### 格式選擇建議
 
 
65
 
66
+ - **FP16**: 最高精度,適合研究和基準測試
67
+ - **Q8_0**: 高品質,檔案約為 FP16 的 50%
68
+ - **Q4_K_M**: 最小檔案,檔案約為 FP16 的 25%,適合本地部署
69
 
70
  ## 技術資訊
71
+
72
+ - 🛠️ 轉換工具: llama.cpp + llama-cpp-python
73
  - 🌐 轉換環境: Kaggle Notebook
74
  - 📦 格式標準: GGUF
75
+ - 🔧 量化方法: K-means quantization
 
 
 
 
 
 
 
 
 
 
76
 
77
  ---
78
+ *自動生成於 Kaggle Notebook*