kayrab commited on
Commit
444d1ec
·
verified ·
1 Parent(s): b55cc4b

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +68 -36
README.md CHANGED
@@ -80,30 +80,46 @@ Daha detaylı bilgi için [yüksek lisans tezine](https://tez.yok.gov.tr/UlusalT
80
 
81
  ```python
82
  from huggingface_hub import login
83
- login("hesaba_ait_token")
84
-
85
- from transformers import AutoModelForCausalLM, AutoTokenizer
86
-
87
- tokenizer = AutoTokenizer.from_pretrained("kayrab/doktor-LLama2-sambanovasystems-7b")
88
- model = AutoModelForCausalLM.from_pretrained("kayrab/doktor-LLama2-sambanovasystems-7b")
89
-
90
- # Prompt'u input_text ile doldurmak için format kullanıyoruz
91
- input_text = "Merhaba doktor, baş ağrım ve ateşim var. Ne yapmalıyım?"
92
- prompt = """Sen bir doktorsun. Soruları buna göre cevapla.
 
 
 
 
 
 
 
 
 
 
 
93
  ### Soru:
94
- {}
95
 
96
  ### Cevap:
97
- {}""".format(input_text, "") # input_text'i yerleştiriyoruz, cevap kısmı boş bırakılıyor
98
 
99
- # Tokenizer ile prompt'u işliyoruz
100
- inputs = tokenizer(prompt, return_tensors="pt")
101
- outputs = model.generate(**inputs)
102
 
103
- # Modelin çıktısını decode ediyoruz
104
- answer = tokenizer.decode(outputs[0], skip_special_tokens=True)
 
 
 
 
105
 
106
- print(answer)
 
 
107
  ```
108
 
109
  ## Referanslar
@@ -168,30 +184,46 @@ cd doktor-LLama2-sambanovasystems-7b
168
 
169
  ```python
170
  from huggingface_hub import login
171
- login("your_token")
172
-
173
- from transformers import AutoModelForCausalLM, AutoTokenizer
174
-
175
- tokenizer = AutoTokenizer.from_pretrained("kayrab/doktor-LLama2-sambanovasystems-7b")
176
- model = AutoModelForCausalLM.from_pretrained("kayrab/doktor-LLama2-sambanovasystems-7b")
177
-
178
- # Fill in the prompt with input_text
179
- input_text = "Merhaba doktor, baş ağrım ve ateşim var. Ne yapmalıyım?"
180
- prompt = """Sen bir doktorsun. Soruları buna göre cevapla.
 
 
 
 
 
 
 
 
 
 
 
181
  ### Soru:
182
- {}
183
 
184
  ### Cevap:
185
- {}""".format(input_text, "") # We place input_text and leave the answer section empty
186
 
187
- # Process the prompt with the tokenizer
188
- inputs = tokenizer(prompt, return_tensors="pt")
189
- outputs = model.generate(**inputs)
190
 
191
- # Decode the model's output
192
- answer = tokenizer.decode(outputs[0], skip_special_tokens=True)
 
 
 
 
193
 
194
- print(answer)
 
 
195
  ```
196
 
197
  ## References
 
80
 
81
  ```python
82
  from huggingface_hub import login
83
+ api_token = "hesaba_ait_token"
84
+ login(api_token)
85
+
86
+ # Unsloth, Xformers (Flash Attention) ve tüm diğer paketleri yükle!
87
+ !pip install "unsloth[colab-new] @ git+https://github.com/unslothai/unsloth.git"
88
+ !pip install --no-deps "xformers<0.0.27" "trl<0.9.0" peft accelerate bitsandbytes
89
+
90
+ from unsloth import FastLanguageModel
91
+ model_name = "kayrab/doktor-LLama2-sambanovasystems-7b-lora"
92
+
93
+ model, tokenizer = FastLanguageModel.from_pretrained(
94
+ model_name = model_name,
95
+ max_seq_length = 2048,
96
+ dtype = "bf16",
97
+ load_in_4bit = False,
98
+ token = api_token,
99
+ )
100
+ FastLanguageModel.for_inference(model)
101
+
102
+ input_text = "Merhaba doktor, son zamanlarda sık sık idrara çıkma, idrar renginde koyulaşma ve bel bölgemde hafif bir ağrı hissediyorum. Ayrıca, özellikle sabahları ellerimde ve ayaklarımda şişlik fark ediyorum. Bunun yanı sıra, son birkaç haftadır kendimi sürekli yorgun ve halsiz hissediyorum. Böbreklerimin sağlığıyla ilgili bir sorun olabileceğinden endişeleniyorum. Bu belirtiler böbrek taşı, enfeksiyon ya da başka bir böbrek rahatsızlığına işaret ediyor olabilir mi? Eğer öyleyse, hangi testleri yaptırmamı önerirsiniz ve bu süreçte nelere dikkat etmeliyim? Ayrıca, böbrek sağlığımı korumak için günlük yaşamımda yapabileceğim değişiklikler hakkında bilgi verirseniz çok sevinirim."
103
+ prompt = f"""Sen bir doktorsun. Soruları buna göre cevapla.
104
  ### Soru:
105
+ {input_text}
106
 
107
  ### Cevap:
108
+ """
109
 
110
+ # Girdileri hazırla ve cihaza taşı
111
+ inputs = tokenizer(prompt, return_tensors="pt").to("cuda")
 
112
 
113
+ # Metin üretimi
114
+ outputs = model.generate(
115
+ **inputs,
116
+ max_length=500,
117
+ do_sample=False,
118
+ )
119
 
120
+ # Sonucu çöz ve yazdır
121
+ generated_text = tokenizer.decode(outputs[0])
122
+ print(generated_text)
123
  ```
124
 
125
  ## Referanslar
 
184
 
185
  ```python
186
  from huggingface_hub import login
187
+ api_token = "your_token" # Account-specific token
188
+ login(api_token)
189
+
190
+ # Install Unsloth, Xformers (Flash Attention), and all other required packages!
191
+ !pip install "unsloth[colab-new] @ git+https://github.com/unslothai/unsloth.git"
192
+ !pip install --no-deps "xformers<0.0.27" "trl<0.9.0" peft accelerate bitsandbytes
193
+
194
+ from unsloth import FastLanguageModel
195
+ model_name = "kayrab/doktor-LLama2-sambanovasystems-7b-lora"
196
+
197
+ model, tokenizer = FastLanguageModel.from_pretrained(
198
+ model_name = model_name,
199
+ max_seq_length = 2048, # Maximum sequence length
200
+ dtype = "bf16", # Data type for model weights
201
+ load_in_4bit = False, # Whether to load the model in 4-bit precision
202
+ token = api_token, # API token for authentication
203
+ )
204
+ FastLanguageModel.for_inference(model)
205
+
206
+ input_text = "Merhaba doktor, son zamanlarda sık sık idrara çıkma, idrar renginde koyulaşma ve bel bölgemde hafif bir ağrı hissediyorum. Ayrıca, özellikle sabahları ellerimde ve ayaklarımda şişlik fark ediyorum. Bunun yanı sıra, son birkaç haftadır kendimi sürekli yorgun ve halsiz hissediyorum. Böbreklerimin sağlığıyla ilgili bir sorun olabileceğinden endişeleniyorum. Bu belirtiler böbrek taşı, enfeksiyon ya da başka bir böbrek rahatsızlığına işaret ediyor olabilir mi? Eğer öyleyse, hangi testleri yaptırmamı önerirsiniz ve bu süreçte nelere dikkat etmeliyim? Ayrıca, böbrek sağlığımı korumak için günlük yaşamımda yapabileceğim değişiklikler hakkında bilgi verirseniz çok sevinirim."
207
+ prompt = f"""You are a doctor. Answer the questions accordingly.
208
  ### Soru:
209
+ {input_text}
210
 
211
  ### Cevap:
212
+ """
213
 
214
+ # Prepare inputs and move them to the device
215
+ inputs = tokenizer(prompt, return_tensors="pt").to("cuda")
 
216
 
217
+ # Generate text
218
+ outputs = model.generate(
219
+ **inputs,
220
+ max_length=500, # Maximum length of the generated text
221
+ do_sample=False, # Disable sampling for deterministic output
222
+ )
223
 
224
+ # Decode and print the result
225
+ generated_text = tokenizer.decode(outputs[0])
226
+ print(generated_text)
227
  ```
228
 
229
  ## References