metadata
license: mit
datasets:
- fibonacciai/Persian-llm-fibonacci-1-pro
language:
- en
- ar
- fa
base_model:
- fibonacciai/Persian-llm-fibonacci-1-7b-chat.P1_0
new_version: fibonacciai/fibonacci-1-EN-8b-chat.P1_5
pipeline_tag: text-generation
tags:
- text-generation-inference
- FIBONACCI
Fibonacci-1-EN-8b-Chat.P1_5 Model
Introduction
The Fibonacci-1-EN-8b-Chat.P1_5 is a large language model (LLM) based on the LLaMA architecture, designed with 8.03 billion parameters. This model is optimized for natural language processing (NLP) tasks and textual conversations.
Features
- Architecture: LLaMA
- Number of Parameters: 8.03 billion
- Formats: GGUF supporting 4-bit (Q4_K_M), 5-bit (Q5_K_M), 8-bit (Q8_0), and 16-bit (F16)
- License: MIT
Applications
- Text Generation: Creating creative and diverse texts
- Question Answering: Providing accurate responses to user inquiries
- Machine Translation: Translating texts between different languages
- Sentiment Analysis: Identifying sentiments present in texts
Usage
To use this model, you can utilize various libraries such as Hugging Face's transformers
. Below is a sample code to load and use the model:
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5")
model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5")
input_text = "Hello! How can I assist you today?"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
**عربی:**
```markdown
# نموذج Fibonacci-1-EN-8b-Chat.P1_5

## المقدمة
نموذج **Fibonacci-1-EN-8b-Chat.P1_5** هو نموذج لغة كبير (LLM) يعتمد على بنية LLaMA، تم تصميمه بـ 8.03 مليار معلمة. هذا النموذج مُحسّن لمهام معالجة اللغة الطبيعية (NLP) والمحادثات النصية.
## الميزات
- **البنية:** LLaMA
- **عدد المعلمات:** 8.03 مليار
- **التنسيقات:** GGUF تدعم 4-بت (Q4_K_M)، 5-بت (Q5_K_M)، 8-بت (Q8_0)، و16-بت (F16)
- **الترخيص:** MIT
## التطبيقات
- **توليد النصوص:** إنشاء نصوص إبداعية ومتنوعة
- **الإجابة على الأسئلة:** تقديم إجابات دقيقة لاستفسارات المستخدمين
- **الترجمة الآلية:** ترجمة النصوص بين لغات مختلفة
- **تحليل المشاعر:** تحديد المشاعر الموجودة في النصوص
## كيفية الاستخدام
لاستخدام هذا النموذج، يمكنك الاستفادة من مكتبات مختلفة مثل `transformers` من Hugging Face. فيما يلي مثال لتحميل واستخدام النموذج:
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5")
model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5")
input_text = "مرحبًا! كيف يمكنني مساعدتك اليوم؟"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
# مدل Fibonacci-1-EN-8b-Chat.P1_5

## معرفی
مدل **Fibonacci-1-EN-8b-Chat.P1_5** یک مدل زبانی بزرگ (LLM) مبتنی بر معماری LLaMA است که با ۸٫۰۳ میلیارد پارامتر طراحی شده است. این مدل برای انجام وظایف مرتبط با پردازش زبان طبیعی (NLP) و مکالمات متنی بهینهسازی شده است.
## ویژگیها
- **معماری:** LLaMA
- **تعداد پارامترها:** ۸٫۰۳ میلیارد
- **فرمتها:** GGUF با پشتیبانی از 4-bit (Q4_K_M)، 5-bit (Q5_K_M)، 8-bit (Q8_0)، و 16-bit (F16)
- **مجوز استفاده:** MIT
## کاربردها
- **تولید متن:** ایجاد متون خلاقانه و متنوع
- **پاسخ به سؤالات:** ارائه پاسخهای دقیق به پرسشهای کاربران
- **ترجمه ماشینی:** ترجمه متون بین زبانهای مختلف
- **تحلیل احساسات:** شناسایی احساسات موجود در متون
## نحوه استفاده
برای استفاده از این مدل، میتوانید از کتابخانههای مختلفی مانند `transformers` هاگینگ فیس استفاده کنید. در زیر یک نمونه کد برای بارگذاری و استفاده از مدل آورده شده است:
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5")
model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-1-EN-8b-chat.P1_5")
input_text = "سلام! چطور میتوانم به شما کمک کنم؟"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)