File size: 5,054 Bytes
32b0e7c b02a1ec 32b0e7c b3d4d74 32b0e7c b02a1ec a1abbff 4697e29 32b0e7c b02a1ec 32b0e7c b02a1ec 32b0e7c b02a1ec a1abbff 32b0e7c a1abbff b02a1ec a1abbff 32b0e7c b02a1ec 32b0e7c b02a1ec 32b0e7c b02a1ec 32b0e7c b02a1ec 32b0e7c b02a1ec 32b0e7c b02a1ec 32b0e7c b02a1ec a1abbff 32b0e7c b02a1ec 32b0e7c b02a1ec 32b0e7c b02a1ec 32b0e7c b02a1ec a1abbff 32b0e7c a1abbff b02a1ec 32b0e7c |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 |
# Import Library yang Diperlukan
import gradio as gr
import shutil
import os
import subprocess
from llama_cpp import Llama
from llama_index.core import SimpleDirectoryReader, VectorStoreIndex, Settings
from llama_index.core.llms import ChatMessage
from llama_index.llms.llama_cpp import LlamaCPP
from llama_index.embeddings.huggingface import HuggingFaceEmbedding
from huggingface_hub import hf_hub_download
from llama_index.core.node_parser import SentenceSplitter
# Fungsi untuk memasang ulang llama-cpp-python dengan dukungan CUDA
def install_llama_with_cuda():
try:
# Baca file requirements.txt
with open("requirements.txt", "r") as f:
packages = f.read().splitlines()
# Install setiap paket dengan CMAKE_ARGS untuk dukungan CUDA
for package in packages:
subprocess.run(
env={"CMAKE_ARGS": "-DGGML_CUDA=on"},
check=True
)
# Periksa apakah CUDA Toolkit tersedia
if not shutil.which("nvcc"):
print("CUDA Toolkit tidak ditemukan. Pastikan sudah diinstal.")
return
print("Memasang ulang llama-cpp-python dengan dukungan CUDA...")
print("llama-cpp-python berhasil diinstal ulang dengan dukungan CUDA.")
except subprocess.CalledProcessError as e:
print(f"Error saat menginstal ulang llama-cpp-python: {e}")
except Exception as e:
print(f"Kesalahan umum: {e}")
# Fungsi untuk mengunduh model Llama
def initialize_llama_model():
# Unduh model jika belum ada di direktori kerja
model_path = hf_hub_download(
repo_id="TheBLoke/zephyr-7b-beta-GGUF", # Nama repo model
filename="zephyr-7b-beta.Q4_K_M.gguf", # Nama file model
cache_dir="./models" # Lokasi direktori untuk menyimpan model
)
return model_path
# Fungsi untuk mengatur konfigurasi Settings
def initialize_settings(model_path):
Settings.llm = Llama(
model_path=model_path,
n_gpu_layers=1, # Sesuaikan dengan kebutuhan perangkat Anda
temperature=0.7, # Sesuaikan untuk respons yang lebih cepat
top_p=0.9 # Mengurangi eksplorasi token
)
# Fungsi untuk Menginisialisasi Index
def initialize_index():
# Tentukan dokumen input untuk pembacaan data
documents = SimpleDirectoryReader(input_files=["bahandokumen/K3.txt",
"bahandokumen/bonus.txt",
"bahandokumen/cuti.txt",
"bahandokumen/disiplinkerja.txt",
"bahandokumen/fasilitas&bantuan.txt",
"bahandokumen/upahlembur.txt",
"bahandokumen/waktukerja.txt"]).load_data()
parser = SentenceSplitter(chunk_size=150, chunk_overlap=10)
nodes = parser.get_nodes_from_documents(documents)
embedding = HuggingFaceEmbedding("BAAI/bge-base-en-v1.5")
Settings.embed_model = embedding
index = VectorStoreIndex(nodes)
return index
# Inisialisasi Mesin Chat
def initialize_chat_engine(index):
from llama_index.core.prompts import PromptTemplate
from llama_index.core.chat_engine.condense_plus_context import CondensePlusContextChatEngine
retriever = index.as_retriever(similarity_top_k=3)
chat_engine = CondensePlusContextChatEngine.from_defaults(
retriever=retriever,
verbose=True,
)
return chat_engine
# Fungsi untuk menghasilkan respons chatbot
def generate_response(message, history, chat_engine):
chat_messages = [
ChatMessage(
role="system",
content="Anda adalah chatbot yang selalu menjawab pertanyaan secara singkat, ramah, dan jelas dalam bahasa Indonesia."
),
]
response = chat_engine.stream_chat(message)
text = "".join(response.response_gen) # Gabungkan semua token menjadi string
history.append((message, text)) # Tambahkan ke riwayat
return history
def clear_history(chat_engine):
chat_engine.clear()
# Inisialisasi Komponen Gradio untuk UI
def launch_gradio(chat_engine):
with gr.Blocks() as demo:
# Mengatur tombol untuk menghapus riwayat chat
clear_btn = gr.Button("Clear")
clear_btn.click(lambda: clear_history(chat_engine))
# Membuat antarmuka chat
chat_interface = gr.ChatInterface(
lambda message, history: generate_response(message, history, chat_engine)
)
demo.launch()
# Fungsi Utama untuk Menjalankan Aplikasi
def main():
install_llama_with_cuda()
# Unduh model dan inisialisasi pengaturan
model_path = initialize_llama_model()
initialize_settings(model_path) # Mengirimkan model_path ke fungsi initialize_settings
# Inisialisasi index dan engine
index = initialize_index()
chat_engine = initialize_chat_engine(index)
# Luncurkan antarmuka
launch_gradio(chat_engine)
if __name__ == "__main__":
main() |