naokimatui commited on
Commit
2d2e91c
·
verified ·
1 Parent(s): e91d161

Upload app.py

Browse files
Files changed (1) hide show
  1. app.py +10 -7
app.py CHANGED
@@ -40,18 +40,18 @@ st.sidebar.header("設定")
40
  elegance_level = st.sidebar.slider("エレガント度", min_value=1, max_value=3, value=2, step=1,
41
  help="1: 控えめ, 2: 標準, 3: 超お嬢様")
42
 
43
- # プロンプトをエレガント度に応じて設定
44
  prompt_templates = {
45
- 1: "以下のテキストを少しエレガントな日本語に変換してください。丁寧で上品な表現を使ってください:\n{}",
46
- 2: "以下のテキストをエレガントなお嬢様風の日本語に変換してください。華やかで優雅な表現で、「~ですわ」「おほほ」などを適度に使ってください:\n{}",
47
- 3: "以下のテキストを非常にエレガントで誇張されたお嬢様風の日本語に変換してください。華麗でドラマチックな表現で、「~ですわよ!」「おほほほほ!」を多用してください:\n{}"
48
  }
49
 
50
  # LLMのロード(初回起動時にモデルをキャッシュ)
51
  @st.cache_resource
52
  def load_model():
53
  try:
54
- return pipeline("text-generation", model="gpt2", device=-1) # CPU使用
55
  except Exception as e:
56
  st.error(f"モデルロードに失敗しましたわ!: {str(e)}")
57
  return None
@@ -59,7 +59,7 @@ def load_model():
59
  generator = load_model()
60
 
61
  # ユーザー入力
62
- input_text = st.text_input("テキストを入力してくださいませ(例: こんにちは、元気?)", "こんにちは、元気?")
63
 
64
  # 変換ボタン
65
  if st.button("変換するわ!"):
@@ -74,7 +74,10 @@ if st.button("変換するわ!"):
74
  # LLMでテキスト生成
75
  try:
76
  output = generator(prompt, max_length=150, num_return_sequences=1,
77
- do_sample=True, temperature=0.7, top_p=0.9)
 
 
 
78
  converted_text = output[0]["generated_text"].split(prompt)[-1].strip()
79
 
80
  # 結果表示
 
40
  elegance_level = st.sidebar.slider("エレガント度", min_value=1, max_value=3, value=2, step=1,
41
  help="1: 控えめ, 2: 標準, 3: 超お嬢様")
42
 
43
+ # プロンプトをエレガント度に応じて設定(日本語特化)
44
  prompt_templates = {
45
+ 1: "以下のテキストを丁寧で上品な日本語に変換してください。自然でエレガントな表現を使ってください:\n{}",
46
+ 2: "以下のテキストをお嬢様風のエレガントな日本語に変換してください。「~ですわ」「おほほ」などを適度に使い、華やかで優雅な口調にしてください:\n{}",
47
+ 3: "以下のテキストを非常に誇張されたお嬢様風の日本語に変換してください。「~ですわよ!」「おほほほほ!」を多用し、華麗でドラマチックな表現にしてください:\n{}"
48
  }
49
 
50
  # LLMのロード(初回起動時にモデルをキャッシュ)
51
  @st.cache_resource
52
  def load_model():
53
  try:
54
+ return pipeline("text-generation", model="rinna/japanese-gpt2-small", device=-1) # CPU使用
55
  except Exception as e:
56
  st.error(f"モデルロードに失敗しましたわ!: {str(e)}")
57
  return None
 
59
  generator = load_model()
60
 
61
  # ユーザー入力
62
+ input_text = st.text_input("テキストを入力してくださいませ(例: こんにちは、元気?)", "なんでや、阪神関係ないやろ!")
63
 
64
  # 変換ボタン
65
  if st.button("変換するわ!"):
 
74
  # LLMでテキスト生成
75
  try:
76
  output = generator(prompt, max_length=150, num_return_sequences=1,
77
+ do_sample=True, temperature=0.7, top_p=0.9,
78
+ pad_token_id=generator.tokenizer.pad_token_id,
79
+ bos_token_id=generator.tokenizer.bos_token_id,
80
+ eos_token_id=generator.tokenizer.eos_token_id)
81
  converted_text = output[0]["generated_text"].split(prompt)[-1].strip()
82
 
83
  # 結果表示