Spaces:
Running
Running
| import gradio as gr | |
| from transformers import pipeline | |
| # Modelini buraya yazıyoruz | |
| model_id = "SykoSLM/SykoLLM-V5.6" | |
| # Text generation (metin üretme) pipeline'ı oluşturuyoruz | |
| print("Model yükleniyor, biraz sürebilir...") | |
| pipe = pipeline("text-generation", model=model_id) | |
| def generate_text(prompt): | |
| # EFSANE DOKUNUŞ: Senin eğitim formatını buraya uyguluyoruz! | |
| # Model artık nerede başlayıp nerede biteceğini bilecek. | |
| formatted_prompt = f"<|user|>\n{prompt}<|end|>\n<|assistant|>\n" | |
| # Modele prompt'u verip cevabı alıyoruz | |
| result = pipe( | |
| formatted_prompt, | |
| max_new_tokens=150, | |
| do_sample=True, | |
| temperature=0.2, | |
| repetition_penalty=1.19, # Tekrar cezasını 1.18 yaptık | |
| num_return_sequences=1, | |
| return_full_text=False, # Bu ayar sayesinde model bizim sorumuzu cevaba katmıyor | |
| use_cache=True | |
| ) | |
| generated = result[0]['generated_text'] | |
| # Model cevap vermeyi bitirdiğinde muhtemelen sonuna <|end|> koyacaktır. | |
| # Kullanıcı bunu görmesin diye o kısmı kesip atıyoruz. | |
| if "<|end|>" in generated: | |
| generated = generated.split("<|end|>")[0] | |
| return generated.strip() | |
| # Gradio arayüzünü oluşturuyoruz | |
| iface = gr.Interface( | |
| fn=generate_text, | |
| inputs=gr.Textbox(lines=5, placeholder="Buraya bir şeyler yaz"), | |
| outputs="text", | |
| title="SykoLLM-V5.6 Test Alanı", | |
| description="SykoLLM-V5.6" | |
| ) | |
| iface.launch() |