import gradio as gr from transformers import pipeline # Modelini buraya yazıyoruz model_id = "SykoSLM/SykoLLM-V5.6" # Text generation (metin üretme) pipeline'ı oluşturuyoruz print("Model yükleniyor, biraz sürebilir...") pipe = pipeline("text-generation", model=model_id) def generate_text(prompt): # EFSANE DOKUNUŞ: Senin eğitim formatını buraya uyguluyoruz! # Model artık nerede başlayıp nerede biteceğini bilecek. formatted_prompt = f"<|user|>\n{prompt}<|end|>\n<|assistant|>\n" # Modele prompt'u verip cevabı alıyoruz result = pipe( formatted_prompt, max_new_tokens=150, do_sample=True, temperature=0.2, repetition_penalty=1.19, # Tekrar cezasını 1.18 yaptık num_return_sequences=1, return_full_text=False, # Bu ayar sayesinde model bizim sorumuzu cevaba katmıyor use_cache=True ) generated = result[0]['generated_text'] # Model cevap vermeyi bitirdiğinde muhtemelen sonuna <|end|> koyacaktır. # Kullanıcı bunu görmesin diye o kısmı kesip atıyoruz. if "<|end|>" in generated: generated = generated.split("<|end|>")[0] return generated.strip() # Gradio arayüzünü oluşturuyoruz iface = gr.Interface( fn=generate_text, inputs=gr.Textbox(lines=5, placeholder="Buraya bir şeyler yaz"), outputs="text", title="SykoLLM-V5.6 Test Alanı", description="SykoLLM-V5.6" ) iface.launch()