| | --- |
| | base_model: vngrs-ai/Kumru-2B-Base |
| | license: apache-2.0 |
| | tags: |
| | - transformers |
| | - dpo |
| | - dapt |
| | - kumru |
| | - epdk |
| | - causal-lm |
| | - text-generation-inference |
| | - unsloth |
| | - mistral |
| | - trl |
| | language: |
| | - tr |
| | datasets: |
| | - ogulcanakca/epdk_dpo |
| | - ogulcanakca/epdk_corpus |
| | pipeline_tag: text-generation |
| | library_name: transformers |
| | model-index: |
| | - name: Kumru-2B-EPDK-Instruct |
| | results: |
| | - task: |
| | name: EPDK Domain Instruction Following |
| | type: text-generation |
| | args: |
| | num_samples: 60 |
| | evaluation_method: "LLM-as-a-Judge (Gemini 2.5 Flash)" |
| | metrics: |
| | - name: ogulcanakca/Kumru-2B-EPDK-Instruct Answer Win Rate |
| | type: win_rate |
| | value: 0.717 |
| | - name: vngrs-ai/Kumru-2B Answer Average |
| | type: custom_metric |
| | value: 0.367 |
| | - name: ogulcanakca/Kumru-2B-EPDK-Instruct Answer Average |
| | type: custom_metric |
| | value: 0.643 |
| |
|
| | --- |
| | |
| | # Model Card |
| |
|
| | `vngrs-ai/Kumru-2B-Base` modelinin **iki aşamalı (DAPT + DPO) bir fine-tuning** sürecinden geçirilmesiyle oluşturulmuş **nihai** modelidir. Model, Enerji Piyasası Düzenleme Kurumu (EPDK) mevzuatları konusunda uzmanlaşmış bir **instruct modelidir.** |
| |
|
| | Bu model, `llama.cpp` ve `Ollama` gibi platformlarda kullanılmak üzere [`ogulcanakca/Kumru-2B-EPDK-Instruct-GGUF`](https://huggingface.co/ogulcanakca/Kumru-2B-EPDK-Instruct-GGUF) reposunda **GGUF formatında** da mevcuttur. |
| |
|
| | ```python |
| | !pip install -q \ |
| | "transformers" \ |
| | "peft" \ |
| | "accelerate" \ |
| | "bitsandbytes" \ |
| | "trl" \ |
| | "datasets" |
| | |
| | from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig |
| | import torch |
| | |
| | model_name = "ogulcanakca/Kumru-2B-EPDK-Instruct" |
| | |
| | # 4-bit QLoRA ile yükleme |
| | bnb_config = BitsAndBytesConfig( |
| | load_in_4bit=True, |
| | bnb_4bit_quant_type="nf4", |
| | bnb_4bit_compute_dtype=torch.float16 # T4 için |
| | ) |
| | |
| | tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True) |
| | model = AutoModelForCausalLM.from_pretrained( |
| | model_name, |
| | quantization_config=bnb_config, |
| | device_map="auto", |
| | trust_remote_code=True |
| | ) |
| | model.eval() |
| | |
| | prompt_soru = "2007 yılına ait Türkiye Ortalama Elektrik Toptan Satış Fiyatının (TORETOSAF) değeri nedir?" |
| | |
| | messages = [ |
| | {"role": "user", "content": prompt_soru} |
| | ] |
| | |
| | input_text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True) |
| | inputs = tokenizer(input_text, return_tensors="pt").to(model.device) |
| | |
| | inputs.pop("token_type_ids", None) |
| | |
| | with torch.no_grad(): |
| | outputs = model.generate( |
| | **inputs, |
| | max_new_tokens=150, |
| | temperature=0.2, |
| | do_sample=True, |
| | pad_token_id=tokenizer.eos_token_id |
| | ) |
| | |
| | response_start_index = inputs.input_ids.shape[1] |
| | print(tokenizer.decode(outputs[0][response_start_index:], skip_special_tokens=True)) |
| | ``` |
| |
|
| | ## GGUF (llama.cpp) |
| |
|
| | **GGUF Reposu:** 👉 [**ogulcanakca/Kumru-2B-EPDK-Instruct-GGUF**](https://huggingface.co/ogulcanakca/Kumru-2B-EPDK-Instruct-GGUF) |
| |
|
| | ## WandB |
| |
|
| | [WandB report](https://api.wandb.ai/links/ogulcanakca-none/z06caml6) |
| |
|
| | ```json |
| | { |
| | "prompt": "2007 yılına ait Türkiye Ortalama Elektrik Toptan Satış Fiyatının (TORETOSAF) değeri nedir?", |
| | "Instruct Model": "TORETOSAF, 2013 yılı için, 12 aylık TÜFE ile TEFE arasındaki farktır. 2013 yılı için % 10,11’dir." |
| | } |
| | ``` |
| |
|