Spaces:
Running
Running
yuto0o
commited on
Commit
·
e1bda81
1
Parent(s):
00b70c1
1.5かな?
Browse files- README_2.md +16 -4
- ml_api/model_loader.py +2 -2
README_2.md
CHANGED
|
@@ -40,10 +40,10 @@ ur run python manage.py runserver #起動したいときは毎回
|
|
| 40 |
こんなのがでてくる
|
| 41 |
|
| 42 |
```
|
| 43 |
-
http://127.0.0.1:8000/api/
|
| 44 |
# ここにアクセスし、postを入力するところに
|
| 45 |
{"text": "こんにちは!元気ですか?"}
|
| 46 |
-
# こんなかんじで書いて
|
| 47 |
|
| 48 |
|
| 49 |
# runserverしたのとは別のターミナルで以下を直接打ち込んでもよい
|
|
@@ -67,14 +67,26 @@ docker run -p 7860:7860 my-django-bot
|
|
| 67 |
|
| 68 |
```
|
| 69 |
|
| 70 |
-
|
| 71 |
|
| 72 |
```
|
| 73 |
docker run -p 7860:7860 \
|
| 74 |
-
-v ~/.cache/huggingface:/
|
| 75 |
my-django-bot
|
| 76 |
```
|
| 77 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 78 |
## 容量解放
|
| 79 |
|
| 80 |
```
|
|
|
|
| 40 |
こんなのがでてくる
|
| 41 |
|
| 42 |
```
|
| 43 |
+
http://127.0.0.1:8000/api/docs
|
| 44 |
# ここにアクセスし、postを入力するところに
|
| 45 |
{"text": "こんにちは!元気ですか?"}
|
| 46 |
+
# こんなかんじで書いてtry it out で編集してexecuteをクリックすると返信が返ってくる
|
| 47 |
|
| 48 |
|
| 49 |
# runserverしたのとは別のターミナルで以下を直接打ち込んでもよい
|
|
|
|
| 67 |
|
| 68 |
```
|
| 69 |
|
| 70 |
+
view とか書き換えただけの時?毎回ビルドが重くならないように
|
| 71 |
|
| 72 |
```
|
| 73 |
docker run -p 7860:7860 \
|
| 74 |
+
-v ~/.cache/huggingface:/code/cache \
|
| 75 |
my-django-bot
|
| 76 |
```
|
| 77 |
|
| 78 |
+
docker で動かしているときは
|
| 79 |
+
|
| 80 |
+
```
|
| 81 |
+
http://localhost:7860/api/docs/ にアクセスして
|
| 82 |
+
{"text": "こんにちは!元気ですか?"}
|
| 83 |
+
# こんなかんじで書いてtry it out で編集してexecuteをクリックすると返信が返ってくる
|
| 84 |
+
|
| 85 |
+
|
| 86 |
+
ターミナルで以下を打ち込んでもよい
|
| 87 |
+
curl -X POST http://localhost:7860/api/chat/ -H "Content-Type: application/json" -d '{"text": "こんにちは!元気ですか?"}'
|
| 88 |
+
```
|
| 89 |
+
|
| 90 |
## 容量解放
|
| 91 |
|
| 92 |
```
|
ml_api/model_loader.py
CHANGED
|
@@ -10,8 +10,8 @@ def get_model():
|
|
| 10 |
global _model, _tokenizer
|
| 11 |
|
| 12 |
if _model is None:
|
| 13 |
-
print("Loading Qwen2.5-
|
| 14 |
-
model_name = "Qwen/Qwen2.5-
|
| 15 |
# model_name = "Qwen/Qwen2.5-1.5B-Instruct" # はやい
|
| 16 |
|
| 17 |
_tokenizer = AutoTokenizer.from_pretrained(model_name)
|
|
|
|
| 10 |
global _model, _tokenizer
|
| 11 |
|
| 12 |
if _model is None:
|
| 13 |
+
print("Loading Qwen2.5-1.5B-Instruct... (Lazy Loading)")
|
| 14 |
+
model_name = "Qwen/Qwen2.5-1.5B-Instruct"
|
| 15 |
# model_name = "Qwen/Qwen2.5-1.5B-Instruct" # はやい
|
| 16 |
|
| 17 |
_tokenizer = AutoTokenizer.from_pretrained(model_name)
|