gpt-oss-20b-gguf / README.md
yasutoshi-lab's picture
Update README.md
f15866b verified
---
library_name: transformers
base_model:
- openai/gpt-oss-20b
license: apache-2.0
language:
- en
pipeline_tag: text-generation
---
## <u>モデル情報</u>
- このモデルは[openai/gpt-oss-20b](https://huggingface.co/openai/gpt-oss-20b)を[llama.cpp](https://github.com/ggml-org/llama.cpp)でGGUF化したものです。
- 同じディレクトリに含まれる各種Modefileを利用して、ローカルのOllamaで利用することができます。
- Modefleのシステムプロンプトや各種パラメーターを変更することで、高度な調整を反映できます。
## <u>オプション:簡単な調整方法</u>
- 高度な調整は不要だが、パラメーターの調整を実施したい場合は次のような流れで簡単に調整することができます。
```bash
# 通常のopenai/gpt-oss-20bをダウンロードして実行
ollama run gpt-oss:20b
# 例)コンテキスト長を64000に設定
/set parameter num_ctx 64000
# モデルを新しい名前で保存
/save gpt-oss:20b-64k
# Ollamaを終了
/bye
# 保存したモデルで実行
ollama run gpt-oss:20b-64k
```
**パラメーターの設定例**
```bash
/set parameter num_ctx 64000 # コンテキスト長を64000に設定
/set parameter temperature 0.5 # 温度を0.5に設定
/set parameter top_p 0.9 # top_pを0.9に設定
/set parameter top_k 40 # top_kを40に設定
/set parameter num_predict 4096 # 最大生成トークン数を4096に設定
```
## <u>使い方</u>
**ファイルのダウンロード**
```python
from huggingface_hub import snapshot_download
snapshot_download(repo_id="yasutoshi-lab/gpt-oss-20b-gguf", local_dir="./model")
```
**ビルド**
```bash
# コンテキスト長:120k, 温度:1, デフォルト推論モード:lowを作成する場合
ollama create gpt-oss-20b:120k-low-thinking -f ./model/gpt-oss-20b-120k-low-thinking.Modefile
# コンテキスト長:120k, 温度:1, デフォルト推論モード:mediumを作成する場合
ollama create gpt-oss-20b:120k-medium-thinking -f ./model/gpt-oss-20b-120k-medium-thinking.Modefile
# コンテキスト長:120k, 温度:1, デフォルト推論モード:highを作成する場合
ollama create gpt-oss-20b:120k-high-thinking -f ./model/gpt-oss-20b-120k-high-thinking.Modefile
```
**推論実行**
```bash
# コンテキスト長:120k, 温度:1, デフォルト推論モード:lowを実行する場合
ollama run gpt-oss-20b:120k-low-thinking
# コンテキスト長:120k, 温度:1, デフォルト推論モード:mediumを実行する場合
ollama run gpt-oss-20b:120k-medium-thinking
# コンテキスト長:120k, 温度:1, デフォルト推論モード:highを実行する場合
ollama run gpt-oss-20b:120k-high-thinking
```
## <u>トラブルシューティング</u>
**エラー**
- "toTypeScriptType"が発生
```bash
# ビルドコマンドの実行
ubuntu@ubuntu:~$ ollama create gpt-oss-20b:120k-low-thinking -f ./model/gpt-oss-20b-120k-low-thinking.Modefil
# ターミナルの出力
gathering model components
copying file sha256:7580f705e503c7a5a8a4cedc1d2bed8a3a1a4d5303190c63c7630f722f8c646f 100%
parsing GGUF
Error: template error: template: :109: function "toTypeScriptType" not defined
```
**解決方法**
- 古いバージョンでは対応していないため、Ollamaのバージョンを最新にする
[Download Ollama](https://ollama.com/download/mac)
[Download Linux](https://ollama.com/download/linux)
[Download windows](https://ollama.com/download/windows)