Documentation Index
Fetch the complete documentation index at: https://docs.soloent.ai/llms.txt
Use this file to discover all available pages before exploring further.
前提:クライアントを最新の状態に保つ
私たちはバージョンごとにコンテキスト管理と API キャッシュを継続的に最適化しており、モデルの世代交代に合わせて、常に最良のコスト最適化をお届けしています。最新版をダウンロード
公式サイトから最新版の SoloEnt クライアントを入手してください
基本の式
トークン消費量 = 入力サイズ × 呼び出し回数
高インパクト — 毎回適用すべき
1. コンテキストウィンドウの範囲を絞る
AI には、本当に必要なものだけを見せます。第 47 章を書いているときに第 1 章は不要です。1 行のセリフを推敲するときに章全体は不要です。 実践ポイント:- 現在のシーンに直接関係する資料のみを有効にする。本文を書くなら、必要な設定、章のあらすじ、限られた前後の文脈だけを読み込ませる
SoloEnt.mdを整備して、AI が 1 ファイルだけで素早く全体像を把握できるようにし、毎回複数のドキュメントを読み込ませない@で精密に参照するか、shiftを押しながら必要なファイルだけ会話にドラッグする。すべてを既定で開いたり読んだりしない- セリフを修正するときは対象の段落だけを選択し、章全体を選ばない
- 各シーンが終わったら、不要になったドキュメント参照を閉じる
2. 長い説明を短い指示に置き換える
AI に背景説明は不要で、必要なのは「何を」「どうするか」だけです。SoloEnt はシステムプロンプトを既に提供しているので、会話で背景を繰り返す必要はありません。 トークンを浪費する書き方:3. 使っている Rules を見直す
Rules は見落とされがちな”見えない”トークン消費源です。会話のたびに強制的に読み込まれます。 整理の原則:- 本文執筆用の Rules は本文を書くときだけ読み込む
- 「あなたは……」のような役割演出の前置きは削除する(AI は自分が何かを既に理解しています)
- 段落ではなくリストで書く。同じ情報量で、トークンは半分
- 四半期に 1 回 Rules を棚卸しし、すでに内在化していて明示が不要な内容を削除する
中インパクト — 良い日常習慣をつくる
4. 軽いタスクには軽いモデルを
すべてのタスクに最強モデルが必要なわけではありません。| タスク種別 | 最適モデル(高品質が必要なとき) | 軽量モデル(要件を下げてよいとき) |
|---|---|---|
| ブレインストーミング、あらすじ生成、一貫性チェック | Sonnet | Haiku、GLM |
| 本文執筆、セリフ推敲、シーン拡張 | Gemini | Doubao、DeepSeek |
| 複雑なプロット設計、深いスタイル模倣、長編ロジック整理 | Opus | Sonnet、GLM |
| 初稿生成、あらすじ草案 | GLM、DeepSeek | オープンソースモデル |
5. 一度に全部出させず、ステップに分ける
「2,000 字の章を生成 → 気に入らなければやり直し」を繰り返すのは、最も浪費するパターンです。 おすすめの流れ(章執筆の例): 各ステップのトークンは少なく、方向が合っていることを確認してから次へ進めます。総消費は、何度も全文再生成するより遥かに少なくなります。 Plan モードを活用する:実行前に Plan モードへ切り替え、軽量なやり取りで方向、構造、重要な細部を擦り合わせ、それから実行モードに戻して生成します。Plan モードのトークン消費は極めて小さく、一度方向を合わせておけば、後の再生成を大幅に減らせます。6. こまめに新規ウィンドウ、古い会話を引き伸ばさない
各会話ウィンドウには履歴が積み上がり、やり取りが長くなるほど次の入力トークンも大きくなります。何十ターンも続いたウィンドウは、「履歴の重み」だけで多くのトークンを使います。 おすすめ:- 独立したタスクが終わったら、次は新しいウィンドウで開始する
- 同じウィンドウでセリフを推敲し、あらすじを議論し、設定も修正する、を全部やらない
- ウィンドウが長くなったうえで再生成が必要なときは、新しいウィンドウで必要なコンテキストだけ持ち込む
SoloEnt.mdの呼び出しや@で個別ファイルを指定して、正しい必要なコンテキストを再起動する
良い習慣:1 ウィンドウ、1 タスク
7. AI には書き直させず、修正させる
制約がないと AI は段落全体を再出力しがちです。毎回どこを変えるかを明示しましょう。 全文再生成を誘発:上級 — より深い最適化
8. 高頻度フローを Workflow で固定化する
章執筆前に毎回同じ作業(前回までのあらすじ確認、キャラ感情の確認、本章のあらすじ閲覧)をしているなら、それを Workflow にまとめます。引数は「章番号」だけにし、残りはシステムが自動で組み立てます。 呼び出しごとのプロンプトトークンが、毎回手動でばらつく値ではなく固定の最小値になります。同時に実行の一貫性も担保できます。効果:一貫性 + トークン節約の二重取り
9. ローカルモデルを「下書き層」にする
LM Studio でオープンソースモデルをローカル実行し、初稿を作ります(限界費用ゼロ)。初稿が出たら、クラウドモデルで最終仕上げを 1 回だけ行います。このパスはトークン消費が少ない一方、効果は大きいです。 ハードウェア目安:| メモリ | 実行可能モデル | 用途 |
|---|---|---|
| 16 GB | 7B パラメータ | 下書きには十分 |
| 32 GB | 13B パラメータ | より安定した品質 |
一言でまとめると
プロンプトを最適化するのではなく、コンテキストを制御し、必要なことを正確に伝える——これがトークン節約の核心です。
次のステップ
プランを選ぶ
プランと料金を比較
サブスクリプション管理
残高、請求書、解約