FastChatを使用したカスタムLLM構築

FastChatのインストール

サーバーを立てる端末にpythonモジュールとしてfschatをインストールします。 pip3 install fschat

サーバの起動

vicuna-7b-v1.5をChatGPT API互換サーバーとして起動します。
python3 -m fastchat.serve.controller
python3 -m fastchat.serve.model_worker –model-names “vicuna” –model-path lmsys/vicuna-7b-v1.5 –load-8bit
python3 -m fastchat.serve.openai_api_server –-host localhost –-port 8000

aillia DX InsightでカスタムLLMの登録

詳しい設定画面の呼び出し方はこちらをご参照ください。
CustomLLM_02.png

  • 名前:使用するLLMの名称 (UI表示にのみ使用するため何でも構わない)
  • 説明:必要に応じてメモとして使用
  • モデル:OpenAI互換APIサーバーで指定したモデル名 (gpt-3.5-turbo等)
  • URL(*):OpenAI互換APIサーバーが発信しているIPアドレスとport番号 (サーバー公開が–host 192.168.1.10 –port 8000の場合、http://192.168.1.10:8000)
  • 最大トークン長:モデルの対応している最大トークン数を設定(4096以上の値を設定する、この値に応じてRAGのtopKが決定される)

(*)未記入の場合、HTTPの接続エラーになります。


次のページへ >

results matching ""

    No results matching ""