Documentation Index
Fetch the complete documentation index at: https://wb-21fd5541-feature-automate-reference-docs-generation.mintlify.app/llms.txt
Use this file to discover all available pages before exploring further.
ローカルモデル
多くの開発者は、LLama-3、Mixtral、Gemma、Phiなどのオープンソースモデルをダウンロードしてローカルで実行しています。これらのモデルをローカルで実行する方法はいくつかありますが、WeaveはそれらがOpenAI SDKの互換性をサポートしている限り、いくつかの方法をすぐに使えるようにサポートしています。ローカルモデル関数を@weave.op()
Weaveを任意のLLMと簡単に統合するには、weave.init('<your-project-name>')でWeaveを初期化し、LLMへの呼び出しをweave.op()でラップするだけです。詳細については、tracingに関するガイドをご覧ください。
ローカルモデルを使用するためにOpenAI SDKコードを更新する
OpenAI SDK互換性をサポートするすべてのフレームワークやサービスには、いくつかの小さな変更が必要です。 最も重要なのは、base_urlの初期化中のopenai.OpenAI()変更です。
api_keyは任意の文字列でかまいませんが、上書きする必要があります。そうしないと、OpenAIは環境変数からそれを使用しようとしてエラーを表示します。
OpenAI SDKがサポートするローカルモデルランナー
以下は、Hugging Faceからモデルをダウンロードしてコンピュータで実行できるアプリのリストで、OpenAI SDK互換性をサポートしています。- Nomic GPT4All - 設定のローカルサーバーによるサポート(FAQ)
- LMStudio - ローカルサーバーOpenAI SDKサポート docs
- Ollama - Experimental Support for OpenAI SDK
- llama.cpp via llama-cpp-python pythonパッケージ
- llamafile -
http://localhost:8080/v1Llamafile実行時に自動的にOpenAI SDKをサポート