weave.init()
が呼び出された後に自動的に追跡およびログに記録します。
セットアップなしでWeave上のAnthropic モデルを試してみたいですか? LLM Playgroundをお試しください。
トレース
開発中および本番環境の両方で、LLMアプリケーションのトレースを中央データベースに保存することが重要です。これらのトレースはデバッグに使用し、アプリケーションの改善に役立つデータセットとして活用します。 Weaveは anthropic-sdk-python のトレースを自動的にキャプチャします。通常通りライブラリを使用し、まずweave.init()
を呼び出します:

私たちはanthropicの
Messages.create
メソッドにパッチを適用して、LLM呼び出しを追跡します。独自のopsでラップする
Weave opsは結果を 再現可能 にします。実験中にコードを自動的にバージョン管理し、入力と出力をキャプチャします。単に@weave.op()
でデコレートされた関数を作成して Anthropic.messages.create
を呼び出すと、Weaveが入力と出力を追跡します。これをネストされた例で見てみましょう:

より簡単な実験のために Model
を作成する
多くの要素がある場合、実験の整理は困難です。 Model
クラスを使用することで、システムプロンプトや使用しているモデルなど、アプリの実験的な詳細をキャプチャして整理できます。これにより、アプリの異なるイテレーションを整理して比較するのに役立ちます。
コードのバージョン管理と入出力のキャプチャに加えて、 Model
はアプリケーションの動作を制御する構造化されたパラメータをキャプチャし、どのパラメータが最適に機能したかを簡単に見つけることができます。また、Weave Modelsを serve
、および Evaluation
と一緒に使用することもできます。
以下の例では、 model
と temperature
を実験できます。これらのいずれかを変更するたびに、新しい バージョン の JokerModel
が得られます。

ツール(関数呼び出し)
Anthropicは tools インターフェースを関数呼び出しのために提供しています。Weaveはこれらの関数呼び出しを自動的に追跡します。