MistralAI
新しいMistral v1.0 SDKをサポートしています。移行ガイドはhere
Traces
LLMアプリケーションのトレースを開発中も本番環境でも中央データベースに保存することが重要です。これらのトレースはデバッグに使用し、アプリケーションの改善に役立つデータセットとして活用します。 Weaveは自動的にトレースをキャプチャします mistralai。ライブラリは通常通り使用でき、まず次のように呼び出しますweave.init()
:

独自のopsでラップする
Weave opsは結果をreproducibleにします。実験中にコードを自動的にバージョン管理し、入力と出力をキャプチャします。単に@weave.op()
でデコレートされた関数を作成してmistralai.client.MistralClient.chat()
を呼び出すと、Weaveが入力と出力を追跡します。チーズレコメンダーでこれを行う方法を見てみましょう:

作成するModel
より簡単な実験のために
多くの要素がある場合、実験の整理は難しくなります。Model
クラスを使用することで、システムプロンプトや使用するモデルなど、アプリの実験的な詳細をキャプチャして整理できます。これにより、アプリのさまざまなイテレーションを整理して比較するのに役立ちます。
コードのバージョン管理と入出力のキャプチャに加えて、Model
はアプリケーションの動作を制御する構造化されたパラメータをキャプチャし、最適なパラメータを簡単に見つけることができます。Weave Modelsをserve
、およびEvaluation
と一緒に使用することもできます。
以下の例では、model
とcountry
を実験できます。これらのいずれかを変更するたびに、新しいversionのCheeseRecommender
が得られます。
