로컬 모델
많은 개발자들이 LLama-3, Mixtral, Gemma, Phi 등과 같은 오픈 소스 모델을 다운로드하여 로컬에서 실행합니다. 이러한 모델을 로컬에서 실행하는 방법은 여러 가지가 있으며, Weave는 OpenAI SDK 호환성을 지원하는 한 이 중 일부를 기본적으로 지원합니다.로컬 모델 함수를 @weave.op()
Weave를 weave.init('<your-project-name>')
로 초기화한 다음 LLM 호출을 weave.op()
로 래핑하여 어떤 LLM과도 쉽게 통합할 수 있습니다. 자세한 내용은 tracing에 관한 가이드를 참조하세요.
로컬 모델을 사용하기 위한 OpenAI SDK 코드 업데이트
OpenAI SDK 호환성을 지원하는 모든 프레임워크나 서비스는 몇 가지 사소한 변경이 필요합니다. 가장 중요한 것은base_url
초기화 중에 openai.OpenAI()
변경입니다.
api_key
는 어떤 문자열이든 될 수 있지만 재정의해야 합니다. 그렇지 않으면 OpenAI가 환경 변수에서 이를 사용하려고 시도하고 오류를 표시합니다.