이 페이지에 표시된 모든 코드 샘플은 Python으로 작성되었습니다.
개요
Hugging Face Hub는 창작자와 협업자를 위한 머신 러닝 플랫폼으로, 다양한 프로젝트를 위한 방대한 사전 훈련된 모델과 데이터셋을 제공합니다. Thehuggingface_hub
Python 라이브러리는 Hub에 호스팅된 모델에 대해 여러 서비스에서 추론을 실행할 수 있는 통합 인터페이스를 제공합니다. InferenceClient
.
Weave는 자동으로 InferenceClient
에 대한 추적을 캡처합니다. 추적을 시작하려면 weave.init()
를 호출하고 라이브러리를 평소처럼 사용하세요.
사전 요구 사항
-
Weave와 함께
huggingface_hub
를 사용하기 전에 필요한 라이브러리를 설치하거나 최신 버전으로 업그레이드해야 합니다. 다음 명령은huggingface_hub
와weave
를 이미 설치되어 있는 경우 최신 버전으로 설치하거나 업그레이드하고, 설치 출력을 줄입니다. -
Hugging Face Hub의 모델로 추론을 사용하려면 User Access Token을 설정하세요. Hugging Face Hub Settings page에서 토큰을 설정하거나 프로그래밍 방식으로 설정할 수 있습니다. 다음 코드 샘플은 사용자에게
HUGGINGFACE_TOKEN
를 입력하도록 요청하고 토큰을 환경 변수로 설정합니다.
기본 추적
언어 모델 애플리케이션의 추적을 중앙 위치에 저장하는 것은 개발 및 프로덕션 중에 필수적입니다. 이러한 추적은 디버깅에 도움이 되며 애플리케이션을 개선하기 위한 귀중한 데이터셋으로 활용됩니다. Weave는 자동으로InferenceClient
에 대한 추적을 캡처합니다. 추적을 시작하려면 weave.init()
를 호출하여 Weave를 초기화한 다음 라이브러리를 평소처럼 사용하세요.
다음 예제는 Weave를 사용하여 Hugging Face Hub에 대한 추론 호출을 로깅하는 방법을 보여줍니다:


함수 추적
애플리케이션을 통해 데이터가 어떻게 흐르는지에 대한 더 깊은 인사이트를 얻으려면@weave.op
를 사용하여 함수 호출을 추적할 수 있습니다. 이는 입력, 출력 및 실행 로직을 캡처하여 디버깅 및 성능 분석에 도움이 됩니다.
여러 ops를 중첩하여 추적된 함수의 구조화된 트리를 구축할 수 있습니다. Weave는 또한 코드를 자동으로 버전 관리하여 Git에 변경 사항을 커밋하기 전에도 실험하는 동안 중간 상태를 보존합니다.
추적을 시작하려면 추적하려는 함수를 @weave.op
로 데코레이트하세요.
다음 예제에서 Weave는 세 가지 함수를 추적합니다: generate_image
, check_image_correctness
, 그리고 generate_image_and_check_correctness
. 이 함수들은 이미지를 생성하고 주어진 프롬프트와 일치하는지 검증합니다.
@weave.op
로 래핑된 모든 함수 호출을 로깅하여 Weave UI에서 실행 세부 정보를 분석할 수 있습니다.

실험을 위해 Model
s 사용
여러 구성 요소가 관련된 경우 LLM 실험을 관리하는 것은 어려울 수 있습니다. Weave Model
클래스는 시스템 프롬프트 및 모델 구성과 같은 실험 세부 정보를 캡처하고 구성하는 데 도움을 주어 다양한 반복을 쉽게 비교할 수 있게 합니다.
코드 버전 관리 및 입력/출력 캡처 외에도 Model
는 애플리케이션 동작을 제어하는 구조화된 매개변수를 저장합니다. 이를 통해 어떤 구성이 최상의 결과를 생성했는지 추적하기가 더 쉬워집니다. Weave Model
를 Weave Serve와 Evaluations와 통합하여 추가 인사이트를 얻을 수도 있습니다.
아래 예제는 여행 추천을 위한 CityVisitRecommender
모델을 정의합니다. 매개변수를 수정할 때마다 새 버전이 생성되어 실험이 쉬워집니다.
