최첨단 연구자 수백 명의 신뢰와 인용

기후 과학에서 의학 연구, NLP 및 컴퓨터 비전의 근본적인 혁신에 이르기까지, Weights & Biases는 연구의 재현과 협업을 높이는 데 기여하고 있습니다. W&B를 인용한 500개 이상의 논문을 확인해 보세요.

연구 및 교육을 위한 W&B

재현 가능한 연구를 위한 자동 로깅

DALL-E mini를 사용한 공동 연구 입문

W&B 리포트로 연구 결과 공유

W&B로 출간 준비가 완료된 그래픽을 만드는 방법

강의 과제를 위한 W&B 리포트 예시

Weights & Biases 인용 방법

W&B를 사용하여 성공적인 연구에 도움이 되었다면, 그 이야기를 듣고 싶습니다. 인용에 대한 정보는 오른쪽에 있습니다. 하지만 저희가 가장 듣고 싶은 것은 귀하의 작업에 대한 귀하의 의견입니다. research@wandb.com으로 이메일을 보내주시면 연락드리겠습니다.

W&B 인용 방법에 대해 자세히 알아보기

@misc{wandb,
title = {Experiment Tracking with Weights and Biases},
year = {2020},
note = {Software available from wandb.com},
url={https://www.wandb.com/},
author = {Biewald, Lukas},
}

모든 것을 기록하여 어떤 것도 놓치지 마세요

재현할 수 없는 실험은 앞으로의 큰 성과에 도움이 되지 않습니다. Weights & Biases를 사용하면 기록할 항목과 기록 시기를 선택할 수 있으므로 수동 관리 작업을 줄이고 모델 학습에 한층 더 집중할 수 있습니다.

널리 쓰이는 모든 프레임워크 및 수천 개의 ML 리포지토리와 통합

Weights & Biases는 혼자가 아닙니다. PyTorch, Keras 및 JAX에서 ML 환경 전반에 걸친 틈새 리포지토리에 이르기까지, 아마도 저희와 통합되어 있을 겁니다. 가장 일반적인 연동 (및 작동 방식)을 저희 문서에서 확인해 보세요.

교육자, 조교 및 학생을 위한 리소스

강의실, 연구실 또는 학생이 운영하는 조직에서 Weights & Biases를 이용하여 협업 및 반복 가능한 머신 러닝과 딥 러닝을 구현하는 데 도움이 될 입문자용 콘텐츠가 준비되어 있습니다.

무료 리소스 확인하기  →

MLOps를 전문가에게 배워보세요

W&B의 방대한 무료 강좌에서 모델 개발을 가속화하고 확장하며, 생산성을 개선하고, 재현성과 모델 계보를 보장하고, 무엇보다도 더 나은 모델의 학습을 더 빠르게 진행하는 방법을 알아보세요.

무료로 등록하기 →

팀과 실시간으로 협업하세요

Weights & Biases는 협업을 위해 만들어졌습니다. 모든 실험이 하나의 시스템에 기록되므로, 연구팀은 모든 데이터세트와 모델 버전, git 커밋, 최근 실험에 대한 액세스를 공유할 수 있습니다.

팀 작업 방식 알아보기 →

간편한 설치, 간편한 사용

모든 ML 실험을 한곳에서 추적, 비교 및 시각화하세요. 학자와 연구자는 모든 기능에 완전히 액세스할 수 있으며, 단 5줄의 코드로 시작할 수 있습니다.

라이브 노트북 확인하기
# Flexible integration for any Python script
import wandb
# 1. Start a W&B run
wandb.init(project='gpt4')
config = wandb.config
config.learning_rate = 0.01
# 2. Save model inputs and hyperparameters
# Model training here
# 3. Log metrics over time to visualize performance
wandb.log({"loss": loss})
import wandb
# 1. Start a W&B run
wandb.init(project='gpt3')
# 2. Save model inputs and hyperparameters
config = wandb.config
config.learning_rate = 0.01
# Model training here
# 3. Log metrics over time to visualize performance
with tf.Session() as sess:
# ...
wandb.tensorflow.log(tf.summary.merge_all())
import wandb
# 1. Start a new run
wandb.init(project="gpt-3")
# 2. Save model inputs and hyperparameters
config = wandb.config
config.learning_rate = 0.01
# 3. Log gradients and model parameters
wandb.watch(model)
for batch_idx, (data, target) in
enumerate(train_loader):
if batch_idx % args.log_interval == 0:
# 4. Log metrics to visualize performance
wandb.log({"loss": loss})
import wandb
from wandb.keras import WandbCallback
# 1. Start a new run
wandb.init(project="gpt-3")
# 2. Save model inputs and hyperparameters
config = wandb.config
config.learning_rate = 0.01
... Define a model
# 3. Log layer dimensions and metrics over time
model.fit(X_train, y_train, validation_data=(X_test, y_test),
callbacks=[WandbCallback()])
import wandb
wandb.init(project="visualize-sklearn")
# Model training here
# Log classifier visualizations
wandb.sklearn.plot_classifier(clf, X_train, X_test, y_train, y_test, y_pred, y_probas, labels, model_name='SVC', feature_names=None)
# Log regression visualizations
wandb.sklearn.plot_regressor(reg, X_train, X_test, y_train, y_test,  model_name='Ridge')
# Log clustering visualizations
wandb.sklearn.plot_clusterer(kmeans, X_train, cluster_labels, labels=None, model_name='KMeans')
# 1. Import wandb and login
import wandb
wandb.login()
# 2. Define which wandb project to log to and name your run
wandb.init(project="gpt-3", run_name='gpt-3-base-high-lr')
# 3. Add wandb in your Hugging Face `TrainingArguments`
args = TrainingArguments(... , report_to='wandb')
# 4. W&B logging will begin automatically when your start training your Trainer
trainer = Trainer(... , args=args)
trainer.train()
import wandb
# 1. Start a new run
wandb.init(project="visualize-models", name="xgboost")
# 2. Add the callback
bst = xgboost.train(param, xg_train, num_round, watchlist, callbacks=[wandb.xgboost.wandb_callback()])
# Get predictions
pred = bst.predict(xg_test)

같은 대학에 있든 다른 대륙에 있든, W&B를 사용하면 학술 연구가 쉬워집니다. 학생, 교육자, 대학 연구자에게는 무료로 제공됩니다.