\n\n\n\n Wie man das Tracking mit Weights & Biases konfiguriert (Schritt für Schritt) - BotSec \n

Wie man das Tracking mit Weights & Biases konfiguriert (Schritt für Schritt)

📖 10 min read1,983 wordsUpdated Mar 28, 2026

So konfigurieren Sie das Monitoring mit Weights & Biases (Schritt für Schritt)

Wenn Sie maschinelles Lernen-Experimente durchführen und alles noch in verstreuten Tabellen oder Textdateien speichern, verpassen Sie ernsthaft etwas – die Konfiguration des Monitorings von Weights & Biases wird Ihnen Dutzende schmerzhafter Stunden und schlafloser Nächte ersparen, die Sie mit unorganisierten experimentellen Daten kämpfen.

Was Sie aufbauen werden und warum es wichtig ist

Wir richten das Monitoring von Weights & Biases ein, um die Training Sessions für maschinelles Lernen effektiv zu verfolgen, zu visualisieren und zu debuggen – keine verlorenen Metriken mehr oder Vermutungen darüber, welche Hyperparameter Ihr Modell in die Höhe getrieben haben.

Voraussetzungen

  • Python 3.8+ (Weights & Biases ist ziemlich tolerant, aber bleiben Sie bei 3.8 oder einer neueren Version für die Kompatibilität)
  • pip installiert, vorzugsweise Version 23.0+ (Updates beheben oft Probleme mit Paketabhängigkeiten)
  • Erstellen Sie ein kostenloses Weights & Biases-Konto auf https://wandb.ai
  • Grundkenntnisse in maschinellem Lernen-Trainingsskripten (TensorFlow, PyTorch oder sklearn funktionieren)
  • Kentnisse benötigter Kommandozeilenwerkzeuge (das CLI von Weights & Biases ist unerlässlich)

Schritt-für-Schritt-Konfiguration

Schritt 1 : Installieren Sie das Weights & Biases Python-Paket

pip install wandb

Dies ist das einzige Paket, das Sie benötigen, um Ihre maschinellen Lernsessions zu überwachen. Es integriert sich in Ihren Code und bietet Ihnen Live-Dashboards, Metrik-Tracking und Artefakt-Management.

Warum? Weil der Wandb-Client alles übernimmt, was das Hochladen, Synchronisieren und Verbinden mit dem Server betrifft, automatisch. So sparen Sie sich den Aufwand der manuellen Aufzeichnung.

Häufige Fallen: Wenn Sie einen Versionskonflikt oder ein fehlgeschlagenes Abhängigkeitsproblem erhalten, aktualisieren Sie pip und setuptools:

pip install --upgrade pip setuptools

Schritt 2 : Melden Sie sich bei Ihrem Wandb-Konto an

wandb login

Dieser Befehl wird Sie nach Ihrem API-Schlüssel fragen. Gehen Sie in die Kontoeinstellungen unter https://wandb.ai/settings und kopieren Sie Ihren API-Schlüssel. Fügen Sie ihn ein, wenn das CLI Sie dazu auffordert.

Warum? Sie müssen Ihr CLI-Tool mit Ihrem Cloud-Projekt authentifizieren, damit Ihre Sessions mit Ihrem Benutzerkonto und Ihren Projekten verknüpft sind.

Achtung: Wenn Sie versehentlich Leerzeichen einfügen oder zu früh die Eingabetaste drücken, wird Ihr Schlüssel von Wandb abgelehnt und eine kryptische Fehlermeldung über eine fehlgeschlagene Authentifizierung angezeigt.

Schritt 3 : Initialisieren Sie Wandb in Ihrem Trainingsskript

import wandb

# Beginnen Sie eine neue Sitzung
wandb.init(project="my-ml-project", entity="your-username")

# Beispiel: Hyperparameter speichern
config = wandb.config
config.learning_rate = 0.001
config.batch_size = 32

Das Einfügen dieses Codes zu Beginn Ihrer Haupttrainingsschleife ermöglicht es Wandb, alles zu erfassen, was in dieser Sitzung passiert.

Warum? Der Initialisierungsschritt erstellt ein neues Sitzungsobjekt auf dem Server und ermöglicht es Ihnen, Metriken und Artefakte in Echtzeit zu protokollieren. Ohne dies sehen Sie keine Daten in Ihrem Arbeitsbereich.

Häufiger Fehler: Wenn Sie vergessen, wandb.init() aufzurufen, werden Ihre Aufrufe an wandb.log() nichts bewirken und dies kann stillschweigend fehlschlagen. Stellen Sie immer sicher, dass Sie dies überprüfen.

Schritt 4 : Metriken und Hyperparameter während des Trainings protokollieren

for epoch in range(num_epochs):
 # Trainieren Sie Ihr Modell hier
 train_loss = compute_train_loss()
 val_loss = compute_val_loss()
 
 # Metriken in wandb protokollieren
 wandb.log({
 "epoch": epoch,
 "train_loss": train_loss,
 "val_loss": val_loss
 })

Dieser Code sollte in Ihrer Haupttrainingsschleife platziert werden. wandb.log() sendet die Daten asynchron an den Server.

Warum? Das Protokollieren ermöglicht es Ihnen, die Leistung des Modells schrittweise zu verfolgen. Sie können Überanpassung oder Plateaus erkennen und die Hyperparameter entsprechend anpassen.

Typischer Fehler: Protokollieren Sie nicht oft genug, was zu unvollständigen Sitzungsdaten führen kann, wenn Ihre Aufgabe fehlschlägt. Stellen Sie sicher, dass wandb.log() nach jedem signifikanten Update aufgerufen wird (in der Regel nach jeder Epoche oder Charge).

Schritt 5 : Speichern Sie die Artefakte der Modelle zur Versionsverfolgung

# Speichern Sie den Checkpoint Ihres Modells lokal
torch.save(model.state_dict(), "model.pt")

# Laden Sie den Checkpoint als Artefakt in wandb hoch
artifact = wandb.Artifact('model', type='model')
artifact.add_file("model.pt")
wandb.log_artifact(artifact)

Die Wandb-Artefakte ermöglichen es Ihnen, die Versionen von Modellen, Datensätzen oder anderen Ergebnissen zu verfolgen. Dies macht Ihr Training reproduzierbar und debugfähig.

Warum? Artefakte erleichtern kollaborative Workflows und die Integration mit Continuous Integration/Continuous Delivery. Sie können Modelle vergleichen und sogar einfach zu früheren Checkpoints zurückkehren.

Achtung: Wenn Sie vergessen, wandb.log_artifact() aufzurufen, erscheinen Ihre gespeicherten Dateien nicht im Projekt-Dashboard. Zudem können große Artefakte stillschweigend fehlschlagen, wenn die Speicherquoten erreicht sind — überprüfen Sie die Nutzungslimits Ihres Projekts.

Schritt 6 : Ergebnisse im Wandb-Dashboard visualisieren

Öffnen Sie https://wandb.ai und navigieren Sie zu Ihrem Projekt. Sie werden sehen, wie sich Live-Diagramme mit Ihren protokollierten Metriken, Hyperparametern und Artefakten aktualisieren.

Warum? Die Visualisierung ist die Schlüssel-Funktion, die die Einrichtung des Monitorings durch Weights & Biases wirklich wertvoll macht – das Erkennen von Trends in Ihren Metriken hilft Ihnen, das Verhalten des Modells in Echtzeit zu verstehen.

Warnung: Wenn Ihre Metriken nicht angezeigt werden, überprüfen Sie, ob Ihr wandb.init() den richtigen Projektnamen hat und ob Sie mit dem richtigen Konto (Entität) angemeldet sind. Stellen Sie auch sicher, dass Ihre Netzwerkverbindung Cloud-Verbindungen zulässt (manchmal blockieren Unternehmensfirewalls dies).

Schritt 7 : Fortgeschrittene Integration – Automatisierung von Wandb-Ausführungen mit CI/CD

# Auszug aus einer GitHub Actions-Workflow

name: Training ausführen und auf W&B speichern

on: [push]

jobs:
 train:
 runs-on: ubuntu-latest
 steps:
 - uses: actions/checkout@v2
 - name: Python einrichten
 uses: actions/setup-python@v2
 with:
 python-version: 3.9
 - name: Abhängigkeiten installieren
 run: pip install wandb torch
 - name: Verbindung zu Wandb
 run: echo ${{ secrets.WANDB_API_KEY }} | wandb login
 - name: Train script ausführen
 run: python train.py

Dieses Skript zeigt einen automatisierten CI-Workflow mit GitHub, der Ihr Training ausführt und die Ergebnisse automatisch an Wandb sendet.

Warum? Produktionsteams benötigen ein Monitoring, das in die Pipelines integriert ist — manuelle Ausführungen sind mühsam und fehleranfällig.

Potenzielle Probleme: Sie müssen Ihren Wandb-API-Schlüssel sicher als geheime Umgebungsvariable aufbewahren (niemals einchecken). Wenn Sie dies vergessen, bedeutet das, dass CI-Aufgaben stillschweigend an der Authentifizierung scheitern.

Fallen, über die Ihnen niemand spricht

  • Quoten und Limits: Ihr kostenloses Wandb-Niveau ermöglicht es Ihnen, jeden Monat mehrere Tausend Sitzungen zu speichern, bevor Sie die Grenzen der Bandbreite oder des Speichers von Artefakten erreichen. Wenn Sie 10K+ Epochen oder große Datensätze ausführen, rechnen Sie mit einer Drosselung. Sie werden nicht sofort explizite Warnungen erhalten; überprüfen Sie einfach Ihr Projekt-Quota.

    Lösung: Reinigen Sie regelmäßig alte Sitzungen und archivieren Sie große Artefakte extern.

  • Latens zwischen Speicherung und Dashboard-Aktualisierung: Wandb lädt asynchron hoch, manchmal erscheinen Ihre neuesten Metriken also einige Sekunden zu spät, was frustrierend ist, wenn Sie auf einer Batch-Granularität debuggen.

    Lösung: Fügen Sie `wandb.log(…, commit=True)` hinzu, um Daten an kritischen Punkten zu senden.

  • Inkonsistenzen in der Umgebung: Wandb überwacht die Versionen der Pakete in Ihrer Python-Umgebung. Wenn Ihr Code in einer Docker-Umgebung oder auf einem Remote-Server ohne genaue Paketlisten (requirements.txt) ausgeführt wird, könnte Ihre Erfahrung trotz der gespeicherten Metriken nicht reproduzierbar sein.
    Lösung: Fixieren und speichern Sie immer die Versionsnummern der Pakete.
  • Netzwerkprobleme in eingeschränkten Umgebungen: Unternehmens- und akademische Server blockieren oft standardmäßig Wandb-Telemetriedaten, was zu stillen Fehlern oder unbegrenzten Aussetzungen führt.
    Lösung: Verwenden Sie den lokalen Offline-Modus (`wandb.init(mode=”offline”)`) und synchronisieren Sie später oder fügen Sie Domains zur Whitelist in Firewalls hinzu.
  • Zu viele Daten speichern: Jede Batch-Metrik zu speichern kann Ihre Sitzungen aufblähen und die Benutzeroberfläche verlangsamen. Verwenden Sie Zusammenfassungsstatistiken oder protokollieren Sie in Intervallen.
    Lösung: Protokollieren Sie auf Epochenniveau oder in jedem N-Batch, nicht bei jedem Batch.

Vollständiges funktionierendes Codebeispiel

import wandb
import torch
import torch.nn as nn
import torch.optim as optim
from torch.utils.data import DataLoader, TensorDataset

# Fiktiver Datensatz
X = torch.randn(100, 10)
y = torch.randint(0, 2, (100,))

dataset = TensorDataset(X, y)
loader = DataLoader(dataset, batch_size=16, shuffle=True)

# Einfacher binärer Klassifikator
class SimpleModel(nn.Module):
 def __init__(self):
 super().__init__()
 self.fc = nn.Linear(10, 2)
 def forward(self, x):
 return self.fc(x)

model = SimpleModel()
criterion = nn.CrossEntropyLoss()
optimizer = optim.Adam(model.parameters(), lr=0.001)

# Wandb-Session initialisieren
wandb.init(project="my-ml-project", entity="your-username")
wandb.config.update({
 "epochs": 5,
 "batch_size": 16,
 "learning_rate": 0.001,
})

for epoch in range(wandb.config.epochs):
 running_loss = 0.0
 for inputs, labels in loader:
 optimizer.zero_grad()
 outputs = model(inputs)
 loss = criterion(outputs, labels)
 loss.backward()
 optimizer.step()
 running_loss += loss.item()
 avg_loss = running_loss / len(loader)

 print(f"Epoche {epoch+1}, Verlust: {avg_loss:.4f}")
 wandb.log({"epoch": epoch + 1, "loss": avg_loss})

# Model-Artefakt speichern und hochladen
torch.save(model.state_dict(), "model.pt")
artifact = wandb.Artifact('simple-model', type='model')
artifact.add_file("model.pt")
wandb.log_artifact(artifact)

wandb.finish()

Was als nächstes zu tun ist

Sobald Sie Ihre Gewichte & Abweichungen konfiguriert haben, um effektiv zu überwachen und aufzuzeichnen, empfehle ich, wandb Sweeps hinzuzufügen, um die Hyperparameter-Anpassung zu automatisieren. Es ist viel besser, als Skripte manuell für jede Parameterkombination erneut auszuführen, und es ermöglicht Ihnen, sich auf die Ergebnisse zu konzentrieren, anstatt auf knifflige Experimente.

Häufig gestellte Fragen

F: Kann ich weights & biases mit anderen Frameworks als PyTorch verwenden?

A: Absolut. Wandb unterstützt TensorFlow, Keras, Hugging Face Transformers, sklearn, was auch immer. Es umschließt im Wesentlichen Ihre Trainingsschleife und speichert die Daten. Sie müssen nur ähnliche Aufrufe wie wandb.init() und wandb.log() an den richtigen Stellen einfügen.

F: Wie schütze ich sensible Anmeldeinformationen bei der Verwendung von wandb in CI-Pipelines?

A: Bewahren Sie Ihren Wandb-API-Schlüssel im Geheimnisverwaltungssystem Ihres CI-Anbieters auf (z. B. GitHub Secrets, GitLab CI-Variablen). Kodieren Sie niemals Schlüssel in den Quellcode. Verwenden Sie dann Umgebungsvariablen, um Schlüssel während der CI-Ausführung bereitzustellen, wie echo $WANDB_API_KEY | wandb login.

F: Ist es möglich, das wandb-Logging offline auszuführen und später zu synchronisieren?

A: Ja. Sie können wandb mit wandb.init(mode="offline") initialisieren, was die Protokolle lokal speichert. Führen Sie später wandb sync aus, um die Daten früherer Ausführungen herunterzuladen, wenn der Netzwerkzugang wiederhergestellt ist. Dies ist nützlich für abgeschottete Umgebungen.

Projekt- und Ausführungsdaten von Wandb auf einen Blick

Um zu verstehen, warum die Einrichtung von weights & biases für die Überwachung das traditionelle Speichern in Tabellenkalkulationen übertrifft, hier eine schnelle Tabelle, die typisches manuelles Tracking mit der Wandb-Überwachung von Schlüsselmetriken vergleicht:

Aspekt Manuelle Aufzeichnung (Excel/CSV) Überwachung von Gewichten & Abweichungen
Echtzeit-Sichtbarkeit Nein (muss auf das Öffnen der Dateien warten) Ja (Live-Dashboards, die sich automatisch aktualisieren)
Hyperparameter-Tracking Wird oft vergessen oder inkonsistent Automatisiert; immer mit Ausführungen verbunden
Versionierung von Modell-Artefakten Manuelle Datei-Backups, keine Metadaten Integrierte Artefakt-Versionierung
Zusammenarbeit Dateien per E-Mail senden oder Ordner teilen Teams teilen Projekte in Echtzeit mit rollenbasiertem Zugriff
Integration mit CI/CD Manuelle Schritte Automatisiert über Skripte und APIs
Speichergrenzen Lokaler Speicherplatz Cloud-Quoten und Archivierungsoptionen

Personalisierte Empfehlungen für verschiedene Entwicklerprofile

Wenn Sie ein einsamer Hobbyist mit kleinen Modellen auf Ihrem Laptop sind, beginnen Sie damit, wandb lokal mit aktiviertem Offline-Modus zu konfigurieren, damit Sie sich keine Gedanken über Netzwerkprobleme machen müssen. Die Benutzeroberfläche und die Aufzeichnung geben Ihren Experimenten ein Maß an Organisation, das kein Tabellenblatt erreichen kann.

Wenn Sie ein Data Scientist sind, der mehrere Modelle und Mitarbeiter ausbalanciert, investieren Sie Zeit in die Integration von Wandb-Ausführungen mit den Git-Repositories Ihres Teams und der Cloud-Infrastruktur. Automatisieren Sie Ihre Aufzeichnungen und Artefakte – vertrauen Sie mir, niemand möchte einen neuen CSV-Export anfordern.

Für ML-Ingenieure, die Produktion-Pipelines bauen, integrieren Sie frühzeitig die Wandb-Sweeps und CI/CD-Automatisierung in Ihren Prozess. Sie möchten einen konsistenten Stand der Erfahrungen, Wiederherstellungsoptionen und eine integrierte Überwachung in die Veröffentlichungszyklen einbauen, um zu vermeiden, dass Sie Wochen später schwarze Löcher debuggen müssen.

Daten ab dem 21. März 2026. Quellen: Offizielle Website von Gewichten & Abweichungen, Dokumentation zu Gewichten & Abweichungen

Verwandte Artikel

🕒 Published:

✍️
Written by Jake Chen

AI technology writer and researcher.

Learn more →
Browse Topics: AI Security | compliance | guardrails | safety | security

See Also

AgnthqAgntworkAgntapiClawgo
Scroll to Top