Nerfstudio

Nerfstudio ist ein modulares, forschungsfreundliches Framework zum Trainieren und Rendern Neural Radiance Fields (NeRF) — eine Technik, die fotorealistische 3D-Szenen aus 2D-Bildern rekonstruiert. Mit über 10.000 GitHub-Sternen ist es der De-facto-Standard für NeRF-Forschung und Produktionsanwendungen. Führen Sie es auf Clore.ais GPU-Cloud aus, um 3D-Szenen aus Ihren eigenen Fotos oder Videos zu rekonstruieren.


Was ist Nerfstudio?

NeRF (Neural Radiance Field) stellt eine 3D-Szene als neuronales Netzwerk dar, das für eine gegebene Kameraposition und -richtung die Farbe und Dichte an diesem Punkt ausgibt. Durch Training mit Dutzenden von Fotos aus verschiedenen Blickwinkeln lernt NeRF eine vollständige 3D-Repräsentation, die aus jeder Perspektive gerendert werden kann.

Nerfstudio bietet:

  • Mehrere NeRF-Methoden: Nerfacto, Instant-NGP, Splatfacto, TensoRF und mehr

  • CLI und Python-API

  • Interaktiver Web-Viewer (Viser) auf Port 7007

  • Export zu Punktwolken, Netzen (Meshes) und Video-Flythroughs

  • Unterstützung für benutzerdefinierte Datensätze über COLMAP-Integration

Anwendungsfälle:

  • 3D-Szenenrekonstruktion aus Drohnenaufnahmen

  • Produktvisualisierung aus Fotos

  • Virtuelle Rundgänge aus Smartphone-Aufnahmen

  • Forschung zur Synthese neuer Ansichten


Voraussetzungen

Anforderung
Minimum
Empfohlen

GPU-VRAM

8 GB

16–24 GB

GPU

RTX 3080

RTX 4090 / A100

RAM

16 GB

32 GB

Speicher

20 GB

50+ GB

CUDA

11.8+

12.1+

circle-info

Die Trainingszeit skaliert mit der Komplexität der Szene. Eine typische Außenaufnahme aus 100 Fotos trainiert in 10–30 Minuten auf einer RTX 4090. Der interaktive Viewer aktualisiert in Echtzeit während des Trainings.


Schritt 1 — Mieten Sie eine GPU auf Clore.ai

  1. Melden Sie sich an bei clore.aiarrow-up-right.

  2. Klicken Sie Marktplatz und filtern Sie nach VRAM ≥ 16 GB.

  3. Wählen Sie einen Server — RTX 4090 ist ideal für Nerfstudio.

  4. Docker-Image festlegen: dromni/nerfstudio:latest

  5. Offene Ports festlegen: 22 (SSH) und 7007 (Viser Web-Viewer).

  6. Klicken Sie Mieten und warten Sie, bis die Instanz initialisiert ist.

circle-info

Der dromni/nerfstudio Image ist das community-gepflegte offizielle Image und enthält alle Abhängigkeiten vorinstalliert (CUDA, tiny-cuda-nn, colmap, ffmpeg).


Schritt 2 — Verbindung per SSH

circle-info

Der dromni/nerfstudio Image verwendet Benutzer (nicht root) standardmäßig. Verwenden Sie sudo für administrative Aufgaben.

Überprüfen Sie die Installation:


Schritt 3 — Bereiten Sie Ihren Datensatz vor

Option A: Verwenden Sie den bereitgestellten Beispieldatensatz

Nerfstudio enthält eingebettete Datensätze zum sofortigen Testen:

Option B: Verarbeiten Sie Ihre eigenen Bilder

Wenn Sie Fotos oder Video Ihrer Szene haben:

Aus Bildern (COLMAP-Pipeline):

Aus Video:

circle-info

Für beste Ergebnisse verwenden Sie 100–300 Fotos mit signifikanter Überlappung (>60% zwischen benachbarten Frames). Gehen Sie systematisch um das Objekt/die Szene herum — Kreise, Gitter oder Achten funktionieren gut.


Schritt 4 — Trainieren Sie ein NeRF

Grundlegendes Training mit Nerfacto (empfohlen)

Nerfacto ist Nerfstudios Flaggschiffmethode und balanciert Qualität und Geschwindigkeit:

Training mit Instant-NGP (am schnellsten)

Training mit dem bereitgestellten Poster-Datensatz


Schritt 5 — Greifen Sie auf den interaktiven Viewer zu

Öffnen Sie Ihren Browser und navigieren Sie zu:

Sie sehen einen 3D-Viewer, der von Viser angetrieben wird und Folgendes zeigt:

  • Live-Trainingsfortschritt

  • Aktuelle NeRF-Rendering-Qualität

  • Interaktive Kamerasteuerung

  • Kurven des Trainingsverlusts

circle-info

Der Viewer aktualisiert alle paar Sekunden während des Trainings. Sie können rotieren, verschieben und zoomen, um die Szenenqualität während des Trainings zu prüfen.


Verfügbare Trainingsmethoden

Methode
Geschwindigkeit
Qualität
VRAM
Hinweise

nerfacto

Mittel

Hoch

8 GB

Beste Allround-Option

instant-ngp

Schnell

Mittel

6 GB

Schnellstes Training

splatfacto

Schnell

Hoch

8 GB

Gaussian Splatting

tensorf

Mittel

Hoch

12 GB

Gut für Objekte

mipnerf360

Langsam

Sehr hoch

24 GB

Beste Qualität

vanilla-nerf

Sehr langsam

Hoch

16 GB

Forschungs-Baseline

Training mit Splatfacto (Gaussian Splatting)


Schritt 6 — Evaluieren und Rendern

Überprüfen Sie Trainingsmetriken

Rendern eines Video-Flythroughs

Interpolierte Spiralrendering


Schritt 7 — 3D-Geometrie exportieren

Punktwolke exportieren

Mesh exportieren

Gaussian Splats exportieren (PLY)


Python‑API

Für programmatisches Training und Evaluation:


Tipps für benutzerdefinierte Datensätze

Beste Praktiken bei der Kameraaufnahme

Einstellung
Empfehlung

Überlappung

≥ 60% zwischen Frames

Bilder

100–300 (im Freien), 50–150 (Objekte)

Bewegung

Langsame, gleichmäßige Bewegung

Beleuchtung

Konsistent, vermeiden Sie harte Schatten

Fokus

Scharf über den gesamten Bildbereich

Verbesserung der COLMAP-Ergebnisse


Fehlerbehebung

COLMAP findet keine Kameraposen

Lösungen:

  • Stellen Sie sicher, dass die Bilder ausreichende Überlappung haben

  • Überprüfen Sie, dass die Bilder scharf sind (keine Bewegungsunschärfe)

  • Versuchen Sie exhaustive matching: --matching-method exhaustive

  • Reduzieren Sie --num-frames-target um für Video bessere Frames auszuwählen

Viewer nicht erreichbar

Lösung: Stellen Sie sicher, dass Port 7007 in Clore.ai weitergeleitet wird. Testen Sie die Konnektivität:

Trainingsverlust sinkt nicht

Lösungen:

  • Überprüfen Sie, ob COLMAP erfolgreich war (suchen Sie nach transforms.json im Ausgabeverzeichnis)

  • Reduzieren Sie die Lernrate: --pipeline.model.field-implementation hash

  • Prüfen Sie auf dominanten Himmel (verwenden Sie --pipeline.model.background-color white)

Nicht genügend Speicher (Out of Memory)


Outputs herunterladen

Nach dem Training laden Sie Ihre Renderings und Exporte herunter:


Kostenabschätzung

GPU
VRAM
Geschätzter Preis
Szene mit 100 Bildern

RTX 3080

10 GB

~$0.10/Stunde

~30–45 min

RTX 4090

24 GB

~$0.35/Stunde

~10–15 min

A100 40GB

40 GB

~$0.80/Stunde

~5–8 min

circle-info

Beginnen Sie mit Instant-NGP für schnelle Vorschauen und wechseln Sie dann zu Nerfacto oder MipNeRF360 für die Endqualität. Dieser Workflow spart erhebliche Rechenkosten.


Nützliche Ressourcen


Clore.ai GPU-Empfehlungen

Anwendungsfall
Empfohlene GPU
Geschätzte Kosten auf Clore.ai

Entwicklung/Tests

RTX 3090 (24GB)

~$0.12/gpu/hr

Produktion

RTX 4090 (24GB)

~$0.70/gpu/hr

Groß angelegte / hochauflösende Szenen

A100 80GB

~$1.20/gpu/hr

💡 Alle Beispiele in diesem Leitfaden können bereitgestellt werden auf Clore.aiarrow-up-right GPU-Servern. Durchsuchen Sie verfügbare GPUs und mieten Sie stundenweise — keine Verpflichtungen, voller Root-Zugriff.

Zuletzt aktualisiert

War das hilfreich?