hunyuan video 1.5
Eden
Hunyuan

Hunyuan Video 1.5 — #1 Open-Source-Modell, unzensiert

Promptus
March 11, 2026
Wiki 251
promptus ai video generator

Hunyuan Video 1.5 ist eines der besten Open-Source-Modelle zur Videogenerierung

Hunyuan Video 1.5 ist Tencents bahnbrechendes Videogenerierungsmodell mit 8,3 B-Parametern, das entwickelt wurde, um qualitativ hochwertige Text-to-Video- und Bild-to-Video-Ergebnisse zu liefern — und das auf GPUs für Endverbraucher.

Seine Open-Source-Verfügbarkeit hat auch eine Reihe von Community-Varianten ermöglicht, wie die (gemütlich) Hunyuan 1.5 Familie, einschließlich GGUF-Builds, die so wenig laufen wie 8 GB VRAMund 5G-optimierte Konfigurationen für extrem schnelle Inferenz.

Funktion Beschreibung
8,3B Parameter Kompakt im Vergleich zu 12–40B-Videomodellen, liefert aber Qualität auf Flaggschiff-Niveau
720p native Ausgabe Erzeugt 5–10-Sekunden-Clips mit 1080p-Super-Resolution-Upscaling
Text-zu-Video (T2V) Erstellt filmische Sequenzen aus natürlichsprachlichen Prompts
Bild-zu-Video (I2V) Animiert Standbilder mit Bewegung, Physik und Kamerasteuerung
Mehrsprachige Texterkennung Unterstützt sowohl Chinesisch als auch Englisch innerhalb von Szenen
Hohe Prompt-Genauigkeit Sehr präzise bei Kamerapfaden, Physik, Emotionen und Timing
Open Source Kostenlos, anpassbar und von einer aktiven Community unterstützt


Hunyuan Video 1.5 Cosyflow-Varianten erklärt

Das von der Gemeinde geführte gemütlich veröffentlicht das Repackage Hunyuan Video 1.5 für eine Vielzahl von Hardware- und Anwendungsfällen. Bei diesen Versionen handelt es sich nicht um offizielle Tencent-Builds, sondern um Gemeinschaftsprodukte.

(gemütlich) Hunyuan 1.5 Text zum Video

  • Standard-Community-Build.
  • Beste Qualität, volle Präzision für das 8.3B-Modell.
  • Empfohlen für 16—24 GB VRAM GPUs.
  • Gleiches Verhalten und gleiche Ausgabequalität wie bei der vollständigen Referenzimplementierung.

(gemütlich) Hunyuan 1.5 Text zum Video (GGUF)

  • GGUF-quantisierte Version (ähnlich den LLM-Quantisierungsformaten).
  • Viel kleinerer RAM-/VRAM-Fußabdruck.
  • Ideal für Benutzer mit 8—12 GB VRAM GPUs.
  • Leichte Qualitätsminderung, aber deutlich schneller und leichter.

(gemütlich) Hunyuan 1.5 Text zu Video (8 GB VRAM GGUF-Version)

  • Speziell optimiert für 8 GB NVIDIA-GPUs (z. B. RTX 3070, 4060).
  • Verwendet aggressive Quantisierung.
  • Kompromisse:
    • Geringere Bewegungstreue
    • Einige Artefakte bei der Bewegung der Hochgeschwindigkeitskamera
    • Etwas weichere Optik

Immer noch bemerkenswert gut für seine Hardwareanforderungen.

(gemütlich) Hunyuan 1.5 Text zu Video (5G)

  • „5G“ steht für 5-Gigabyte-VRAM-Ziel.
  • Ultraleicht, aggressiv optimiert.
  • Nützlich für:
    • Notebook-GPUs
    • Kostenlose Cloud-Instanzen
    • Mini-PCs mit kleinem Formfaktor
  • Der Qualitätsverlust ist spürbar, funktioniert aber immer noch für Konzeptvorschauen oder schnelle Iterationen.

Warum die Leute diese Hunyuan-Videos „unzensiert“ nennen

Die offizielle Veröffentlichung von Tencent unterliegt den üblichen Inhaltsbeschränkungen (ähnlich wie Stable Diffusion 1.5 und 3.0). Die Workflow-Builds entfernen restriktive Filter und ermöglichen so eine Nutzung ohne Inhaltsblockierung:

  • Keine Kontrollpunkte für Sicherheitsklassifizierer
  • Keine automatische NSFW-Maskierung
  • Keine sofortige Desinfektion

⚠️ Die Gewichte des zugrunde liegenden Modells werden dadurch nicht geändert. Das Modell wurde nicht an expliziten Inhalten trainiert, akzeptiert aber jetzt irgendein fordert auf, ohne zu blockieren.

Hunyuan Video 1.5 verwendet eine optimierte mehrstufige Diffusionspipeline:

Links zum Modell

Text_Encoder

Diffusionsmodelle

Vae

:open_file_folder: ComfyUI/
├── :open_file_folder: models/
│   ├── :open_file_folder: text_encoders/
│   │      ├── qwen_2.5_vl_7b_fp8_scaled.safetensors
│   │      └── byt5_small_glyphxl_fp16.safetensors
│   ├── :open_file_folder: diffusion_models/
│   │      ├── hunyuanvideo1.5_1080p_sr_distilled_fp16.safetensors
│   │      └── hunyuanvideo1.5_720p_t2v_fp16.safetensors
│   └── :open_file_folder: vae/
│          └── hunyuanvideo15_vae_fp16.safetensors

Workflow-Vorlagen

Wenn ComfyUI die Knoten nicht finden kann:

  • Aktualisieren auf Nächtlich
  • Stellen Sie sicher, dass beim Start kein Erweiterungsimport fehlgeschlagen ist
  • Stellen Sie sicher, dass die Vorlage in Ihrer Version vorhanden ist

HunyuanVideo 1.5 ist derzeit einer der am zugänglichsten, hochwertig, und quelloffen Videomodelle sind verfügbar, während die „gemütlichen“ Community-Varianten eine unzensierte Nutzung und Bereitstellungen mit geringem VRAM ermöglichen.

Zu erwartende Einschränkungen

Obwohl HunyuanVideo 1.5 leistungsstark ist, hat es einige Einschränkungen:

  • Videos, die länger als 10 Sekunden sind, verlieren an Qualität
  • Zeitraffer kann zu temporalem Jitter führen
  • Feine Details können bildübergreifend „verschmelzen“
  • GGUF-Versionen reduzieren die Wiedergabetreue geringfügig
  • Komplexe Objektinteraktionen sind nicht perfekt

Empfohlen

GPU VRAM Erwartete Leistung
RTX 4090 24GB Volle Präzision, schnellste Generierung
RTX 3090 / 4080 16–24GB Erzeugt Ergebnisse in voller Qualität

Minimum (GGUF Builds)

GPU VRAM Hinweise
RTX 4060 / 3070 8GB Funktioniert mit der GGUF-8GB-Version
Laptop-GPUs 6GB Nur mit 5G-Build

Häufig gestellte Fragen

Was ist HunyuanVideo 1.5 und wie schneidet es im Vergleich zu anderen Text-zu-Video-KI-Modellen ab?

+

HunyuanVideo 1.5 ist ein Open-Source-Video-Diffusionsmodell von Tencent mit 8,3 Milliarden Parametern, das für Text-zu-Video- und Bild-zu-Video-Generierung entwickelt wurde. Im Vergleich zu größeren Modellen (12–40B) liefert es ähnliche filmische Ergebnisse, läuft jedoch effizient auf Consumer-GPUs und gehört damit zu den zugänglichsten hochwertigen T2V-Modellen.

Wie kann ich HunyuanVideo 1.5 mit einer Consumer-GPU in ComfyUI installieren und ausführen?

+

HunyuanVideo 1.5 wird installiert, indem seine Text-Encoder, Diffusionsmodelle und VAE-Dateien im ComfyUI-Ordner models/ abgelegt werden. Mit den bereitgestellten Workflow-Templates (T2V oder I2V) können Creator Videos in 720p oder 1080p auf GPUs mit 8–24GB VRAM erzeugen. Ein Update auf die Nightly-Version von ComfyUI wird für volle Kompatibilität empfohlen.

Was sind die Unterschiede zwischen den (cosy) HunyuanVideo-1.5-Varianten, einschließlich GGUF- und 5G-Builds?

+

Die cosy-Varianten bieten unterschiedliche Leistungsstufen: GGUF-Builds laufen auf 8–12GB VRAM mithilfe von Quantisierung, die 5G-Version funktioniert bereits mit etwa 5GB VRAM für Laptops oder kostenlose Cloud-Tiers, und das vollständige Modell liefert maximale Bildqualität auf GPUs mit 16–24GB. Diese Community-Versionen erweitern die Hardware-Kompatibilität, ohne das Kernmodell zu verändern.

Ist HunyuanVideo 1.5 unzensiert und was ändern Community-Builds?

+

Die offizielle Veröffentlichung von Tencent enthält Inhaltsbeschränkungen wie Sicherheitsfilter. Cosy-Community-Builds entfernen jedoch Prompt-Blockierungen, NSFW-Filter und Sicherheitsklassifikatoren. Die ursprünglichen Modellgewichte bleiben unverändert – das Modell wird also nicht neu trainiert, sondern blockiert lediglich keine Prompts mehr.

Welche Hardware benötige ich, um Videos mit HunyuanVideo 1.5 auf einer GPU mit wenig VRAM zu erzeugen?

+

HunyuanVideo 1.5 kann mit GGUF- oder 5G-cosy-Builds auf GPUs mit nur 6–8GB VRAM laufen. Für beste Qualität werden GPUs mit 16–24GB VRAM wie RTX 3090, 4080 oder 4090 empfohlen. Diese Varianten machen T2V-Generierung auch auf Laptops und günstigen Systemen möglich.

Geschrieben von:
Eden
Als ausgebildete Künstlerin, die einst befürchtete, dass KI-Kunst ihre Karriere beenden könnte, hat Eden sie seitdem als mächtigen Verbündeten angenommen. Jetzt kreiert sie selbstbewusst mit KI.
Testen Sie Promptus Cosy UI noch heute kostenlos.
Erstelle einfach deinen nächsten KI-Workflow mit Promptus
Go from idea to production-ready output in minutes.
Promptus kostenlos testen ➜