Hilfe-Center

Generierungsleitfaden

Meistern Sie jeden Arbeitsbereich — von Text-zu-Bild bis zu 3D-Objekten.

Wie die Generierung funktioniert

Jede Generierung auf Gizmoji folgt einem einfachen Ablauf:

  1. Wählen Sie ein Studio (Bild, Video, Audio, Musik, 3D oder Avatar).
  2. Klicken Sie auf Generieren — die KI wählt automatisch das beste Modell aus und füllt die optimalen Einstellungen basierend auf Ihrem Shot-Kontext aus. Credits werden vorab gehalten und der Job wird in die Warteschlange gestellt.
  3. Beobachten Sie den Echtzeit-Fortschrittsindikator, während Ihr Asset erstellt wird, mit angezeigter verstrichener Zeit.
  4. Laden Sie das Ergebnis herunter, iterieren Sie oder genehmigen Sie es.

Möchten Sie ein bestimmtes Modell auswählen oder Einstellungen anpassen? Klicken Sie auf „Modell ändern / Erweitert“, um auf die vollständige Modellbibliothek und alle Parameter zuzugreifen.

Falls ein Job aus irgendeinem Grund fehlschlägt, werden Ihre Credits automatisch vollständig erstattet.

Automatische Modellauswahl

Wenn Sie innerhalb eines Projekts arbeiten, wählt Gizmoji automatisch das beste Modell für jeden Shot basierend auf Ihrem kreativen Kontext aus — den Referenzen, die Sie verknüpft haben, dem Shot-Typ, der Kamerabewegung und dem visuellen Stil. Die KI wählt aus drei Preisklassen aus:

  • Budget — Schnell und erschwinglich. Ideal für Entwürfe, Iterationen und schnelles Ideenexplorieren.
  • Wert — Ausgewogene Qualität und Kosten. Am besten für die meisten Produktionsarbeiten.
  • Premium — Höchste Qualitätsausgabe. Verwenden Sie es für Hauptassets, finale Renders und kundenorientierte Arbeiten.

Sie sehen, welches Modell ausgewählt wurde, und können jederzeit zu einem anderen wechseln, indem Sie auf „Modell ändern / Erweitert“ klicken. Bei eigenständigen Generierungen außerhalb von Projekten wählen Sie das Modell selbst aus.

Bildstudio

Das Bildstudio ist der vielseitigste Arbeitsbereich und unterstützt zwei Hauptmodi:

  • Text-zu-Bild — Beschreiben Sie, was Sie in einer Textanweisung wollen. Seien Sie spezifisch über Stil, Komposition, Beleuchtung, Stimmung und Thema für die besten Ergebnisse.
  • Bild-zu-Bild — Geben Sie ein Referenzbild zusammen mit einer Anweisung an. Die KI verwendet das Referenzbild als Ausgangspunkt und transformiert es gemäß Ihren Anweisungen. Passen Sie den Stärkeparameter an, um zu steuern, wie stark sich das Ergebnis vom Eingabebild unterscheidet.

Häufige Parameter umfassen das Seitenverhältnis (Hochformat, Querformat, Quadrat und benutzerdefiniert), die Qualitätsstufe, den Seed (für reproduzierbare Ergebnisse) und negative Anweisungen (um unerwünschte Elemente auszuschließen). Nicht alle Parameter sind auf jedem Modell verfügbar — das Formular passt sich dynamisch den Fähigkeiten jedes Modells an.

Videostudio

Das Videostudio unterstützt mehrere Generierungsmodi für unterschiedliche kreative Bedürfnisse:

  • Text-zu-Video — Generieren Sie einen Videoclip direkt aus einer Textbeschreibung. Am besten für schnelle Konzepte und Bewegungsstudien.
  • Bild-zu-Video — Animieren Sie einen genehmigten Standbildrahmen zu einem Video. Dies ist der empfohlene Workflow für produktionsqualitativ hochwertige Ergebnisse: Generieren und genehmigen Sie zunächst einen Rahmen im Bildstudio, und bringen Sie ihn dann ins Videostudio.
  • Video erweitern — Erweitern Sie einen bestehenden Videoclip mit zusätzlichen Frames und setzen Sie die Bewegung und Handlung fort.
  • Video transformieren — Wenden Sie Stileffekte auf ein bestehendes Video an, während Sie dessen Bewegung und Komposition beibehalten.
  • Visuelle Effekte — Fügen Sie VFX-Behandlungen, Übergänge und stilistische Effekte zu Videoclips hinzu.
  • Charakteranimation — Animieren Sie Charaktere mit Bewegung, Ausdrücken und Gesten aus Text- oder Audioeingaben.

Wichtig: Für Bild-zu-Video muss das Quellbild zuerst genehmigt werden. Dadurch stellen Sie sicher, dass Sie Videokredite in einen Frame investieren, mit dem Sie zufrieden sind. Genehmigen Sie jedes Bild aus seiner Detailansicht oder dem Überprüfungsfeld.

Die Daueroptionen variieren je nach Modell. Jedes Modell unterstützt bestimmte Clip-Längen:

  • Veo 3.1 — 4, 6 oder 8 Sekunden
  • Kling 2.6 Pro — 5 oder 10 Sekunden
  • Hailuo 2.3 — 6 oder 10 Sekunden
  • WAN 2.6 — 5, 10 oder 15 Sekunden

Wenn Sie innerhalb eines Projekts arbeiten, werden die Shot-Dauern im Voraus mit diesen Werten geplant. Die Dauer, die Sie zum Erzeugungszeitpunkt auswählen, sollte der geplanten Shot-Dauer für einen konsistenten Rhythmus in Ihrer Produktion entsprechen.

Audio Studio

Erzeugen Sie gesprochene Audioinhalte und Soundeffekte mit AI:

  • Text-zu-Sprache — Wandeln Sie geschriebenen Text in natürlich klingende Sprache um. Wählen Sie aus mehreren Stimmen mit unterschiedlichen Akzenten, Geschlechtern und Klangqualitäten. Passen Sie Geschwindigkeit und Betonung für die gewünschte Auslieferung an.
  • Soundeffekte — Beschreiben Sie einen Umgebungslaut, ein Foleyeffekt oder eine Audio-Textur und die AI erzeugt ihn. Nützlich, um Videos Projekten Atmosphäre hinzuzufügen.

Ausgabeformate umfassen MP3 und WAV. Audio-Assets integrieren sich direkt in Ihre Projektzeitlinie neben visuellen Assets.

Musik Studio

Erstellen Sie originale Musikstücke und Soundtracks:

  • Text-zu-Musik — Beschreiben Sie die Stimmung, den Genre, das Tempo und die Instrumentierung, die Sie wünschen. Die AI erzeugt ein originales Instrumentalstück.
  • Audio-zu-Musik — Geben Sie eine Referenz-Audioaufnahme an und die AI erzeugt Musik, die dessen Stil, Tempo oder Stimmung entspricht.

Musik-Assets eignen sich hervorragend zum Vertonen von Video-Projekten, zum Erstellen von Hintergrundmusik für Podcasts oder zum Generieren von royaltyfreier Musik für Inhalte.

3D Studio

Erstellen Sie 3D-Objekte aus Textbeschreibungen oder Referenzbildern:

  • Text-zu-3D — Beschreiben Sie ein Objekt und die AI erzeugt ein texturiertes 3D-Modell.
  • Bild-zu-3D — Geben Sie ein Referenzbild an und die AI leitet die 3D-Struktur ab und erzeugt ein Modell, das diesem entspricht.

Ausgabeformate umfassen GLB und OBJ, bereit für den Import in Game-Engines (Unity, Unreal), 3D-Editoren (Blender), AR/VR-Anwendungen und Web-Viewer.

Avatar Studio

Erstellen Sie Charakteranimationen und Videos mit sprechenden Köpfen:

  • Lip-Sync — Geben Sie ein Porträtbild und eine Audiospur an. Die AI animiert das Gesicht, um der Sprache zu entsprechen, und erzeugt ein realistisches Video mit einem sprechenden Kopf.
  • Gesichtsanimation — Animieren Sie Gesichtsausdrücke und Kopfbewegungen auf einem Porträtbild aus einer Referenzvideo- oder Audioeingabe.
  • Gesichtstausch — Übertragen Sie ein Gesicht auf ein anderes in einem Video oder Bild, wobei die ursprüngliche Bewegung und Mimik erhalten bleiben.
  • Porträtübertragung — Wenden Sie den Stil oder die Ähnlichkeit eines Porträts auf verschiedene Kontexte und Posen an.

Avatarmodelle funktionieren am besten mit klaren, frontalen Referenzbildern und hochwertigen Audioeingaben für die Lippenbewegung.

Pipeline-Fortschritt

Beim Generieren innerhalb eines Projekts zeigt ein Fortschrittsbalken die Produktionspipeline für jeden Shot an: Bild → Video → Audio. Abgeschlossene Stufen werden mit einem Häkchen markiert, und Sie können jede Stufe anklicken, um zu diesem Arbeitsbereich zu wechseln. Jede aktive Generierung zeigt die vergangene Zeit an, sodass Sie immer wissen, wie lange sie läuft.

Automatische Optimierung von Prompts

Beim Verwenden des Pixel Agent (geführt oder Auto-Modus) werden Ihre Shot-Prompts automatisch verbessert, bevor der erste Generierungsversuch erfolgt. Der Optimierer fügt technische Fotografiebegriffe, Lichtdetails und Kompositionsanweisungen hinzu, auf die Bildmodelle am besten reagieren.

Dies geschieht im Hintergrund — Sie müssen keine perfekten Prompts selbst schreiben. Der ursprüngliche Prompt wird beibehalten; die optimierte Version wird nur für die Generierung verwendet. Falls die Optimierung aus irgendeinem Grund fehlschlägt, wird der ursprüngliche Prompt unverändert verwendet, sodass die Produktion nie blockiert wird.

Qualitätsbewertung

Nach der Generierung jedes Bildes durch den Pixel Agent bewertet ein KI-Sichtmodell das Ergebnis anhand Ihres ursprünglichen Prompts. Es bewertet vier Dimensionen:

  • Prompt-Einhaltung — Entspricht das Bild dem, was beschrieben wurde?
  • Komposition — Ist die Bildkomposition, Balance und visuelle Fluss stark?
  • Technische Qualität — Schärfe, Beleuchtung, Farbgenauigkeit.
  • Stimmung — Entspricht die emotionale Tonalität dem Szenenkontext?

Die kombinierte Bewertung (1-10) wird mit Ihrem Qualitätsstandard verglichen. Bilder, die bestehen, werden genehmigt. Bilder, die nicht bestehen, werden mit einem verfeinerten Prompt wiederholt, der die spezifischen festgestellten Probleme anspricht. Jeder Shot erhält bis zu zwei Qualitätswiederholungen, bevor er automatisch genehmigt wird, um die Produktion am Laufen zu halten.

Tipps für Prompts

Die Qualität Ihrer Ausgabe hängt stark von Ihrem Prompt ab. Hier sind Tipps, die auf alle Studios zutreffen:

  • Seien Sie spezifisch — Statt „eine Katze“ versuchen Sie „eine getigerte Katze, die auf einer Fensterbank sitzt, Nachmittagssonne, weicher Bokeh-Hintergrund, fotorealistisch.“
  • Beschreiben Sie Stil und Stimmung — Geben Sie den Kunststil (kinematografisch, Anime, Aquarell), die Beleuchtung (goldene Stunde, Studiobeleuchtung, Neon) und die Stimmung (ruhig, dramatisch, verspielt) an.
  • Verwenden Sie negative Prompts — Wo unterstützt, schließen negative Prompts unerwünschte Elemente aus (z. B. „unscharf, schlechte Qualität, Text, Wasserzeichen“).
  • Iterieren Sie mit Budgetmodellen — Verfeinern Sie Ihren Prompt mit schnellen, kostengünstigen Modellen. Sobald Sie mit der Komposition und dem Stil zufrieden sind, wechseln Sie zu einem Premium-Modell für den finalen Render.
  • Verwenden Sie den Prompt-Optimierer — Der eingebaute KI-Prompt-Optimierer schreibt Ihren Prompt um, damit er detaillierter und modellfreundlicher wird. Er fügt technische Parameter hinzu, die die Ausgabequalität verbessern.
  • Verwenden Sie Seeds für Konsistenz — Wenn Sie ein Ergebnis finden, das Ihnen gefällt, notieren Sie sich dessen Seed-Wert. Die Verwendung desselben Seeds mit demselben Prompt erzeugt ähnliche Ausgaben, sodass Sie kleine Prompt-Anpassungen vornehmen können, während die Gesamtkomposition beibehalten wird.

Parallelgenerierung

Sie können mehrere Generierungsaufträge gleichzeitig einreichen. Jeder Tarif umfasst ein Parallelitätslimit — die Anzahl der Aufträge, die gleichzeitig ausgeführt werden können:

  • Kostenlos — 4 parallele Aufgaben
  • Starter — 6 parallele Aufgaben
  • Creator & Pro — 8 parallele Aufgaben
  • Studio — 12 parallele Aufgaben

Aufträge aus verschiedenen Studios können gleichzeitig ausgeführt werden — ein Bild generieren, während ein Video gerendert wird, oder Audio produzieren, während ein 3D-Modell erstellt wird.

Auf dem Storyboard zeigt die Schaltfläche "Alles erstellen" an, wie viele parallele Slots verfügbar sind, damit Sie wissen, wie viele Aufnahmen sofort starten. Wenn Sie das Limit erreichen, starten die verbleibenden Aufnahmen, sobald Slots frei werden. Um Ihr paralleles Limit zu erhöhen, aktualisieren Sie Ihren Plan.

Häufig gestellte Fragen

Wie funktioniert die automatische Modellauswahl?

Wenn Sie in einem Projekt arbeiten, analysiert die KI Ihren Shot — die verknüpften Referenzen, den Shot-Typ und die Kamerabewegung — und wählt das beste Modell automatisch aus. Sie können jederzeit zu einem anderen Modell wechseln, indem Sie auf "Modell ändern / Erweitert" klicken.

Kann ich mehrere Assets gleichzeitig generieren?

Ja. Sie können mehrere Jobs parallel bis zum Concurrency-Limit Ihres Plans einreichen. Jeder Job läuft unabhängig, sodass Sie gleichzeitig in verschiedenen Studios arbeiten können.

Warum erfordert Video einen genehmigten Frame?

Durch die vorherige Genehmigung eines Frames stellen Sie sicher, dass Sie mit der visuellen Richtung zufrieden sind, bevor Sie Credits für die teurere Videogenerierung ausgeben. Dadurch werden Credits für Videos von Frames, die Sie ablehnen würden, nicht verschwendet.

Muss ich Prompts schreiben?

Nein. Wenn Sie in einem Projekt arbeiten, werden die Prompts automatisch aus Ihren Shot-Beschreibungen, dem Szenenkontext und den verknüpften Referenzen generiert. Für eigenständige Generierungen schreiben Sie eine Beschreibung und der eingebaute Optimierer verbessert sie für bessere Ergebnisse.

Kann ich auf erweiterte Einstellungen zugreifen?

Ja. Klicken Sie auf "Modell ändern / Erweitert", um auf die vollständige Modellbibliothek zuzugreifen, Parameter wie das Seitenverhältnis und die Dauer anzupassen und jedes Detail fein abzustimmen. Der erweiterte Modus gibt Ihnen die vollständige Kontrolle.

Kann ich Shots direkt vom Storyboard aus erstellen?

Ja. Klicken Sie auf eine beliebige leere Shot-Karte im Storyboard, um ein geführtes Produktionsmodell zu öffnen, das Sie durch die Frame-Generierung, die Überprüfung und die Videoproduktion führt — alles ohne das Storyboard zu verlassen. Verwenden Sie "Alles erstellen", um mehrere Shots gleichzeitig zu erstellen.

Optimiert der Pixel Agent meine Prompts?

Ja. Beim ersten Versuch für jeden Shot verbessert der Agent Ihren Prompt mit technischen Fotografiebegriffen, Beleuchtungsdetails und Kompositionsrichtlinien. Dies geschieht automatisch — Ihr ursprünglicher Prompt wird gespeichert und die verbesserte Version wird für die Generierung verwendet.

Was passiert, wenn der Qualitäts-Check ein Bild ablehnt?

Der KI-Evaluator liefert einen verfeinerten Prompt, der die spezifischen Probleme, die er gefunden hat, angeht (z. B. bessere Beleuchtungsrichtung, verbesserte Komposition). Der Agent versucht es mit diesem verfeinerten Prompt erneut. Nach zwei Qualitätswiederholungen wird das Bild automatisch genehmigt, damit die Produktion weiterläuft.

Bereit zur Generierung?

Testen Sie jedes Studio kostenlos — Bilder, Videos, Audio, 3D und Avatare.

Kostenlos starten