1. Verschiedene Tutorials zur Plug-in-/Software-Nutzung
YossAPI.com Docs
YossAPI - Deutsch
  • YossAPI - 中文版
  • YossAPI - English
  • YossAPI - Русский
  • YossAPI - 한국어
  • YossAPI - 日本語
  • YossAPI - Español
  • YossAPI - Deutsch
  • Einführung
  • Online-Debugging-Anweisungen
  • Stellen Sie eine Anfrage
  • Grundlegende Einführung in Übergabestationen
    • API-Schnellstartanleitung
    • Kontaktieren Sie den Kundendienst
    • Gruppendetailtabelle
    • Besonderheiten bei Gruppierungen und Preisunterschieden
    • So erstellen Sie ein neues Token für eine bestimmte Gruppe
    • Anrufadresse der Agentenschnittstelle
    • API-Schlüsselkontingent-Abfragedienst
    • Kostenlose KI-Chat-Projektnavigation
  • Chatten
    • ChatGpt-Schnittstelle
      • ChatGPT-Audio (Audio)
        • GPT-4o-audio
        • Audio-zu-Text-Flüstern-1
        • Audio zu Text gpt-4o-transkribieren
        • Erstellen Sie Sprach-gpt-4o-mini-tts
        • Übersetzung erstellen (nicht unterstützt)
      • ChatGPT-Chat (Chat)
        • Chat-Abschlussobjekt
        • Chat-Abschlussblockobjekt
        • Chatabschluss erstellen (Streaming)
        • Chat-Abschluss erstellen (kein Streaming)
        • Chat-Bilderkennung erstellen (Streaming)
        • Erstellen Sie eine Chat-Bilderkennung (Streaming) best64
        • Chat-Bilderkennung erstellen (kein Streaming)
        • Erstellen Sie ein Chat-Erstellungsdiagramm (kein Streaming)
        • Offizieller Funktionsaufruf
        • Offizieller N-Test
        • Modelle auflisten
        • Erstellen Sie einen Chat-Funktionsaufruf
        • Erstellen Sie eine strukturierte Ausgabe
        • Kontrollieren des Aufwands für das Inferenzmodell
        • Chat-Abschluss qwen-mt-turbo erstellen
        • Erstellen Sie eine Chat-Abschluss-Denkstufe für Deepseek v3.1 (Streaming).
        • Deepseek-OCR-Erkennung
      • Automatische Vervollständigung von ChatGPT (Abschlüsse)
        • Abschlussobjekt
        • Erstellung abgeschlossen
      • ChatGPT-Einbettungen
        • eingebettetes Objekt
        • Einbettung erstellen
      • Websuche
        • Websuche
    • Anthropic Claude-Schnittstelle
      • Chat-Abschlussobjekt
      • Chat-Abschlussblockobjekt
      • natives Format
        • Chatabschluss erstellen (Streaming)
        • Funktionsaufrufe erstellen (Streaming)
        • Erstellen Sie eine formatierte Ausgabe
        • Erstellen Sie einen Gedanken-Chat
        • PDF-Unterstützung
        • PDF unterstützt das Base64-Format
      • Chat-kompatibles Format
        • Erstellen Sie einen Gedanken-Chat
        • Chatabschluss erstellen (Streaming)
        • Chat-Abschluss erstellen (kein Streaming)
        • Chat-Bilderkennung erstellen (Streaming)
        • Chat-Bilderkennung erstellen (kein Streaming)
    • Google Gemini-Schnittstelle
      • natives Format
        • Textgenerierung
        • Textgenerierungsstrom
        • Textgenerierung + Denkfluss
        • Bilderzeugung
        • Bilderzeugung gemini-2.5-flash-image
        • Die Bilderzeugung gemini-2.5-flash-image steuert das Seitenverhältnis
        • Bildgenerierung gemini-3-pro-image-preview steuert Seitenverhältnis und Klarheit
        • Bildbearbeitung
        • Bildverständnis
        • Formatierte Ausgabe
        • Funktionsaufruf
        • Dokumentenverständnis
        • URL-Kontext [natives Format]
        • Codeausführung
        • google search
        • Videoverständnis
        • URL context
        • Videoverständnis-URL [natives Format] in Entwicklung
        • Bild 4 in Entwicklung
        • Audioverständnis
        • Embeddings
        • gemini-tts Text-to-Speech
        • Textgenerierung gemini-3-pro-preview:generateContent
      • Chat-kompatibles Format
        • Gemini-Schnittstelle zur Bilderstellung [Chat-kompatibles Format]
        • Chat-Schnittstelle [Chat-kompatibles Format]
        • Chat-Schnittstelle-Thinking 1 [Chat-kompatibles Format]
        • Chat-Schnittstelle – Thinking 2 [Chat-kompatibles Format]
        • Bilderkennungsschnittstelle [Chat-kompatibles Format]
        • Chat + Dateischnittstelle lesen [Chat-kompatibles Format]
  • Chat(Antworten)
    • Vergleich zwischen Responses API und Chat API
    • Modellantwort erstellen
    • Funktionsaufruf erstellen
    • Modellantwort erstellen (Streaming-Return)
    • Modellantworten erstellen (Denklänge kontrollieren)
    • Erstellen Sie eine Websuche
    • Erstellen Sie ein Modell, das auf GPT-5-fähiges Denken reagiert
    • Erstellen Sie eine Funktionsaufrufkopie
  • Malmodell
    • README
    • Bildobjekt
    • Midjourney
      • Bilder hochladen
      • Senden Sie die Imagine-Aufgabe
      • Fragen Sie den Aufgabenstatus basierend auf der Aufgaben-ID ab
      • Abfrageaufgaben basierend auf der ID-Liste
      • Holen Sie sich den Seed des Aufgabenbildes
      • Aktion ausführen
      • Blend-Aufgabe senden
      • Senden Sie die Beschreibungsaufgabe
      • Modal senden
    • Ideogram
      • Generieren 3.0 (Vincent Chart) Generieren
      • Generate 3.0 (Bildbearbeitung)Bearbeiten
      • Generieren Sie einen 3.0-Remix (Bild-Remix).
      • Generieren Sie 3.0 (Bildrekonstruktion) Reframe
      • 3.0 generieren (Hintergrund ersetzen) Hintergrund ersetzen
      • Ideogramm
      • Remix
      • Gehoben (HD vergrößern)
      • Beschreiben
    • GPT-Bildserie
      • Erstellen Sie gpt-image-1
      • Bearbeiten Sie gpt-image-1
      • Maske gpt-image-1
      • Erstellen Sie gpt-image-1.5
      • Bearbeiten Sie gpt-image-1.5
      • Maske gpt-image-1.5
    • Traummalerei
      • Erstellen Sie ein Gemälde
      • Bild bearbeiten
    • DALL·E 3
      • Erstellen Sie DALL·E 3
    • FLUX-Serie
      • gpt-kompatibles Format
        • Flusserstellung (OpenAI dall-e-3-Format)
        • Flussbearbeitung (OpenAI dall-e-3-Format)
      • Replizieren Sie das offizielle Format
        • Flussauflösung
        • Greifen Sie auf das Tutorial zu
        • Erstellen Sie die Aufgabe black-forest-labs/flux-kontext-dev
        • Abfrageaufgaben
    • Sitzsackserie
      • doubao-seedream-3-0-t2i-250415
      • doubao-seededit-3-0-i2i-250628
      • doubao-seedream-4-0-250828-文生图
      • doubao-seedream-4-0-250828-图生图
      • doubao-seedream-4-0-250828-多图生图
      • doubao-seedream-4-5-251128 Vincent-Bild (einfache Texteingabe, einzelne Bildausgabe)
      • doubao-seedream-4-5-251128 Bilder und Texte erzeugen Bilder (Einzelbild-Eingabe, Einzelbild-Ausgabe)
      • doubao-seedream-4-5-251128 Multibildfusion (Mehrbildeingabe und Einzelbildausgabe)
      • doubao-seedream-4-5-251128 Gruppenbildausgabe (Mehrbildausgabe)
      • doubao-seedream-4-5-251128 Einzelbild Gruppenbild
      • doubao-seedream-4-5-251128 Mehrere Referenzbilder
    • Fal.ai-Plattform
      • Statuscode
      • Anfrageergebnisse abrufen
      • /fal-ai/nano-banana Wen Sheng Tu
      • /fal-ai/nano-banana/edit Bildbearbeitung
    • Tencent AIGC Rohbilder
      • Statuscode
      • Anfrageergebnisse abrufen
      • Aufgabe erstellen
    • Qwen-Serie
      • qwen-image-max
      • z-image-turbo
      • qwen-image-edit-2509
  • Videomodell
    • Veo-Videogenerierung
      • Einheitliches Videoformat
        • Statuscode
        • Video erstellen
        • Erstellen Sie Videos mit Bildern
        • Abfrageaufgaben
        • Video erstellen (Referenzbild)
      • OpenAI-Videoformat
        • openai erstellt Videos mit Bildern
        • OpenAI-Abfrageaufgabe
        • Openai-Video herunterladen
    • Luma-Videogenerierung
      • Offizielles API-Format
        • Statuscode
        • Senden Sie die Aufgabe zur Videogenerierung
        • Erweitertes Video
      • Abfrageaufgaben
        • Fragen Sie eine einzelne Aufgabe ab
        • Erhalten Sie Aufgaben in Stapeln
    • Erstellung von Runway-Videos
      • Statuscode
      • Senden Sie die Aufgabe zur Videogenerierung
      • Videoaufgaben abfragen (kostenlos)
    • Traumvideogenerierung
      • Statuscode
      • Einheitliches Videoformat
        • Statuscode
        • Video erstellen
        • Abfrageaufgaben
      • offizielles Format
        • Hinzufügen
      • Senden Sie die Aufgabe zur Videogenerierung
      • Videoaufgaben abfragen (kostenlos)
    • Conch-Video-Generierung
      • Statuscode
      • Senden Sie die Aufgabe zur Videogenerierung
      • Abfrage des Videoaufgabenstatus
      • Tusheng-Video
      • Erstes und letztes Frame-Video
    • Doubao-Videogenerierung
      • Vincent-Videobeispiel
      • Tusheng Video – Erster Frame
      • Seedance-Lite-erster und letzter Frame
      • Tusheng Video-Base64-Kodierung
      • Seedance-Lite-Referenzbild
      • Fragen Sie eine einzelne Aufgabe ab
      • Aufgabenliste zur Videogenerierung abfragen – Standard
      • Aufgabenliste zur Videogenerierung abfragen – Durchsuchen Sie mehrere Aufgaben-IDs
      • Seedance-1-5-Pro-erster und letzter Frame
    • Sora-Videogenerierung
      • Einheitliches Videoformat
        • Abfrageaufgaben
        • Erstellen Sie Videos mit Bildern sora-2
        • Video Sora-2 erstellen
        • Video Sora-2-Pro erstellen
        • Video erstellen (mit Charakter)
      • Chat-Format
        • Video erstellen
        • Erstellen Sie Videos mit Bildern
        • Kontinuierliche Modifizierung und Generierung von Videos
      • Offizielles OpenAI-Videoformat
        • openai erstellt Videos mit Bildern
        • Erstellen Sie Videos mithilfe von Storyboards
        • openai erstellt Videos mit Bildern im privaten Modus
        • openai erstellt Video (mit Charakter)
        • openai Video bearbeiten
        • Openai-Video herunterladen
        • OpenAI-Abfrageaufgabe
      • Erstellen Sie eine Rolle
    • Grok-Videogenerierung
      • Einheitliches Videoformat
        • Statuscode
        • Video erstellen
        • Abfrageaufgaben
    • Tongyi Wanxiang-Videogenerierung
      • Video generieren
      • Videoabfrage
    • Tencent AIGC-Videogenerierung
      • Statuscode
      • Aufgabe erstellen
      • Anfrageergebnisse abrufen
  • GPTs bezogen
    • Einführung
    • GPTs-Gespräch
  • System-API
    • Holen Sie sich eine Liste der Token
    • Neues Token hinzufügen
    • Holen Sie sich das Token-Unterstützungsmodell
    • Kontoinformationen abrufen
    • Token ändern
    • Suchtoken
    • Token löschen
  • Vincent Music Suno
    • veranschaulichen
    • Parameter
    • Aufgabenübermittlung
      • Songs generieren (Inspirationsmodus)
      • Songs generieren (benutzerdefinierter Modus)
      • Songs generieren (Fortsetzungsmodus)
      • Songs generieren (Sängerstil)
      • Songs generieren (Songs zur sekundären Erstellung hochladen)
      • Songs generieren (Spleiß-Songs)
      • Texte generieren
      • Song-Spleißen
      • Berichts-Upload abgeschlossen
      • Status der Upload-Verarbeitung abfragen
      • Audiodateien initialisieren
      • Fordern Sie eine Upload-Autorisierung an
      • Beispiel für einen S3-Upload
    • Abfrageschnittstelle
      • Erhalten Sie Aufgaben in Stapeln
      • Fragen Sie eine einzelne Aufgabe ab
      • Holen Sie sich WAV
  • Python-Konfigurationsmethode
    • Python verwendet Sprache zum Text
    • Python verwendet Text-to-Speech
    • Python verwendet die Embeddings-Vektorisierung
    • Python ruft DALL·E auf
    • Python-Demo zum einfachen Aufruf von OpenAI-Funktionsaufrufen
    • Python Simple Langchain ruft die OpenAI-Demo auf
    • Python-Lama_index-Konfiguration
    • Grundlegende Python-Konversation
    • Python verwendet gpt-4o, um bildlokale Bilder zu identifizieren
    • Python verwendet gpt-4o, um Bilder zu identifizieren
    • Python verwendet Claude, um Bilder zu identifizieren
    • Streaming-Ausgabe der Python-Bibliothek
    • GPT-Echtzeitmodellaufruf
    • Python-Anfrage-Anfrage-Streaming-Ausgabe-Demo
    • Python verwendet gpt-image-1 zum Erstellen und Bearbeiten von Bildern
    • Offizielle Python OpenAI-Bibliothek (mit AutoGPT, Langchain usw.)
    • Kontinuierlicher Python-Dialog
  • Reranking-Reranking-Modell
    • Neu anordnen
  • Kling-Plattform
    • Rückrufprotokoll
    • Vincent Video
      • Vincent Video
      • Abfrageaufgabe (einzeln)
    • Tusheng-Video
      • Tusheng-Video
      • Abfrageaufgabe (einzeln)
    • Omni-Video
      • Omni-Video
      • Abfrageaufgabe (einzeln)
    • Referenz-Studentenvideo mit mehreren Bildern
      • Referenz-Studentenvideo mit mehreren Bildern
      • Abfrageaufgabe (einzeln)
    • Multimodale Videobearbeitung
      • Initialisieren Sie das zu bearbeitende Video
      • Videoauswahl hinzufügen
      • Videoauswahl löschen
      • Vorschau des ausgewählten Videos
      • multimodales Video
      • Abfrageaufgabe (einzeln)
    • Videoerweiterung
      • Videoerweiterung
      • Abfrageaufgabe (einzeln)
    • Videoeffekte
      • Videoeffekte
      • Abfrageaufgabe (einzeln)
    • Bilderzeugung
      • Bilderzeugung
      • Abfrageaufgabe (einzeln)
    • Mehrere Referenzbilder
      • Mehrere Referenzbilder
      • Abfrageaufgabe (einzeln)
    • Omni-Image
      • Omni-Image
      • Abfrageaufgabe (einzeln)
    • Bild vergrößern
      • Bild vergrößern
      • Abfrageaufgabe (einzeln)
    • Bilderkennung
      • Bilderkennung
    • digitaler Mann
      • digitaler Mann
      • Abfrageaufgabe (einzeln)
    • Vincent-Soundeffekte
      • Vincent-Soundeffekte
      • Abfrageaufgabe (einzeln)
    • Video-Soundeffekte
      • Video-Soundeffekte
      • Abfrageaufgabe (einzeln)
    • Sprachsynthese
      • Sprachsynthese
    • virtuelle Anprobe
      • virtuelle Anprobe
      • Abfrageaufgabe (einzeln)
    • Lippensynchronisation
      • Gesichtserkennung
      • Lippensynchronisation
      • Abfrageaufgabe (einzeln)
    • Benutzerdefinierte Sounds
      • Benutzerdefinierte Sounds
      • Benutzerdefiniertes Timbre abfragen (einzeln)
    • Bewegungssteuerung
      • Bewegungssteuerung
      • Abfrageaufgabe (einzeln)
    • Hauptteil
      • Hauptteil
  • Replizieren Sie die Aggregationsplattform
    • Greifen Sie auf das Tutorial zu
    • Flussauflösung
    • Abfrageaufgaben
    • Aufgabe erstellen – Modellversion übergeben (Vorhersagen)
    • Erstellen Sie die Aufgabe „Stability-AI/Stable-Diffusion“.
    • Erstellen Sie die Aufgabe „Stabilität-ai/sdxl“.
    • Erstellen Sie die Aufgabe „Stability-AI/Stable-Diffusion-Inpainting“.
    • Erstellen Sie die Aufgabe „stable-ai/stable-diffusion-img2img“.
    • Aufgabe lucataco/flux-schnell-lora erstellen
    • Erstellen Sie die Aufgabe lucataco/flux-dev-lora
    • Erstellen Sie die Aufgabe andreasjansson/stable-diffusion-animation
    • Erstellen Sie die Aufgabe sujaykhandekar/object-removal
    • Erstellen Sie die Aufgabe cjwbw/rembg
    • Erstellen Sie die Aufgabe lucataco/animate-diff
    • Erstellen Sie die Aufgabe ideogram-ai/ideogram-v2-turbo
    • Erstellen Sie die Aufgabe black-forest-labs/flux-kontext-dev
    • Erstellen Sie die Aufgabe minimax/video-01-live
    • Erstellen Sie die Aufgabe minimax/video-01
    • Erstellen Sie die Aufgabe recraft-ai/recraft-v3
    • Erstellen Sie die Aufgabe recraft-ai/recraft-v3-svg
    • Erstellen Sie die Aufgabe black-forest-labs/flux-1.1-pro-ultra
    • Erstellen Sie die Aufgabe black-forest-labs/flux-kontext-pro
    • Erstellen Sie die Aufgabe black-forest-labs/flux-kontext-max
    • Erstellen Sie die Aufgabe „flux-kontext-apps/multi-image-kontext-max“.
    • Erstellen Sie die Aufgabe „flux-kontext-apps/multi-image-kontext-pro“.
    • Erstellen Sie die Aufgabe lucataco/remove-bg
    • Aufgabe Riffusion/Riffusion erstellen
    • Erstellen Sie die Aufgabe black-forest-labs/flux-fill-dev
    • Aufgabe black-forest-labs/flux-fill-pro erstellen
    • Aufgabe google/imagen-4-fast erstellen
    • Erstellen Sie die Aufgabe google/imagen-4-ultra
    • Erstellen Sie die Aufgabe google/imagen-4
    • Erstellen Sie die Aufgabe prunaai/vace-14b
    • Erstellen Sie die Aufgabe bytedance/seedream-4
  • Fal-ai-Aggregationsplattform
    • Greifen Sie auf das Tutorial zu
    • falai-veo3-Videogenerierung
      • /fal-ai/veo3
      • /fal-ai/veo3/fast/image-to-video
      • /fal-ai/veo3/fast
      • /fal-ai/veo3/requests/{request_id}
      • /fal-ai/veo3/image-to-video
    • Anfrageergebnisse abrufen
    • /fal-ai/flux-1/dev
    • /fal-ai/flux-1/dev/image-to-image
    • /fal-ai/flux-1/dev/redux
    • /fal-ai/flux-1/schnell/redux
    • /fal-ai/flux-pro/kontext
    • /fal-ai/flux-pro/kontext/text-to-image
    • /fal-ai/flux-pro/kontext/max
    • /fal-ai/flux-pro/kontext/max/multi
    • /fal-ai/wan/v2.2-a14b/image-to-image
    • /fal-ai/bytedance/seedream/v4/text-to-image
    • /fal-ai/bytedance/seedream/v4/edit
    • /fal-ai/vidu/reference-to-image
    • /fal-ai/imagen4/preview
    • /fal-ai/qwen-image-edit-lora
    • /fal-ai/qwen-image-edit-plus
    • /fal-ai/kling-video/v2.5-turbo/pro/text-to-video
    • /fal-ai/kling-video/v2.5-turbo/pro/image-to-video
    • /fal-ai/flux-lora
    • /fal-ai/flux-lora/image-to-image
    • /fal-ai/flux-lora/inpainting
    • /fal-ai/kling-video/v2.5-turbo/pro/text-to-video
    • /fal-ai/qwen-image-edit-lora
  • PHP-Konfigurationsmethode
    • PHP-Bildbearbeitungsdemo
  • nodejs-Konfigurationsmethode
    • Nodejs grundlegende Konversation
  • Verschiedene Tutorials zur Plug-in-/Software-Nutzung
    • Tutorial zur Codex-Konfiguration
    • N8N-Workflow mit Transit-API-Tutorial
    • Tutorial zur Konfiguration und Verwendung der Gemini CLI-Übertragungsstation
    • Tutorial zur Installation und Verwendung von Claude Code
    • CherryStudio ruft CLUDE MCP auf
    • Cherry Studio-Konfigurations-Tutorial
    • Tutorial zur Konfiguration und Auflösung von Cherry Studio Banana Pro 4K
    • CherryStudio konfiguriert die o4-Inferenzebene
    • Einfache Konfiguration des Schaltflächen-Workflows von der Eingabe bis zum Abrufen der URL
    • difyadd-Modell
    • Tutorial zur Cline-Konfiguration
    • Tutorial zur Aider-Konfiguration
    • Tutorial zur Cursorkonfiguration
    • Lobechat-Setup-Tutorial
    • ChatBox (empfohlen)
    • Open Source gpt_academic
    • Nextchat-Setup-Tutorial
    • Zotero GPT-Konfigurationsmethode
    • Tutorial zur CLAUDE DEV-Konfiguration
    • Immersive Übersetzung Richten Sie die GPT-Übersetzung ein
    • Browser-Plug-in ChatGPT Sidebar
    • chatgpt-on-wechat-Konfigurations-Tutorial
    • chatgpt GPT Akademisches GPT-Tutorial zur akademischen Optimierungskonfiguration
    • Tutorial zur RikkaHub-Konfiguration
    • Coze-Workflow mithilfe der Transit-API-Tutorial
    • Der N8N-Workflow ruft lokale Bilder ab und generiert Videobeispiele
  • Hilfecenter
    • KI-Rückgabefeld: Denken bezogen
    • HTTP-Statuscodes und ihre Bedeutung
    • Selbst erstellte Bildbett-API
    • Laden Sie Bilder ins Bilderbett hoch
  1. Verschiedene Tutorials zur Plug-in-/Software-Nutzung

Einfache Konfiguration des Schaltflächen-Workflows von der Eingabe bis zum Abrufen der URL

Wenn Sie ein Kouzi-VIP sind, können Sie den Workflow direkt herunterladen und importieren.

https://wwaod.lanzn.com/b011lwl8ij
Passwort:3qnp

Am Beispiel von Sora2 handelt es sich um einen einfachen kreisförmigen Workflow von der Eingabe von Text und dem Hochladen von Bildern bis zum endgültigen Abrufen der URL (das Folgende ist das Gesamtbild).

Enterprise WeChat-Screenshot_17677735722402.png

1. Starten

Fügen Sie neue Eingabevariablen basierend auf Eingabeaufforderungswörtern und -bildern und entsprechend den für die Schnittstelle erforderlichen Parametern hinzu. Wenn Sie weitere Parameter eingeben müssen, können Sie diese auch hinzufügen.
Enterprise WeChat-Screenshot_1767773636845.png

2. Anforderungsmodell (neuer http-Knoten)

Konfigurieren Sie die HTTP-Anfrage gemäß der Dokumentation

  1. Konfigurieren Sie die Anforderungsmethode und die URL in der ersten roten Box-Position
  2. Das zweite rote Feld konfiguriert den Anforderungsheader
  3. Konfigurieren Sie an dritter Stelle den Anforderungstext. Bitte wählen Sie das Format entsprechend dem entsprechenden Anforderungstext im Dokument aus. In diesem Beispiel wird JSON verwendet. Die mit dem Anfang gekennzeichneten Parameter sind die aus der vorherigen Eingabe erhaltenen Parameter. Sie können es auswählen, indem Sie direkt {} in den Editor eingeben.
    Enterprise WeChat-Screenshot_17677740268061.png

3. Verarbeiten Sie das Anforderungsergebnis und erhalten Sie die Task-ID (neuer Codeknoten).

Wie in der Abbildung gezeigt, erhält der Variablenwert bei der Eingabe direkt den vorherigen Ausgabetext.
Verwenden Sie Code, um den Text zu analysieren und die ID zu erhalten (in diesem Beispiel ist der Code JavaScript. Der Code lautet wie folgt)
„
asynchrone Funktion main({ params }: Args): Promise {
// 1. Den Body-String aus params.input abrufen
// Hinweis: Dies setzt voraus, dass params.input das gesamte HTTP-Antwortobjekt ist
const bodyStr = params.input;

// 2. Analysieren Sie den Text im String-Format in ein JSON-Objekt
// Da der Wert von body eine Zeichenfolge „{\“id\“:...}“ ist, ist JSON.parse erforderlich
let taskId = "";
versuche es mit {
const bodyObj = JSON.parse(bodyStr);
taskId = bodyObj.id;
} fangen (e) {
// Verhindern, dass ein Analysefehler Laufzeitfehler verursacht
console.log("JSON-Analyse fehlgeschlagen:", e);
}

// 3. Erstellen Sie das Ausgabeobjekt und geben Sie die Task-ID zurück
const ret = {
„taskId“: taskId
};

return ret;
}
„
Der Variablenname der endgültigen Ausgabeposition muss mit dem Parameternamen in ret im Code übereinstimmen.
Enterprise WeChat-Screenshot_17677742429398.png

4. Schleifenanforderungs-Abfrageschnittstelle zum Abrufen der URL (neuer Schleifenknoten)

1. Legen Sie die Schleife fest (in diesem Beispiel wird eine Endlosschleife verwendet, um basierend auf den Beurteilungsbedingungen aus der Schleife zu springen). Stellen Sie sie nach Bedarf ein

Die Zwischenvariable ist die vom vorherigen Codeknoten ausgegebene Task-ID.
Die URL und der Status werden ausgegeben
Enterprise WeChat-Screenshot_17677745518897.png

2. Fügen Sie der Schleife eine HTTP-Knotenanforderungsabfrageaufgabe hinzu

Der Parameteranforderungstext basiert auf der Abfrageaufgabe des im Dokument verwendeten Modells.
Enterprise WeChat-Screenshot_17677753812075.png

3. Fügen Sie einen neuen Codeknoten hinzu, um die URL und den Aufgabenstatus zu erhalten

Wie in der Abbildung gezeigt, ist die Eingabe der Ausgabekörpercode der Abfrageaufgabe wie folgt:

„
asynchrone Funktion main({ params }: Args): Promise {
// 1. Den Body-String aus params.input abrufen
const bodyStr = params.input;

// 2. Analysieren Sie den Text im String-Format in ein JSON-Objekt
let url = "";
let status = "";
versuche es mit {
const bodyObj = JSON.parse(bodyStr);
url = bodyObj.video_url;
status = bodyObj.status;
} fangen (e) {
// Verhindern, dass ein Analysefehler Laufzeitfehler verursacht
console.log("JSON-Analyse fehlgeschlagen:", e);
}

// 3. Erstellen Sie das Ausgabeobjekt und geben Sie die Task-ID zurück
const ret = {
"URL": URL,
„Status“: Status
};

return ret;
}
„
Enterprise WeChat-Screenshot_17677755174326.png

4. Fügen Sie einen neuen Beurteilungsknoten hinzu, um zu beurteilen, ob die Abfrage die URL erhält

In diesem Beispiel legt der Beurteilungsknoten zwei Zweige fest. Der erste Zweig besteht darin, die vom vorherigen Codeknoten ausgegebene URL abzurufen, um zu beurteilen, ob sie leer ist.
Im zweiten Zweig wird ermittelt, ob der Status „Fehler“ lautet

Enterprise WeChat-Screenshot_17677757634138.png

5Führen Sie basierend auf dem Beurteilungsergebnis aus

Fügen Sie einen neuen Knoten hinzu, um die Schleife zu beenden. Die Schleife wird beendet, wenn die erste Beurteilung des Beurteilungsknotens erfolgreich ist oder die zweite Beurteilung erfolgreich ist.
Fügen Sie einen neuen Timer-Knoten und einen Endlosschleifenknoten hinzu. Wenn beide Beurteilungen des Beurteilungsknotens negativ sind, wird zuerst der Timer ausgeführt (um zu verhindern, dass die Anzahl gleichzeitiger Anforderungen zu Anforderungsfehlern führt. Es wird empfohlen, ihn auf 1500 ms einzustellen). Nach Ablauf des Timers wird die Verbindung in einer Schleife fortgesetzt.

Enterprise WeChat-Screenshot_17677758794115.png

  1. Verarbeiten Sie die aus der Schleife erhaltenen Ergebnisse (fügen Sie einen neuen Codeknoten hinzu).
    Da das nach der Schleife erhaltene Ergebnis ein Array ist, das verarbeitet werden muss, um nur das endgültige Ausgabeergebnis zu erhalten (der Code lautet wie folgt)
    Die Eingabe ist das Ergebnis der Schleifenausgabe

„
asynchrone Funktion main({ params }: Args): Promise {

// Eingabe abrufen
const urls = params.urls;
const statuses = params.statuss;

// 3. Erstellen Sie das Ausgabeobjekt und geben Sie die Task-ID zurück
const ret = {
"url": URLs[URLs?.Länge -1],
"status": statuss[statuss?.length -1]
};

return ret;
}
„
Die Ausgabe ist die verarbeitete URL und der Status
Enterprise WeChat-Screenshot_17677761996893.png

6. Bestimmen Sie, ob die URL einen Wert hat, um festzustellen, ob die Videogenerierung erfolgreich war oder fehlgeschlagen ist.

Enterprise WeChat-Screenshot_17677764885854.png

7. Endgültiges Ausgabeergebnis

Geben Sie, wie in der Abbildung gezeigt, die Erfolgs- und Fehlerergebnisse aus und beenden Sie den Vorgang. Sie können den Ausgabetext entsprechend Ihren Anforderungen in eine Variable ändern oder die Ausgabeergebnisse zur Ausgabe in den Endknoten einfügen.
Enterprise WeChat-Screenshot_17677765862529.png

Enterprise WeChat-Screenshot_17677765941365.png

8. Erkenne die Wirkung

Enterprise WeChat-Screenshot_17677770925315.png

修改于 2026-01-22 11:55:17
上一页
CherryStudio konfiguriert die o4-Inferenzebene
下一页
difyadd-Modell
Built with