Skip to main content
📝 KI-Automatisierung

Claude Code + Blotato: So habe ich meine gesamte Content-Pipeline automatisiert

Claude Code + Blotato: So habe ich meine gesamte Content-Pipeline automatisiert Letzten Donnerstag habe ich ein 22-minütiges YouTube-Video über den Au...

20 min

Lesezeit

3,861

Wörter

Mar 17, 2026

Veröffentlicht

Engr Mejba Ahmed

Geschrieben von

Engr Mejba Ahmed

Artikel teilen

Claude Code + Blotato: So habe ich meine gesamte Content-Pipeline automatisiert

Claude Code + Blotato: So habe ich meine gesamte Content-Pipeline automatisiert

Letzten Donnerstag habe ich ein 22-minütiges YouTube-Video über den Aufbau von KI-Agenten-Teams hochgeladen. Innerhalb von 40 Minuten hatte ich neun plattformspezifische Inhalte in einem Entwurfsordner auf meinem Rechner liegen — drei LinkedIn-Beiträge mit professioneller Formatierung, drei Instagram-Karussell-Skripte mit Slide-für-Slide-Aufschlüsselungen und drei X-Beiträge mit prägnanten Zitat-Visuals. Alles maßgeschneidert. Alles markenkonform. Alles bereit für meine Überprüfung und Veröffentlichung.

Ich habe keinen einzigen davon manuell geschrieben.

Das System, das sie produziert hat, ist ein Claude Code Projekt mit vier Python-Skripten, einer Blotato API-Integration und einem Konzept, auf das ich immer wieder zurückkomme: Skills. Nicht die vage Art von „KI kann Dinge tun". Die spezifische, dokumentierte, wiederholbare Art — bei der jede Automatisierung einen Namen hat, eine Reihe von Zutaten, eine Abfolge von Schritten und ein erwartetes Ausgabeformat.

Der Aufbau hat mich etwa drei Wochenenden der Iteration gekostet. Die erste Version war peinlich fehlerhaft. Claude Code versuchte ständig, YouTube-Seiten direkt abzurufen und stieß auf Bot-Erkennungssperren. Die Bildgenerierung produzierte übergroße PNGs, die Blotatos API ablehnte. Meine Marken-Assets luden nicht, weil ich Pfade fest einprogrammiert hatte, die nur auf meinem Arbeitsrechner existierten.

Aber jeder Fehler hat dem System etwas beigebracht — und das ist der Teil, den niemand erklärt, wenn es um die Arbeit mit Claude Code für Automatisierung geht. Die KI führt nicht einfach nur Ihre Anweisungen aus. Sie beobachtet, was schiefgeht, schlägt Korrekturen vor und aktualisiert ihre eigenen Skill-Dokumente, damit derselbe Fehler nicht zweimal passiert.

Ich möchte Sie Schritt für Schritt durch die Funktionsweise dieser Pipeline führen, denn der 9-fache Content-Multiplikator, den sie erzeugt, hat grundlegend verändert, wie ich über Veröffentlichungen denke. Aber zuerst müssen Sie verstehen, warum ich drei andere Tools aufgegeben habe, bevor ich bei diesem Ansatz gelandet bin.

Warum Repurposing-Tools bei mir ständig versagt haben

Ich habe Repurpose.io ausprobiert, ChatGPT manuell mit Prompts gefüttert und ein Tool namens ContentFries getestet, das „ein Video, unbegrenzter Content" versprach. Sie alle hatten dasselbe Problem: Sie behandelten jede Plattform gleich.

Der LinkedIn-Beitrag klang wie ein Tweet mit zusätzlichen Absätzen. Die X-Beiträge waren gekürzte Versionen von dem, was das Tool zuerst generiert hatte. Keine Plattform-Intelligenz — kein Verständnis dafür, dass LinkedIn-Zielgruppen professionelle Frameworks wollen, während X-Zielgruppen eine scharfe Einschätzung wollen, die sie mit einem Zitat retweeten können.

Markenkonsistenz war das zweite Versagen. Mein Profilbild, verifiziertes Abzeichen, Farbpalette — keines dieser Tools erlaubte mir, Marken-Assets einzubinden. Jede Ausgabe sah generisch aus. Ich verbrachte 20 Minuten pro Beitrag damit, Ton manuell anzupassen und neu zu formatieren. Zwanzig Minuten mal neun Beiträge mal vier Videos pro Monat. Zwölf Stunden mechanische Arbeit an Content, den ich bereits einmal erstellt hatte.

Das dritte Problem brachte mich dazu, mein eigenes System zu bauen: der Freigabe-Workflow. Oder vielmehr dessen Abwesenheit. Diese Tools wollten direkt auf meine Accounts veröffentlichen, ohne Überprüfungsschritt. Ich bin schon einmal daran verbrannt worden — ein Planungstool hat einmal einen Entwurf mit „HIER RELEVANTE STATISTIK EINFÜGEN" an 14.000 LinkedIn-Follower veröffentlicht. Die Kommentare waren... lehrreich.

Ich brauchte drei Dinge: plattformspezifische Content-Intelligenz, Integration von Marken-Assets und obligatorische menschliche Überprüfung. Claude Code und Blotato haben mir alle drei gegeben.

Was einen „Skill" von einem Prompt unterscheidet

Wenn Sie meinen Artikeln über Claude Code Agent-Workflows gefolgt sind, wissen Sie, dass ich Skills als die fundamentale Einheit der KI-Automatisierung betrachte. Aber dieses Projekt hat mich gezwungen, viel präziser zu werden, was das tatsächlich bedeutet.

Ein Prompt ist eine einmalige Anweisung. „Schreibe mir einen LinkedIn-Beitrag über dieses Video." Sie tippen es ein, die KI antwortet, und die Interaktion ist beendet. Wenn die Ausgabe falsch ist, überarbeiten Sie den Prompt und versuchen es erneut. Das Wissen darüber, was funktioniert, lebt in Ihrem Kopf.

Ein Skill ist ein dokumentiertes Rezept. Er hat vier Komponenten:

Name: Ein eindeutiger Bezeichner. Meine heißen beispielsweise youtube-to-linkedin, youtube-to-instagram-carousel, youtube-to-x-quote.

Zutaten: Die Eingaben, die der Skill benötigt, bevor er ausgeführt werden kann. Für youtube-to-linkedin sind die Zutaten: Video-Transkript (Klartext), Videotitel, Video-URL, Beschreibung der Zielgruppe und Pfad zum Verzeichnis der Marken-Assets.

Schritte: Die geordnete Abfolge von Operationen. Keine vagen Anweisungen — spezifische, testbare Schritte. „Extrahiere die drei zitierfähigsten Aussagen aus dem Transkript" ist ein Schritt. „Lass es professionell klingen" ist keiner.

Erwartete Ausgabe: Das exakte Format und die Struktur dessen, was herauskommt. Für den LinkedIn-Skill ist die erwartete Ausgabe eine Markdown-Datei mit einer Hook-Zeile (unter 200 Zeichen), einem Hauptteil (150-300 Wörter), drei Hashtags und einem CTA mit Link zurück zum vollständigen Video.

Der Unterschied ist wichtig, weil Skills iterierbar sind. Wenn die LinkedIn-Ausgabe zu lang ist, starte ich nicht von Grund auf mit neuen Prompts. Ich passe Schritt 4 des Skill-Dokuments an — „Komprimiere den Hauptteil auf unter 250 Wörter, wobei alle Framework-Referenzen erhalten bleiben" — und jede zukünftige Ausführung spiegelt diese Änderung wider.

Das ist es, was ich meine, wenn ich sage, die KI korrigiert sich selbst. Das Skill-Dokument ist ein lebendes Artefakt. Claude Code liest es vor jeder Ausführung, folgt seinen Schritten, und wenn etwas schiefgeht — ein Web-Abruf wird blockiert, ein Bild überschreitet Blotatos Größenlimit — aktualisiere ich das Skill-Dokument mit der Korrektur. Der nächste Durchlauf funktioniert korrekt. Das System wird mit jedem Fehler intelligenter.

Mein Projekt hat derzeit sieben Skill-Dokumente. Drei für die Content-Generierung (eines pro Plattform), zwei für die Bilderstellung (LinkedIn-Infografik und X-Zitat-Visual), eines für die Transkript-Extraktion und eines für den Freigabe-Workflow. Jedes einzelne hat grob angefangen und sich durch echte Nutzung verbessert.

Diese iterative Schleife — ausführen, scheitern, den Skill korrigieren, erneut ausführen — ist das eigentliche Geheimnis, um KI-Automatisierung zuverlässig zu machen. Nicht bessere Prompts. Besser dokumentierte Prozesse.

Lassen Sie mich Ihnen nun die Projektstruktur zeigen, die das alles zusammenhält.

Die Projektstruktur, die alles möglich macht

Ich betreibe dieses gesamte System aus einem einzigen VS Code Projekt. So sieht die Verzeichnisstruktur aus:

content-repurposer/
  claude.md
  scripts/
    extract_transcript.py
    generate_content.py
    create_visuals.py
    submit_to_blotato.py
  skills/
    youtube-to-linkedin.md
    youtube-to-instagram-carousel.md
    youtube-to-x-quote.md
    linkedin-infographic.md
    x-quote-visual.md
    transcript-extraction.md
    approval-workflow.md
  drafts/
    linkedin/
    instagram/
    x/
  brand-assets/
    profile-pic-square.png
    profile-pic-round.png
    verified-badge.png
    color-palette.json
    fonts/
  approved/
    linkedin/
    instagram/
    x/
  .env

Ein paar Dinge fallen auf.

Die claude.md-Datei im Stammverzeichnis ist der System-Prompt für Claude Code. Das ist das Gehirn der gesamten Operation — sie teilt Claude Code mit, was dieses Projekt tut, welche Skills verfügbar sind und welche Einschränkungen zu beachten sind. Ich halte meine unter 150 Zeilen. Das ist eine harte Regel, die ich durch schmerzhafte Experimente gelernt habe. Überschreiten Sie 150 Zeilen, und Claude Code beginnt, den Kontext bei den weniger betonten Anweisungen zu verlieren. Das Modell hat reichlich Kapazität, aber das Signal-Rausch-Verhältnis in Ihrem System-Prompt ist enorm wichtig.

Hier ist eine vereinfachte Version meiner claude.md:

# Content Repurposer

Dieses Projekt verwandelt YouTube-Videos in plattformspezifischen Content.

## Verfügbare Skills
- youtube-to-linkedin: Erzeugt professionelle LinkedIn-Beiträge aus Video-Transkripten
- youtube-to-instagram-carousel: Erzeugt Karussell-Skripte mit Slide-Aufschlüsselungen
- youtube-to-x-quote: Erzeugt prägnante X-Beiträge mit Zitat-Visuals

## Einschränkungen
- Niemals YouTube-Seiten direkt abrufen (Bot-Erkennung)
- Immer Transkripte aus bereitgestellten Textdateien verwenden
- Bildausgaben müssen unter 5 MB bleiben
- Alle Marken-Assets über relative Pfade aus brand-assets/ laden

## Workflow
1. Transkript in scripts/transcripts/ ablegen
2. Skills nacheinander ausführen
3. Ausgaben in drafts/{plattform}/ überprüfen
4. Genehmigte Inhalte nach approved/{plattform}/ verschieben
5. submit_to_blotato.py für die Planung ausführen

Beachten Sie, was nicht darin steht. Keine langen Erklärungen, wie Claude Code funktioniert. Keine Wiederholung allgemeiner KI-Fähigkeiten. Nur projektspezifischer Kontext und Einschränkungen. Jede Zeile verdient ihren Platz.

Das scripts/-Verzeichnis enthält vier Python-Dateien, die die eigentliche Arbeit erledigen. extract_transcript.py verarbeitet Untertiteldateien (SRT oder VTT) in Klartext. generate_content.py orchestriert die Content-Erstellung über die Claude API. create_visuals.py generiert gebrandete Bilder mit Pillow. submit_to_blotato.py übermittelt genehmigte Inhalte an Blotatos API zur Planung.

Der drafts/-Ordner ist das Staging-Gebiet. Alles landet hier zuerst. Nichts kommt jemals direkt in approved/. Dieses architektonische Prinzip hat mir mindestens drei öffentliche Peinlichkeiten erspart.

brand-assets/ enthält alles, was die Ausgabe „nach mir" aussehen lässt. Das quadratische Profilbild für LinkedIn, das runde für X, das verifizierte Abzeichen als Overlay, die Farbpalette als JSON (damit Skripte genau die richtigen Hex-Werte referenzieren können) und benutzerdefinierte Schriftarten für die Bildgenerierung.

Lassen Sie mich nun zeigen, wie die API-Schicht funktioniert.

Einrichtung der API-Schicht

Die Pipeline verwendet zwei APIs: die Anthropic API für die Content-Generierung und die Blotato API für die Planung und Veröffentlichung. Beide werden über Umgebungsvariablen konfiguriert.

Hier ist die .env-Struktur:

ANTHROPIC_API_KEY=sk-ant-xxxxxxxxxxxxx
BLOTATO_API_KEY=bt-xxxxxxxxxxxxx
BLOTATO_WORKSPACE_ID=ws-xxxxxxxxxxxxx
BRAND_NAME=Mejba Ahmed
DEFAULT_HASHTAGS=#KI,#Automatisierung,#ClaudeCode
LINKEDIN_PROFILE_URL=https://linkedin.com/in/mejba
X_HANDLE=@mejba_ahmed

Die Python-Konfiguration, die diese lädt, ist bewusst einfach:

import os
from pathlib import Path
from dotenv import load_dotenv

load_dotenv()

CONFIG = {
    "anthropic_key": os.getenv("ANTHROPIC_API_KEY"),
    "blotato_key": os.getenv("BLOTATO_API_KEY"),
    "blotato_workspace": os.getenv("BLOTATO_WORKSPACE_ID"),
    "brand_name": os.getenv("BRAND_NAME", "Mejba Ahmed"),
    "brand_assets": Path(__file__).parent.parent / "brand-assets",
    "drafts_dir": Path(__file__).parent.parent / "drafts",
    "approved_dir": Path(__file__).parent.parent / "approved",
}

Ich verwende Path(__file__).parent.parent anstelle von fest einprogrammierten absoluten Pfaden. Das war tatsächlich eine der frühen Self-Correction-Lektionen — meine erste Version hatte /Users/mejba/Projects/content-repurposer/brand-assets fest verdrahtet, was offensichtlich auf keinem anderen Rechner funktioniert. Claude Code hat das Problem erkannt, als ich versuchte, das Repo auf meinem Laptop zu klonen, und schlug die relative Pfad-Korrektur in derselben Sitzung vor.

Die Blotato API-Integration ist überraschend unkompliziert. Ihr Endpunkt akzeptiert Content, eine Plattformbezeichnung und Planungsmetadaten:

import requests

def submit_to_blotato(content: str, platform: str, schedule_time: str = None):
    headers = {
        "Authorization": f"Bearer {CONFIG['blotato_key']}",
        "Content-Type": "application/json"
    }

    payload = {
        "workspace_id": CONFIG["blotato_workspace"],
        "platform": platform,
        "content": content,
        "status": "draft" if not schedule_time else "scheduled",
    }

    if schedule_time:
        payload["scheduled_at"] = schedule_time

    response = requests.post(
        "https://api.blotato.com/v1/posts",
        headers=headers,
        json=payload
    )

    return response.json()

Beachten Sie, dass der Standardstatus draft ist. Auch wenn Content zur Blotato-Plattform übermittelt wird, wird er nicht automatisch veröffentlicht. Er wartet dort als Entwurf, bis ich ihn in ihrem Dashboard bestätige. Doppelte Sicherheitsnetze — lokale Entwurfsüberprüfung und plattformseitige Entwurfsüberprüfung.

Plattformspezifische Content-Generierung

Hier wird das System wirklich wertvoll. Jede Plattform hat ihren eigenen Skill mit unterschiedlichen Regeln, Strukturen und Tonfall-Leitlinien.

Der LinkedIn-Skill

Die LinkedIn-Content-Generierung folgt einem präzisen fünfstufigen Prozess:

  1. Transkript analysieren — Identifiziere die Kernaussage, unterstützende Punkte und umsetzbare Erkenntnisse
  2. Hook extrahieren — Erstelle eine Eröffnungszeile unter 200 Zeichen, die sofortigen Mehrwert verspricht
  3. Hauptteil strukturieren — 150-300 Wörter im Professional-Framework-Format (nummerierte Erkenntnisse, klare Absätze)
  4. CTA formulieren — Verlinke zurück zum Video mit einem konkreten Grund zum Anschauen
  5. Hashtags auswählen — Genau drei, branchenrelevant, nicht generisch

Der Skill schreibt außerdem bestimmte Anti-Muster vor: keine Emoji-Einleitungen (sie wirken auf LinkedIn-Entscheider unglaubwürdig), keine „Ich"-Anfänge (beginne mit der Erkenntnis, nicht mit der Person) und keine vagen CTAs wie „Schauen Sie es sich an" (sage stattdessen konkret, was der Zuschauer lernen wird).

Der Instagram-Karussell-Skill

Instagram-Karussells benötigen eine völlig andere Struktur. Der Skill generiert ein Skript mit:

  • Slide 1: Hook-Slide mit einer fettgedruckten Aussage (8 Wörter oder weniger)
  • Slides 2-7: Inhaltliche Slides mit jeweils einem Konzept pro Slide, maximal 40 Wörter pro Slide
  • Slide 8: CTA-Slide mit klarer nächster Aktion
  • Bildunterschrift: 100-150 Wörter mit Zeilenumbrüchen für Lesbarkeit, 5-10 Hashtags

Jeder Slide enthält eine visuelle Richtungsbeschreibung — welche Farbe der Hintergrund haben soll (aus der Markenpalette), wo der Text platziert werden soll und ob ein Icon oder Bild enthalten sein soll.

Der X-Beitrags-Skill

X ist die anspruchsvollste Plattform, weil die Kürze gnadenlos ist. Mein Skill hat spezifische Tonfall-Regeln:

## Tonfall-Regeln für X
- Maximal 280 Zeichen pro Beitrag
- Favorisiere starke Meinungen gegenüber neutralen Beobachtungen
- Verwende „Hot Take"-Struktur: konträre Aussage + Begründung in einem Satz
- Kein Hashtag-Spam (maximal ein Hashtag, und nur wenn er wirklich relevant ist)
- Zitat-Visuals: Extrahiere die provokanteste Zeile aus dem Transkript
- Immer mit einer Frage oder einem herausfordernden Statement enden

Der Skill generiert drei Varianten: eine direkte Erkenntnis, einen konträren Standpunkt und eine Frage, die zum Engagement einlädt. So habe ich Optionen, ohne das System dreimal laufen lassen zu müssen.

Der manuelle Freigabe-Workflow

Das ist der Teil, den die meisten Automatisierungstools überspringen — und es ist der Teil, den ich am meisten schätze.

Der Freigabe-Workflow hat drei Stufen:

Stufe 1: Lokale Überprüfung

Nachdem die Content-Generierung abgeschlossen ist, druckt das System eine Zusammenfassung in das Terminal:

✅ Content-Generierung abgeschlossen
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
LinkedIn:  3 Entwürfe → drafts/linkedin/
Instagram: 3 Entwürfe → drafts/instagram/
X:         3 Entwürfe → drafts/x/

Nächster Schritt: Entwürfe überprüfen und genehmigte nach approved/ verschieben

Ich öffne jeden Entwurf, lese ihn durch und nehme Anpassungen vor. Normalerweise bearbeite ich 2-3 von 9 Beiträgen — meist kleinere Tonfall-Korrekturen oder das Hinzufügen einer spezifischen Anekdote, die nur ich kennen kann. Die KI liefert 80-90% korrekt, aber die menschliche Note beim Editieren macht den Unterschied zwischen „das hat ein Bot geschrieben" und „das fühlt sich nach mir an".

Stufe 2: In genehmigt verschieben

import shutil
from pathlib import Path

def approve_content(platform: str, filename: str):
    source = Path(f"drafts/{platform}/{filename}")
    dest = Path(f"approved/{platform}/{filename}")
    dest.parent.mkdir(parents=True, exist_ok=True)
    shutil.move(str(source), str(dest))
    print(f"✅ Genehmigt: {platform}/{filename}")

Nur Dateien im approved/-Verzeichnis werden jemals an Blotato übermittelt. Dieses Gatekeeping auf Dateisystemebene ist absichtlich primitiv — es braucht keine Datenbank, keinen Zustand und kein kompliziertes UI. Datei verschieben = genehmigt. So einfach.

Stufe 3: Zur Planung übermitteln

Das finale Skript iteriert durch die genehmigten Ordner und übermittelt jeden Beitrag an Blotato:

def submit_all_approved():
    for platform in ["linkedin", "instagram", "x"]:
        approved_path = Path(f"approved/{platform}")
        for filepath in sorted(approved_path.glob("*.md")):
            content = filepath.read_text()
            result = submit_to_blotato(content, platform)
            print(f"📤 Übermittelt: {platform}/{filepath.name} → {result['status']}")
            filepath.rename(filepath.with_suffix('.submitted'))

Beachten Sie die Umbenennung am Ende — übermittelte Dateien werden von .md in .submitted umbenannt, sodass das Skript bei erneutem Ausführen nichts doppelt übermittelt. Auch hier eine einfache dateisystembasierte Zustandsverwaltung.

Wie Claude Code sich selbst korrigiert

Dies ist die Fähigkeit, die das System von einer statischen Pipeline zu einer lernenden Pipeline macht.

Hier ist ein reales Beispiel. Während eines frühen Durchlaufs versuchte mein create_visuals.py-Skript, ein LinkedIn-Infografik-Bild mit 2400 x 2400 Pixeln zu generieren. Blotatos API gab einen Fehler zurück:

❌ Blotato API Fehler: image_too_large
   Max erlaubte Größe: 5 MB
   Empfangene Größe: 7.2 MB
   Beitrag: linkedin/ai-agent-teams-infographic.png

Ich habe das im Terminal gesehen und Claude Code gesagt: „Die Infografik ist zu groß für Blotato. Korrigiere das und aktualisiere den Skill, damit es nicht wieder passiert."

Claude Code hat zwei Dinge getan:

  1. Das create_visuals.py-Skript aktualisiert, um die Auflösung auf 1200 x 1200 zu begrenzen und JPEG-Komprimierung mit 85% Qualität anzuwenden
  2. Das linkedin-infographic.md Skill-Dokument um eine neue Einschränkung ergänzt: „Ausgabebilder müssen unter 5 MB bleiben. Verwende 1200x1200 Maximum und JPEG-Komprimierung bei 85%."

Von diesem Zeitpunkt an hat jeder zukünftige Durchlauf korrekt dimensionierte Bilder produziert. Die Korrektur lebt im Skill, nicht in meinem Gedächtnis.

Ein weiteres Beispiel: Mein Transkript-Extraktionsskript schlug bei VTT-Dateien fehl, die doppelte Zeilenumbrüche zwischen Segmenten hatten. Die Fehlermeldung war kryptisch — eine Indexüberschreitung in der Parsing-Logik. Ich zeigte den Fehler Claude Code, und es:

  1. Die fehlgeschlagene VTT-Datei analysierte, um das doppelte Zeilenumbruch-Muster zu identifizieren
  2. Den Parser reparierte, um sowohl einfache als auch doppelte Zeilenumbrüche zu verarbeiten
  3. Das Skill-Dokument transcript-extraction.md um einen Hinweis ergänzte: „VTT-Dateien können einfache oder doppelte Zeilenumbrüche als Segment-Trenner verwenden. Beide Muster verarbeiten."

Diese Self-Correction-Schleife ist der Grund, warum Skills mächtiger sind als Prompts. Ein Prompt hätte denselben Fehler beim nächsten Mal erneut produziert. Das Skill-Dokument verhindert es dauerhaft.

Die vollständige Pipeline ausführen

So sieht eine komplette Ausführung aus, von Video zu geplanten Beiträgen:

Schritt 1: Transkript vorbereiten

python scripts/extract_transcript.py --input captions/ai-agent-teams.vtt --output scripts/transcripts/ai-agent-teams.txt

Schritt 2: Content für alle Plattformen generieren

python scripts/generate_content.py --transcript scripts/transcripts/ai-agent-teams.txt --title "Building AI Agent Teams" --url "https://youtube.com/watch?v=xxxxx" --platforms linkedin,instagram,x

Dieser Befehl liest die drei Plattform-Skills und generiert drei Varianten pro Plattform. Ausgabe erscheint in drafts/.

Schritt 3: Visuals erstellen

python scripts/create_visuals.py --transcript scripts/transcripts/ai-agent-teams.txt --platforms linkedin,x

Generiert gebrandete Bilder — Infografiken für LinkedIn und Zitat-Visuals für X. Instagram-Visuals erstelle ich separat in Canva, weil Karussell-Ästhetik ein eigenes Design-Tool erfordert.

Schritt 4: Überprüfen und genehmigen

Entwürfe manuell in VS Code öffnen, lesen, bei Bedarf bearbeiten und genehmigte Dateien nach approved/ verschieben.

Schritt 5: An Blotato übermitteln

python scripts/submit_to_blotato.py

Alle genehmigten Beiträge werden als Entwürfe an Blotato übermittelt. Von dort plane ich die Veröffentlichungszeiten im Blotato-Dashboard.

Die gesamte Pipeline dauert von Ende zu Ende etwa 40 Minuten — 5 Minuten für Transkript und Generierung, 30 Minuten für Überprüfung und Bearbeitung und 5 Minuten für Übermittlung und Planung.

Was ich falsch gemacht habe

Es wäre unehrlich, nur den funktionierenden Zustand zu präsentieren. Hier sind die größten Fehler, die ich auf dem Weg gemacht habe:

Ich habe versucht, YouTube direkt zu scrapen. Mein erster Ansatz war, Claude Code YouTube-Seiten abrufen zu lassen, um Transkripte zu extrahieren. YouTube erkennt automatisierte Anfragen sofort. Ich habe zwei Tage mit einer Aufgabe verschwendet, die ich hätte lösen können, indem ich einfach die Untertiteldatei manuell herunterlade. Die Lektion: Nicht alles muss automatisiert werden. Manchmal ist ein manueller Schritt die richtige Wahl.

Meine Skill-Dokumente waren anfangs zu vage. Die erste Version des LinkedIn-Skills sagte „schreibe einen professionellen Beitrag." Das Ergebnis? Generisches Corporate-Deutsch, das wie jeder andere KI-generierte LinkedIn-Beitrag klang. Erst als ich spezifische Strukturvorgaben, Anti-Muster und Beispiele hinzufügte, wurde die Ausgabe brauchbar. Je präziser der Skill, desto besser das Ergebnis.

Ich habe die Bildgrößen ignoriert. Jede Plattform hat unterschiedliche Anforderungen an Bildformate und -größen. Mein erster Durchlauf produzierte Bilder, die entweder zu groß waren (Blotato-Ablehnung) oder das falsche Seitenverhältnis hatten (beschnitten auf den Plattformen). Jetzt enthält jeder Bild-Skill exakte Pixelmaße und Dateigrößenlimits.

Ich habe den Freigabe-Schritt unterschätzt. Anfangs dachte ich, die KI-Ausgabe wäre gut genug für die direkte Veröffentlichung. Nach zwei peinlichen Beiträgen — einem mit einem erfundenen Statistik und einem mit einer Formulierung, die in meiner Branche als unsensibel wahrgenommen werden könnte — habe ich den obligatorischen Überprüfungsschritt eingeführt. Die 30 Minuten Überprüfung sind die wertvollsten Minuten in der gesamten Pipeline.

Was das im großen Maßstab bedeutet

Nach 30 Tagen mit diesem System sind meine Zahlen:

  • 36 YouTube-Videos verarbeitet (9 neue + 27 aus dem Archiv)
  • 324 Beiträge generiert (36 Videos × 9 Beiträge pro Video)
  • ~280 Beiträge nach Überprüfung genehmigt (86% Genehmigungsrate)
  • Zeitersparnis: ~40 Stunden manuelle Arbeit im Vergleich zur vorherigen Methode
  • Engagement-Steigerung: 34% auf LinkedIn, 28% auf X, 45% auf Instagram

Die 86%ige Genehmigungsrate ist die Kennzahl, die mir am meisten sagt. Es bedeutet, dass etwa 1 von 7 generierten Beiträgen nicht meinen Standards entspricht — normalerweise weil der Ton daneben liegt oder ein Punkt zu stark vereinfacht wurde. Aber 6 von 7 benötigen nur minimale oder gar keine Bearbeitung. Das ist eine enorme Effizienzsteigerung.

Der wichtigere Effekt ist Konsistenz. Vor diesem System habe ich sporadisch veröffentlicht — vielleicht 2-3 Mal pro Woche auf LinkedIn, einmal auf X, fast nie auf Instagram. Jetzt veröffentliche ich täglich auf allen drei Plattformen, weil die Erstellungskosten so dramatisch gesunken sind. Konsistenz schlägt Brillanz, wenn es um den Aufbau einer Zielgruppe geht.

Wie geht es weiter?

Drei Erweiterungen stehen auf meiner Roadmap:

Newsletter-Integration. Jedes Video könnte auch einen Newsletter-Absatz generieren — eine kurze Zusammenfassung mit Link zum Video und den besten Social-Media-Beiträgen der Woche. Der Skill dafür ist bereits skizziert, aber noch nicht implementiert.

Automatische Thumbnail-Analyse. Anstatt nur das Transkript zu verwenden, könnte das System auch das YouTube-Thumbnail analysieren und visuelle Elemente in die Social-Media-Beiträge integrieren. Das erfordert eine Vision-API-Integration, die ich noch testen muss.

Performance-Feedback-Loop. Die größte offene Frage: Kann ich Engagement-Daten aus Blotato zurückspeisen, um die Skills automatisch zu optimieren? Wenn LinkedIn-Beiträge mit Fragen am Anfang 40% mehr Kommentare bekommen, sollte der Skill das als bevorzugte Struktur aufnehmen. Das ist der heilige Gral — ein System, das nicht nur produziert, sondern auch aus seiner eigenen Performance lernt.

Häufig gestellte Fragen

Brauche ich Programmierkenntnisse, um dieses System aufzubauen?

Grundlegende Python-Kenntnisse sind hilfreich, aber nicht zwingend erforderlich. Claude Code kann die Skripte für Sie schreiben und debuggen. Was Sie jedoch brauchen, ist die Fähigkeit, klare Skill-Dokumente zu formulieren — und das ist eher eine redaktionelle als eine technische Fähigkeit. Wenn Sie klar beschreiben können, wie ein guter LinkedIn-Beitrag aussehen soll, können Sie einen Skill dokumentieren.

Was kostet der Betrieb dieser Pipeline monatlich?

Die Anthropic API-Kosten liegen bei etwa 15-25 USD pro Monat bei meinem Volumen (36 Videos, 324 Beiträge). Blotato hat einen kostenlosen Tier für bis zu 50 geplante Beiträge pro Monat; darüber hinaus beginnt der Pro-Plan bei 29 USD pro Monat. Insgesamt also 45-55 USD monatlich — deutlich weniger als die 12+ Stunden manueller Arbeit, die es ersetzt.

Kann ich das auch für andere Plattformen als LinkedIn, Instagram und X verwenden?

Absolut. Das Skill-basierte System ist plattformagnostisch. Sie müssen lediglich einen neuen Skill für die gewünschte Plattform erstellen — mit ihren spezifischen Formatierungsregeln, Zeichenlimits und Tonfall-Anforderungen. Ich plane bereits Skills für Threads und Bluesky. Der Erstellungsaufwand pro neuem Skill beträgt etwa 30-60 Minuten, und von da an ist jede Plattform Teil der Pipeline.

Wie verhindere ich, dass die KI-generierten Beiträge generisch klingen?

Drei Strategien: Erstens, detaillierte Tonfall-Regeln im Skill-Dokument (nicht „professionell", sondern „direkt, meinungsstark, mit konkreten Beispielen statt vager Aussagen"). Zweitens, Anti-Muster explizit auflisten (keine Emoji-Einleitungen, kein „in der heutigen schnelllebigen Welt"-Einstieg). Drittens, und das ist der wichtigste Punkt — die menschliche Überprüfung. Fügen Sie persönliche Anekdoten, spezifische Zahlen aus Ihrer eigenen Erfahrung und Ihre ehrliche Meinung hinzu. Die KI liefert die Struktur; Sie liefern die Authentizität.

Was passiert, wenn Blotato seinen Dienst einstellt oder die API ändert?

Das ist der Vorteil der modularen Architektur. Die Content-Generierung ist vollständig von der Verteilungsschicht getrennt. Wenn Blotato verschwindet, ersetze ich nur submit_to_blotato.py durch ein Skript für einen anderen Dienst — Buffer, Hootsuite, oder sogar direkte API-Aufrufe an die jeweiligen Plattformen. Die Skills, die Marken-Assets und der Freigabe-Workflow bleiben unverändert. Bauen Sie immer so, dass einzelne Teile austauschbar sind, ohne das Gesamtsystem zu destabilisieren.

Lassen Sie uns zusammenarbeiten

Wenn Sie Ihre eigene Content-Pipeline automatisieren möchten oder Hilfe beim Aufbau eines Skill-basierten Systems mit Claude Code benötigen, lassen Sie uns ins Gespräch kommen. Ich helfe Teams und Einzelpersonen dabei, KI-gestützte Workflows zu entwerfen, die tatsächlich in der Praxis funktionieren — nicht nur in Demos.

Sie finden mich auf LinkedIn, X und direkt über meine Kontaktseite. Ich freue mich immer über den Austausch mit Menschen, die KI-Automatisierung praktisch einsetzen wollen, nicht nur darüber theoretisieren.

Coffee cup

Hat Ihnen dieser Artikel gefallen?

Ihre Unterstützung hilft mir, mehr tiefgehende technische Inhalte, Open-Source-Tools und kostenlose Ressourcen für die Entwickler-Community zu erstellen.

Verwandte Themen

Engr Mejba Ahmed

Über den Autor

Engr Mejba Ahmed

Engr. Mejba Ahmed builds AI-powered applications and secure cloud systems for businesses worldwide. With 10+ years shipping production software in Laravel, Python, and AWS, he's helped companies automate workflows, reduce infrastructure costs, and scale without security headaches. He writes about practical AI integration, cloud architecture, and developer productivity.

Discussion

Comments

0

No comments yet

Be the first to share your thoughts

Leave a Comment

Your email won't be published

4  x  5  =  ?

Weiter lernen

Verwandte Artikel

Alle anzeigen

Comments

Leave a Comment

Comments are moderated before appearing.

Learning Resources

Expand Your Knowledge

Accelerate your growth with structured courses, verified certificates, interactive flashcards, and production-ready AI agent skills.

Sample Certificate of Completion

Sample certificate — complete any course to earn yours