
Bernhard Ensomo
Filmemacher, KI-Produktions-Spezialist, Gründer DreamCine AI & Dozent Transmedial Akademie
Wer ist Bernhard?
Bernhard Ensomo arbeitet seit über 15 Jahren als Editor – darunter 8 Jahre als Senior Editor bei DJI sowie an zwei preisgekrönten Independent-Spielfilmen (Netflix, Amazon Prime). Heute baut er unter der Marke DreamCine AI generative KI-Produktionen für Broadcaster wie ZDF und ARD und NGOs wie SOS Kinderdorf. Seine Vision: professionell produziertes Bewegtbild – vom Instagram-Reel bis zum Imagefilm – ohne klassisches Produktionsteam. Crafted Intelligence.
Er unterrichtet an der Transmedial Akademie und gab 2025 einen Workshop für den Bundesverband Filmschnitt Editor e.V. (BFS). Sein TÜV-zertifizierter KI-Berater-Status macht ihn zur ersten Anlaufstelle, wenn Mittelständler verstehen wollen, wie sie KI-Bewegtbild für ihre Marke einsetzen – sendetauglich, ad-tauglich, social-tauglich.
Was ihn besonders macht: Er kommt aus dem klassischen Film. Er weiß, wie ein Schnitt sitzen muss, wie ein Bild Stimmung trägt, wie Geschichten emotional ankommen. KI ist für ihn kein Tool für virale Spielereien, sondern ein professionelles Produktionswerkzeug – wenn man weiß, wie man es führt.
Deep Dive: Ihr KI-Filmstudio im Browser — wie ein KI-Mitarbeiter Geschichten erzählt, die Kunden, Teams und Communities bewegen
Was zeigt Bernhard in seinem Deep Dive?
Bernhard zeigt live, was 2026 mit KI im Bewegtbild möglich ist und was nicht. Keine Demo-Folien, keine kuratierten YouTube-Beispiele. Er baut vor euren Augen ein Stück Film.
Live-Build: Drei Stücke Bewegtbild in 90 Minuten
Bernhard produziert in 90 Minuten drei komplette Stücke Bewegtbild — live: einen Kinotrailer, eine Dialogszene mit zwei konsistenten Charakteren und ein 15-sekündiges Produktteaser-Video für Social Media. Vom ersten Bildprompt über die Charaktererstellung bis zum fertigen Clip mit Musik, Sprecherstimme und Lippensync. Mit den Tools, die gerade den Markt bestimmen. Was schiefgeht, wird live gefixt. So lernt man, wie KI-Filmproduktion wirklich funktioniert.
Konsistenz in Bild und Ton — die härteste Disziplin
Wie schaffe ich es, dass sich zwei Charaktere in einem KI-Film miteinander unterhalten und durch alle Shots hinweg konsistent aussehen, mit den passenden Stimmen? Bernhard zeigt die Workflows aus seiner eigenen Produktionspraxis, mit denen Konsistenz über mehrere Szenen hinweg gewährleistet wird.
Vom austauschbaren KI-Bild zum cineastischen Look
Die meisten KI-Bilder sehen sich zum Verwechseln ähnlich – flach, beliebig, generisch. Bernhard zeigt, welche Elemente ein Bild aus der KI-Beliebigkeit herausarbeiten: Lichtsetzung, Kameraperspektive, Linsencharakter, atmosphärische Tiefe, Imperfektion. Was unterscheidet ein KI-Bild, das nach Stock aussieht, von einem, das nach Film aussieht?
Vom Werkzeug zur Vision
Welches Tool kann was? Wo sind die Grenzen? Was kostet das wirklich? Bernhard gibt einen ungeschönten Praxisüberblick aus dem Tagesgeschäft – ohne Hype, ohne Verkaufstour. Bis zum 25. Juni wird sich die Tool-Landschaft noch verändern; Bernhard zeigt, was zum Workshop-Termin tatsächlich produktionstauglich ist.
Warum solltest du diesen Deep Dive besuchen?
Dieser Deep Dive ist für dich, wenn du diese Probleme kennst.
- Du willst Bewegtbild für deine Marke oder Organisation, aber Filmproduktion sprengt dein Budget
- Deine KI-Bilder sehen aus wie alle anderen KI-Bilder – austauschbar und beliebig statt eigenständig und cineastisch
- Du brauchst Visuals für eine Story, die es so nie gegeben hat – historisch, fiktiv, abstrakt
- Du willst KI-Video einsetzen, aber jedes Tutorial zeigt nur Spielereien, kein professionelles Handwerk
- Du hast Bilder von einem Ereignis oder Produkt, aber dir fehlt der eine entscheidende Shot
- Du willst nicht nur „mal probieren" – du willst Bewegtbild auf einem Niveau, das auch dein anspruchsvollster Kunde ernst nimmt
Gestalte den Deep Dive aktiv mit.
Das sind Beispiel-Fragen. Als KI-Pionier reichst du deine eigenen Fragen direkt bei Bernhard ein — siehe unten.
- Welches KI-Video-Tool ist 2026 wirklich produktionstauglich und welches ist nur Hype?
- Wie bereite ich einen Charakter vom Charakter-Sheet bis zum fertigen Videoclip vor?
- Wie bekomme ich zwei Charaktere durch eine ganze Szene konsistent mit passenden Stimmen?
- Kann ich andere Videoaufnahmen als Referenz für KI-Video nutzen oder sogar mein eigenes Handy-Video?
- Kann ich mich beim Tanzen filmen und einen Teddybären die gleichen Bewegungen machen lassen?
- Welche Bildelemente machen aus einem austauschbaren KI-Bild eine cineastische Aufnahme?
- Welche Optionen habe ich, meine KI-Clips selbst zu einem fertigen Film zusammenzuschneiden?
- Wie bringe ich meine eigene Stimme oder mein Voice-Over in einen KI-Film ein?
- Wie funktioniert KI-Lippensync – und wie überzeugend ist das wirklich?
- Kann ich KI-Bewegtbilder rechtssicher für kommerzielle Projekte einsetzen und worauf muss ich achten?
Reiche deine Fragen vorab persönlich ein.
Als KI-Pionier gehörst du zu einer exklusiven Gruppe, die den Summit aktiv mitgestaltet. Bis zum 18.05.2026 bekommst du eine persönliche Umfrage per E-Mail — reiche deine Fragen direkt beim Speaker ein.
So kommst du mit einer Lösung für dein Unternehmen nach Hause — nicht mit generischen Antworten.
Erlebe Bernhard live
am 25. Juni in Zeitz.
2 Keynotes, 8 Deep Dives, 1 Fireside Chat — an einem Tag, an einem Ort.









