Ein Foto. Eine Audiodatei. Und daraus entsteht ein Avatar der 45 Minuten lang spricht, singt, nickt, zögert und reagiert — in Echtzeit, ohne seinen Charakter zu verlieren.
LPM 1.0 (Large Performance Model) ist das neueste KI-Modell aus dem Hause Anuttacon — dem Startup das von MiHoYo-Mitgründer Cai Haoyu gegründet wurde. Dem Mann hinter Genshin Impact und Honkai: Star Rail. Am 11. April 2026 vorgestellt, bereits jetzt der Benchmark für KI-Avatar-Technologie.
Was LPM 1.0 wirklich kann
LPM 1.0 ist kein Video-Generator im klassischen Sinne. Es ist ein Performance-Modell — es erzeugt Live-Performance aus einem statischen Bild, ohne den Charakter je gesehen zu haben.
Die technischen Eckdaten:
- 17 Milliarden Parameter als Basismodell
- Distilliert in eine niedrig-latenz Streaming-Version für Echtzeit-Ausgabe
- Identitätsstabilität über 45 Minuten ohne Drift (kein Verzerren des Gesichts über Zeit)
- 3× niedrigere Latenz als jede bekannte Alternative
- Unterstützt fotorealistische, Anime-, 3D- und nicht-menschliche Charaktere — ohne Fine-Tuning
Was bedeutet das in der Praxis?
Du gibst LPM 1.0 ein einzelnes Porträtfoto — keine Videosammlung, keine Trainingsrunde, kein Studio. Die KI animiert dieses Foto zu einem Charakter der:
- Lippen synchron mit dem Audio bewegt
- Subtile Gesichtsausdrücke zeigt (Zögern, Überraschung, Lachen)
- Den Blick natürlich wandert
- Beim Singen die richtige emotionale Haltung einnimmt
- 45 Minuten lang konsistent aussieht
Das ist qualitativ ein anderes Niveau als bisherige Tools wie HeyGen, D-ID oder Synthesia.
Vergleich mit aktuellen Avatar-Tools
| Kriterium | LPM 1.0 | HeyGen | D-ID | Kling Avatar |
|---|---|---|---|---|
| Input | 1 Foto | 1 Foto oder Video | 1 Foto | 1 Foto |
| Max. Dauer | 45 Min. | ~5 Min. | ~5 Min. | ~2 Min. |
| Echtzeit | Ja | Nein | Nein | Nein |
| Identitätsstabilität | Sehr hoch | Mittel | Mittel | Hoch |
| Nicht-menschliche Chars | Ja | Nein | Nein | Begrenzt |
| Öffentlich verfügbar | ❌ Nein | ✅ Ja | ✅ Ja | ✅ Ja |
LPM 1.0 gewinnt in jeder technischen Kategorie — ist aber noch nicht nutzbar.
Warum ist das trotzdem jetzt relevant?
Weil die Ankündigung das Tempo der Entwicklung zeigt. Heute ist es Forschung. In 12-18 Monaten ist es ein API-Endpoint.
Für Content Creator: Die nächste Generation von Avatar-Tools wird genau das können — ein Foto, endlose Ausgabe, perfekte Konsistenz. Das verändert wie Podcast-Covers animiert werden, wie Musikvideos produziert werden, wie Unternehmer sich auf Social Media präsentieren.
Für Musikproduzenten: Einem Album-Cover ein Leben einzuhauchen — singende, sprechende Artwork — ist mit heutigen Tools mühsam und teuer. LPM 1.0 zeigt dass das 2026/2027 trivial werden könnte.
Für YouTuber und Podcaster: Avatare statt echte Kamera, ohne Studio, ohne Beleuchtung, ohne Kameraführung — für 45 Minuten stabil und konsistent. Das ist ein Produktionsvorteil der heute noch nicht existiert.
Der ethische Aspekt: Was bedeutet Das für Deepfakes?
LPM 1.0 ist eine Deepfake-Technologie — in dem Sinne dass sie reale Gesichter animiert ohne dass die Person tatsächlich spricht. Das Team betont dass es ein rein akademisches Forschungsprojekt ist und keine Gewichte oder Code veröffentlicht werden.
Das hält Missbrauch nicht auf, aber es verzögert ihn. Die eigentliche Antwort auf Deepfakes ist Medienkompetenz, nicht Technologieverbote — und zwar jetzt, bevor Tools wie LPM 1.0 in jedermanns Händen sind.
Was du heute tun kannst: Erkennungstools kennen (Google SafeSearch, Intel FakeCatcher), kritisch mit Video-Content umgehen, und Werkzeuge wie Wasserzeichen und Content Credentials (C2PA) in deiner eigenen Content-Produktion verwenden.
Wo LPM 1.0 in 12 Monaten stehen könnte
Der Entwicklungsrhythmus in der Video-KI ist brutal. Vor einem Jahr war Veo 3 noch Premium-Only. Heute ist es kostenlos. Runway Gen-3 war 2024 der Benchmark — heute bietet Kling 3.0 10-Minuten-Videos.
Wenn Anuttacon LPM 1.0 in ein Produkt überführt, wird es:
- Vermutlich als API starten (Entwickler-First)
- Dann in Content-Creator-Tools integriert werden (wie Suno in Headliner)
- Schließlich als One-Click-Feature in Videoprodukten landen
Bis dahin: Das Forschungspaper lesen, die Demo-Videos anschauen (verlinkt auf large-performance-model.github.io), und verstehen was gerade möglich wird.
Fazit: Der nächste Meilenstein ist gesetzt
LPM 1.0 kann man heute nicht nutzen. Aber es zeigt wo Avatar-Technologie in 12 Monaten sein wird: ein Foto, eine Audiodatei, 45 Minuten Echtzeit-Avatar ohne Drift, ohne Fine-Tuning, ohne Studio.
Für alle die heute Avatar-Tools für Videos, Podcasts oder Musik evaluieren: Die aktuellen Marktführer (HeyGen, D-ID) sind gut genug für heute. Aber das Feld wird sich 2026 drastisch verändern. Wer jetzt den Überblick behält, trifft bessere Tool-Entscheidungen in 6 Monaten.
Weiterlesen:
