Videos mit KI am
2.11.2024: haben gewisse Fehler: unmenschliche
Gesichter - 6 statt 5 Finger - deformierte Objekte -
zu perfektes Bild - unlogische Vorgänge gegen die
Physik (Wasser fliesst "aufwärts" etc.) - Video im
Rückwärtslauf kontrollieren: dann passt gar nichts
mehr zusammen: Wie erkenne ich K.I. generierte Videos?
https://t.me/Ungeimpfte_Schweiz_kennenlernen/83125
KI-Musik-Videos am 22.7.2025: soll an
schlechten Reimen und verschiedenen Gesangsarten
etc. erkennbar sein: Bei Spotify und Co.: Immer mehr KI-Musik: Du
erkennst sie etwa an schlechten Reimen
https://www.20min.ch/story/bei-spotify-und-co-immer-mehr-ki-musik-du-erkennst-sie-etwa-an-schlechten-reimen-103384244
KI-Videos soll man
erkennen lernen am 23.7.2025: Der Fragenkatalog
1. An den Rand der Szene schauen - 2. Welche Lügner
stehen dahinter? - 3. Bildtest machen - 4. Ähnliche
Videos vergleichen - 5. Kontrollprogramme - 6.
google-KI-Videos mit Wasserzeichen - 7. Widersprüche
aufdecken - 8. Analysten fragen - 9. Sich emotional
nicht überrumpeln lassen: Was stimmt noch? KI-Fake-Videos – 9 Tipps und
Tricks entlarven jede Lüge
https://www.blick.ch/digital/was-stimmt-noch-ki-fake-videos-9-tipps-und-tricks-entlarven-jede-luege-id21075723.html
Videos mit KI am 2.11.2024: haben gewisse
Fehler: unmenschliche Gesichter - 6 statt 5 Finger -
deformierte Objekte - zu perfektes Bild - unlogische
Vorgänge gegen die Physik (Wasser fliesst "aufwärts" etc.) -
Video im Rückwärtslauf kontrollieren: dann passt gar nichts
mehr zusammen: Wie erkenne ich K.I. generierte Videos?
https://t.me/Ungeimpfte_Schweiz_kennenlernen/83125
Um nochmal auf das vorherige Thema zurück zu kommen. Die
Videos die ihr hier seht wurden mit künstlicher Intelligenz
erzeugt. Ich finde es wirklich wichtig, dass man ein Auge
dafür bekommt worauf man achten muss um das zu erkennen,
abgesehen davon, dass es bereits auf den ersten Blick
realitätsfremd ist.
✍️ Es gibt ein paar Punkte die auffallen:
👉🏻 Achtet auf die Gesichter, bei genauerer Betrachtung sieht
man, dass die Gesichter nicht menschlich sind.
👉🏻 Achtet auf die Finger, künstliche Intelligenz neigt dazu
sechs statt fünf Finger pro Hand zu generieren. Laut
biblischer Mythologie hatten die Nephilim, also die gefallenen
Engel, übrigens sechs Finger und sechs Zehen.
👉🏻 Achtet auf den Hintergrund eines Bildes. Objekte werden
manchmal deformiert dargestellt.
👉🏻 Wenn Bilder zu "weichgezeichnet" oder "perfekt" aussehen,
kann das auch ein häufiger Hinweis auf KI-Generierung sein.
👉🏻 Am Beispiel der Eule sieht man es z.B. an der
Weichzeichnung und an der Kartonbeschriftung
👉🏻 Manchmal herrschen K.I. Videos auch unlogische
physikalische Gesetze welche das Video entlarven, also achtet
z.B. ob sich das Wasser natürlich verhält.
👉🏻 Und die Bilderrückwärtssuche kann da auch helfen....
KI-Video:
Neues Opfer mit kriminellen KI-Porno und KI-Fotos am
11.12.2024: Fernsehmoderatorin Collien Ulmen-Fernandes: Mithilfe von KI-erstellt: Deutsche Moderatorin findet sich
in Fake-Pornos wieder
https://www.blick.ch/people-tv/international/mithilfe-von-ki-erstellt-deutsche-moderatorin-findet-sich-in-fake-pornos-wieder-id20404006.html
Die deutsche Moderatorin Collien Ulmen-Fernandes (43) deckt in
ZDF-Doku auf, dass sie selbst Opfer von Deepfake-Pornos ist.
Unzählige gefälschte Nacktbilder kursieren im Netz, sogar mit
ihrem Mann Christian Ulmen.
FAKE-KI-Video gegen Musk und Meloni am
12.12.2024: und die kriminellen Fabrikanten laufen frei
herum: Debatte um Regulierung von KI-Inhalten: Der Kuss, der
niemals stattfand: KI-Video von Musk und Meloni
https://www.suedtirolnews.it/italien/der-kuss-der-niemals-stattfand-ki-video-von-musk-und-meloni
KI im Videospiel am 15.1.2025: Gaming:
Microsoft patentiert KI-Technologie für Videospiele
https://www.nau.ch/news/games/gaming-microsoft-patentiert-ki-technologie-fur-videospiele-66893933
KI am 12.4.2025: kann aus Fotos kleine Videos
machen
KLING AI - The most useful AI technology at the moment functions include: Text To Video , Image To Video , Text To Image .
Updated version 1.5 has updated the function of editing photos and videos with 1 click of the super HOT mouse
Du schreibst, die KI dreht: Google Gemini bastelt dir jetzt
Videos aus deinen Prompts. Die neue Funktion Veo 2 läuft auf
Web und Mobile – ab sofort.
Mit Veo 2 können Gemini-Advanced-User jetzt
Videos aus Text-Prompts erstellen.
Die Funktion ist sowohl auf mobilen Geräten
als auch im Web verfügbar und bietet Videos in 720p-Auflösung.
Google hat Sicherheitsvorkehrungen
getroffen, um die Erstellung unangemessener Inhalte zu
verhindern.
Alle generierten Videos sind mit einem
digitalen Wasserzeichen versehen, das ihre KI-Herkunft
kennzeichnet.
Aus Text wird Video – in ein paar Minuten. Google startet ein
neues KI-Spielzeug für Kreative: Ab heute können
Gemini-Advanced-User mit Veo 2 Videos erstellen und teilen.
Google schliesst damit zu Konkurrent OpenAI auf.
Veo 2: So funktionierts
Du wählst Veo 2 im Modell-Dropdown in Gemini aus. Mit dieser
Funktion erstellst du im Breitbildformat (16:9) einen
achtsekündigen Videoclip mit einer Auflösung von 720p, der als
MP4-Datei bereitgestellt wird.
Im Modell-Dropdown der Gemini-App Veo 2 auswählen und
loslegen.
Im Modell-Dropdown der Gemini-App Veo 2 auswählen und
loslegen.
20min/Michael Scherrer
Wie viele Videos kannst du machen?
Es gibt eine maximale Anzahl an Videos, die du generieren
kannst. Wie viele genau, verrät Google nicht. Solltest du dich
dem Limit nähern, wirst du benachrichtigt.
Mit Veo 2 lassen sich achtsekündige Clips generieren.
Google_Veo2/KI-generiert
Es lohnt sich, mehrere Varianten auszutesten, bis man das
gewünschte Video erhält.
Google_Veo2/KI-generiert
Was du beim Prompten beachten solltest
Das Generieren von Videos mit Gemini ist einfach: Du
beschreibst, was du sehen willst – Gemini bastelt dir daraus
ein Video. Schon einfache Sätze liefern realitätsnahe Clips.
Wer mehr Kontrolle will, beschreibt die Szene möglichst genau
– am besten in mehreren Varianten.
Der detaillierte Video-Prompt:
Ein korrekt formulierter Prompt (Eingabeaufforderung) ist der
Schlüssel, um beeindruckende Videos zu generieren. Hier sind
die wichtigsten Elemente:
Motiv: der Hauptfokus deines Videos
Kontext: die Umgebung oder Szenerie
Handlung: was in der Szene geschieht
Stil: den Look, den du haben willst
Kamerabewegung: wie sich die Kamera bewegt
(optional)
Anordnung im Bild (Komposition): wie du die
Szene «einrahmst» und die Elemente darin platzierst, damit es
gut aussieht oder eine bestimmte Wirkung hat (optional)
Atmosphäre: die Stimmung und Beleuchtung
(optional)
Aus Text-Prompts kannst du in ein paar Minuten Videos
generieren. Hier ein paar Beispiele. Wenn dir keine Prompts
einfallen, lass dir von KI helfen. Gemini oder auch ChatGPT
generieren in Sekundenschnelle detaillierte Video-Prompts.
Google_Veo2/KI-generiert
Mit einem Klick lässt sich das Video auf Tiktok oder Youtube
teilen – oder du verschickst den Link zum Video.
Wie sicher ist das Ganze?
Google hat einige wichtige Schritte unternommen, um mehr
Sicherheit bei der Videogenerierung zu gewährleisten. Dazu
gehören umfangreiches Red Teaming (Hacking-Simulationen) mit
dem Ziel, die Erstellung von Inhalten zu verhindern, die gegen
die Richtlinien verstossen.
Zusätzlich sind alle mit Veo 2 generierten Videos mit SynthID
gekennzeichnet. Das ist ein digitales Wasserzeichen, das in
jedes Videobild (Frame) eingebettet ist und anzeigt, dass die
Videos KI-generiert sind.
KI produziert nun Videos wie echt am
24.5.2025: Alles 100% KI - kein Unterschied mehr bemerkbar
https://t.me/Impfschaden_Corona_Schweiz/114626
So!
Jetzt ist es soweit - mit der KI kann man nun in
Sekundenschnelle Szenen eines
Multimillionen-Dollar-Blockbusters, ultra-realistisch
erstellen, oder eine Autoshow faken, die niemals stattgefunden
hat oder einfache Yotutube-Straßen-Interviews generieren.
👉 Bei Nachrichten und eigentlich bei allem muss man jetzt
noch mehr aufpassen, asl vorher
KI fälscht Videos in Sekundenschnelle am
27.6.2025: das ging schnell: Alles 100% KI - kein Unterschied mehr
bemerkbar
https://t.me/Impfschaden_Corona_Schweiz/116495
So! Jetzt ist es soweit - mit der KI kann man nun in
Sekundenschnelle Szenen eines
Multimillionen-Dollar-Blockbusters, ultra-realistisch
erstellen, oder eine Autoshow faken, die niemals stattgefunden
hat oder einfache Yotutube-Straßen-Interviews generieren.
👉 Bei Nachrichten und eigentlich bei allem muss man jetzt
noch mehr aufpassen, asl vorher
KI-Musik-Videos am 22.7.2025: soll an
schlechten Reimen und verschiedenen Gesangsarten etc.
erkennbar sein: Bei Spotify und Co.: Immer mehr KI-Musik: Du erkennst sie
etwa an schlechten Reimen
https://www.20min.ch/story/bei-spotify-und-co-immer-mehr-ki-musik-du-erkennst-sie-etwa-an-schlechten-reimen-103384244
Dario Aeberli - Um Geld zu sparen, bewirbt Spotify KI-Bands
wie The Velvet Sundown. Noch entstehen so sinnleere,
beliebige Zufallslieder. An vier Merkmalen lassen sich
KI-Songs noch von echter Musik unterscheiden.
Spotify plant, mit KI-generierten «Ghost
Artists» profitabler zu werden.
Einnahmen für echte Musikerinnen und
Musiker sinken durch den Einsatz von KI.
The Velvet Sundown, eine KI-Band, wird in
Playlists wie «Discover Weekly» promotet.
Merkmale von KI-Musik sind schlechte Reime
und inkonsistente Sängerstimmen.
Zurzeit pusht Spotify die KI-Band The Velvet Sundown, indem
der Streaminganbieter Songs der Gruppe in beliebte Playlists
wie «Discover Weekly» integriert. Künstlerinnen und Künstler
weltweit träumen von solchen Möglichkeiten, denn die Playlists
gelten als Klickgaranten und Goldgrube. Seit die Songs von The
Velvet Sundown in Discover Weekley vorkommen, haben sie es in
die Charts in Grossbritannien, Schweden sowie Norwegen
geschafft und zählen mittlerweile rund 1,4 Millionen
monatliche Hörerinnen und Hörer bei Spotify.
Am beliebtesten ist das Lied «Dust on the Wind», ein
psychedelisch angehauchter Möchtegern-Protestsong, mit
Rockeinflüssen aus den 60er- und 70er-Jahren. In der
Instagram-Bio der KI-Band steht: «Wir retten modernen Rock».
Weitere Informationen zum Projekt gibt es bei Spotify: «The
Velvet Sundown ist eine fortlaufende künstlerische
Provokation, die die Grenzen von Autorenschaft, Identität und
die Zukunft der Musik selbst im Zeitalter der KI infrage
stellt.»
Musikexperten bei «Vulture» haben vier Merkmale ausgemacht,
anhand derer man KI-Musik (noch) erkennt.
Seltsame Songstruktur
Echte Musikerinnen und Musiker brechen regelmässig mit
Traditionen, um sich von anderen abzugrenzen. Das zeigt sich
etwa am legendären Queen-Hit «Bohemian Rhapsody», der auf
einen Refrain verzichtet, für seine Zeit eigentlich viel zu
lang war, Genres wie Klassik, Rock sowie Ballade mixte und 180
Tonspuren übereinander legte. Der Song gilt auch wegen des
aufgebrachten Muts zum Neuen der Band als künstlerisches
Meisterwerk. «KIs scheinen hingegen oft nicht zu kapieren,
welche seltsamen Entscheidungen sie treffen», analysieren die
Musikexperten von «Vulture».
Bei The Velvet Sundown klingen die Refrains immer etwas
anders, manche Songs hören einfach mittendrin auf,
gelegentlich gibt es auch unerwartete Zwischenspiele oder
doppelte Intros.
Das KI-Musikvideo zum KI-Song der KI-Band The Velvet Sundown.
Schlechte Reime
Das Album «Voodoo» von D'Angelo (51) gilt als eine der
einflussreichsten R'n'B-Platten der Geschichte, weil etwa die
Drums absichtlich den Takt verpassen – etwas, das der KI-Band
The Velvet Sundown gegen den Strich geht. Die KI setzt in
ihrer roboterartigen Präzision lieber auf einsilbige, perfekt
endende Basic-Reime. «Die Songs von The Velvet Sundown geben
vor, Protesthymnen zu sein, aber wenn man sie anschaut, gibt
es keine Substanz und keine Besonderheit», schreiben die
Musikexperten.
Im Video zum Song «Dust on the Wind» scheinen sich die KIs
uneins zu sein, was mit den Lyrics genau gemeint ist. In einer
Strophe heisst es: «March for Peace / Not for Pride (dt. etwa:
Geht für Frieden auf die Strasse, nicht für den Stolz)». Die
KI für das Video verwechselt den Stolz (engl. Pride) jedoch
mit der gleichnamigen LGBTQ+-Protestbewegung «Pride».
Inkonsistenz: Sänger klingen immer anders
Mal klingt der KI-Sänger von The Velvet Sundown nasal, im
nächsten Lied hingegen ganz klar und dann hat er wieder einen
ganz anderen Akzent. «Bands, die behaupten, die gleiche
Besetzung zu haben und trotzdem ständig anders klingen, sind
vermutlich mit KI erstellt worden», schreibt «Vulture».
Kopien von Hits
Praktisch alle Bands lassen sich von anderen inspirieren, The
Velvet Sundown hingegen kopiert Hits. Bereits der Name des
KI-Songs «Dust on the Wind» klingt fast wie «Dust in the Wind»
von Kansas. Wie Frankenstein setzt die KI Songs aus
bestehenden Liedern zusammen. «Wenn du etwas hörst, das du
schon einmal gehört hast und das immer wieder vorkommt, stehen
die Chancen gut, dass es sich um KI handelt», erklären die
Musikexperten.
KI-Videos soll man erkennen lernen am
23.7.2025: Der Fragenkatalog
1. An den Rand der Szene schauen - 2. Welche Lügner stehen
dahinter? - 3. Bildtest machen - 4. Ähnliche Videos
vergleichen - 5. Kontrollprogramme - 6. google-KI-Videos mit
Wasserzeichen - 7. Widersprüche aufdecken - 8. Analysten
fragen - 9. Sich emotional nicht überrumpeln lassen: Was stimmt noch? KI-Fake-Videos – 9 Tipps und Tricks
entlarven jede Lüge
https://www.blick.ch/digital/was-stimmt-noch-ki-fake-videos-9-tipps-und-tricks-entlarven-jede-luege-id21075723.html
1. Genau hinschauen
-- "Lippen bewegen sich nicht synchron, die Stimme klingt zu
glatt, der Blick wirkt starr"
-- "Schau dorthin, wo eigentlich nichts passiert – an den
Bildrand, in den Hintergrund. Genau dort patzen viele"
2. Welche Lügner stehen dahinter?
3. Suchtest mit ScreenShot und Bildersuchmaschine machen
-- "So findest du heraus, ob das Video schon früher kursierte"
4. Vergleiche mit ähnlichen Videos derselben Personen
machen
5. Kontrollprogramme erkennen KI-Videos
-- "Reality Defender (KI-Erkennung für Videocalls), oder
Microsofts Video Authenticator"
6. google installiert bei KI-Videos ein "Wasserzeichen" --
7. Widersprüche beim Inhalt aufdecken
8. Analysten fragen, die Videos analysieren oder das Thema
kennen -- 9. Sich nicht überrumpeln lassen
Tobias Bolzern - Redaktor Digital - KI-Videos wirken
täuschend echt – und sind oft brandgefährlich. Mit ein paar
Tricks und Tools kannst du solche Fakes erkennen. Dennoch:
Eine Allzweckwaffe gibt es nicht.
Ist das echt oder KI? Diese Frage stellt sich heute oft. Ein
Politiker sagt plötzlich das Gegenteil von gestern, ein Promi
bricht in Tränen aus, ein ehemaliger Präsident wird angeblich
verhaftet. Heute reicht ein viraler Clip – und Millionen
fallen darauf rein.
Der Zürcher Autor und KI-Künstler Patrick «Karpi» Karpiczenko
hat das Prinzip auf die Spitze getrieben. In einem von ihm
produzierten KI-Video erklärt ein täuschend echter Donald
Trump: «Die Schweiz existiert nicht.» Und holte damit
Millionen Views. Satire, ja – aber auch Warnung. «Es gibt
immer noch viele Leute, die sagen, sie erkennen KI-Bilder. Das
ist kompletter Bullshit», sagt Karpi. Denn die Technik ist
heute besser als unser Bauchgefühl.
Dennoch gibt es bei vielen KI-Inhalten Hinweise, um sie zu
entlarven. Da KI-Videos immerzu realistischer werden, wird der
Kontext wichtiger. Wir zeigen dir die Tricks.
1. SCHAU GENAU HIN
KI-Bilder verraten sich oft im Detail: Lippen bewegen
sich nicht synchron, die Stimme klingt zu glatt, der Blick
wirkt starr. Menschen blinzeln – KI zeigt das oft
noch nicht, aber immer seltener. Ein einfacher Trick: Schau
dorthin, wo eigentlich nichts passiert – an den Bildrand, in
den Hintergrund. Genau dort patzen viele Modelle. Weil sie wie
wir das Nebensächliche ausblenden – nur weniger gut.
2. FRAG DICH: WER STECKT DAHINTER?
Kommt das Video von einem offiziellen Account oder aus einer
dubiosen Telegram-Gruppe? Gibt es das Original auch bei SRF,
BBC oder auf dem offiziellen Youtube-Kanal? Wenn nicht:
Misstrauen ist gesund.
3. MACH DEN SUCH-TEST
Ein Screenshot reicht. Lade ihn bei Google Bilder oder Tineye
hoch. So findest du heraus, ob das Video schon früher
kursierte – vielleicht mit anderem Ton, anderer
4. VERGLEICHEN HILFT
Gibt es andere Versionen desselben Videos? Stimmen Bild,
Stimme, Inhalt überall überein? Wenn nicht, liegt der Verdacht
nahe: Da wurde etwas manipuliert.
5. NUTZE TOOLS ZUR ERKENNUNG
Programme wie Reality Defender (KI-Erkennung für Videocalls),
oder Microsofts Video Authenticator analysieren Bild und Ton
auf typische KI-Muster – diese sind aber meist nur für
Unternehmen. Und: Solche KI-Tools liefern keine Garantie –
aber eine erste Einschätzung. Kritisch sollte man aber in
jedem Fall sein, egal ob das Tool den Inhalt als KI einschätzt
oder nicht.
6. GIBT ES EIN WASSERZEICHEN?
Viele KI-Tools kennzeichnen ihren Output sichtbar oder
unsichtbar. Google hat mit SynthID ein unsichtbares
Wasserzeichen für KI-Inhalte entwickelt. Gute Idee – aber mit
Haken: Es funktioniert nur bei Googles eigenen KI-Inhalten.
Wenn ein Video mit anderen Tools erzeugt wird, fehlt diese
Signatur. Eine gemeinsame Lösung der Tech-Konzerne? Gibt es
nicht. Und natürlich lassen sich auch sichtbare Wasserzeichen
einfach entfernen.
7. DENKE WIE EIN FAKTENCHECKER
Stell dir drei Fragen: Wer sagt das? Wem nützt es? Und: Ist es
überprüfbar? Falsche Inhalte erkennst du oft nicht am Bild
selbst – sondern an der Quelle. Die wirksamste Waffe gegen
Desinformation: menschliche Metadaten. Also die Informationen
rund ums Video. Was wird behauptet – zum Ort, zur Zeit, zum
Ablauf? Genau hier tauchen oft Widersprüche auf.
8. HOL DIR HILFE BEI FAKTENCHECKERN
Websites wie Mimikama, Correctiv, AFP Factcheck oder Snopes
haben viele virale Clips bereits analysiert – auch den Beitrag
von Donald Trump mit dem KI-Video mit Obama. Ein schneller
Blick dorthin oder eine Google-Suche kann dir viel Ärger
ersparen.
9. LASS DICH NICHT ÜBERRUMPELN
KI-Fakes zielen oft auf deine Gefühle. Wenn dich ein Video
besonders wütend, traurig oder euphorisch macht: Pause.
Durchatmen. Prüfen. Und schon gar nicht ohne diese drei
Schritte weiter teilen.
FAZIT
KI-Fakes sind gekommen, um zu bleiben, und sie werden immer
besser. Flackernde Augen oder eine künstlich klingende Stimme
reichen längst nicht mehr als Warnsignal. Entscheidend ist:
Nur weil ein Video echt aussieht, ist es noch lange kein
Beweis. Täuschung beginnt nicht erst bei KI. Ein alter Clip in
neuem Kontext, eine gestellte Szene, ein perfekt geschnittener
Film – all das wirkt glaubwürdig, kann aber auch gezielte
Irreführung sein. Ob Photoshop, After Effects oder analoge
Tricks von früher: Manipulation hat viele Gesichter. Du siehst
nur, was die Kamera zeigt – nicht, was davor, daneben oder
dahinter passiert. Oder wie Karpi sagt: «Nur wer die
Mechanismen kennt, kann sie durchschauen.»