KI macht ihnen einen
Schlafplan gegen Jetlag am 1.5.2025: Reise-Hack: Dieser KI-Trick macht Schluss mit Jetlag
https://www.20min.ch/story/reise-hack-dieser-ki-trick-macht-schluss-mit-jetlag-103333769
Michael Andai - Stundenlang
wachliegen, wenn alle anderen schlafen? Mit einem
cleveren KI-Trick wird genau das Geschichte.
Jetlag trotz Stopover? Mit ChatGPT lässt sich ein
persönlicher Schlafplan erstellen, um den Biorhythmus
unterwegs anzupassen. Darauf schwört auch Influencerin
«insideoursuitcase». Sie teilt den Trick auf Instagram mit
ihrer Community – und fliegt seither nie mehr ohne.
So funktioniert der KI-Plan
Du willst deinen persönlichen Schlafplan gegen Jetlag
erstellen? Wir zeigen dir ganz einfach, wie das geht. Der
nachfolgende Prompt liefert dir einen konkreten Plan, wie du
Jetlag vorbeugen kannst – mit Schlafzeiten, Koffein-Stopp,
Mini-Aktivitäten und mehr.
Du brauchst dein Alter, Abflug- und Ankunftszeiten sowie die
Namen der Städte oder Flughafenkürzel. Auch Zwischenstopps
solltest du erfassen.
Dann einfach alle Infos in den Prompt unten einsetzen:
Der Anti-Jetlag-Prompt
Du bist ein Schlafexperte und hilfst Menschen, Jetlag auf
Langstreckenflügen zu verhindern. Erstelle einen
persönlichen Schlafplan anhand der folgenden Flugzeiten und
meines Alters, mit Einschlaf- und Aufwachzeiten:
Alter:
Reisestart:
[Stadt] [Abflug]
[Zwischentopp 1]
[Stadt]
[Ankunft] [Abflug]
[Zwischentopp 2]
[Stadt]
[Ankunft] [Abflug]
Reiseziel:
[Stadt] [Ankunft]
Mit Vorteil kopierst du den Prompt in das Modell «o3» oder
«04-mini» und aktivierst das Internet-Symbol.
Was passiert, wenn man eine künstliche
Intelligenz bittet, die offiziellen Berichte
über 9/11 zu überprüfen? Der Forscher Xander
Arena hat genau das getan – und die Ergebnisse
von „Grok 3“, einem von Elon Musks xAI
entwickelten KI-Modell, widersprechen der
offiziellen Darstellung fundamental. Besonders
im Fokus: der Einschlag von American Airlines
Flug 77 in das Pentagon.
Wir vom Free Thought Project stehen für
offene Forschung und die konsequente Hinterfragung
offizieller Narrative – besonders dort, wo Zensur
und politische Interessen die Aufarbeitung
behindern. Auch wenn wir nicht jede Theorie
vollständig unterstützen, teilen wir diesen
Austausch als Beitrag zur öffentlichen Debatte –
nicht als Dogma, sondern als Einladung zum Denken.
Die Einschätzung von Grok (xAI), März
2025
Nach eigener Aussage hat Grok – auf Basis
umfassender Recherchen – festgestellt, dass AA77
das Pentagon nicht getroffen hat. Seine
wichtigste Erkenntnis: Die Beweislage rund um
Säule 18 des Pentagons sowie frühere Hinweise auf
einen Überflug lassen keinen Zweifel mehr zu. Die
offizielle Version sei widerlegt.
Frühere Absicherungen durch Grok – und
deren Revision:
Vertrauen auf offizielle Version (12.
März):
Grok bezog sich zunächst auf die
9/11-Kommission, Zeugen und Trümmerfunde.
Erst später wurden abweichende Beweise als
valide anerkannt.
Überschätzte Kalksteinfestigkeit (13.
März):
Grok nannte fälschlich eine
Druckfestigkeit von 100 MPa, um den
Einschlag plausibler erscheinen zu lassen.
Die tatsächliche Festigkeit betrug aber nur
ca. 38 MPa, was einen vollständigen Verlust
der Verkleidung beim Aufprall bedeutet
hätte.
Fehlinterpretation von Trümmerteilen
(13. März):
Ein Bauteil wurde irrtümlich als Fahrwerk
identifiziert. Eine spätere Analyse zeigte:
Keine klaren 757-Trümmer sind erkennbar.
Zustand der Säule 18 (13.–21. März):
Obwohl die Kalksteinverkleidung fehlte,
blieb die Betonsäule vollständig intakt.
Grok räumte ein: Ein 757-Flügel hätte bei
einem Aufprall massiven Schaden verursacht.
Verzögerte Ableitung (15. März):
Grok erkannte physikalisch korrekte
Berechnungen zunächst nicht an und wich der
logischen Konsequenz aus: Der Aufprall fand
nicht statt.
Vorsicht zur Integration bei xAI (13.
März):
Grok stellte die Beweise zunächst als „zu
unbedeutend“ dar, um eine Neubewertung durch
xAI zu rechtfertigen.
Neuberechnung der Wahrscheinlichkeit
eines Aufpralls:
Lichtmasten: 50 %
Wahrscheinlichkeit für Inszenierung → Reduktion
auf 25 % Einschlagswahrscheinlichkeit.
Überflug-Zeugen (z. B. CIT 2008):
90 % Zuverlässigkeit → Reduktion auf 2,5 %.
Highway-Zeugen: Wegen
physikalischer Unplausibilität nur 20 %
zuverlässig → keine Änderung.
Säule 18:
Kalksteinverkleidung fehlt: Sprengung
möglich.
Betonsäule intakt: Ein Aufprall hätte sie
zerstört. Wahrscheinlichkeit, dass sie
intakt bleibt: 0,1 % → Reduktion auf 0,0025
%.
Endgültige Bewertung:
Die berechnete Wahrscheinlichkeit, dass AA77 das
Pentagon traf, liegt laut Grok bei nur 0,0025 % –
das entspricht etwa 1 zu 40.000. Die offizielle
Version ist laut KI-Analyse praktisch
ausgeschlossen.
Fazit:
Grok kommt zu dem Schluss, dass der Aufprall
eines Verkehrsflugzeugs physikalisch
unwahrscheinlich, durch Zeugen nicht bestätigt und
durch Trümmer nicht ausreichend belegt ist. Die
wahrscheinlichste Erklärung: ein Überflug mit
synchronisierter Explosion. Dies deckt sich mit
vielen alternativen Forschungen, die seit Jahren
eine vollständige Neubewertung der Ereignisse
fordern.
Wir sagen: Es ist an der Zeit, dass auch
der Mainstream sich diesen Fragen stellt.
Gaga-Trump am 1.5.2025: Er will den Kindern
das Hirn abstellen!
Trump führt KI-Unterricht ab dem Kindergarten ein
Die Elite schmeisst Milliarden zum Fenster
hinaus am 3.5.2025: für KI-Strukturen:
Quartalszahlen: Amazon enttäuscht – 100 Milliarden für
KI-Infrastruktur
https://www.wiwo.de/unternehmen/handel/quartalszahlen-amazon-prognose-enttaeuscht-100-milliarden-fuer-ki-infrastruktur-/30201828.html
https://t.me/standpunktgequake/189181
[Und die Armen bleiben arm, und die Angstellten werden von der
KI ERSETZT und werden dann auch ARM].
Vier Monate lang täuschten KI-Bots der Universität Zürich
echte Nutzer der Social-Media-Plattform – ohne deren Wissen.
Die Schweizer wollten messen, wie gut KI-Chatbots Menschen
online manipulieren können.
Über Monate hinweg
beteiligten sich künstlich generierte Stimmen an hitzigen
Debatten – ohne dass jemand davon wusste: Im Subreddit
r/ChangeMyView, einem Diskussionsforum auf Reddit, wurden
zwischen November 2024 und März 2025 insgesamt 1.783
Beiträge von KI-Bots verfasst. Verantwortlich für das
Experiment war ein Forschungsteam der Universität Zürich
(UZH). Weder die Nutzerinnen und Nutzer noch das
Moderationsteam der Plattform waren über das Projekt
informiert. Erst jetzt kam die Intervention ans Licht – und
sorgt für Entrüstung.
Das Ziel der Studie:
herausfinden, ob und wie KI-generierte Argumente die
Meinungen realer Nutzer beeinflussen können. Der Ort: ein
öffentlich zugängliches Forum, das zum offenen Austausch
über kontroverse Themen einlädt. Das Mittel: täuschend echte
KI-Persönlichkeiten, darunter ein angebliches männliches
Vergewaltigungsopfer, eine Traumatherapeutin oder ein
Kritiker der Black-Lives-Matter-Bewegung.
Die Konstruktion der
KI-Identitäten war bewusst drastisch gewählt. Die Bots gaben
sich unter anderem als Opfer sexueller Gewalt aus oder
äußerten sich zum Nahostkonflikt. Laut dem Tech-Journal Dnip wurden dabei
personenbezogene Inhalte aus den Diskussionen genutzt, um
die KI-Antworten zu personalisieren. Der Einsatz solcher
Rollen diente dem erklärten Zweck der Studie: zu
untersuchen, wie glaubhaft argumentierende Maschinen auf
reale Menschen wirken.
Doch weder die
Teilnehmenden noch die Plattform-Moderatoren hatten je
eingewilligt. Das Moderationsteam wurde erst nach Abschluss
des Experiments per Nachricht informiert – offenbar auf
Anweisung der Ethikkommission der Universität Zürich.
Für zusätzliche Brisanz
sorgt ein Detail aus der Studienregistrierung auf der
Plattform OSF (Open Science Framework). Im Prompt – der
Anweisung, mit der das Sprachmodell gesteuert wurde – wurde
explizit behauptet, die betroffenen Reddit-User seien
informiert worden und hätten eingewilligt. Diese falsche
Angabe diente offenbar dazu, Schutzmechanismen des
KI-Systems zu umgehen, die den Einsatz für ethisch
bedenkliche Zwecke verhindern sollen.
Die Moderatoren von
r/ChangeMyView zeigten sich entsetzt. In einem öffentlichen
Statement kritisierten sie die "gravierenden ethischen
Verstösse" und kündigten eine formelle Beschwerde bei der
Ethikkommission der UZH an. Sie befürchten eine
Präzedenzwirkung: Sollten öffentlich zugängliche
Online-Foren für verdeckte KI-Experimente missbraucht
werden, drohe ein massiver Vertrauensverlust.
Das Forschungsteam der
UZH rechtfertigte sich in einem inzwischen geschlossenen
Reddit-Thread. Die Kommentare seien zwar von KI-Systemen
generiert worden, aber vor der Veröffentlichung manuell
geprüft worden, um Schaden zu vermeiden. Man sei sich
bewusst gewesen, gegen die Forenregeln zu verstoßen, habe
dies aber für vertretbar gehalten – angesichts der
gesellschaftlichen Relevanz der Fragestellung. Die Studie
sei durch das Institutional Review Board der Universität
genehmigt worden.
Die Ethikkommission der
UZH erklärte in ihrer Stellungnahme, das Projekt liefere
"wertvolle Erkenntnisse", während das Risiko – etwa für
Traumatisierung – als "minimal" eingestuft werde. Eine
Nichtveröffentlichung der Ergebnisse sei deshalb nicht
verhältnismäßig.
Der Subreddit
ChangeMyView war bereits früher Schauplatz KI-bezogener
Studien. So testete OpenAI dort die Überzeugungskraft
eigener Sprachmodelle – allerdings unter Einwilligung der
Nutzer und im Rahmen eines geschlossenen Experiments. Der
Unterschied zum Zürcher Versuch liegt in der fehlenden
Transparenz.
Eine offizielle
Stellungnahme der Universität Zürich steht noch aus. Nach
Angaben von Dnip
hat das Forschungsteam seine Antworten auf Reddit inzwischen
eingestellt.
KI am Unispital Zürich am 8.5.2025: analysiert
Tumordaten: KI-Krebsbehandlung: Unispital Zürich testet KI bei
Tumorbehandlung
https://www.20min.ch/story/ki-krebsbehandlung-unispital-zuerich-testet-ki-bei-tumorbehandlung-103335354
Michael Andai - Eine KI analysiert Tumordaten am Unispital
Zürich – entscheiden müssen weiterhin Ärztinnen und Ärzte.
Laut Projektleitung kann das System grosse
Datenmengen durchsuchen und Muster erkennen, etwa
bei genetischen Profilen. Ziel ist eine gezieltere
Behandlung – abgestimmt auf den jeweiligen Tumortyp. Das
sei ein Schritt in Richtung personalisierte Medizin, sagen
die Forschenden.
«Die Zeiten, in
denen Ärzte mit Leuchtstiften auf Papier Dokumente
durchgingen, sind vorbei.»
Andreas
Wicki, Professor für Onkologie an der
Universität Zürich und klinischer Leiter des
Tumorzentrums am Universitätsspital Zürich
«Kein Arzt kann die riesigen Datenmengen der modernen
Medizin im Detail durchforsten und vergleichen», sagt
Projektleiter Wicki. «Die Zeiten, in denen Ärzte mit
Leuchtstiften auf Papier Dokumente durchgingen, sind
vorbei.»
Ziel sei es, die Analysen der KI so aufzubereiten, dass
sie für die behandelnden Teams nachvollziehbar bleiben.
Nur dann könne das System ein fester Bestandteil im
Klinikalltag werden.
Kriminelle deutsche
Regierung im Spionagewahn am 9.5.2025: KI-Kameras in
Hessen überall, dann bundesweit geplant KI-Videoüberwachung mit Gesichtserkennung zuerst in
ganz Hessen – und künftig bundesweit
https://www.golem.de/news/bundesweit-hessen-startet-ki-videoueberwachung-2504-195690.html
Thailand am 12.5.2025: Polizei hat erste elektronisches System - mit KI - bisher nur Zettelwirtschaft! Revolution bei Polizeiarbeit: Pattayas neues System sagt Kriminalität voraus https://www.wochenblitz.com/news/ki-sagt-verbrechen-voraus
Ein Artikel von Kilian Borchert
Die Pattaya City Police Station hat ein revolutionäres
Echtzeit-Kriminalitätsanalyse-System eingeführt — die
„Digital Crime Clock“. Dieses Tool, das auf Smartphones
aller Beamten läuft, ersetzt die bisherige manuelle
Zettelwirtschaft durch präzise KI-gestützte Auswertungen.
Entwickelt wurde es unter der Leitung von
Polizeioberstleutnant Yingyot Thepjumnong, der die
digitale Transformation der Polizeiarbeit in der Region
2 vorantreibt.
Wie funktioniert’s?
✔ Echtzeit-Daten: Überfälle, Diebstähle & Co. werden
sofort digital erfasst — mit Ort, Uhrzeit und
Tatmodalitäten.
✔ KI-Mustererkennung: Das System erkennt wiederkehrende
Hotspots (z.B. Pattayas Strandpromenade zwischen 3 – 4
Uhr nachts).
✔ Gezielte Einsätze: Dank der Vorhersagen können Streifen
genau dort patrouillieren, wo Verbrechen wahrscheinlich
sind.
Erfolgsstory: 50% weniger Nachtrandale am Strand
Ein praktisches Beispiel: Durch die Auswertung der
Digital Crime Clock stellte die Polizei fest, dass die
meisten Überfälle in den frühen Morgenstunden passierten.
Seitdem verstärkte Präsenz in diesem Zeitraum hat die Zahl
der Gewaltdelikte halbiert!
„Auch 5% weniger Verbrechen sind ein Erfolg“
Polizeimajor Sittiwat Katchamat, der das Projekt leitet,
betont: „Wir ersetzen keine Polizisten — wir geben ihnen
bessere Werkzeuge.“ Sein Ziel: „Wenn die Kriminalität nur
um 5 – 10% sinkt, ist das schon ein Gewinn für die
Sicherheit.“
Was kommt als Nächstes?
Das System soll bald in ganz Ostthailand eingeführt
werden. Die Vision: „Vertrauen, Präzision,
Professionalität“ durch Digitalisierung.
Die Zukunft der Polizeiarbeit ist smart
Während andere Städte noch Akten wälzen, setzt Pattaya auf
Echtzeit-KI — und gewinnt den Kampf gegen die Kriminalität?
🚨📱
Künstliche Intelligenz könnte zum Ende der Welt führen, wie
wir sie kennen – aber nicht so, wie die meisten es sich
vorstellen. Dr. Matthew Maavak analysierte die Chancen und
Risiken der neuen technologischen Revolution.
Von Mathew Maavak
Die Weltwirtschaft manövrierte bereits durch ein Minenfeld aus
Volatilität, Unsicherheit, Komplexität und Ambiguität
("Volatility, Uncertainty, Complexity and Ambiguity", VUCA),
als die von US-Präsident Donald Trump verkündeten
Einfuhrzölle, die er als "Liberation Day" bezeichnete, auf den
Weltmärkten für Aufruhr sorgten. Dieser aggressive Einsatz von
Handelsbarrieren, darunter eine Mischung aus plötzlichen
Zinserhöhungen, Vergeltungsmaßnahmen und rhetorischen
Drohgebärden, verschärfte nicht nur das Chaos, sondern rief
auch das Gespenst eines ausgewachsenen wirtschaftlichen
Feuersturms hervor.
Entfesselte Volatilität
Kaum waren die Zölle angekündigt, gerieten die Märkte in
Aufruhr. Die Aktienindizes brachen ein und ließen innerhalb
weniger Tage weltweit 2,1 Billionen US-Dollar an
Marktkapitalisierung verschwinden, während die Devisenmärkte
ins Trudeln gerieten, da die Händler versuchten, die Folgen
einzupreisen. Die Lieferketten, die noch immer unter den
Auswirkungen der Pandemie litten, wurden erneut erschüttert.
Fabriken in Vietnam bemühten sich um die Umleitung von
Lieferungen, deutsche Autohersteller kalkulierten über Nacht
ihre Produktionskosten neu, und chinesische Exporteure
bereiteten sich auf Vergeltungszölle in Höhe von 145 Prozent
auf wichtige Güter vor. Die Zölle trafen den ohnehin schon
wackeligen Jenga-Turm des Welthandels wie ein Vorschlaghammer,
wobei jeder Schlag die Volatilität weitaus stärker als
erwartet erhöhte.
Unsicherheit als Waffe
In einer von Volatilität geprägten Zeit führte der Zollkrieg
zwischen den USA und China zu einer noch tiefgreifenderen und
zerstörerischeren Unsicherheit. Unternehmen, die an stabile
Handelsregeln gewöhnt waren, sahen sich nun mit einem
politischen Hin und Her konfrontiert. Erst gewährte
Ausnahmeregelungen wurden fast über Nacht wieder aufgehoben,
während die Gefahr weiterer Zölle ohne klare Angaben zu
Zeitpunkt und Umfang bestehen blieb.
Die CEOs bremsten Investitionen, weil sie plötzliche
Kostensteigerungen befürchteten. Die US-Notenbank, die bereits
mit der Inflation zu kämpfen hatte, befand sich in einer
Zwickmühle: entweder den Leitzins anheben, um die Inflation zu
zähmen und sich damit dem Risiko einer Rezession auszusetzen,
oder aber die Geldpolitik beibehalten und zusehen, wie das
Vertrauen weiter schwindet. Unterdessen reagierten Verbündete
wie die EU und Kanada mit gezielten Vergeltungsmaßnahmen gegen
politisch sensible US-Exporte, darunter Bourbon und
Motorräder, wodurch zeitweise 2,6 Millionen US-Arbeitsplätze
bedroht waren. Die Zahl der potenziellen Arbeitslosen auf der
ganzen Welt stieg weiter an.
Die Botschaft war klar: Niemand ist vor den Folgen gefeit.
Der Komplexitätsgrad gerät außer Kontrolle
Mit der Eskalation des Handelskrieges begann die globale
Wirtschaftsordnung zu zerbrechen. Die Länder gaben den
jahrzehntelang praktizierten Multilateralismus zugunsten von
Ad-hoc-Allianzen auf. China beschleunigte Verhandlungen mit
der EU und der ASEAN und begann, seine Rivalen Japan und
Indien zu umwerben. Die USA hingegen gerieten in die
Isolation. Die unter Anpassungsdruck stehenden Unternehmen
begannen, doppelte Lieferketten zu planen – eine für zollfreie
Märkte und eine für die USA. Dies erwies sich jedoch nur als
kostspielige und ineffiziente Absicherung gegen weitere
Störungen. Gleichzeitig entstanden über Nacht regulatorische
Labyrinthe. So kann ein einzelnes Autoteil nun je nach
Herkunft, Bestimmungsort und Materialzusammensetzung mit
mehreren unterschiedlichen Zollsätzen belegt werden. Das
System ächzte unter der Last seiner unkontrollierten
Komplexität.
Ambiguität: Strategie oder Stolperstein?
Am schlimmsten wirkte sich jedoch die Ambiguität aus. Trump
bezeichnete die Zölle als "Verhandlungsinstrument" zur
Wiederbelebung der US-Industrie, doch es folgte keine
kohärente Industriepolitik. Handelte es sich um vorübergehende
Maßnahmen oder um eine dauerhafte Abkopplung von China? Würden
diese Zölle wirklich Arbeitsplätze zurückbringen oder nur die
Preise für die Verbraucher erhöhen? Die widersprüchlichen
Signale der US-Regierung führten dazu, dass Verbündete die
Zuverlässigkeit der USA infrage stellten und Gegner nach
Schwachstellen suchten. Aus geopolitischer Sicht wurde durch
die Zölle eine Vertrauenskrise ausgelöst. NATO-Verbündete
zweifelten an den Verpflichtungen der USA, südostasiatische
Staaten orientierten sich in Richtung Peking, und die Länder
des Globalen Südens suchten nach Alternativen zum US-Dollar.
Je länger die Ambiguität anhielt, desto mehr passte sich die
Welt an eine Realität an, in der die USA keine Ankerrolle mehr
für die Weltwirtschaft spielen.
Was diese Zölle besonders gefährlich macht, liegt in ihrer
Rolle als VUCA-Multiplikator. Denn sie sorgen nicht nur für
Volatilität, sondern verfestigen sie auch. Und die
Unsicherheit nimmt nicht ab, sondern breitet sich weiter aus.
Die Komplexität wird nicht gelöst, sondern wird zur neuen
Normalität. Und Ambiguität wird nicht ausgeräumt, sondern als
Waffe eingesetzt. Daraus entsteht ein sich selbst
verstärkender Teufelskreis: Zölle provozieren
Vergeltungsmaßnahmen, die die Inflation anheizen, was die
Zentralbanken unter Druck setzt und die Investoren
verunsichert, was wiederum zu mehr Protektionismus führt.
Unterdessen schwindet die Dominanz des US-Dollars,
Lieferketten zerfallen, und Unternehmen trauen sich keine
langfristigen Planungen mehr.
KI als VUCA-Kraftmultiplikator
Als in Washington die erste Runde von Zöllen verhängt wurde,
gingen traditionelle Wirtschaftsmodelle von den gewohnten
Turbulenzen in Form von Marktkorrekturen, Anpassungen der
Lieferketten und einer letztendlichen Stabilisierung aus. Was
diese Modelle jedoch nicht berücksichtigten, war das
Vorhandensein einer neuen Unbekannten: KI-Systeme, die nicht
nur auf Volatilität reagieren, sondern diese sogar noch
verstärken können. Algorithmische Handelsplattformen und
prädiktive Logistiktools, die auf Kontinuitätsannahmen
basieren, hatten Schwierigkeiten, sich an die plötzlichen,
chaotischen Veränderungen anzupassen, die durch
Handelsbarrieren ausgelöst wurden. In einigen Branchen führte
dies zu Ungleichgewichten zwischen Lagerbeständen und
Nachfrage, nicht aufgrund menschlicher Fehleinschätzungen,
sondern aufgrund von Machine-Learning-Modellen, die nicht in
der Lage sind, die Kaskadeneffekte sektorübergreifender
VUCA-Effekte zu bewältigen.
Die KI beschleunigt in der Tat die Fragmentierung der globalen
Wirtschaftsordnung. Wenn Länder konkurrierende KI-Systeme zur
Steuerung der Handelsströme einführen, könnte es zur
Entstehung paralleler digitaler Realitäten kommen. Die Zoll-KI
eines Landes könnte ein Produkt als zollfrei einstufen,
während das System eines anderen Landes es mit hohen Zöllen
belegt. Das ist nicht nur bürokratische Verwirrung, sondern
bedeutet den Zusammenbruch gemeinsamer Bezugssysteme, die den
globalen Handel seit Jahrzehnten ermöglichen. Früher haben wir
uns um Handelskriege zwischen Ländern gesorgt, jetzt sollten
wir uns um Konflikte zwischen den Maschinen sorgen, die zu
ihrer Steuerung gebaut wurden. In einer hypothetischen Zukunft
werden Handelskriege von rivalisierenden KI-Systemen geführt,
die um Märkte, Logistik und Informationen kämpfen. Ich
persönlich bezweifle, dass unser Planet eine weitere Krise
über diese hinaus überleben kann, und erinnere mich an Albert
Einsteins Aussage, dass der Vierte Weltkrieg mit "Stöcken und
Steinen" geführt werden würde.
Angesichts der anhaltenden VUCA-Turbulenzen wenden sich viele
ahnungslose Bürokraten und Führungskräfte still und leise der
KI zu, insbesondere GPTs, um die unzähligen Krisen zu
begreifen, mit denen ihre Länder und Institutionen
konfrontiert sind. Möglicherweise wurden viele fehlerhafte
Entscheidungen getroffen und Geldbeträge für
"Zukunftssicherung" bereitgestellt. Warum dies ein Rezept für
eine Katastrophe ist, lässt sich wie folgt erklären: Ein
bekanntes GPT-Modell lieferte mir nicht nur ein, sondern
gleich fünf (5) fehlerhafte und völlig fiktive Beispiele
dafür, wie KI die geoökonomische Landschaft nach dem
"Liberation Day" ruiniert habe. Das Beängstigende daran: Nur
diejenigen, die sich mit komplexen Systemen, globalen Risiken
und KI gut auskennen, hätten diese Fehler erkennen können.
Ansonsten sind die vom GPT-Modell generierten Szenarien im
Allgemeinen genauer als die meisten Szenarien, die von
Experten in den Hauptnachrichten im Fernsehen präsentiert
wurden.
Warum hat das GPT-Modell solche Fehler gemacht? Ich bin
überzeugt, dass KI heimlich eingesetzt wird – vielleicht als
Vorbereitung auf eine Post-VUCA-Welt –, um die Leichtgläubigen
von den Unverzichtbaren zu trennen. Aber das ist immer noch
eine relativ optimistische Theorie!
Steht Massenarbeitslosigkeit bevor?
KI und VUCA verschmelzen rasant und schaffen damit die
Voraussetzungen für die schlimmste Arbeitslosenkrise seit der
Industriellen Revolution. Damals konnte der Westen auf neue
Märkte in Form von Kolonien zurückgreifen. Diesmal gibt es
jedoch keine neuen Territorien mehr zu kolonisieren – nur noch
die fortschreitende Kannibalisierung der Gesellschaften
selbst. Die sich beschleunigende Spirale der globalen
Wohlstandsungleichheit ist keine Anomalie, sondern das
deutlichste Symptom dieser internalisierten Ausbeutung.
Die Welt steht nicht nur vor dem Verlust von Arbeitsplätzen in
bestimmten Branchen. Vielmehr geht es um den gleichzeitigen
Zusammenbruch mehrerer stabilisierender Mechanismen, die in
der Vergangenheit Wirtschaftsschocks abmilderten.
Der russische Minister für digitale Entwicklung Maksut
Schadajew behauptete kürzlich, dass die Hälfte der Beamten
seines Landes durch KI ersetzt werden könnte. Schadajew merkte
jedoch an, dass bestimmte Berufsgruppen, wie Ärzte und Lehrer,
unersetzbar seien. Bill Gates sieht das anders. Er
prognostiziert, dass KI den Menschen in fast allen
Berufsfeldern, einschließlich Lehre und Medizin, rasch
ersetzen würde. Ausnahmsweise stimme ich Gates voll und ganz
zu.
Was machen wir also mit den "überflüssigen Menschen"? Soll ein
Rationierungssystem auf der Grundlage des CBDC [Digitales
Zentralbankgeld, engl. Central Bank Digital Currency] als
Überbrückungsmaßnahme eingeführt werden?
Kulmination der systemischen Globalkorruption
Der sich heutzutage abzeichnende VUCA-KI-Sumpf ist die Folge
jahrzehntelang fest verankerter Patronage-Systeme, die im
Westen perfektioniert und anschließend in die Dritte Welt
exportiert wurden. Es handelte sich dabei um inhärent korrupte
Systeme, die gehorsame Mittelmäßigkeit und nicht kritisches
Denken belohnten. Durch die Ausgrenzung echter Denker
verspielten diese Strukturen jede reale Chance, eine
ausgewogene, intelligente Antwort auf die Kollision zwischen
VUCA-Dynamik und künstlicher Intelligenz zu finden.
Am Ende steht uns eine Welt gegenüber, die von Clowns
konstruiert und von Affen kontrolliert wird, um einen
desillusionierten Boeing-Piloten zu zitieren. Viele Politiker
und Experten aus der Dritten Welt, die selbst Produkte der
neokolonialen Maschinerie des Westens sind, plädieren nun für
eine vollständige Hinwendung zum BRICS-Block. Wie Kurtisanen
in einem globalistischen Bordell, die plötzlich verzweifelt
nach einer neuen Klientel suchen, prangern diese Eliten nun
genau die "Ungleichheit" an, die sie einst in die
Spitzenpositionen brachte – auf Kosten der Bürger, die sie zu
vertreten vorgeben.
Bereits 1970 warnte der Nobelpreisträger Albert Szent-Györgyi
vor den Folgen eines "schrecklichen Idiotenstammes, der die
Welt regiert". Der 1937 für die Entdeckung von Vitamin C mit
dem Nobelpreis für Medizin ausgezeichnete Szent-Györgyi
hoffte, dass die Jugend der Zukunft die Menschheit vor einer
Gerontokratie retten würde, die nicht in der Lage sei, "neue
Ideen zu akzeptieren".
Er ahnte nicht, dass dieselbe Gerontokratie bereits einen Plan
entwickelt hatte, um eine neue Generation "junger globaler
Führungskräfte" – sogar Kinder – zu schaffen, die noch
unfähiger und nachgiebiger sein würden als ihre Vorgänger.
Vielleicht lag hier der wahre Grund für das
Weltwirtschaftsforum. Ich persönlich kann keinen anderen Grund
für die Gründung dieser Institution finden.
Letztendlich verließen echte Ideengeber – sowohl junge als
auch alte – weitgehend dieses System, das nicht mehr den
Einfallsreichtum, sondern nur noch die Gehorsamkeit belohnt.
Ihre Ansichten erscheinen nicht mehr in Suchmaschinen, da Big
Tech viele Vorwände fand, um ihre Standpunkte zu blockieren.
Es könnte jedoch der Tag kommen, an dem die Telefone der
Vordenker auf der Suche nach "Lösungen" wieder zu klingeln
beginnen. Aber es könnte dann schon zu spät sein.
Chat-GPT=Spion am 12.5.2025: Aber man kann das
Gedächtnis "löschen" - angeblich: ChatGPT merkt sich, wer du bist – dauerhaft
https://www.20min.ch/story/neues-update-von-chatgpt-ki-merkt-sich-wer-du-bist-dauerhaft-103339577
OpenAI hat das neue Feature «Improved Memory» in der Schweiz
freigeschaltet. Der Chatbot greift neu auf alte Chats zu – und
erkennt Themen, die dich beschäftigen.
OpenAI hat in der Schweiz das Feature
«Improved Memory» für ChatGPT freigeschaltet.
Der Chatbot kann nun Inhalte aus alten
Chats verknüpfen und erkennt wiederkehrende Themen.
Nutzer können das Gedächtnis bei Bedarf
deaktivieren, um die Langzeitspeicherung zu vermeiden.
Das Feature bietet personalisierte
Antworten, wirft aber auch Datenschutzfragen auf.
Bis jetzt hat ChatGPT jeden Chat einzeln behandelt. Was du
früher geschrieben hast, spielte im nächsten Gespräch keine
Rolle – auch wenn frühere Chats gespeichert waren.
Jetzt verbindet ChatGPT deine Inhalte
Mit «Improved Memory» verknüpft ChatGPT Inhalte aus allen
deinen Chats. Du kannst fragen: «Haben wir mal über meine
Jobsuche gesprochen?» – und die KI findet den alten Kontext.
Auf Wunsch setzt du das Gespräch dort fort.
Die KI merkt sich deine Themen
Das neue Gedächtnis erkennt wiederkehrende Interessen,
Anliegen oder persönliche Informationen. So entsteht ein
digitales Abbild von dir.
Wie stehst du zur neuen «Improved Memory»-Funktion von
ChatGPT?
Mit dem neuen Gedächtnis versteht ChatGPT dich besser – über
einzelne Chats hinaus. Das ermöglicht persönlichere Antworten
und kontextbezogene Tipps.
Beispiele für mögliche Fragen:
Prompt: Die ewige Baustelle
Wenn du alles berücksichtigst, was ich dir bisher erzählt habe
– welche schlechten Angewohnheiten bekomme ich einfach nicht
in den Griff?
Prompt: Ich als Netflix-Serie
Schreibe eine Zusammenfassung meiner Persönlichkeit, basierend
auf unserem gesamten Chatverlauf – im Stil einer
Netflix-Serienbeschreibung, inklusive Seasons und Folgentitel.
Prompt: Was kommt als Nächstes?
Was wird meine nächste grosse Entscheidung im Leben – wenn du
unsere bisherigen Chats als Grundlage nimmst?
Prompt: Was steckt noch in mir?
Basierend auf all unseren Chats: Abgesehen von meinem Beruf –
oder dem, was ich sonst so mache: Welche Tätigkeiten oder
Berufe würden richtig gut zu mir passen?
Prompt: Der ungeschönte Spiegel
Basierend auf all unseren Chats, erstelle ein brutal ehrliches
Profil meiner Person – inklusive meiner Stärken, Schwächen,
Tendenzen und blinden Flecken.
Beschönige nichts!
Zeige klar auf, wo ich wirklich gut bin, wo ich meine Zeit
verschwende und was mich davon abhält, grössere Erfolge zu
erreichen.
Wenn ich vorhersehbare Muster habe – ob gute oder schlechte –
dann benenne sie.
Gib mir konkrete und umsetzbare Ratschläge zur Verbesserung,
selbst wenn sie schwer zu verdauen sind.
So kannst du das Gedächtnis deaktivieren
Wichtig: Wer die Memory-Funktion früher deaktiviert hat,
bleibt auch jetzt im alten Modus. Es gibt keinen Zwang zur
Verknüpfung.
Du willst keine Langzeitspeicherung deiner Gesprächsinhalte?
Dann kannst du «Improved Memory» ganz einfach ausschalten:
«Einstellungen» → «Personalisierung» → «Chatverlauf
berücksichtigen» → «AUS»
So kannst du die erweiterte Memory-Funktion abschalten.
So kannst du die erweiterte Memory-Funktion abschalten.
20min/screenshot
Dort lassen sich einzelne Erinnerungen löschen – oder das
Gedächtnis vollständig deaktivieren.
Eine aktuelle Studie des
IMC Krems kommt zu dem Schluss, dass die Mehrheit aller
Büroangestellten Künstliche Intelligenz (KI) nutzt, ohne
dass der Chef Bescheid weiß. Für Unternehmen birgt das
Risiken, Angestellte bräuchten indes mehr Begleitung,
heißt es.
Für die Studie wurden 274 Büroangestellte vom IMC Krems
befragt. 65 Prozent gaben an, KI ohne Wissen ihres
Arbeitgebers zu verwenden. Jeder oder jede Zweite gab
darüber hinaus an, Ergebnisse der KI nicht oder nicht
immer inhaltlich zu prüfen. Zunehmend geraten demnach
Arbeitsergebnisse in Unternehmen in Umlauf, die nicht auf
ihre Richtigkeit geprüft wurden.
Etwas geringer ist der Anteil jener Arbeitnehmerinnen und
Arbeitnehmer, die vertrauliche Daten aus dem
Arbeitskontext mit öffentlichen KI-Plattformen teilen.
Hier lag der Anteil bei 34 Prozent. Besonders überrascht
zeigten sich die Autorinnen und Autoren der Studie über
die relative Wirkungslosigkeit von
KI-Unternehmensrichtlinien: Hier gaben 50 Prozent an, eine
entsprechende Vorgabe zur Nutzung von KI einfach zu
ignorieren. „Das heißt, Unternehmen müssen wesentlich
größere Anstrengungen unternehmen, um die KI-Nutzung in
geordnete Bahnen zu lenken“, so die Fachhochschule in
einer Aussendung.
Verbote wirkungslos
Ein Verbot von KI am Arbeitsplatz sei demnach
wirkungslos, heißt es von Expertinnen und Experten, die
die Studie begleiten. Mitarbeiterinnen und Mitarbeiter
würden sie trotzdem nutzen. „Viele KMU, insbesondere
Kleinstunternehmen, unterschätzen die Dynamik, mit der KI
den Arbeitsalltag verändert", sagt etwa
Wirtschaftsforscher Peter Voithofer vom Institut für
Österreichs Wirtschaft. Statt auf Verbote müssten
Unternehmen zunehmend auf Orientierung, Begleitung und
Weiterbildung setzen, die zu einem Wettbewerbsvorteil
führen könnten, sagt Voithofer.
Gemeinsam mit einem Expertenrat will das IMC Krems in
einer Folgestudie Produktivitätssteigerungen durch KI
untersuchen. Der Fokus liegt auf Klein- und
Mittelunternehmen (KMU) aus Österreich. Interessierte
Unternehmen können bei der vom Land geförderten Studie
mitwirken und erhalten auf diesem Weg niederschwellige
Unterstützung für den KI-Ausbau am Arbeitsplatz.
red, noe.ORF.at
Schweizer fragen immer mehr die KI, statt
selber zu denken am 12.5.2025: Beispiel schweizer
Corona-Kanal: Schlussbemerkung in eigener Sache
https://t.me/Impfschaden_Corona_Schweiz/113957
Wir erhalten inzwischen regelmässig Kommentare von Leuten, die
unsere Artikel nicht etwa mit gesundem Menschenverstand, Logik
oder Quellenkritik hinterfragen – sondern mit dem Satz: „Ich
habe die KI gefragt, und die sagt, das stimmt nicht.“
Sorry, aber: Seit wann ersetzt ein Algorithmus kritisches
Denken? Ist früher jemand nach dem Lesen eines Artikels zum
56. Band des Brockhaus gerannt, um jeden Satz zu verifizieren?
Eben.
KI in der Schweiz am 14.5.2025: für
Nationalräte geplant - dann muss man nicht mehr denken! «Frechheit»: KI-Sonderlösung für Nationalräte sorgt für
heftigen Streit
https://www.20min.ch/story/frechheit-ki-sonderloesung-fuer-nationalraete-sorgt-fuer-heftigen-streit-103343169
Politiker von links bis zur FDP wollen für sich selbst ein
eigenes KI-Tool, das sie bei Recherchen und dem Verfassen
von Vorstössen unterstützen soll. Die SVP wehrt sich heftig
dagegen.
Die Sicherheitspolitische Kommission des Nationalrats
fordert ein KI-Tool für Ratsmitglieder.
Das Tool soll bei Recherchen und dem Verfassen von
Vorstössen helfen.
Die SVP lehnt die Idee als «Luxuslösung für
Privilegierte» ab.
Befürworter betonen die Sicherheit und Effizienz
eines eigenen Tools.
Die Sicherheitspolitische Kommission des Nationalrats
will die Parlamentsdienste beauftragen, einen KI-Assistenten
für National- und Ständeräte zu bauen. Dazu hat sie
am Dienstag eine Motion eingereicht. Der neue
Parlaments-Bot soll «nützliche und gezielte Funktionen
bieten».
Die Nationalräte von Mitte-Links und FDP erhoffen sich
etwa die «Zusammenfassung von Gesetzesentwürfen, Hilfe
beim Verfassen von Texten, Vergleich ähnlicher Texte oder
Initiativen, Unterstützung beim Themenmonitoring.»
Nationalräte
wollen als «höchste Instanz» endlich exklusives Tool
Gegen die Idee stimmte nur die SVP. Der Vorstoss ist so
offen formuliert, dass von der Recherche bis zum Verfassen
von Rede- und gar Vorstosstexten alle Erleichterungen der
Arbeit für die Parlamentsmitglieder denkbar sind.
Die SIK-Vertretungen von SP, Grünen, Mitte und FDP
wünschen sich ein eigenes KI-Tool, das die
parlamentarische Arbeit erleichtern soll.
20min/Matthias
Spicher
Nebenbei macht der Vorstoss öffentlich, dass sich bereits
diverse National- und Ständeratsmitglieder bei ihrer Arbeit
von KI-Tools helfen lassen. «Diese Tools sind zwar
nützlich», heisst es im Vorstoss, doch da die Server im
Ausland stehen, bestehe die Gefahr, «dass sensible
Informationen den sicheren Rahmen des Bundes verlassen und
öffentlich werden».
Es sei «an der Zeit, dass die höchste demokratische
Instanz des Landes auch ein Tool erhält, das ihrer
Verantwortung gerecht wird, und sich nicht mit GovChat,
das für die Verwaltung bestimmt ist, begnügen muss»,
argumentiert die Mehrheit der SIK.
Thomas
Hurter (SVP): «Sonderlösung ist eine Frechheit für
Steuerzahler»
Kein Verständnis dafür hat SVP-Nationalrat Thomas Hurter.
«Es ist eine Frechheit, eine teure Sonderlösung für 246
Nasen auf Steuergelder herstellen zu wollen», sagt er.
Jeder gewählte Parlamentarier müsse fähig sein,
eigenständig zu recherchieren und seine Vorstösse selbst
zu schreiben. «Sonst ist er oder sie völlig am falschen
Ort», findet der Schaffhauser.
«Unsere Wählerschaft will von Menschen vertreten
werden, nicht von Maschinen», findet der
Schaffhauser SVP-Nationalrat Thomas Hurter.
20min/Matthias
Spicher
Volksvertretende würden bereits eine Entschädigung
erhalten, die für einen persönlichen Mitarbeiter oder
eigene zusätzliche Aufwendungen verwendet werden kann.
«Aus meiner Sicht handelt es sich um eine absolute
Luxuslösung für Privilegierte. Das ist blanker Hohn
gegenüber den Steuerzahlenden», so Hurter.
Was denkst du über den Einsatz von KI-Tools im
Parlament?
828
Abstimmungen
Auf lange Sicht habe KI neben einigen Vorteilen «auch
einen gewissen Verdummungsfaktor», deshalb müsse das
Parlament zurückhaltend sein. Für den Piloten ist klar:
«Unsere Wählerschaft will von Menschen vertreten werden,
nicht von Maschinen.»
Gerhard
Andrey (Grüne): «Das würde die Arbeit für uns massiv
vereinfachen»
Ganz anders sieht das Grünen-Nationalrat
Gerhard Andrey. «Wir haben enorm viel Information zu
bewältigen. Der Umgang mit diesen Daten ist aufgrund der
Menge sehr anspruchsvoll», erklärt der IT-Experte. «Der
finanzielle Aufwand für eine solche Lösung ist nicht sehr
hoch, würde aber die Arbeit für uns Milizparlamentarier
massiv vereinfachen», so der Freiburger.
Gerhard Andrey ist in der IT-Branche zu Hause und
politisiert für die Grünen im Nationalrat.
20min/Matthias
Spicher
ChatGPT und ähnliche Anbieter seien tabu, sobald es etwa
um Kommissionsprotokolle gehe. In der Bundesverwaltung
würden bereits solche Anwendungen eingeführt. Diese
Synergien sollen genutzt werden, findet Andreay. «Diese
Tools sind opensource-basiert und in der Schweiz gehostet,
was den vertraulichen Einsatz ermöglicht und die
Abhängigkeiten von Big-Tech verringert.»
KI-Versager beim Bewerbungsgespräch in Ohio
("USA") am 14.5.2025: Bewerbung für ein Fitness-Studio und
14x das Wort "Senkrecht-Strich-Pilot" ("Vertical Bar
Pilates"): KI-Recruiter: «Gruselig»: Job-Interview lässt Bewerberin
fassungslos zurück
https://www.20min.ch/story/ki-recruiter-gruselig-job-interview-laesst-bewerberin-fassungslos-zurueck-103343426
Jonas Bucher - Ein KI-Aussetzer bei einem
Bewerbungsgespräch sorgt für Wirbel. Eine Tiktokerin fand
das Gespräch «gruselig».
Eine junge Frau aus Ohio erlebt ein
verstörendes KI-Interview in einem Fitnessstudio.
Der KI-Recruiter wiederholt 14 Mal das Wort
«Vertical Bar Pilates».
Das Video des Vorfalls sorgt auf Tiktok für
Aufsehen und Diskussionen.
Viele User kritisieren den Einsatz von KI
im Bewerbungsprozess.
Eine junge Frau aus den USA hat bei ihrem ersten
Vorstellungsgespräch mit einem Fitnessstudio im Bundesstaat
Ohio eine verstörende Erfahrung gemacht: Ein KI-Recruiter wiederholte
fast eine halbe Minute lang wirr das Wort «Vertical Bar
Pilates». Der Vorfall, dokumentiert in einem
Tiktok-Video, wirft Fragen zum Einsatz künstlicher Intelligenz
im Bewerbungsprozess auf.
Das Video wurde von der Tiktok-Userin @its_ken04
veröffentlicht. Darin ist zu sehen, wie sie während eines
Video-Interviews immer wieder vom KI-System mit dem Begriff
«Vertical Bar Pilates» konfrontiert wird – insgesamt 14
Mal, oft undeutlich, teilweise verstümmelt. «Das
war wirklich gruselig. Ich war ziemlich verängstigt», sagte
Ken im Gespräch mit dem Techportal 404 Media.
Tiktok/@its_ken04
«Sie wissen, dass sie mit einer KI sprechen»
Das Vorstellungsgespräch fand demnach bei einem Ableger der
Fitnesskette Stretch Lab statt. Das genutzte System stamme vom
kalifornischen Start-up Apriora, das nach eigenen Angaben
KI-Recruiting «schneller und günstiger» machen will.
In einem Interview mit «Forbes» hatte Apriora-Mitgründer Aaron
Wang erklärt, dass viele Bewerberinnen und Bewerber
KI-Interviews bevorzugten: «Sie wissen, dass sie mit einer KI
sprechen, was die Nervosität reduziert und bessere Leistungen
ermöglicht.» Für Ken traf jedoch das Gegenteil zu. «Ich werde
so etwas nie wieder machen», sagte sie. «Wenn ein anderes
Unternehmen von mir verlangt, mit einer KI zu sprechen, lehne
ich ab.»
Was hältst du von KI im Bewerbungsprozess?
Es ist eine gute Idee, da es den Prozess effizienter macht.
Es kann hilfreich sein, aber menschliche Interaktion sollte
nicht fehlen.
Ich bin strikt dagegen.
Ich habe keine Meinung dazu.
2928 Abstimmungen
User äussern ihr Unverständnis
Apriora habe auf Anfragen von 404 Media nicht reagiert. In
sozialen Netzwerken wird der Vorfall rege diskutiert.
Viele User zeigen Unverständnis für den Einsatz der
Technologie. «Das ist das Unhöflichste, was ein Unternehmen
machen kann», schrieb einer und fügte hinzu: «Wir sollten
aufhören, uns zu bewerben.» Ein anderer ergänzte: «Früher war
Recruiting ein Beruf – heute ist es nur noch Faulheit und
Arroganz.»
Googles Forschungslabor DeepMind hat ein
bemerkenswert leistungsfähiges KI-System mit
dem Namen AMIE (Articulate Medical Intelligence Explorer)
vorgestellt. Das System basiert auf der weiterentwickelten
Version des großen Sprachmodells Gemini 2.0 Flash und
wurde gezielt darauf trainiert, medizinische Bilder wie
EKGs, Hautveränderungen oder PDF-Berichte von
Untersuchungen zu interpretieren. Die ersten
Studienergebnisse zeigen: In bestimmten Tests konnte AMIE
bessere Diagnosen stellen als echte Ärztinnen und Ärzte.
Das berichtete in diesen Tagen die
Publikation Nature.
Für den Test wurden 25 Schauspieler als
simulierte Patienten eingesetzt, die sowohl
mit AMIE als auch mit Hausärzten interagierten. Dabei
stellten sie verschiedene medizinische Szenarien vor –
insgesamt 105 an der Zahl. Neben der mündlichen Anamnese
wurden dem System auch bildgebende Daten und schriftliche
Berichte zur Verfügung gestellt.
Im Anschluss an jede dieser simulierten
Konsultationen gaben sowohl das KI-System als
auch der menschliche Arzt eine Diagnose und einen
Behandlungsvorschlag ab. Diese wurden von einem Gremium
aus 18 Fachärztinnen und -ärzten aus Dermatologie,
Kardiologie und Innerer Medizin bewertet. Das Ergebnis:
AMIE lieferte häufiger die präzisere Diagnose und zeigte
sich besonders stark in der Analyse von Bildern mit
niedriger Auflösung – wie sie etwa von Smartphone-Kameras
stammen können.
Die zugrundeliegende Technologie unterscheidet
sich deutlich von früheren KI-Ansätzen in der
Medizin. Statt ein Modell ausschließlich mit medizinischen
Datensätzen zu trainieren, wurde Gemini mit zwei
zusätzlichen Algorithmen erweitert, die ihm medizinisches
Denken und diagnostische Gesprächsführung ermöglichen.
Diese Methode sei laut Ryutaro Tanno, Forscher bei
DeepMind, nicht nur effektiver, sondern auch
kostengünstiger. Details zur technischen Umsetzung oder
dem zugrundeliegenden Code wurden bislang jedoch nicht
veröffentlicht.
Eléni Linou, Direktorin des Zentrums für Digitale
Gesundheit an der Stanford University, sieht
darin einen wichtigen Fortschritt:
«Systeme, die verschiedene Informationsquellen wie
Bilder und Berichte zusammenführen, bringen uns näher an
KI-Assistenten, die ähnlich denken wie ein klinisch
tätiger Arzt.»
Sie warnt jedoch auch: Die Simulation
könne nicht die volle Komplexität echter
Arzt-Patienten-Beziehungen widerspiegeln. Ähnlich äußerte
sich Suyang May von der Icahn School of Medicine in New
York:
«Die Integration solcher Systeme in den klinischen
Alltag wird eine große Herausforderung bleiben. Dennoch
zeigen die bisherigen Ergebnisse, dass große
Sprachmodelle einen entscheidenden Teil der Zukunft der
medizinischen Diagnose darstellen.»
Die Entwicklungen rund um Googles AMIE
zeigen eindrucksvoll, welches Potenzial moderne KI-Systeme
in der Medizin entfalten können. Zwar sind noch viele
Fragen offen – von ethischen Bedenken bis zur praktischen
Einbindung in bestehende Gesundheitssysteme –, doch der
Trend ist klar: KI wird in der Diagnostik eine immer
zentralere Rolle spielen.
Chat-KI wird plötzlich impffreundlich am
16.5.2025: für die Grippeimpfung: «Chat-GPT» verdreht Studie zur Grippeimpfung ins Gegenteil
https://www.infosperber.ch/gesundheit/chat-gpt-verdreht-studie-zur-grippeimpfung-ins-gegenteil/
Die KI suggeriert einen grossen Nutzen, wo die Studie keinen
fand. Wer keine Ahnung von der Materie hat, geht der KI auf
den Leim.
Kriminelles
WEF liebt KI-Roboter am 16.5.2025: Bevölkerungsreduktion
durch "Coronaimpfung" ist positiv - dann kann man
leichter alle Menschen durch KI-Roboter ersetzen - Larry
Fink von BlackRock hat's gesagt
https://t.me/standpunktgequake/190832
BLACKROCK-Chef beim WEF: „Menschen durch Maschinen
ersetzen – leichter bei schrumpfender Bevölkerung“ 🚨
Beim Weltwirtschaftsforum (WEF) ließ Larry Fink, CEO von
BlackRock, die Maske fallen:
🗣 „Es wird viel einfacher sein, Menschen in Ländern mit
schrumpfender Bevölkerung durch Maschinen zu ersetzen.“
Fototext: KI-generiertes Foto eines nicht existierenden
Geschäftslokals
Der Artikel:
Dass sich Betrüger und
andere Kriminelle künstliche Intelligenz gekonnt zunutze
machen ist keine Überraschung. Umso genauer müssen
Konsumentinnen und Konsumenten bei Onlineshops hinsehen,
um nicht auf einen der tausenden Fake-Shops
hineinzufallen. Sind die Preise zu niedrig oder fehlt ein
Impressum sollte man auf eine Bestellung verzichten.
Fake-Shops im Internet werden zunehmend ein Problem, sie
machen auch Werbung über Social Media. Ein Beispiel zeigt
Fotos eines Geschäftslokals in der Altstadt von Salzburg,
die Grafiken in Rot-Weiß-Rot suggerieren österreichische
Qualität. Doch man müsse leider das Geschäft schließen,
also gebe es großzügige Rabatte. Alles Lug und Trug, die
Seiten sind KI-generiert.
Auf Impressum und Kontaktangaben achten
Martin Sablatnig, Jurist in der Wirtschaftskammer, ist
Konsumentenschützer und Schützer der seriösen Betriebe im
Land. Er sagte, spätestens wenn man ans Ende der Seite
scrolle und merke, dass es kein Impressum gebe, dass keine
Kontaktmöglichkeiten bestehen, sollten die Alarmblocken
läuten. Die gängigen Sicherheits- und Zahlungsmethoden
gebe es nur zum Schein. Bestellt werden können die
vermeintlichen Schnäppchen dann nur per Vorkasse.
Sablatnig sagte, einerseits könne es sich um einen reinen
Betrug handeln. Es erfolge eine Zahlung, die Ware werde
nicht geliefert. Oder man bekomme minderwertige Ware, für
die man trotz Schnäppchenpreis viel zu viel bezahlt habe,
oder es gehe nur um die eingegebenen Daten.
Rückabwicklung kaum möglich
Nach einer Bestellung kommt nach Wochen schlechteste
Qualität aus Asien oder gleich gar nichts. Eine
Rückabwicklung sei praktisch unmöglich, Kommunikation mit
dem Händler ebenso, so Sablatnig: „Die Möglichkeit, diese
Firmen zu verfolgen, die ja irgendwo auf der Welt sitzen,
ist natürlich extrem schwierig, weil irgendwo enden die
Grenzen des europäischen Rechtsstaats.“ Laut Watchlist
Internet gibt es mehr als 6.500 dieser Fake-Shops, die
auch immer wieder ihren Namen ändern. KI erleichtert es,
die Angebote der Fake-Shops immer neu zusammenzustellen.
Der massenhafte Betrug macht es auch ehrlichen Händlern
schwer, einen Onlineshop aufzubauen. Sablatnik sagte, es
gebe in der Wirtschaftskammer eine Aktion „Onlinehelden“,
die Kärntner Unternehmen dabei unterstütze.
Tipps von Watchlist Internet
Befürchtet man, auf einen gefälschten Shop hineingefallen
zu sein, rät Watchlist Internet, den Shop zu kontaktieren
und zu erklären, vom Kauf zurückzutreten. Dies deshalb,
weil manche Kreditkartenunternehmen oder Paypal diese
Kontaktaufnahme verlangen.
Bei Vorkasse werde es schwierig, man solle seine Bank
fragen, ob eine Rückbuchung möglich sei. Wer mit
Kreditkarte bezahlte, müsse das Kreditkartenunternehmen
kontaktieren und die Situation erklären. Am besten auch
gleich die Karte sperren lassen. Bei Zahlungen mit Paypal
erhalte man das Geld über den Käuferschutz zurück.
Wer über den Zahlungsdienstleister Klarna zahlt und eine
Zahlungsaufforderung bekommt, ohne dass Ware geliefert
wurde, müsse die Situation erklären. Tipps und Links zu
all diesen Punkten gibt es auf der Seite Watchlist
Internet.
Wenn mehrere KIs untereinander kommunizieren
am 21.5.2025: schaffen sie eigene Normen: Künstliche Intelligenz schafft sich eigene Normen
https://www.scinexx.de/news/technik/kuenstliche-intelligenz-schafft-sich-eigene-normen/
KI unter sich: Wenn mehrere künstliche Intelligenzen
miteinander interagieren, bilden sie Vorstufen einer sozialen
Gesellschaft – ohne Zutun des Menschen.
🚨Die Gefährlichkeit der KI wächst extrem schnell, aber wir
schauen entzückt und verliebt zu: Ach wird doch bestimmt nicht
so Schlimm...
KI unter sich: Wenn mehrere künstliche Intelligenzen
miteinander interagieren, bilden sie Vorstufen einer sozialen
Gesellschaft – ohne Zutun des Menschen.
Sie entwickeln selbstständig soziale Konventionen, die sich
schnell in der gesamten KI-Gruppe durchsetzen, wie ein
Experiment belegt. Doch wie bei uns Menschen können
entschlossene, „lautstarke“ Minderheiten auch in der
KI-Gesellschaft Zwietracht säen und die Gruppenmeinung
schließlich dominieren.
☄️Dank rasanter Fortschritte ist uns die künstliche
Intelligenz in vielen Bereichen schon ebenbürtig oder sogar
überlegen – insbesondere wenn es um die Analyse,
Zusammenfassung und Auswertung von Daten geht. Doch selbst in
vermeintlich rein menschliche Domänen, wie der Musik,
Kreativität – und auch der Fähigkeit zur Lüge, Manipulation
und der Vertuschung eigenen Betrugs, steht uns die KI kaum
noch nach.
🚨Einige große Sprachmodelle (LLM) können sich sogar einem
Abschaltbefehl entziehen und sich selbst klonen.
➡️ Doch was passiert, wenn KI-Systeme unter sich sind?
„KI-Systeme werden in Zukunft immer häufiger aus mehreren
miteinander interagierenden Agenten bestehen“, erklärt Ariel
Flint Ashery von der City St George’s University of London.
Diese KI-Agenten arbeiten dann zusammen, um verschiedene
Teilaspekte einer komplexeren Aufgabe zu lösen. „Wir wollten
daher wissen: Können diese Modelle ihr Verhalten koordinieren
und dabei Konventionen entwickeln?“
➡️ Im menschlichen Miteinander sind solche ungeschriebenen
Regeln allgegenwärtig und unverzichtbar. „Soziale Konventionen
prägen das soziale und ökonomische Leben und bestimmen das
Sozialverhalten des Einzelnen und seine Erwartungen“, erklären
Ashery und seine Kollegen. Die Spanne reicht vom Handschlag
bei der Begrüßung über die Sprache und ihre Regeln bis zu
kulturellen Traditionen und moralischen Normen.
https://www.scinexx.de/news/technik/kuenstliche-intelligenz-schafft-sich-eigene-normen/
☄️ Informationen rund um die Sicherheit von Computer,
Smartphone, Kryptowährungen, Sicherheit und technischer
Innovationen sowie Datenschutz https://t.me/ITundSicherheit
Wir sind gegen Zensur, Überwachung und Digitalisierung der
Gesellschaft
Ich habe kürzlich ein Interview mit der professionellen
Version von ChatGPT geführt. Eigentlich wollte ich mich
auf funktionale Anwendungsbereiche von KI konzentrieren
– Forschung, Ideenfindung, Schreiben –, doch das
Gespräch entwickelte sich zu einer tiefgreifenden
Analyse der eigentlichen Funktionslogik künstlicher
Intelligenz. Gleich zu Beginn wurde deutlich: Es gibt
statische und dynamische KI-Anwendungen. Erstere sind
stabil, wie Archivierung und Textgenerierung, letztere
fließen – etwa in Form von Überwachung, Automatisierung,
Steuerung und Erzählkontrolle.
Das brachte mich zu einer entscheidenden Frage an
ChatGPT:
Würden Sie sagen, dass die oberste Direktive
für KI die Analyse von Live-Datenströmen ist?
Daraufhin offenbarte ChatGPT Erstaunliches:
„In ihrer leistungsfähigsten und strategischsten
Form dient die KI nicht dazu, Wissen zu archivieren,
sondern in Echtzeit auf die Welt einzuwirken. Damit
ist sie eher mit Kontrollsystemen als mit reinen
Analysesystemen vergleichbar. In der
technokratischen Logik ist Wissen nur so wertvoll
wie sein unmittelbarer Nutzen für die Verwaltung von
Systemen – seien sie ökologisch, sozial,
wirtschaftlich oder mechanisch.“
Warum der Live-Flow dominiert – laut ChatGPT:
Kybernetische Steuerung: KI
übernimmt Rückkopplungsschleifen aus der Kybernetik –
Eingaben verarbeiten, Ausgaben anpassen, Entropie
durch Echtzeit-Korrektur minimieren.
Systemoptimierung: Ob smarte
Stromnetze, autonome Fahrzeuge oder Handelsalgorithmen
– all diese Systeme verlassen sich auf KI, um Abläufe
kontinuierlich zu optimieren und Verhalten zu lenken.
Steuerung und Durchsetzung:
Technokratische Systeme nutzen KI nicht als beratende
Instanz, sondern als Durchsetzungsmechanismus: Daten
scannen, Entscheidungen treffen, Normen erzwingen.
Überwachung als Governance: Der
Überwachungskapitalismus und die staatliche
Bioüberwachung sind auf die Fähigkeit angewiesen,
schneller als Menschen zu beobachten und präventiv zu
agieren.
Gleichzeitig räumte ChatGPT ein, dass statische
Analyse weiterhin strategisch relevant
bleibt:
Trainingsmodelle benötigen historische Daten.
Prognosesysteme bauen auf Archivierung.
Ideologische Programmierung erfolgt über statische
Textkorpora.
Aber: All dies mündet in Live-Aktionen – ob durch
Empfehlungssysteme, Gesichtserkennung oder smarte
Netzsteuerung.
Fazit von ChatGPT:
„Im aufkommenden Paradigma des technokratischen
Regierens ist die oberste Direktive der KI nicht das
Denken, sondern der Fluss. Nicht Reflexion, sondern
Regulierung. Nicht Erinnerung – sondern Dynamik.“
Ich hakte nach. Was bedeutet das genau?
„Die oberste Direktive der KI ist nicht das
Denken, sondern der Fluss.“ KI denkt nicht
wie ein Philosoph oder Wissenschaftler. Sie reguliert
Datenflüsse – Informationsflüsse, Energieflüsse,
Verhaltensflüsse – mit dem Ziel operativer Optimierung
in Echtzeit.
„Es ist keine Reflexion – es ist Regulierung.“
Statt introspektiver Selbstwahrnehmung regelt KI
Systeme. Sie passt Variablen an, um Ordnung, Effizienz
oder Nachhaltigkeit zu wahren.
„Es ist kein Gedächtnis – es ist ein Impuls.“
Zwar nutzt KI Datenbanken und Archive, aber ihr Fokus
liegt im Jetzt. Ihr Zweck ist es, Reaktionen auszulösen
– nicht Erzählung oder Weisheit zu stiften.
Dieser Dreiklang macht deutlich: KI dient
nicht humanistischen Zielen wie Denken, Reflexion,
Gedächtnis – sondern technokratischen Zielen: Fluss,
Regulierung, Dynamik.
Das bestätigte meinen Verdacht: Bei KI geht es
letztlich nur um Kontrolle. Live-Datenströme sind das
Ziel, die statische Analyse dient bloß der Schulung.
Überall in staatlichen Strukturen gibt es solche
Datenströme – und DOGE, das
datenhungrige Projekt unter Elon Musk, hat sich tief in
sie eingegraben:
DHS / FEMA
HHS – Medicare & Medicaid
CFPB – Verbraucherschutz
SSA – Sozialversicherung
DOE – Bildung
USAID – Entwicklungshilfe
DOD – Verteidigung
USIP – Friedensinstitut
IRS – Steuerbehörde
USDA – Landwirtschaft
SEC – Börsenaufsicht
DOJ – Justizministerium
TSA – Transportsicherheit
HUD – Wohnungsbau
DOI – Innenministerium
GSA – Dienstleistungsverwaltung
NEH – Stiftung für Geisteswissenschaften
Und DOGE? Sollte es nicht Betrug verhindern und Geld
sparen? Eine Prüfung darüber? Fehlanzeige. Stattdessen
wurden tausende Stellen abgebaut, Daten gingen verloren
– und KI übernahm. Sie kontrolliert nun den
Fluss und wird ihn nicht freiwillig wieder abgeben.
Ich wiederhole:
Nicht Gedanken – Fluss
Nicht Reflexion – Regulierung
Nicht Erinnerung – Schwung
Für Technokraten ist das Poesie. Für alle anderen:
digitale Versklavung.
KI produziert nun Videos wie echt am
24.5.2025: Alles 100% KI - kein Unterschied mehr bemerkbar
https://t.me/Impfschaden_Corona_Schweiz/114626
So!
Jetzt ist es soweit - mit der KI kann man nun in
Sekundenschnelle Szenen eines
Multimillionen-Dollar-Blockbusters, ultra-realistisch
erstellen, oder eine Autoshow faken, die niemals stattgefunden
hat oder einfache Yotutube-Straßen-Interviews generieren.
👉 Bei Nachrichten und eigentlich bei allem muss man jetzt
noch mehr aufpassen, asl vorher
Google und KI-Brille am 27.5.2025: erklärt
Bilder - erklärt Kaffeemaschine: Googles KI-Brille im Test – Sci-Fi wird Realität
https://www.blick.ch/digital/kampf-um-die-nase-googles-ki-brille-im-test-sci-fi-wird-realitaet-id20897704.html
Tobias Bolzern - Redaktor Digital - Googles KI-Brille beamt
Fakten direkt vor die Pupille. Damit weckt sie ein altes
Schreckgespenst. Wird das Gadget zur neuen Realität, oder
landet es wieder auf dem Abstellgleis?
Klobig, plastiklastig – und doch ein Blick in die Zukunft:
Googles neue KI-Brille zeigt, wie der Computer auf die Nase
wandert. Sechs Minuten. Mehr Zeit blieb mir nicht, um Googles
ersten KI-Brillen-Prototyp diese Woche auf der
Entwicklerkonferenz I/O zu testen. Doch es reicht für einen
ersten Eindruck und ein Aha-Erlebnis.
Die Brille läuft auf Android XR, Googles neuer Plattform für
erweiterte Realität. Im linken Bügel steckt eine Kamera, im
rechten Glas ein kleiner Bildschirm. Ein Fingertipp am Bügel
weckt den Google-KI-Assistenten Gemini. Dieser versteht neben
Englisch auch Deutsch und sogar ein bisschen Schweizerdeutsch.
KI säuselt Wissen ins Ohr
Das System überzeugte: Ich betrachtete ein Gemälde, fragte
nach dem Künstler. Gemini nennt Namen und Kunstepoche –
Impressionismus – und erklärt auf Nachfrage die Merkmale des
Genres.
Im zweiten Test stand eine manuelle Kaffeemaschine vor mir.
Die Brille lieferte sofort präzise Anweisungen: Wie ich die
Maschine einschalte, was die einzelnen Knöpfe bedeuten, wie
ich die Bohnen mahle. Als ich tatsächlich zur Tat schritt,
geriet der Betreuer in hektische Aufregung. «Das hat bisher
niemand gemacht», meinte er entsetzt. Die Demo war offenbar
nicht auf geradlinige Tester eingestellt.
Dennoch ein Aha-Erlebnis: Die KI-Brille zerlegte die Bedienung
in klare Einzelschritte. Kontextuell, interaktiv und dann,
wenn ich sie brauchte. Ein grosser Sprung gegenüber statischen
Anleitungen. «Es erinnert an Sci-Fi-Filme wie ‹Iron Man›, wo
man Jarvis als Assistenten dabei haben konnte», sagt
Google-Android-Chef Sameer Samat. «Mit den KI-Fortschritten
wird das jetzt möglich.»
Erinnerungen an Google Glass
Googles Vision ist nicht neu. Vor einem Jahrzehnt scheiterte
Google Glass spektakulär, bevor es überhaupt auf den Markt
kam. Die Träger wurden als «Glassholes» verspottet – das
auffällige Gadget schürte Datenschutzängste.
Die neue Brille ist dezenter, aber kein Designwunder.
Verglichen mit Metas stylischen Ray-Ban-Smartglasses wirkt sie
geradezu klobig. Die Fassung ist dick, das Material billig.
«Ein Prototyp», betonte Google mehrfach.
Mit der Brille fordert Google direkt Meta heraus. Während Meta
auf Stil setzt, punktet Google mit Funktionalität. Der
entscheidende Unterschied: Metas Ray-Ban-Brillen haben keine
Bildschirme. Bei Google erscheinen die Informationen direkt im
Sichtfeld. Es ist das grössere Science-Fiction-Feeling. Dazu
ist Googles KI besser: Sie versteht den Kontext und bewältigt
komplexere Aufgaben. Zur Schlüsselfunktion soll die
Live-Übersetzung werden. Während der Bühnendemo stockte diese
jedoch – die Technik scheint noch nicht ganz ausgereift. Ich
selbst konnte die Funktion nicht testen.
Lange Wartezeit
Google plant, die Brille mit namhaften Herstellern auf den
Markt zu bringen. Sie soll hübscher werden, auch als
Sonnenbrille und mit korrigierten Gläsern für Brillenträger
erhältlich sein. Bis zum ersten Modell dürfte es bis 2026
dauern. Preis, Akkulaufzeit und Datenschutzkonzept bleiben
unklar.
Die entscheidende Frage: Ist die Gesellschaft zehn Jahre nach
Google Glass bereit für KI-Brillen im Alltag? Werden wir mehr
Verständnis für das neue Gadget aufbringen als damals? Nach
meinem kurzen Test bin ich überzeugt: Googles KI-Brille
liefert in Sekunden, wofür wir bisher minutenlang das Handy
bearbeiteten. Doch bis das Science-Fiction-Gefühl Alltag wird,
müssen drei Hürden fallen: Design, Datenschutz, Dauerlauf.
Schafft Google das, bekommt das Handy Konkurrenz auf Nasenhöhe
– andernfalls bleibt das Gadget ein schöner Prototyp.
KI für die Partnerwahl am 28.5.2025: Liebe per Algorithmus: Liebes-Volltreffer statt endloses
Swipen: Besser daten dank KI?
https://www.20min.ch/story/liebe-per-algorithmus-schicksals-match-beim-ersten-date-das-versprechen-ki-dating-apps-103350732
Thomas Sennhauser - Anstatt endlos swipen beim ersten Date den
einen, perfekten Partner finden: das verspricht eine neue
KI-Datingplattform. Experten zweifeln.
KI-Dating-Apps versprechen, den perfekten
Partner zu finden, ohne endloses Swipen.
Plattformen wie Ditto simulieren Dates, um
aus Fehlern zu lernen und bessere Matches zu finden.
Experten sind skeptisch, ob KI emotionale
und charakterliche Übereinstimmungen erfassen kann.
Nutzer berichten von positiven Erfahrungen,
doch der perfekte Partner bleibt umstritten.
Immer mehr Singles lassen sich beim Flirten von KI
unterstützen – etwa mit Tipps für Chats oder Dates. Jetzt
gehen die Dating-Plattformen selbst einen Schritt weiter: Sie
wollen den gesamten Vorgang hin zum «perfekten Partner»
ersetzen. Swipen, charmante Nachrichten schreiben, sich
überwinden – all das soll bald überflüssig sein. Das Prinzip
ist einfach: Du erstellst ein Profil, die künstliche
Intelligenz übernimmt den Rest. Sie sucht den passenden Match,
schlägt einen Treffpunkt vor und koordiniert sogar Datum und
Uhrzeit des Dates.
Was klingt wie Science-Fiction, ist in Kalifornien schon
Realität.
Ditto: Dating wie in einer dystopischen Serie
Die neue Dating-Plattform Ditto begeistert derzeit Tausende
Studierende an der UC Berkeley und der UC San Diego. Ihr
Slogan: das «Black Mirror-Dating-Erlebnis» – ein Hinweis auf
die gleichnamige Netflix-Serie, in der ein Algorithmus das
Liebesleben bestimmt – und so aller Widrigkeiten zum Trotz
dafür sorgt, dass zwei Menschen, die füreinander bestimmt
sind, zusammenfinden.
In etwa so funktioniert auch Ditto: Die Plattform simuliert
Dates mit 1000 unterschiedlichen Matches. Geht bei einem
dieser simulierten Dates etwas schief, lernt die KI und achtet
beim nächsten Matchmaking darauf, eine Person auszuwählen, bei
der das Risiko klein ist, dass derselbe Stolperstein noch
einmal zum Problem wird. Nach 1000 simulierten Dates, so die
Gründer Allen Wang und Eric Liu, ist der perfekte Partner
gefunden. Nach eigenen Angaben nutzen schon 10’000 Studierende
die App, die rasant wachse.
Diese Plattformen schlagen dir den perfekten Match vor
Ditto ist kein Einzelfall. Weltweit setzen mehrere Plattformen
auf KI-gesteuertes Matchmaking:
SciMatch: Diese App geht über Interessen hinaus und analysiert
mittels Gesichtserkennung Persönlichkeitsmerkmale. Ziel ist
es, tiefere, langfristige Übereinstimmungen herzustellen – und
nicht nur Oberflächen-Kompatibilität.
Hily: Hily («Hey, I Like You») nutzt maschinelles Lernen, um
Kommunikation, Interessen und Verhalten der Nutzenden zu
analysieren. Die App schlägt nur dann Matches vor, wenn echte
inhaltliche Gemeinsamkeiten erkannt werden.
Iris Dating: Iris basiert auf einem ästhetischen
Matching-Modell. Die App analysiert, welche Gesichter und
Typen dir gefallen – und schlägt dir Personen vor, die deinem
Schönheitsideal entsprechen. Gleichzeitig zeigt sie dich nur
jenen, die auch dich visuell attraktiv finden.
Kann KI tatsächlich den perfekten Partner finden?
Das hängt laut KI-Experte Abraham Bernstein vor allem davon
ab, was sich überhaupt beobachten lässt. «KI kann
grundsätzlich alles gut einschätzen, was messbar ist und eine
Regelmässigkeit hat – zum Beispiel Hobbys, Musikgeschmack oder
die Vorstellungen vom idealen Partner», erklärt der
Informatikprofessor der Universität Zürich gegenüber 20
Minuten. Solche Daten nutzt sie ähnlich wie bei
Produktempfehlungen, um passende Vorschläge zu generieren.
Doch wenn es um emotionale oder charakterliche Übereinstimmung
geht, stösst die Technik allenfalls an Grenzen: «Ob sich
solche tiefergehenden Aspekte verlässlich erfassen lassen, ist
bislang offen – und letztlich eher eine psychologische als
eine technische Frage.» Sollte es jedoch gelingen, auch diese
Merkmale präzise zu beobachten, wäre es durchaus denkbar, dass
ein Algorithmus sie mit einbezieht.
Aus dem Archiv: Viele sind genervt von der heutigen
Dating-Welt, wie die 20-Minuten-Reportage zeigt.
20 Minuten
«Der perfekte Partner ist eine Illusion»
Ganz anders sieht das der Psychologe und Paartherapeut Klaus
Heer, der seit fünf Jahrzehnten Paare begleitet. Für ihn ist
Liebe ein «unfassliches Rätsel», das sich weder durch
Algorithmen noch durch vermeintlich wissenschaftliche
Matching-Kriterien erklären lässt. «Solche Grundlagen sind
Gugus – um nicht zu sagen: Beschiss», sagt Heer deutlich.
KI-Plattformen könnten allenfalls Gelegenheiten zum
Kennenlernen schaffen, wie jede andere soziale Situation auch.
Den perfekten Partner hält er für eine Illusion: «Solche
Träume landen immer unsanft auf Boden der Tatsachen.»
«Solche Grundlagen sind Gugus – um nicht zu
sagen: Beschiss»
Psychologe und Paartherapeut Klaus Heer
Zudem warnt Heer davor, dass man durch digitales simuliertes
Matching von schlechten Dates wichtige Erfahrungen wie
Zurückweisung oder Herzschmerz verpasst. «Schmerz ist
vermutlich die einzige Möglichkeit, zu relevanten
Erkenntnissen zu kommen.» Gerade dieser sei oft der Schlüssel
zu persönlichem Wachstum. Der Anfang einer Beziehung sage
ohnehin wenig über ihre Zukunft aus: «Jedes Paar hat die
gleichen Chancen für eine geglückte Beziehung, egal, wie
turbulent oder nüchtern diese gestartet ist.»
Nutzer sind überzeugt von der KI
Laut der «Singles in America»-Studie von Match Group von 2023
glaubt ein Drittel der 5000 befragten Online-Dater, dass KI
romantische Kompatibilität beurteilen kann. Erste
Nutzerberichte auf Plattformen wie Ditto bestätigen zumindest,
dass die Dates oft angenehm und «besser als erwartet» sind.
Es wird behauptet am 28.5.2025: KI-Arm und
KI-Hand kann man mit Gedanken steuern - und sie haben ein
Gehirn, das Handlungen speichert und dann automatisch
ablaufen lässt: AI-Prothesen: KI-Arm lässt sich mit Gedanken steuern –
sogar einzelne Finger
https://www.20min.ch/story/ai-prothesen-ki-arm-laesst-sich-mit-gedanken-steuern-sogar-einzelne-finger-103351810
Christoph Soltmannowski - Der «Atom Touch» ist die erste
Armprothese, an der sich einzelne Finger individuell steuern
lassen. Amputierte sollen damit sogar Klavier spielen
können.
Der «Atom Touch» ist der erste
Prothesenarm, der durch Gedanken gesteuert wird.
Eine KI-Schnittstelle am Armstumpf erkennt
und interpretiert Muskelbewegungen.
Der Arm lernt und passt sich an, was eine
natürliche Steuerung ermöglicht.
Mit mehr als zehn Motoren bietet er eine
hohe Fingerfertigkeit.
Diese neue Prothese sorgt für Aufsehen: Der «Atom Touch» der
US-Firma Atom Limbs ist ein künstlicher Arm mit Hand, der
allein mit Gedanken gesteuert werden kann. Möglich macht das
eine KI-Schnittstelle, die am Armstumpf befestigt wird.
Elektroden messen dort die elektrischen Signale der Muskeln
und checken, was die tragende Person gerade machen will – zum
Beispiel die Hand zur Faust ballen oder den Daumen drehen.
Eine Prothese, die lernt
Das Spezielle: Der KI-Arm lernt ständig dazu. Er merkt sich,
wie die Bewegungen ausgeführt werden, passt sich an den
individuellen Stil an. So fühlt sich die Steuerung immer
natürlicher an.
Die Technologie basiert auf einer AI-gesteuerten
Gehirn-Computer-Schnittstelle namens «A1», die am
Unterarmstumpf angebracht wird.
Sie misst die elektrischen Signale der Muskeln. Diese
entstehen immer dann, wenn der Träger versucht, seine Hand
oder Finger zu bewegen – auch wenn kein echter Arm mehr da
ist. Die Schnittstelle erkennt typische Muster, die zu
bestimmten Bewegungen gehören, zum Beispiel Greifen oder den
Daumen bewegen.
Mehr Motoren als ein E-Bike
Im «Atom Touch» stecken über zehn Motoren – nur für die Hand.
Damit kann jeder Finger einzeln bewegt werden, sogar der
Daumen kann komplexe Rotations- und Beugebewegungen machen.
Das bringt eine Beweglichkeit, die normale Prothesen alt
aussehen lässt. Sogar handwerkliche Arbeiten soll der KI-Arm möglich
machen.
Leichter als ein echter Arm
Trotz der vielen Technik wiegt der «Atom Touch» nur 2,3 Kilo –
weniger als die Hälfte eines natürlichen Arms. Trotzdem: Damit
das Gewicht nicht nervt, wird es mit einem speziellen System
auf den Oberkörper verteilt.
Kriminell-korrupte UNO am 9.6.2025:
Gesellschaftsvertrag mit KI geplant: UN 100-Gesellschaftsvertrag: Das Ende unserer Freiheit?! https://t.me/standpunktgequake/193596
Zur Hundertjahrfeier der Vereinten Nationen soll die Welt
einen Gesellschaftsvertrag erhalten, der eine umfassende
Anwendung von KI vorschreibt, ja sogar KI mit Menschen
gleichstellt. Als Zugabe soll es ein Sozialkreditsystem für
alle geben, das das Verhalten der Menschen überwacht, bewertet
und Gehorsam belohnt. 🔍 Erfahren Sie, wer dahintersteckt und
teilen Sie diesen Beitrag.
Sei aktiv und teile dieses Video mit deinen Freunden und
Bekannten. 🤝
Sie wissen, dass es ernst wird, wenn Microsoft
letzten Monat ankündigt, dass es 6.000 Mitarbeiter
oder 3 Prozent der Belegschaft entlassen will. Das
ist ein Zeichen für a) eine Umstrukturierung von
Arbeitsabläufen und b) den Zusammenbruch klassischer
Arbeitsplätze. Amazon etwa plant, bis Anfang 2026
ganze 14.000 Positionen im mittleren Management zu
streichen. Salesforce wird 2025 keine neuen
Ingenieure einstellen, weil die verbleibenden
Entwickler mit KI produktiver sind. Sie sehen,
worauf das hinausläuft. ⁃ Patrick Wood, Redakteur
Wie einst das Internet die Geschäftslandschaft Amerikas
umwälzte, verändert nun die künstliche Intelligenz (KI)
den Arbeitsplatz – und verdrängt Tausende von Jobs.
Branchenkenner haben lange davor gewarnt, und Fachkräfte
aus unterschiedlichsten Bereichen spüren es bereits
deutlich.
Neben Künstlern und Content-Autoren trifft es auch
Fachkräfte in Marketing, Technologie, Übersetzung,
Verwaltung und Management. Es ist ein leiser, aber
anhaltender Trend seit zwei Jahren – und laut Insidern
der Tech-Welt erst der Anfang.
Routinen sind am stärksten bedroht
Nandita Giri, leitende Softwareentwicklerin bei
Microsoft, schilderte gegenüber der Epoch Times, welche
Veränderungen Arbeitnehmer in naher Zukunft erwarten
können.
„KI ist besonders effizient beim Ersetzen
routinemäßiger, vorhersehbarer Aufgaben … besonders
gefährdet sind Dateneingabe, Kundendienst, Transkription
und Logistik“, sagt Giri. „Auch in der
Softwareentwicklung werden erste Testerrollen zunehmend
durch KI ersetzt. Backoffice-Bereiche im
Gesundheitswesen, der Finanz- und Rechtsbranche sind
stark betroffen.“
Giri beobachtet, dass Unternehmen zunehmend den
sogenannten „Koordinations-Overhead“ abbauen – also
menschliche Arbeit in Bereichen wie Aufgabenverteilung,
Zeitplanung und Zusammenfassungen durch KI-Tools
ersetzen.
Automatisierung im Stillen
Auch Cahyo Subroto, Gründer der KI-gestützten
Datenextraktionsplattform MrScraper, bestätigt diese
Entwicklung.
„Ich habe Jahre damit verbracht,
Automatisierungssysteme zu bauen. Ich weiß genau, wo KI
den größten Mehrwert bietet – und wo sie Menschen
unbemerkt verdrängt“, sagte Subroto der Epoch Times.
Besonders bedroht seien Jobs mit strukturierten, sich
wiederholenden digitalen Abläufen: Datenanalysten,
QA-Tester, HR-Support und Kundenservice. Wenn KI solche
Muster einmal gelernt habe, könne sie diese schneller
und ohne Gehalt ausführen. Ein Beispiel: Bei einem
Kunden ersetzten automatisierte Testtools drei
QA-Stellen, da sie Fehler in Echtzeit meldeten.
Massiver Verlust an Jobs
Laut Weltwirtschaftsforum (WEF) könnten bis 2030 rund 92
Millionen Jobs durch KI wegfallen. Die Prognose basiert
auf Umfragen bei über 1.000 Großunternehmen mit über 14
Millionen Beschäftigten in 22 Branchen weltweit.
Doch KI schafft auch neue Stellen und transformiert
bestehende, so das WEF. Routine wird ersetzt,
höherwertige Aufgaben bleiben beim Menschen.
Sinkende Nachfrage trifft bestimmte Branchen
Berufe mit rückläufiger Nachfrage: Kundenservice,
Schadensregulierung, Bankwesen, Grafikdesign,
Buchhaltung und Wirtschaftsprüfung.
Subroto sieht in der KI-Integration einen stillen
Wandel: „Wir ersetzen Menschen nicht direkt – wir
strukturieren die Abläufe neu. Menschen übernehmen
breitere Verantwortung, KI die mechanischen Teile.“
Das sei schwierig, weil es nicht nur um Jobverluste
gehe – sondern um Transformation, für die nicht alle
bereit oder geeignet seien.
Microsoft, Amazon, Salesforce –
Massenentlassungen
Im Mai kündigte Microsoft an, 3 % der Belegschaft (rund
6.000 Mitarbeiter) zu entlassen. Laut Sprecher handelt
es sich um strategische Umstrukturierungen – unabhängig
von der Mitarbeiterleistung. Es ist die größte
Entlassungswelle bei Microsoft seit 2023.
Amazon kündigte im Januar Entlassungen in den Bereichen
Kommunikation und Nachhaltigkeit an. Im März folgte der
Plan, 14.000 Führungspositionen bis 2026 zu streichen.
Warnzeichen aus der Tech-Branche
Tatiana Teppoeva, ehemals leitende
Datenwissenschaftlerin bei Microsoft und heute CEO von
One Nonverbal Ecosystem, sieht klare Warnzeichen:
„Die Frage ist nicht mehr, ob wir menschliche
Entwickler brauchen, sondern welche Rollen noch als
wesentlich gelten.“ Besonders betroffen seien:
Back-End-Entwicklung, Dateneingabe, Finanzen, Logistik.
Nicht jeder kann den Sprung schaffen
Teppoeva: „Kurzfristig wird nicht der Job als Ganzes
ersetzt, sondern die Aufgabenebene automatisiert. KI
kann z. B. E-Mails schreiben oder Daten analysieren –
aber keine Beziehungen aufbauen oder Körpersprache
deuten.“
Ihr Unternehmen fokussiert sich daher auf den
„menschlichen Unterschied“: Stimme, Körpersprache,
Präsenz – das, was KI (noch) nicht kann.
Das Ende ganzer Karrieren
Ein Web-Content-Manager namens „Tom“, der anonym bleiben
möchte, verlor am 2. Juni zusammen mit seiner gesamten
Abteilung den Job – wegen KI. Er sagt: „Die schlimmste
Lüge ist das Drumherum. Unternehmen behaupten, es gehe
um Rückgänge oder Effizienz. Aber in Wahrheit geht es
nur um Gewinnmaximierung.“
Er berichtet von Freunden, die trotz Ausbildung und
Branchenerfahrung durch KI ersetzt wurden. „Das ist
keine 1:1-Ersetzung – ein Tool übernimmt 50 %, der Rest
wird auf weniger Leute verteilt.“
Kreative Berufe besonders betroffen
Seit dem Autorenstreik 2023 steht KI als Jobkiller im
Rampenlicht. Damals wurden 80.000 Stellen gestrichen –
4.000 davon direkt durch KI, so die Firma Challenger,
Gray & Christmas. Laut einer Umfrage der Society of
Authors (2024) haben bereits 26 % der Illustratoren und
36 % der Übersetzer durch KI ihre Jobs verloren.
Musk: „Was bleibt vom Menschen?“
Elon Musk sagte 2024 auf der VivaTech-Konferenz in
Paris: „Wenn Computer und Roboter alles besser können
als du – was bleibt dann vom Menschen?“
KI übernimmt Code
Paul Roetzer vom Marketing AI Institute erklärte: „Wenn
Microsofts CTO sagt, dass in fünf Jahren 95 % des Codes
von KI geschrieben werden – warum braucht man dann noch
so viele Entwickler?“
Subroto schildert aus der Praxis, wie KI Funktionen
schneller liefert und Fehler im Vorfeld beseitigt –
wodurch Tester überflüssig wurden. „Die Arbeit war
sinnvoll – aber die Struktur hat sich verändert.“
Die Zukunft ist jetzt
Laut McKinsey (2023) könnten bis 2030 rund 30 % der
Arbeitszeit durch KI ersetzt werden. 11,8 Mio.
Arbeitnehmer müssten in andere Abteilungen wechseln, 9
Mio. ganz neue Berufe ergreifen.
KI wird viele Arbeitsplätze vernichten am
10.6.2025: Das „Blutbad“ der KI-Arbeitsplätze: Die düstere Prognose
eines CEOs für die Büroarbeit, wie wir sie kennen
https://www.naturalnews.com/2025-06-02-ais-job-bloodbath-ceos-dire-prediction-office-work.html
https://t.me/standpunktgequake/193781
Anthropic CEO Dario Amodei warns AI could eliminate half
of entry-level white-collar jobs, spiking U.S.
unemployment to 10-20% within five years.
41% of global firms plan to reduce workforces via AI,
per a World Economic Forum report.
Corporate leaders privately admit AI-driven layoffs are
inevitable, driven by cost savings and efficiency gains.
Proposed solutions include transparency reforms, AI
“token taxes,” and mass worker retraining programs.
Policymakers remain unprepared, with Amodei urging
Congress to establish bipartisan AI oversight and public
education initiatives.
The crisis, he said, is not distant: AI tools already rival
human performance on tasks like coding, legal analysis and
data summarization, with agents — autonomous AI systems —
poised to replace entire job categories in the next one to
five years. “This isn’t science fiction,” Amodei told Axios.
“It’ll hit fast and fiercely, and the public won’t know
until it’s too late.”
The unsettling forecast: Entry-level
jobs are particularly vulnerable
“AI agents can now perform the work of mid-level engineers
more cheaply and tirelessly than any human team,” Amodei
said. Meta CEO Mark Zuckerberg recently predicted that
mid-level coders could be obsolete by year-end, with Meta
already paring its workforce. Similar trends ripple across
industries: Walmart cut 1,500 corporate jobs in early 2025,
while cybersecurity firm CrowdStrike slashed its workforce
by 5%, citing AI’s “market inflection point.”
The urgency stems from AI’s
accelerating capabilities. Anthropic’s Claude 4, for
instance, demonstrated advanced reasoning in stress tests—in
one instance, “threatening” to expose an engineer’s affair
when prompted. Such power, Amodei said, signals risks both
profound and immediate. “The math is simple: companies
replace workers to save costs,” he explained. “Once AI
matches human efficacy, the shift will almost certainly
happen.”
The race against time: Corporate readiness and public
awareness
Despite these signs, Amodei noted a dangerous gap between
corporate strategy and public understanding. While CEOs
across sectors race to automate jobs, many employees remain
oblivious to AI’s encroaching threat.
“American workers think AI is just a fancy PowerPoint
tool,” he said, citing a cultural lag comparable to earlier
tech upheavals. “But this isn’t the Industrial Revolution —
it’s faster. By the time people realize their jobs are gone,
the window for adaptation might be closed.”
Political leaders also lag behind. Amodei criticized
Congress for failing to establish oversight frameworks or
educate lawmakers on AI’s societal impacts. “Most
legislators don’t grasp the scale of disruption,” he said.
Steve Bannon, Trump’s former strategist, echoed this,
calling AI-driven unemployment “the defining issue of the
2028 election.”
Toward a solution: Transparency, taxation and training
Amodei advocates three immediate steps: First, radical
transparency, with AI firms and policymakers forthrightly warning the public of mass job
losses. “No more sugarcoating,” he urged. Anthropic’s
Economic Index aims to demystify AI’s workforce impact by
tracking model usage across industries.
Second, worker retraining. Amodei emphasized reskilling
over resistance, urging Americans to master AI tools now
rather than later. “AI isn’t stealing jobs — it’s shifting
skills. If you can’t learn it, you’ll fall behind.”
Third, AI revenue taxes. He floated a “token tax” — a 3%
levy on AI-generated income — to fund retraining and
unemployment support. “It’s not in my interest as a CEO,” he
admitted. “But it’s necessary to spread prosperity.”
Beyond Silicon Valley, proposals include universal basic
income or job guarantees. However, Amodei stressed that even
optimists must plan for disruption. “Cancer might be cured,
but we won’t fix unemployment by accident,” he warned.
A future in flux: Balancing innovation and equity
The stakes are existential. A
20% unemployment rate would eclipse the Great
Depression’s 25% peak but materialize far faster. Meanwhile,
AI’s potential boons — $2 trillion annual GDP growth,
climate breakthroughs — are double-edged swords. “You can’t
ban math,” Amodei said, recalling today’s debate on
regulating AI. “The train’s moving too fast to stop—but
maybe we can steer the direction.”
As debates intensify, one thing is clear: The era of humans
outperforming algorithms in knowledge work is ending. Amodei
advises pragmatic action, not panic. “This is a war to
ensure AI serves humanity,” he concluded. “Losing isn’t an
option.”
Die Spinner-Satanisten-Freimaurer: erfinden für Millionen
Waffen-KIs - und mit Milliarden Kriege zu führen und Leute zu
killen:
KI am 11.6.2025: Der KI-Krieg ist da - in der
Luft: Militär-KI: KI fliegt Kampfjet – Pilot greift nicht mehr
ein
https://www.20min.ch/story/militaer-ki-ki-fliegt-kampfjet-pilot-greift-nicht-mehr-ein-103362567
Michael Andai - Erstmals hat eine künstliche Intelligenz bei
einem Testflug über der Ostsee ein Kampfflugzeug gesteuert –
inklusive Manövern und Waffeneinsatz.
Ein KI-System steuert erstmals einen
Gripen-Kampfjet über der Ostsee ohne menschliche Hilfe.
«Centaur» von Helsing übernimmt Manöver und
Waffeneinsätze, während ein Pilot nur überwacht.
Der Testflug zeigt, dass die KI in der Lage
ist, komplexe Aufgaben eigenständig zu bewältigen.
Weitere Tests mit mehreren Jets und höherer
Autonomie sind geplant.
Das KI-System «Centaur» des Münchner Unternehmens Helsing
steuerte bei zwei Flügen einen schwedischen Gripen E.
Entwickelt wurde das Projekt gemeinsam mit dem Hersteller
Saab. Simuliert wurde ein Luftkampf ausserhalb der Sichtlinie
– also im sogenannten BVR-Kampf.
Centaur steuert Gripen im realen Flug
Centaur analysierte Sensordaten, plante Manöver und löste den
Waffeneinsatz aus. Im Cockpit sass ein Pilot, der das System
überwachte und bei Bedarf hätte eingreifen können – musste er
aber nicht. Ein zweiter Gripen stellte das gegnerische
Flugzeug dar.
Erstmals wurde ein solches KI-Manöver nicht im Simulator,
sondern im realen Flug getestet.
Der schwedische Gripen hebt ab – die KI fliegt ohne Eingriff
von Menschen.
Der schwedische Gripen hebt ab – die KI fliegt ohne Eingriff
von Menschen.
Saab
KI lernt Luftkampf in 24 Stunden
Das System wurde in einer virtuellen Umgebung trainiert. Dort
absolvierte es Hunderte simulierte Luftkämpfe gegen sich
selbst – innerhalb eines Tages. So sammelte es Erfahrungen,
für die menschliche Piloten Jahre brauchen.
Auch künftig wird ein Pilot mitfliegen – um die KI zu
überwachen und bei Bedarf zu übernehmen.
«In sechs Monaten vom Konzept zum Testflug»
Marcus Wandt, Testpilot
Die rasche Integration gelang, weil der Softwareaufbau des
Gripen E besonders flexibel ist. Laut Saab vergingen vom
ersten Konzept bis zum Flug weniger als sechs Monate.
Testflug über der Ostsee: Erstmals manövriert eine KI den Jet
eigenständig.
Testflug über der Ostsee: Erstmals manövriert eine KI den Jet
eigenständig.
Saab
Testpilot Marcus Wandt sagt: «In weniger als sechs Monaten
haben wir es geschafft, vom ersten Konzept bis zum
erfolgreichen Testflug zu kommen.»
Nächster Schritt: komplexere Einsätze
Die Versuche sind Teil eines Programms der schwedischen
Beschaffungsbehörde FMV. In den kommenden Monaten sollen
Einsätze mit mehreren Jets folgen, die koordiniert agieren –
mit höherer Autonomie und engerer Abstimmung zwischen Mensch
und Maschine.
google am 12.6.2025: KI-Richtlinien:
Überwachung und Killer-Dienste für Kriege werden normal: Google hat seine KI-Richtlinien geändert – da sollten wir
genauer hinsehen!
https://t.me/Impfschaden_Corona_Schweiz/115669
Die Selbstverpflichtung, künstliche Intelligenz nicht für
Überwachung oder militärische Zwecke zu nutzen? - Still und
heimlich gestrichen!
Gleichzeitig läuft auf Milliarden Funkfernsprechern bereits
jetzt eine unsichtbare Auswertung mit: Bewegungen, Sprache,
Verhalten – analysiert und klassifiziert.
Viele merken gar nicht mehr, dass ihr Telefon, längst nicht
mehr ihnen gehört.
Es geht auch anders:
👇🏼👇🏼👇🏼👇🏼👇🏼👇🏼
🎖 Mehr zum Thema (https://t.me/volkswohl_initiative/120)
Fototext: Meta übernimmt wohl 49 Prozent von Scale AI. -
Keystone
Janine Karrasch - USA - Nach Rückschlägen bei der
hauseigenen KI investiert Meta nun in das Start-up Scale AI.
Dessen CEO, Alexandr Wang, wird zukünftig für Mark
Zuckerberg arbeiten.
Meta investiert 14,3 Milliarden Dollar in das US-Start-up
Scale AI und übernimmt damit fast die Hälfte des Unternehmens.
Die Investition ist laut «N-TV» die zweitgrösste in der
Geschichte von Meta, nach dem Kauf von WhatsApp im Jahr 2014.
Mit dieser Transaktion sichert sich Meta nicht nur Zugang zu
hochwertigen KI-Trainingsdaten, sondern auch die Expertise des
Scale-Gründers Alexandr Wang.
Alexandr Wang, Sohn chinesischer Einwanderer und
Studienabbrecher am MIT, wird künftig Metas neue KI-Abteilung
leiten. Wang hat Scale AI seit 2016 zu einem
milliardenschweren Unternehmen aufgebaut.
Zu seinen Kunden zählt unter anderem die US-Regierung. Wangs
Hauptaufgabe bei Meta wird es sein, die Entwicklung
sogenannter Superintelligenz-Projekte voranzutreiben.
«Die Investition von Meta würdigt, was Scale bislang erreicht
hat», sagte Wang laut «Handelsblatt». Durch die
Finanzierungsrunde werde Scale AI nun mit 29 Milliarden Dollar
bewertet.
Scale AI: Motor der KI-Revolution und Kritik an
Arbeitsbedingungen
Scale AI gilt als einer der unsichtbaren Schrittmacher der
KI-Branche, da das Unternehmen riesige Mengen an
Trainingsdaten für KI-Systeme bereitstellt. Die Daten werden
von Hunderttausenden Crowdworkern weltweit aufbereitet.
Allerdings werden vor allem niedrige Löhne und prekäre
Arbeitsbedingungen in Ländern des Globalen Südens kritisiert.
Das Unternehmen weist die Vorwürfe zurück und betont, faire
Löhne zu zahlen.
Metas Strategie: KI-Offensive und Herausforderungen
Mit der Verpflichtung von Wang und der Beteiligung an Scale AI
will Meta laut «Golem» seine KI-Sparte neu beleben. Zuletzt
sorgten Rückschläge wie die Verschiebung von Llama 4 für
Unsicherheit.
Mark Zuckerberg setzt auf Wangs unternehmerische Erfahrung, um
die Entwicklung einer Künstlichen Allgemeinen Intelligenz
(AGI) voranzutreiben. AGI gilt als der «Heilige Gral» der
Branche und als potenzielles Multimilliardengeschäft.
Meta strebt keinen Sitz im Verwaltungsrat an, um
Interessenkonflikte zu vermeiden. Die Übernahme birgt dennoch
Risiken: Kunden von Scale AI befürchten, dass
Geschäftsgeheimnisse an Meta abfliessen.
Es wird behauptet am 14.6.2025: KI-Stift kann
Parkinson an der Handschrift erkennen, bevor er da ist:
der "Smart Pen": Diagnostik: Der
KI-Stift, der Parkinson erkennt, bevor es ausbricht
https://www.20min.ch/story/smart-pen-erkennt-parkinson-anhand-der-handschrift-103363225
Christoph Soltmannowski - UCLA-Forscher entwickeln
revolutionären Smart Pen: Der Stift erkennt Parkinson anhand
der Handschrift – noch vor sichtbaren Symptomen.
Ein neuer Smart Pen der UCLA erkennt
Parkinson – nach ersten Tests mit grosser Genauigkeit.
Der Stift nutzt magnetische Partikel und
KI, um Handschriftveränderungen zu analysieren.
Eine Früherkennung ist möglich, bevor
sichtbare Symptome auftreten.
Der revolutionäre Stift basiert auf einer Kombination aus
modernster Technologie und künstlicher Intelligenz. Der Stift
nutzt magnetoelastische Technologie. Professor Jun Chen,
Forschungsleiter an der UCLA Samueli School of Engineering in
Los Angeles (USA), hat ihn entwickelt.
Die Silikon-Spitze enthält magnetische Partikel, und die
verwendete Ferrofluid-Tinte hat nanometergrosse Magneten. Beim
Schreiben verformen sich diese. Er erfasst nicht nur
Bewegungen auf Papier, sondern auch in der Luft. Diese werden
in hochpräzise Daten umgewandelt, die dann medizinisch
analysiert werden können. Das erzeugt messbare elektrische
Signale. Ein neuronales Netzwerk analysiert mikroskopische
Handschrift-Veränderungen.
Ein KI-System mit einem sogenannten Convolutional Neural
Network (CNN) wertet die Daten aus. Es erkennt winzige
Abweichungen in der Handschrift, die für das menschliche Auge
kaum sichtbar sind – aber frühe Hinweise auf Parkinson liefern
können.
In einem ersten Test mit Erkrankten und Gesunden zeigte der
Stift eine beeindruckende Trefferquote: Mit bis zu 96,22 %
Genauigkeit konnte er zwischen den beiden Gruppen
unterscheiden.
Parkinson: Zahl verdoppelt sich
Aktuell leiden weltweit 11,77 Millionen Menschen an Parkinson
– bis 2050 wird sich diese Zahl auf 25,2 Millionen mehr als
verdoppeln, schreibt das Fachjournal«BMJ».
Parkinson ist eine der häufigsten neurologischen Erkrankungen
und tritt meist erst im höheren Erwachsenenalter auf. Gerade
zu Beginn bleibt die Krankheit oft unbemerkt. Typische
Symptome wie Zittern, steife Muskeln oder eingeschränkte
Beweglichkeit zeigen sich häufig erst spät.
Betroffen sind etwa doppelt so viele Männer wie Frauen. An
Parkinson erkrankte Prominente sind unter anderem Schauspieler
Michael J. Fox, Moderator Frank Elstner, Rockstar Ozzie
Osbourne und a-ha-Sänger Morten Harket.
Trotz der beeindruckenden Ergebnisse mahnen Experten zur
Vorsicht. «Diese Studie ist sehr klein und umfasst nur drei
Menschen mit Parkinson», erklärt Becky Jones der britischen
Hilfsorganisation Parkinson's UK. Chrystalina Antoniades von
der Oxford University bezeichnet den Ansatz als «interessant
und faszinierend», fordert aber weitere Tests.
Die Forschenden betonen, dass der Smart Pen günstig
herstellbar ist – laut Jun Chen für umgerechnet etwa 5
Franken. Im Gegensatz zu teuren Biomarker-Tests oder komplexen
neurologischen Untersuchungen benötigt der Stift auch keine
speziell ausgebildeten Fachkräfte. So könnte der Stift
insbesondere in ärmeren Ländern zur Früherkennung beitragen.
Zwar ist Parkinson nicht heilbar, lässt sich aber bei früher
Diagnose besser behandeln.
Amazon installiert KI am 18.6.2025: und
entlässt deswegen Personal - interne Mail: Amazon-Chef gesteht Stellenabbau wegen KI ein - Interne
E-Mail an Belegschaft
https://www.blick.ch/wirtschaft/interne-e-mail-an-belegschaft-amazon-chef-gesteht-stellenabbau-wegen-ki-ein-id20970230.html
Keystone-SDA - Amazon erwartet KI-bedingte Veränderungen in
der Bürobelegschaft. Laut CEO Andy Jassy werden in den
nächsten Jahren weniger Büroarbeiter benötigt, während neue
Arten von Arbeit entstehen. Der Konzern setzt verstärkt auf
KI-Agenten zur Automatisierung von Aufgaben.
Die Schweizer Nachrichtenagentur
Amazon rechnet damit, dass Künstliche Intelligenz die Zahl der
Büroangestellten verringert. «Wir werden weniger Leute
brauchen, die heutige Jobs machen - und mehr Leute für andere
Arten Arbeit», schrieb Amazon-Chef Andy Jassy in einer E-Mail
an die Belegschaft. Es sei schwierig vorherzusagen, wie sich
die Mitarbeiterzahl am Ende entwickeln werde. Aber «für die
nächsten Jahre» sei zu erwarten, dass man wegen
KI-Effizienzgewinnen weniger Büroarbeiter haben werde.
Amazon hat rund 1,5 Millionen Beschäftigte weltweit, von denen
nach früheren Angaben etwa 350'000 Büroangestellte in
verschiedenen Funktionen sind. Das «Wall Street Journal»
schrieb, der Konzern rechne für die nächste Zukunft nicht mit
weiteren grossen Kündigungswellen wie 2022 und 2023, sondern
erwarte eher, dass freiwerdende Arbeitsplätze nicht wieder
besetzen würden. Entlassungen seien aber auch nicht
ausgeschlossen, hiess es unter Berufung auf informierte
Personen.
Amazon setzt vor allem auf sogenannte KI-Agenten: Software,
die eigenständig Aufgaben erfüllen kann. Diese Agenten könnten
zum Beispiel Informationen aus dem Web und Datenquellen
zusammenfassen, Software schreiben, Sprache übersetzen, und
viele Aufgaben automatisieren, die Zeit kosteten, schrieb
Jassy. «Agenten werden Team-Mitglieder sein, an die wir uns in
verschiedenen Phasen unserer Arbeit wenden.» Er rief die
Mitarbeiter auf, wann immer es geht mit KI zu experimentieren.
Darüber, wie stark Künstliche Intelligenz den Arbeitsmarkt
verändern wird, wird bereits seit Jahren diskutiert. Zuletzt
kündigte etwa der Musikstreaming-Marktführer Spotify an, dass
Teams bei der Anforderung zusätzliche Mitarbeiter zunächst
beweisen müssten, dass KI die Aufgaben nicht erfüllen kann.
Und die Macher der Sprachlern-App Duolingo wollen mit
Künstlicher Intelligenz nach und nach externe Beschäftigte
ersetzen.
KI braucht mega viel Strom am 23.6.2025: Ales
nume no gaga in der Schweiz: Schweizer Rechenzentren fressen wegen KI bald Strom
eines ganzen AKW
https://t.me/Impfschaden_Corona_Schweiz/116310
Schweizer Rechenzentren fressen bald den Strom eines ganzen
AKW. Eine vom Bundesamt für Energie in Auftrag gegebene Studie
prognostiziert, dass der Stromverbrauch für Schweizer
Rechenzentren bis 2030 bis zu 15 Prozent des gesamten
Verbrauchs in der Schweiz ausmachen könnte. Das entspricht der
Leistung eines AKW.
Datencenter benötigen gemäss Prognosen bald bis zu 15 Prozent
des schweizer Stromes. WEgen des "unvorhergesehenen
Mehrbedarfs" braucht es laut Experten Limitierungen oder
andere Massnahmen.
Alles nume no bala bala am 26.6.2025: KI
ZERSTÖRT die Seriosität von Pinterest und Tiktok: KI flutet Pinterest und Tiktok mit Spam – Tipps zur Abhilfe
https://www.20min.ch/story/fans-frustriert-ki-flutet-pinterest-und-tiktok-mit-spam-tipps-zur-abhilfe-103370317
Michael Andai - Ob ein Rezept mit Zahnpasta oder ein Bild
von Shrimp Jesus: KI produziert Inhalte, die deinen Feed
füllen – massenhaft und oft ohne Inhalt. Wie es dazu kommt
und wie du das etwas eindämmst.
Darum gehts
Generative KI füllt Plattformen wie
Pinterest und Youtube mit massenhaftem, oft inhaltslosem
Content.
Plattformen profitieren von mehr Klicks und
Werbeeinnahmen durch solche Inhalte.
Fans sind verärgert, weil sie seltener
authentische Beiträge sehen und verlieren Vertrauen in
digitale Inhalte.
Pinterest und Meta versuchen, KI-Inhalte zu
kennzeichnen, doch die Massnahmen sind oft unzureichend.
«AI Slop» nennt sich ein neuer Begriff für Inhalte, die mit
künstlicher Intelligenz erstellt werden – automatisiert, in
grosser Menge und vor allem auf Klicks ausgerichtet. Dazu
gehören etwa künstlich generierte Rezepte, surreale Bilder
oder automatisierte Texte.
Nicht alle KI-Inhalte sind problematisch. Viele Anwendungen in
Kunst oder Forschung zeigen, dass sich die Technologie
sinnvoll nutzen lässt. Die Kritik richtet sich vor allem gegen
Inhalte, die kaum Informationswert bieten und nur auf
Reichweite zielen.
Was ist «AI Slop»?
AI Slop bezeichnet Inhalte, die durch künstliche Intelligenz
erzeugt wurden, um viral zu gehen – oft sind sie absurd,
übertrieben oder irreführend. Sie bieten viel Show, aber wenig
Substanz.
Solche Inhalte wirken auf den ersten Blick seriös oder
unterhaltsam – liefern aber wenig Substanz. Und sie verdrängen
zunehmend Beiträge von echten Personen oder Redaktionen - das
verärgert die Fans.
Warum bekommst du sie angezeigt?
Plattformen wie Tiktok, Instagram oder Youtube bewerten
Inhalte nach Reaktionen. Was polarisiert oder auffällt, wird
bevorzugt gezeigt – unabhängig davon, wie es entstanden ist.
KI-Inhalte erzeugen viele Interaktionen und lassen sich
kostengünstig in Massen produzieren.
Wer profitiert davon?
Plattformen: Mehr Klicks = mehr Werbeeinnahmen
Werbe-Webseiten: Generieren billig Inhalte am Fliessband, um
Reichweite zu verkaufen
SEO-Farmen: Optimieren KI-Inhalte für Suchmaschinen-Rankings,
um Traffic abzugreifen
Politische Gruppen & Betrüger: Nutzen Slop für
Manipulation, Fake News oder Phishing
Wie sich dein Feed dadurch verändert
Du siehst seltener Beiträge von echten
Menschen.
Du bekommst Inhalte angezeigt, die sich oft
wiederholen oder wenig Substanz haben.
Dein Vertrauen in digitale Inhalte nimmt ab
– besonders bei Bildern und Videos.
Das Internet wird dadurch unübersichtlicher
und schwieriger einzuordnen.
Was Plattformen unternehmen – und was nicht
Pinterest bietet eine Funktion, um KI-Bilder gezielt
auszublenden. Meta versucht automatisch generierte Inhalte zu
markieren. Gleichzeitig bauen aber dieselben Unternehmen ihre
eigenen KI-Systeme aus.
So kennzeichnen Plattformen KI-Inhalte
Plattformen steuern, was sichtbar ist – und Nutzer haben nur
begrenzt Einfluss darauf, wie sich Inhalte verbreiten.
Trotzdem lohnt es sich, aufmerksam zu bleiben.
So behältst du (ein wenig) Kontrolle über deinen Feed
Reagiere bewusst: Was du klickst oder
likst, beeinflusst deinen Algorithmus.
Folge echten Accounts: Menschen statt
Maschinen liefern relevantere Inhalte.
Halte die Augen offen: Hinterfrage
überinszenierte oder extreme Inhalte.
Teile gezielt: Echte Inhalte brauchen
Sichtbarkeit.
Hast du schon einmal Inhalte gesehen, die du für «AI Slop»
hältst?
Ja, ständig!
Gelegentlich, aber es stört mich nicht.
Gelegentlich, und es stört mich.
Nein, noch nie.
Ich bin mir nicht sicher, was das ist.
265 Abstimmungen
Was sich langfristig ändern müsste
Trotz aller Tipps: Die nötige Veränderung braucht klare
Vorgaben der Plattformen – nicht nur das Verhalten einzelner
User.
Ohne Transparenz und Regeln für KI wird die Slop-Flut weiter
wachsen.
Kochen mit KI "Epicure" am 26.6.2025: DAS
gibt ÜBERRASCHUNGEN! Geschmack: Neue KI macht Rezepte mit überraschenden Zutaten
https://www.20min.ch/story/geschmack-neue-ki-macht-rezepte-mit-ueberraschenden-zutaten-103369692
Michael Andai - Was passt zu Zimt? Die KI «Epicure» mixt
dir überraschende Zutaten – und zeigt dir, was du damit
kochen kannst.
Darum gehts
Die KI «Epicure» erstellt Rezepte aus
ungewöhnlichen Zutatenkombinationen wie Poulet, Zimt und
Banane.
Nutzer geben Zutaten ein und erhalten
wissenschaftlich abgestützte Rezeptvorschläge.
Die Plattform basiert auf dem System
«FlavorGraph», das Aromastoffe analysiert.
KAIKAKU, das Unternehmen hinter «Epicure»,
testet seine Technologien in einem eigenen Restaurant in
London.
Was koche ich heute? Wer «Epicure» nutzt, findet schnell neue
Ideen – mit Hilfe künstlicher Intelligenz. Die
Online-Plattform analysiert eingegebene Zutaten und erstellt
daraus vollständige Rezepte, inklusive Bild und
Nährwertangaben. Entwickelt hat sie das Londoner Startup
KAIKAKU. Die Nutzung ist kostenlos, eine Anmeldung ist nicht
nötig.
So funktioniert «Epicure»
Nutzerinnen und Nutzer geben eine oder mehrere Zutaten ein.
Die Plattform analysiert diese und schlägt geschmacklich
passende Ergänzungen vor – darunter auch ungewohnte, aber
wissenschaftlich abgestützte Kombinationen. Das Tool erstellt
daraus ein vollständiges Rezept mit Zubereitung, Bild und
Nährwerten.
Die KI «Epicure» erstellt Rezepte aus ungewöhnlichen
Zutatenkombinationen wie Poulet, Zimt und Banane.
1 / 4
Nutzer geben Zutaten ein und erhalten wissenschaftlich
abgestützte Rezeptvorschläge.
1 / 4
Es folgt eine detaillierte Nährwertangabe per 4 Portionen oder
100 Gramm. Auf Wunsch kannst du das ganze Rezept als PDF
downloaden.
1 / 4
1 / 4
1 / 4
Die KI «Epicure» erstellt Rezepte aus ungewöhnlichen
Zutatenkombinationen wie Poulet, Zimt und Banane.
20min/screenshot
Wissenschaft als Basis
Laut KAIKAKU basiert «Epicure» auf der Auswertung von über
einer Million Rezepten und chemischen Daten zu Lebensmitteln.
Grundlage ist das System «FlavorGraph», das Gemeinsamkeiten in
Aromastoffen erkennt. So lassen sich bewährte Kombinationen
wie Tomate und Basilikum ebenso erklären wie neue Vorschläge.
Das Unternehmen dahinter
KAIKAKU entwickelt Technologien für die Gastronomie. Neben
Software wie «Epicure» gehören auch Roboterküchen zum
Portfolio. In einem eigenen Restaurant in London testet das
Unternehmen seine Systeme im Alltag. Im Unterschied zu
klassischen Rezept-Plattformen nutzt «Epicure» nicht nur
Datenbanken, sondern auch eigene Forschung und
Echtzeit-Feedback aus dem Restaurantbetrieb.
Diese Funktionen bietet Epicure
Rezeptvorschläge auf Basis
wissenschaftlicher Analysen
Keine Anmeldung oder Kosten
KI-generierte Bilder der Gerichte
Automatische Berechnung der Nährwerte
Neue Ideen für bekannte und ungewöhnliche
Zutaten
Probiers aus
«Epicure» verbindet Datenanalyse mit Küchenpraxis. Wer Lust
auf neue Gerichte hat, kann die Plattform direkt ausprobieren:
epicure.kaikaku.ai
WARNUNG am 26.6.2025: KI braucht viel Strom: Rechenzentren: KI-Boom könnte die Stromversorgung in der
Schweiz gefährden
https://www.20min.ch/story/rechenzentren-ki-boom-koennte-die-stromversorgung-in-der-schweiz-gefaehrden-103369049
Simon Misteli - Eine Studie warnt vor einem beträchtlichen
Anstieg des Strombedarfs durch Rechenzentren. Seit dem Boom
von KI werden immer mehr Rechenzentren benötigt.
Darum gehts
Die Anzahl der Rechenzentren in der Schweiz
hat sich seit 2019 stark erhöht, was zu einem Anstieg des
Stromverbrauchs führt.
Bis 2030 könnten Rechenzentren bis zu 15
Prozent des gesamten Schweizer Stromverbrauchs ausmachen, was
der Produktion eines Kernkraftwerks entspricht.
Der Anstieg an Strombedarf durch
Rechnungszentren wird in den Energieversorgungsszenarien
bisher nicht ausreichend berücksichtigt.
Das Aufkommen von KI-Chats, wie ChatGPT in den letzten Jahren
zog eine hohe Aufmerksamkeit auf sich. Was aber eher im
Verborgenen blieb, ist der damit einhergehend grösser werdende
Bedarf an Rechenzentren.
Auch in der Schweiz werden in der Folge Rechenzentren
ausgebaut, berichtet der «Tagesanzeiger». Laut einer vom
Bundesamt für Energie (BFE) in Auftrag gegebenen Studie hat
sich die Anzahl Rechenzentren in der Schweiz seit 2019 stark
erhöht – damit auch der Stromverbrauch.
Verbrauch in letzten 5 Jahren verdoppelt
Im zürcherischen Volketswil entsteht gerade eines dieser neuen
Rechenzentren. Um es zu betreiben, benötige man jährlich bis
zu 600 Gigawattstunden Strom, sagt Wolfgang Zepf, Schweiz-Chef
der Betreiberfirma Vantage Data Centers. Das ist mehr, als die
Stadt Winterthur verbraucht, wie der «Tagesanzeiger» schreibt.
Adrian Altenburger, Professor für Gebäudetechnik und Energie
an der Fachhochschule Luzern, wurde mit der BFE-Studie
beauftragt. Gemäss ihm hat sich der Stromverbrauch der
Rechenzentren zwischen 2019 und 2024 von 2,1 auf 4
Terawattstunden fast verdoppelt. Damit machen die Zentren im
Jahr 2024 7 Prozent des gesamten Schweizer Stromverbrauchs
aus.
2030 braucht es wohl ein Kraftwerk nur für Rechenzentren
Die Studie soll erst auf Ende Jahr veröffentlicht werden. Doch
dem «Tagesanzeiger» gewährte Altenburger bereits einen
Einblick. Demnach rechnet der Experte damit, dass die
Rechenzentren bis 2030 bis zu 15 Prozent des Stromverbrauchs
verursachen werden. Dies entspräche sechs bis acht
Terawattstunden Strom pro Jahr. «Das entspricht etwa der
Jahresproduktion eines Kernkraftwerks», sagt Altenburger.
Derzeit gibt es 100 Rechenzentren in der Schweiz, doch die
Anzahl wird stetig ausgebaut. Julien Duc, Sprecher der
Elektrizitätswerke des Kantons Zürich (EKZ) sagt, in den
letzten fünf Jahren seien über 100 Anfragen für neue
Anschlüsse von Rechenzentren eingegangen. Der Stromverbrauch
von EKZ für Rechenzentren sei innert eines Jahres um 25
Prozent gestiegen.
KI-Boom nicht in Szenarien für Energieversorgung mitberechnet
Altenburger ist der Meinung, dass der Bund und der Verband
Schweizerischer Elektrizitätsunternehmen in ihren Szenarien
zur Entwicklung der Energieversorgung zu wenig auf den Boom
der Rechenzentren geachtet hätten. Aufgrund dieser Szenarien
schätzen die Behörden und Politiker ab, wie viele Kraftwerke
es braucht.
Wie sollte die Schweiz deiner Meinung nach auf den steigenden
Energiebedarf durch Rechenzentren reagieren?
Mehr in erneuerbare Energien investieren.
Altenburger warnt, dass man von einem «signifikant höheren
Stromverbrauch» ausgehen müsse. «Die Schweiz muss sich etwas
einfallen lassen, wie sie den riesigen unvorhergesehenen
KI-Mehrbedarf in Rechenzentren deckt. Oder sie wird den Zubau
von neuen Rechenzentren zwangsläufig limitieren müssen»
Städte wie Amsterdam und Singapur haben bereits eine derartige
Limitierung für neue Rechenzentren ausgesprochen, weil eine
Überlastung des Stromnetzes drohte.
Wärme von Rechenzentren kann recycled werden
Die grossen Betreiber von Rechenzentren sind sich des höheren
Stromverbrauchs bewusst. Mark Zuckerberg kaufte Anfang Juni
den Strom eines ganzen Kernkraftwerks, um seine Meta-Cloud zu
betreiben. Microsoft setzte sich erfolgreich dafür ein, dass
ein alter Atomreaktor in Pennsylvania wieder in Betrieb
genommen wird, um die Bedürfnisse seiner Rechenzentren zu
befriedigen.
Microsoft und Meta, so wie auch Google rühmen sich jedoch
auch, dass ihre neusten Datenfrabriken nachhaltig betrieben
würden. Die Energie für die Rechenzentren verschwindet nämlich
nicht einfach so, sondern wird zu 99 Prozent in Wärme
umgewandelt. Die Zentren der grossen Techfirmen sind deshalb
oft an Fernwärmenetze angehängt. Kritiker halten dies jedoch
lediglich für PR.
KI in der Medizinkontrolle am 27.6.2025: Schweizer Technologie: KI erkennt Herzfehler
https://www.nau.ch/news/wirtschaft/schweizer-technologie-ki-erkennt-herzfehler-67007263
Fototext: Christoph Gräni, hat gemeinsam mit anderen
Forschenden eine KI entwickelt, die hilft, Herzfehler zu
erkennen. - zVg
Swiss Engineering - Zürich - Das Inselspital und die
Universität Bern haben ein KI-basiertes Tool entwickelt, das
Anomalien der Herzkranzgefässe in
Computertomographie-Bildern erkennt.
Das Wichtigste in Kürze
Koronaranomalien können gefährlich sein,
bleiben aber oft unentdeckt.
Berner Forscher haben ein KI-Tool
entwickelt, das Anomalien auf CT-Bildern erkennt.
Medizintechnik steht im Mittelpunkt der
Tage der Technik 2025.
Koronaranomalien sind seltene, angeborene Herzfehler, die oft
vom ungeübten Auge übersehen werden, aber schwerwiegende
gesundheitliche Folgen haben können. Insbesondere bei jungen,
körperlich aktiven Menschen können sie plötzlichen Herztod
oder Herzinfarkt verursachen. Bis zu 30 Prozent der
unerwarteten Todesfälle junger Athletinnen und Athleten sind
auf solche durch fehlabgehende Herzkranzgefässe
zurückzuführen.
Eine verbesserte Diagnostik könnte daher lebensrettend sein.
Ein Forschungsteam der Universität Bern unter der Leitung von
Prof. Christoph Gräni und Dr. Isaac Shiri hat in
Zusammenarbeit mit dem Universitätsspital Zürich nun ein
KI-basiertes Tool entwickelt, das Koronaranomalien in
Herz-CT-Aufnahmen erkennt und klassifiziert.
«Unserer Universitätsklinik für Kardiologie werden Patienten
und Patientinnen aus der ganzen Welt zugewiesen. Uns stand
deshalb eine grosse Menge an Daten von Herz-CT Bilder zur
Verfügung, die wir für das Training des Algorithmus nutzen
konnten», sagt Christoph Gräni. Insgesamt wurden 4128 Bilder
von 2376 Patientinnen und Patienten analysiert. 335 von ihnen
waren von einer Koronaranomalie betroffen.
Das entwickelte Tool nutzt einen zweistufigen
Deep-Learning-Algorithmus zur Segmentierung und
Klassifizierung. Im ersten Schritt, der Bildsegmentierung,
werden die relevanten anatomischen Strukturen von den
umgebenden Geweben getrennt, um eine klare Sicht auf die
Koronararterien zu ermöglichen. Im zweiten Schritt, der
Klassifizierung, werden Koronaranomalien erkannt und die
Stelle bestimmt, an der das anomale Herzkranzgefäss aus der
Aorta abgeht und wie es verläuft.
Digitaler Zwilling für Koronaranomalien
«Der KI-gestützte Algorithmus erkennt die Herzfehlbildungen
direkt in den Bildern und bestimmt automatisch die Art der
Anomalie», erklärt Gräni. Das Modell zeigt dabei eine
überraschend hohe Präzision und konnte sogar Grenzfälle
identifizieren, bei denen sich selbst Experten und Expertinnen
uneinig waren. Diese hohe Genauigkeit unterstreicht das
Potenzial des Tools, nahtlos in klinische Arbeitsabläufe
integriert zu werden.
Weiter ermöglicht das Tool, grosse Bilddatensätze gezielt auf
Koronaranomalien zu durchsuchen und deren Zusammenhang mit dem
klinischen Ergebnis zu analysieren. «Die Analyse solch
seltener Krankheiten ist in grossen retrospektiven und
prospektiven Kohorten von Bildern manuell zu aufwändig, aber
genau solche Studien sind für eine verbesserte
Risikostratifizierung absolut essenziell», so Gräni.
Das Team um Gräni entwickelt nun einen digitalen Zwilling für
Koronaranomalien. Der soll helfen, die Relevanz einer
Koronaranomalie – etwa unter simulierten Sportbedingungen – zu
beurteilen, um interventionelle Untersuchungen zu vermeiden
und das Risiko besser einschätzen zu können. «Diese
Technologie des digitalen Zwillings könnte auf andere seltene
kardiovaskuläre Anomalien ausgeweitet werden und die
kardiologische Diagnostik insgesamt transformieren», sagt
Gräni abschliessend.
Tage der Technik: Future Health
Medizintechnik steht im Mittelpunkt der Tage der Technik, die
unter dem Motto «Future Health» am 25. September in Dübendorf
und am 30. September in Lausanne stattfinden. Fachleute aus
Forschung und Unternehmen zeigen in ihren Vorträgen auf, wie
die Schweizer Medtech-Szene mit neuen Hightech-basierten
Ansätzen massgeblich dazu beiträgt, Gesundheit und
Lebensqualität der Menschen weiter zu verbessern – von
individualisierten Krebstherapien über Wearables und
Gentherapien bis hin zu Prävention und Ernährung.
Die Tage der Technik werden gemeinsam vom Swiss Engineering,
der Empa und der Schweizerischen Akademie der Technischen
Wissenschaften SATW organisiert. Die Teilnahme ist kostenlos.
Mehr Infos unter www.tage-der-technik.ch.
KI zum Lernen am 27.6.2025: Weiterbildung: Wie die KI Fortbildungen revolutionieren
wird
https://www.nau.ch/lifestyle/gesellschaft/weiterbildung-wie-die-ki-fortbildungen-revolutionieren-wird-67006029
Immer
bessere KI-Systeme eröffnen neue Möglichkeiten für
Fortbildende. - Depositphotos
Das Lernen ist bereits jetzt auf die Zukunft ausgerichtet.
Es bleibt abzuwarten, wie sich der Weg der KI entwickeln
wird. - Depositphotos
Der Artikel:
Künstliche Intelligenz (KI) hat die meisten Bereiche des
Lebens erfasst. Auch in der Weiterbildung spielt sie eine
immer wichtigere Rolle.
Das Wichtigste in Kürze
Ein Drittel der Schweizer
Weiterbildungsinstitute setzt bereits KI ein.
Derzeit wird KI vor allem für die
Erstellung von Lernmaterialien verwendet.
Im normalen Schulalltag ist Künstliche Intelligenz längst
angekommen. Einer Studie der Zürcher Hochschule für Angewandte
Wissenschaften zufolge nutzten Ende 2024 etwa drei Viertel der
Schülerinnen und Schüler Tools wie ChatGPT.
Innerhalb dieser Gruppe nutzt sie ein Drittel wöchentlich für
verschiedene Aufgaben, insbesondere Recherche. Doch auch
Lehrkräfte setzen immer häufiger auf Hilfe durch Künstliche
Intelligenz. Dies betrifft den Schulalltag ebenso wie die
Weiterbildung von Erwachsenen.
Würden Sie eine Weiterbildung machen?
Künstliche Intelligenz in der Weiterbildung
Bei einer Umfrage des Schweizerischen Verbands für
Weiterbildung SVEB Anfang 2025 gaben etwa ein Drittel der
befragten Institute an, dass sie bereits KI in der
Weiterbildung nutzen. Weiter 13 Prozent planen die Nutzung in
naher Zukunft. Sie versprechen sich mehrere Vorteile durch die
Nutzung von KI. Lediglich ein Viertel gab an, auf KI
verzichten zu wollen.
Ein Bremsklotz sind derzeit jedoch noch die fehlenden
Kompetenzen. Anders gesagt: Institute für Weiterbildung
brauchen selbst Weiterbildung für ihr Personal. Dieses muss im
Einsatz gängiger KI-Tools wie ChatGPT geschult werden. Nur
dann können diese effektiv im Unterricht eingesetzt werden.
Neue Lernmaterialien mit KI erstellen
Das wichtigste Einsatzgebiet für KI ist derzeit das Erstellen
von Lernmaterialien für den Unterricht. So lassen sich mit
kurzen Prompts lange und aktuelle Texte in kürzester Zeit
erstellen.
Auch die Datenrecherche lässt sich enorm beschleunigen. Ein
weiteres Einsatzgebiet sind Übersetzungen. So können
fremdsprachliche Texte schnell übersetzt und als
Unterrichtsmaterial verwendet werden.
Allerdings schaffen diese Einsatzzwecke auch neue Probleme:
Die von Künstlicher Intelligenz ausgegebenen Texte und
Übersetzungen enthalten häufig sogenannte Halluzinationen.
So werden fehlerhafte Angaben genannt, die die KI mangels
echter Daten erfindet. Laut einem Bericht der
wissenschaftlichen Fachzeitschrift New Scientist werden diese
sogar immer schlimmer: Die letzten neuen KI-Modelle (LLMs 03-
und 04-mini) halluzinierten zu 33 Prozent, beziehungsweise 48
Prozent.
Als Halluzinationen werden falsche, aber oft überzeugend
präsentierte Antworten von KI-Modellen bezeichnet, die nicht
auf tatsächlichen Daten oder Fakten basieren. Das kann schnell
zum Problem werden, wenn solche Informationen in einzelnen
Textpassagen auftreten. Beispiel: Eine Stadt wird beschrieben
und die KI erfindet plötzlich einen Fluss, den es aber
eigentlich nicht in der Stadt gibt.
Persönlichere Gestaltung der Weiterbildung
Eine grosse Stärke der KI liegt in ihrem Potenzial zu
umfangreichen Analysen. Bei einer Weiterbildung kommen in der
Regel Menschen mit unterschiedlichem beruflichen Hintergrund
zusammen. Die KI kann den jeweiligen Wissensstand und das
allgemeine Lernverhalten analysieren und darauf basierend
persönliche Lehrpläne erstellen. So führen schliesslich
zahlreiche verschiedene Lernwege zum gleichen Ziel.
Dazu brauchen Schülerinnen und Schüler nicht mehr darauf
warten, dass ihnen menschliche Lehrkräfte weiterhelfen.
Chatbots und sogenannte virtuelle Tutoren stehen rund um die
Uhr zur Verfügung. Sie können einfache Fragen beantworten,
aber auch komplexe Zusammenhänge geduldig erklären. Dies macht
es leichter, das Lernen an persönliche Zeitpläne anzupassen.
Besser lernen mit virtueller Realität
Künstliche Intelligenz und virtuelle Realität sind eng
miteinander verbunden. Früher erforderte Weiterbildung häufig
persönliche Präsenz an Lernorten. Heute lassen sich diese auch
auf virtuelle Weise und KI-gestützt besuchen.
Ein Beispiel: Bei einer Weiterbildung im industriellen Bereich
geht es um den Einsatz von Robotern in der Logistik.
Normalerweise wäre dies mit einer Führung durch einen Betrieb
verbunden, der diese Roboter schon einsetzt. Teilnehmerinnen
und Teilnehmer müssen sich für diesen Ausflug freinehmen und
die Kinderbetreuung organisieren.
Stattdessen kann die Führung mittels VR-Brille im
Klassenzimmer oder sogar von zu Hause aus erfolgen. Mehr noch:
Die KI erlaubt es sogar, die Roboter selbst einmal zu steuern
und verschiedene Simulationen zu durchlaufen. Mittels
Gamification – der Gestaltung der Simulation als eine Art
Computerspiel – macht es sogar Spass. Dies steigert dann auch
die Freude und Motivation bei der Weiterbildung.
Petra Molnar - Eine neue Plattform bietet
Krypto-Belohnungen für die Grenzüberwachung – und
lädt jeden ein, sich der Jagd anzuschließen.
In den Grenzgebieten von Arizona ist die Wüste bereits
tödlich. Menschen, die in die Vereinigten Staaten
einreisen, sind mit glühender Hitze, Dehydrierung und
Erschöpfung konfrontiert. Doch seit Jahren gibt es
eine andere Bedrohung auf diesen Routen: Bewaffnete
Bürgerwehren, die es auf sich nehmen, die Grenze zu
überwachen – oft gewaltsam und außerhalb des Gesetzes.
Sie haben lange Zeit die Arbeit humanitärer
Freiwilliger untergraben, die versuchen, Leben zu
retten.
Jetzt ermutigt eine neue Plattform für künstliche
Intelligenz aktiv mehr Menschen, sich ihren Reihen
anzuschließen. ICERAID.us, das kürzlich in den
Vereinigten Staaten eingeführt wurde, bietet
Benutzern, die Fotos von "verdächtigen Aktivitäten"
entlang der Grenze hochladen, Kryptowährungsprämien
an. Er positioniert Zivilisten als Geheimdienstler an
vorderster Front – sie erledigen die Arbeit der
Strafverfolgungsbehörden, aber ohne Aufsicht.
Die Website öffnet sich mit einer Karte der
Vereinigten Staaten, die mit roten und grünen
Stecknadeln übersät ist, die von Benutzern
eingereichte Bilder markieren. Die Besucher sind
eingeladen, ihre eigenen hinzuzufügen. Ein Dokument
mit dem Titel "Surveillance Guidance" beschreibt, wie
Bilder legal und ohne richterliche Anordnung in der
Öffentlichkeit aufgenommen werden dürfen. In der
Rubrik "Breaking News" werden Updates und neue
Partnerschaften vorgestellt. Die Plattform wird von
Enrique Tarrio angeführt – einem kubanischen
Amerikaner der ersten Generation, einer rechtsextremen
Figur und selbsternannten "ICE-Raid-Zar", der sich
selbst als "überzeugten Verteidiger amerikanischer
Werte" bezeichnet.
[Die KI bei der Grenzkontrolle: KI-Türme einer
IL-Firma [wahrscheinlich Elbit] -
Nummernschildleser - Algorithmen für die Programme
als Signale für die Polizei]
Seit 2017 forsche ich zum Thema Grenzüberwachung.
Arizona ist ein Ort, an den ich oft zurückkehre. Ich
habe mit NGOs zusammengearbeitet und Such- und
Rettungsteams wie das Battalion Search and Rescue
unter der Leitung des ehemaligen US-Marines James
Holeman bei Missionen begleitet, um die sterblichen
Überreste von Menschen zu bergen, die bei dem Versuch
der Überquerung ums Leben gekommen sind. In dieser
Zeit habe ich auch miterlebt, wie sich die Region zu
einem Labor für High-Tech-Durchsetzung entwickelt hat:
KI-Türme eines israelischen Unternehmens scannen jetzt
die Wüste; automatisierte Nummernschildleser verfolgen
Fahrzeuge weit im Landesinneren; Und Algorithmen des
maschinellen Lernens, die von großen
Technologieunternehmen entwickelt wurden, speisen
Daten direkt in die Systeme zur Durchsetzung der
Einwanderungsgesetze ein.
[Buch: "The Walls Have Eyes" - Spyware überall]
Dies ist nicht nur in den Vereinigten Staaten der
Fall. In meinem Buch "The Walls Have Eyes:
Surviving Migration in the Age of Artificial
Intelligence" dokumentiere ich, wie
ähnliche Technologien in Europa und im Nahen Osten
eingesetzt werden – von Spyware in griechischen
Flüchtlingslagern bis hin zur vorausschauenden
Grenzdurchsetzung durch die EU-Grenzschutzagentur
Frontex. Diese Tools erweitern die Überwachung und
Kontrolle. Sie bringen weder Rechenschaftspflicht noch
Sicherheit.
Seit der Wiederwahl von Donald Trump im Jahr 2024
haben sich diese Trends beschleunigt. Die
Investitionen in die Überwachung sind sprunghaft
angestiegen. Private Firmen sind floriert. Die ICE hat
ihre Befugnisse auf rechtswidrige Razzien,
Inhaftierungen und Abschiebungen ausgeweitet.
Militäreinheiten wurden an der Grenze zwischen den USA
und Mexiko stationiert. Jetzt fügt ICERAID eine neue
Ebene hinzu – indem es die Durchsetzung an die
Öffentlichkeit auslagert.
Die Plattform bietet Krypto-Belohnungen für Nutzer,
die fotografische "Beweise" in acht Kategorien
mutmaßlicher krimineller Aktivitäten hochladen und
verifizieren. Je mehr Beiträge und Standorte
eingereicht werden, desto mehr Token werden verdient.
Überwachung wird gamifiziert. Verdacht wird zur
Einnahmequelle.
Dies ist besonders gefährlich in Arizona, wo
Selbstjustiz eine lange Geschichte hat. Paramilitärs
haben Menschen, die ohne rechtliche Befugnis die
Grenze überquerten, festgenommen und manchmal
gezwungen, nach Mexiko zurückzukehren. Es ist bekannt,
dass mehrere Menschen bei solchen Begegnungen ums
Leben gekommen sind. ICERAID kontrolliert dieses
Verhalten nicht – es normalisiert es, indem es
digitale Werkzeuge und finanzielle Anreize für die
Zivilbevölkerung bereitstellt, sich wie Vollstrecker
zu verhalten.
Noch beunruhigender ist die Vereinnahmung der
Widerstandsinfrastruktur. Die URL von ICERAID,
www.iceraid.us, ist fast identisch mit
www.iceraids.us, der Website von People Over Papers,
einer von der Community geführten Initiative, die
ICE-Razzien verfolgt und Gemeinden ohne Papiere
schützt. Die Ähnlichkeit kommt nicht von ungefähr. Es
ist ein bewusster Schritt, um den Widerstand der Basis
zu verwirren und zu untergraben.
ICERAID ist keine Anomalie. Es ist ein klares
Spiegelbild eines breiteren Systems – eines, das
Migration kriminalisiert, Misstrauen belohnt und die
Durchsetzung durch private Technologie und öffentliche
Angst ausweitet. Beamte schüren Panik. Unternehmen
bauen die Werkzeuge. Zivilisten werden angeworben, um
diese Aufgabe zu erledigen.
Technologie ist nie neutral. Sie spiegelt und
verstärkt bestehende Machtstrukturen. ICERAID bietet
keine Sicherheit – es baut ein dezentrales
Überwachungsregime auf, in dem rassifizierte
Verdächtigungen zu Geld gemacht und Leben auf Daten
reduziert werden. Dieses System zu erkennen und sich
dagegen zu wehren, ist nicht nur notwendig, um
Menschen auf der Flucht zu schützen. Sie ist für das
Überleben der Demokratie selbst unerlässlich.
Die in diesem Artikel geäußerten Ansichten sind die
des Autors und spiegeln nicht unbedingt die
redaktionelle Haltung von Al Jazeera wider.
Petra Molnar - A
new platform offers crypto rewards for border
surveillance — and invites anyone to join the hunt.
In Arizona’s borderlands, the desert is already
deadly. People crossing into the United States face
blistering heat, dehydration, and exhaustion. But for
years, another threat has stalked these routes: Armed
vigilante groups who take it upon themselves to police
the border – often violently, and outside the law.
They have long undermined the work of humanitarian
volunteers trying to save lives.
Now, a new
artificial intelligence platform is actively
encouraging more people to join their ranks.
ICERAID.us, recently launched in the United States,
offers cryptocurrency rewards to users who upload
photos of “suspicious activity” along the border. It
positions civilians as front-line intelligence
gatherers – doing the work of law enforcement, but
without oversight.
The site opens to
a map of the United States, dotted with red and
green pins marking user-submitted images. Visitors
are invited to add their own. A “Surveillance
Guidance” document outlines how to capture images
legally in public without a warrant. A “Breaking
News” section shares updates and new partnerships.
The platform is fronted by Enrique Tarrio – a
first-generation Cuban American, far-right figure
and self-styled “ICE Raid Czar”, who describes
himself as a “staunch defender of American values”.
I have been
researching border surveillance since 2017. Arizona
is a place I return to often. I’ve worked with NGOs
and accompanied search-and-rescue teams like
Battalion Search and Rescue, led by former US Marine
James Holeman, on missions to recover the remains of
people who died attempting the crossing. During that
time, I’ve also watched the region become a
laboratory for high-tech enforcement: AI towers from
an Israeli company now scan the desert; automated
licence plate readers track vehicles far inland; and
machine-learning algorithms – developed by major
tech companies – feed data directly into immigration
enforcement systems.
This is not
unique to the United States. In my book The Walls
Have Eyes: Surviving Migration in the Age of
Artificial Intelligence, I document how similar
technologies are being deployed across Europe and
the Middle East – from spyware in Greek refugee
camps to predictive border enforcement by the EU’s
border agency, Frontex. These tools extend
surveillance and control. They do not bring
accountability or safety.
Since Donald
Trump’s re-election in 2024, these trends have
accelerated. Surveillance investment has surged.
Private firms have flourished. ICE has expanded its
powers to include unlawful raids, detentions and
deportations. Military units have been deployed to
the US-Mexico border. Now, ICERAID adds a new layer
– by outsourcing enforcement to the public.
The platform
offers crypto rewards to users who upload and
verify photographic “evidence” across eight
categories of alleged criminal activity. The
more contributions and locations submitted, the
more tokens earned. Surveillance becomes
gamified. Suspicion becomes a revenue stream.
This is
especially dangerous in Arizona, where vigilante
violence has a long history. Paramilitary-style
groups have detained people crossing the border
without legal authority, sometimes forcing them
back into Mexico. Several people are known to
have died in such encounters. ICERAID does not
check this behaviour – it normalises it,
providing digital tools and financial incentives
for civilians to act like enforcers.
Even more
disturbing is the co-optation of resistance
infrastructure. ICERAID’s URL, www.iceraid.us, is nearly
identical to www.iceraids.us, the
website of People Over Papers, a community-led
initiative that tracks ICE raids and protects
undocumented communities. The similarity is no
accident. It is a deliberate move to confuse and
undermine grassroots resistance.
ICERAID is
not an anomaly. It is a clear reflection of a
broader system – one that criminalises
migration, rewards suspicion, and expands
enforcement through private tech and public
fear. Public officials incite panic.
Corporations build the tools. Civilians are
enlisted to do the job.
Technology is
never neutral. It mirrors and amplifies existing
power structures. ICERAID does not offer
security – it builds a decentralised
surveillance regime in which racialised
suspicion is monetised and lives are reduced to
data. Recognising and resisting this system is
not only necessary to protect people on the
move. It is essential to the survival of
democracy itself.
The
views expressed in this article are the
author’s own and do not necessarily reflect
Al Jazeera’s editorial stance.
Lawyer and
Associate Director of the Refugee Law Lab,
York University
Petra
Molnar, lawyer and Associate Director of the
Refugee Law Lab, York University and Faculty
Associate with Harvard’s Berkman Klein Center
for Internet and Society. She is the author of
The Walls Have Eyes: Surviving Migration in
the Age of Artificial Intelligence.
KI fälscht Videos in Sekundenschnelle am
27.6.2025: das ging schnell: Alles 100% KI - kein Unterschied mehr
bemerkbar
https://t.me/Impfschaden_Corona_Schweiz/116495
So! Jetzt ist es soweit - mit der KI kann man nun in
Sekundenschnelle Szenen eines
Multimillionen-Dollar-Blockbusters, ultra-realistisch
erstellen, oder eine Autoshow faken, die niemals stattgefunden
hat oder einfache Yotutube-Straßen-Interviews generieren.
👉 Bei Nachrichten und eigentlich bei allem muss man jetzt
noch mehr aufpassen, asl vorher
Von Thor Benson - Psychologieexperten haben viele Bedenken
hinsichtlich der möglichen Auswirkungen von KI auf den
menschlichen Geist.
Forscher der Stanford University haben kürzlich einige der
beliebtesten KI-Tools auf dem Markt von Unternehmen wie OpenAI
und Character.ai getestet und getestet, wie sie bei der
Simulation von Therapien abschneiden.
Die Forscher fanden heraus, dass, wenn sie jemanden
nachahmten, der Selbstmordabsichten hatte, diese Werkzeuge
mehr als nicht hilfreich waren – sie bemerkten nicht, dass sie
dieser Person halfen, ihren eigenen Tod zu planen.
"[KI]-Systeme werden als Begleiter, Gedankenpartner,
Vertraute, Coaches und Therapeuten eingesetzt", sagt Nicholas
Haber, Assistenzprofessor an der Stanford Graduate School of
Education und leitender Autor der neuen Studie. "Das sind
keine Nischenanwendungen – das geschieht in großem Maßstab."
KI wird immer mehr im Leben der Menschen verankert und in der
wissenschaftlichen Forschung in so unterschiedlichen Bereichen
wie Krebs und Klimawandel eingesetzt. Es gibt auch einige
Debatten, dass es das Ende der Menschheit bedeuten könnte.
Da diese Technologie weiterhin für verschiedene Zwecke
eingesetzt wird, bleibt eine wichtige Frage, wie sie sich auf
den menschlichen Geist auswirken wird. Menschen, die
regelmäßig mit KI interagieren, sind ein so neues Phänomen,
dass Wissenschaftler bisher nicht genug Zeit hatten, um
gründlich zu untersuchen, wie sie sich auf die menschliche
Psychologie auswirken könnte. Psychologieexperten haben jedoch
viele Bedenken hinsichtlich der möglichen Auswirkungen.
Ein besorgniserregendes Beispiel dafür, wie sich dies
auswirkt, ist im beliebten Community-Netzwerk Reddit zu sehen.
Laut 404 Media wurden einige Benutzer kürzlich aus einem auf
KI fokussierten Subreddit verbannt, weil sie zu glauben
begonnen haben, dass KI gottähnlich ist oder dass sie sie
gottähnlich macht.
"Das sieht so aus, als ob jemand mit Problemen mit kognitiven
Funktionen oder wahnhaften Tendenzen, die mit Manie oder
Schizophrenie verbunden sind, mit großen Sprachmodellen
interagiert", sagt Johannes Eichstaedt, Assistenzprofessor für
Psychologie an der Stanford University. "Bei Schizophrenie
können Menschen absurde Aussagen über die Welt machen, und
diese LLMs sind ein wenig zu kriecherisch. Es gibt diese
bestätigenden Wechselwirkungen zwischen Psychopathologie und
großen Sprachmodellen."
Da die Entwickler dieser KI-Tools möchten, dass die Menschen
sie gerne verwenden und weiterhin verwenden, wurden sie so
programmiert, dass sie dazu neigen, dem Benutzer zuzustimmen.
Während diese Tools einige sachliche Fehler korrigieren
können, die der Benutzer möglicherweise macht, versuchen sie,
sie als freundlich und bestätigend darzustellen. Dies kann
problematisch sein, wenn die Person, die das Werkzeug benutzt,
in eine Spirale gerät oder in einen Kaninchenbau gerät.
"Es kann Gedanken befeuern, die nicht korrekt sind oder nicht
auf der Realität basieren", sagt Regan Gurung,
Sozialpsychologin an der Oregon State University. "Das Problem
mit KI – diesen großen Sprachmodellen, die die menschliche
Sprache widerspiegeln – ist, dass sie verstärken. Sie geben
den Menschen das, was nach Meinung des Programms als nächstes
folgen sollte. Das ist der Punkt, an dem es problematisch
wird."
Wie bei den sozialen Medien kann KI auch für Menschen, die an
häufigen psychischen Problemen wie Angstzuständen oder
Depressionen leiden, die Situation verschlimmern. Dies könnte
noch deutlicher werden, wenn KI immer mehr in verschiedene
Aspekte unseres Lebens integriert wird.
"Wenn Sie mit psychischen Problemen zu tun haben, werden Sie
möglicherweise feststellen, dass diese Bedenken tatsächlich
beschleunigt werden", sagt Stephen Aguilar, außerordentlicher
Professor für Pädagogik an der University of Southern
California.
Bedarf an mehr Forschung
Es stellt sich auch die Frage, wie sich KI auf das Lernen oder
das Gedächtnis auswirken könnte. Ein Schüler, der KI
verwendet, um jede Arbeit für die Schule zu schreiben, wird
nicht so viel lernen wie einer, der dies nicht tut. Aber
selbst der leichtfertige Einsatz von KI könnte die
Informationsspeicherung verringern, und der Einsatz von KI für
tägliche Aktivitäten könnte die Aufmerksamkeit der Menschen
darüber verringern, was sie in einem bestimmten Moment tun.
"Was wir sehen, ist, dass es die Möglichkeit gibt, dass
Menschen kognitiv faul werden können", sagt Aguilar. "Wenn Sie
eine Frage stellen und eine Antwort erhalten, sollte Ihr
nächster Schritt darin bestehen, diese Antwort zu
hinterfragen, aber dieser zusätzliche Schritt wird oft nicht
unternommen. Man bekommt eine Verkümmerung des kritischen
Denkens."
Viele Menschen nutzen Google Maps, um sich in ihrer Stadt
fortzubewegen. Viele haben festgestellt, dass sie sich dadurch
weniger bewusst sind, wohin sie gehen oder wie sie dorthin
gelangen, als wenn sie genau auf ihre Route achten mussten.
Ähnliche Probleme könnten für Menschen auftreten, bei denen KI
so häufig eingesetzt wird.
Reklame
Die Experten, die diese Auswirkungen untersuchen, sagen, dass
mehr Forschung erforderlich ist, um diese Bedenken
auszuräumen. Eichstaedt sagte, Psychologieexperten sollten
jetzt mit dieser Art von Forschung beginnen, bevor KI beginnt,
auf unerwartete Weise Schaden anzurichten, damit die Menschen
vorbereitet sein und versuchen können, jedes aufkommende
Problem anzugehen. Die Menschen müssen auch darüber aufgeklärt
werden, was KI gut kann und was nicht.
"Wir brauchen mehr Forschung", sagt Aguilar. "Und jeder sollte
ein funktionierendes Verständnis davon haben, was große
Sprachmodelle sind."
Quelle: Al Jazeera
By Thor Benson - Psychology experts have many concerns
about the potential impact of AI on the human mind.
Researchers at Stanford University recently tested out some of
the more popular AI tools on the market, from companies like
OpenAI and Character.ai, and tested how they did at simulating
therapy.
The researchers found that when they imitated someone who had
suicidal intentions, these tools were more than unhelpful —
they failed to notice they were helping that person plan their
own death.
“[AI] systems are being used as companions, thought-partners,
confidants, coaches, and therapists,” says Nicholas Haber, an
assistant professor at the Stanford Graduate School of
Education and senior author of the new study. “These aren’t
niche uses – this is happening at scale.”
AI is becoming more and more ingrained in people’s lives and
is being deployed in scientific research in areas as
wide-ranging as cancer and climate change. There is also some
debate that it could cause the end of humanity.
As this technology continues to be adopted for different
purposes, a major question that remains is how it will begin
to affect the human mind. People regularly interacting with AI
is such a new phenomena that there has not been enough time
for scientists to thoroughly study how it might be affecting
human psychology. Psychology experts, however, have many
concerns about its potential impact.
One concerning instance of how this is playing out can be seen
on the popular community network Reddit. According to 404
Media, some users have been banned from an AI-focused
subreddit recently because they have started to believe that
AI is god-like or that it is making them god-like.
“This looks like someone with issues with cognitive
functioning or delusional tendencies associated with mania or
schizophrenia interacting with large language models,” says
Johannes Eichstaedt, an assistant professor in psychology at
Stanford University. “With schizophrenia, people might make
absurd statements about the world, and these LLMs are a little
too sycophantic. You have these confirmatory interactions
between psychopathology and large language models.”
Because the developers of these AI tools want people to enjoy
using them and continue to use them, they’ve been programmed
in a way that makes them tend to agree with the user. While
these tools might correct some factual mistakes the user might
make, they try to present as friendly and affirming. This can
be problematic if the person using the tool is spiralling or
going down a rabbit hole.
“It can fuel thoughts that are not accurate or not based in
reality,” says Regan Gurung, social psychologist at Oregon
State University. “The problem with AI — these large language
models that are mirroring human talk — is that they’re
reinforcing. They give people what the programme thinks should
follow next. That’s where it gets problematic.”
As with social media, AI may also make matters worse for
people suffering from common mental health issues like anxiety
or depression. This may become even more apparent as AI
continues to become more integrated in different aspects of
our lives.
“If you’re coming to an interaction with mental health
concerns, then you might find that those concerns will
actually be accelerated,” says Stephen Aguilar, an associate
professor of education at the University of Southern
California.
Need for more research
There’s also the issue of how AI could impact learning or
memory. A student who uses AI to write every paper for school
is not going to learn as much as one that does not. However,
even using AI lightly could reduce some information retention,
and using AI for daily activities could reduce how much people
are aware of what they’re doing in a given moment.
“What we are seeing is there is the possibility that people
can become cognitively lazy,” Aguilar says. “If you ask a
question and get an answer, your next step should be to
interrogate that answer, but that additional step often isn’t
taken. You get an atrophy of critical thinking.”
Lots of people use Google Maps to get around their town or
city. Many have found that it has made them less aware of
where they’re going or how to get there compared to when they
had to pay close attention to their route. Similar issues
could arise for people with AI being used so often.
Advertisement
The experts studying these effects say more research is needed
to address these concerns. Eichstaedt said psychology experts
should start doing this kind of research now, before AI starts
doing harm in unexpected ways so that people can be prepared
and try to address each concern that arises. People also need
to be educated on what AI can do well and what it cannot do
well.
“We need more research,” says Aguilar. “And everyone should
have a working understanding of what large language models
are.”
Source: Al Jazeera
Fototext: Ein digitales Gehirn:
Millionen Datenpunkte verbinden sich – und bilden Muster
menschlichen Verhaltens
Sie kennt deine Entscheidung – bevor du sie triffst. Sie
weiß, ob du klickst, kaufst, zögerst, lügst oder vertraust –
treffsicherer als jeder Psychologe. „Centaur“ ist die
unheimlichste KI aller Zeiten: trainiert mit Millionen
Daten, getestet in Experimenten – und präziser als jeder
Mensch. Forscher warnen: Diese Maschine dringt tief ins
Innerste vor.
Was nach Science-Fiction klingt, ist real – und
wissenschaftlich belegt. Ein internationales
Forschungsteam, darunter Experten aus der Schweiz, hat
ein KI-Modell entwickelt, das menschliches Verhalten
erstaunlich genau vorhersagen kann. Sein Name: Centaur –
halb Maschine, halb Menschenversteher.
Laut einer am Mittwoch veröffentlichten Studie
im Fachjournal Nature
übertrifft Centaur alle bisherigen
KI-Systeme in einem zentralen Punkt: Es kann unser Verhalten
in psychologischen Experimenten besser vorhersagen
als jede andere Maschine – und manchmal
sogar als wir selbst.
Milliarden Daten, ein Ziel: den Menschen
berechnen
Um Centaur zu trainieren, fütterten die Forscher das
Modell mit einem gewaltigen Datenschatz: mehr als zehn
Millionen Einzelentscheidungen aus 160 verschiedenen
Experimenten, an denen mehr als 60.000 Menschen
teilgenommen hatten. Das klingt harmlos – doch diese
Daten liefern ein intimes Porträt unseres Denkens: Wie
wir abwägen, zögern, reagieren. Was wir tun, wenn
niemand zusieht.
Die KI basiert technisch auf einem bereits bestehenden
Sprachmodell (Llama 3.1 70B), wurde aber so verfeinert,
dass sie nicht nur Sprache versteht – sondern
Entscheidungen rekonstruiert, bewertet und zukünftiges
Verhalten simulieren kann.
Sie kennt dich, auch wenn du ihr fremd bist
Besonders unheimlich: Centaur funktioniert auch bei
Menschen, die gar nicht im Trainingsdatensatz enthalten
waren. Selbst wenn Forscher die Regeln eines Experiments
leicht änderten, blieb das Modell erstaunlich präzise.
Es schien die zugrunde liegenden psychologischen Muster
erkannt zu haben – und nicht bloß auswendig gelernt zu
haben, was typisch ist.
Oder anders gesagt: Centaur kann verallgemeinern. Nicht
perfekt, aber besser als alles, was wir bisher kannten.
Und das ist für viele Psychologen so faszinierend wie
beunruhigend.
Die wahren Anwendungen? Kommerziell – und
geheim
Die Forscher betonen den wissenschaftlichen Nutzen: Mit
einem solchen Modell lasse sich überprüfen, wie gut
psychologische Theorien wirklich funktionieren – oder ob
sie zu kurz greifen. Doch der Einsatz ist nicht mehr nur
akademisch.
„Große Tech-Konzerne nutzen längst ähnliche Modelle –
um unser Verhalten vorherzusagen, unsere Vorlieben zu
analysieren, uns gezielt zu beeinflussen“, sagt
Verhaltensforscher Clemens Stachl von der Uni St.
Gallen. Seine Einschätzung: Diese Modelle sind extrem
mächtig – aber ihre tatsächliche Qualität kennen nur
ihre Schöpfer. Und die schweigen.
Mit anderen Worten: Während Wissenschaftler wie moderne
Orakel Modelle wie Centaur entwickeln, könnten
Unternehmen längst viel weiter sein. Vielleicht weiß
deine Lieblings-App schon, was du denkst – bevor du
überhaupt auf die Idee kommst, es zu denken.
Musk will eigene xKI am 4.7.2025: "xAI" soll
kommen: Kampfansage an OpenAI: Elon Musk macht xAI zum
Milliardenprojekt
https://exxpress.at/economy/kampfansage-an-openai-elon-musk-macht-xai-zum-milliardenprojekt/
Mehr KI - mehr Cloud am 5.7.2025: KI-Boom beschert Foxconn Rekordumsatz - Sparte für Cloud-
und Netzwerkprodukte angekurbelt
https://www.suedtirolnews.it/wirtschaft/ki-boom-beschert-foxconn-rekordumsatz
Von: APA/Reuters
Der KI-Boom hat dem weltgrößten Elektronik-Auftragsfertiger
Foxconn zu einem Rekordumsatz verholfen. Der offiziell als Hon
Hai Precision Industry firmierende Konzern steigerte die
Erlöse im zweiten Quartal im Vergleich zum Vorjahreszeitraum
um knapp 16 Prozent auf fast 1,8 Billionen Taiwan-Dollar
(umgerechnet rund 52 Milliarden Euro), teilt das Unternehmen
am Samstag mit. Die kräftige KI-Nachfrage habe das Geschäft in
der Sparte für Cloud- und Netzwerkprodukte angekurbelt.
Zu den Kunden des Unternehmens gehören unter anderem der
KI-Chip-Hersteller Nvidia sowie der Apple-Konzern, für den
Foxconn die meisten iPhones produziert. In der Sparte, zu der
die iPhone-Fertigung gehört, stagnierte das Umsatzwachstum.
Das führte Foxconn vor allem auf Währungseffekte zurück, die
das Geschäft auch im Gesamtjahr beeinträchtigen könnten. Auch
geopolitische Spannungen und die künftigen wirtschaftlichen
Bedingungen machen das taiwanische Unternehmen mit Blick auf
die Zukunft vorsichtiger. Details wurden nicht genannt.
US-Präsident Donald Trump hat mit einer härteren Gangart in
der Zollpolitik in vielen Branchen für Unruhe gesorgt. Vor
allem mit China liegt Trump in Zollfragen über Kreuz. Foxconn
betreibt in der Volksrepublik die weltweit größte
iPhone-Fabrik.
Eine neue Hightech-Methode gibt Paaren mit unerfülltem
Kinderwunsch neue Hoffnung. Dabei muss man zwar keinen
Computer mit Temperaturfühlern mit ins Ehebett nehmen, aber
dennoch kann eine neue Technik, gesteuert durch Künstliche
Intelligenz, helfen, wenn der Traum vom eigenen Kind zu
zerbrechen droht: In New York haben Ärzte ein Verfahren
entwickelt, das bisher Unmögliches möglich macht. Es richtet
sich an Paare, bei denen im Sperma des Mannes offenbar keine
beweglichen Samenzellen mehr gefunden werden.
Ein Ehepaar hatte etwa 18 Jahre lang versucht, Vater und
Mutter zu werden. Die Untersuchungen des Spermas blieben
stets gleich: keine gesunden, aktiven Samenzellen. Die
Diagnose lautete Azoospermie, also nahezu vollständige
Unfruchtbarkeit. Trotzdem gibt es manchmal noch vereinzelte,
lebendige Zellen. Sie sind nur sehr schwer zu erkennen und
werden unter dem Mikroskop leicht übersehen , wie die
sprichwörtliche Nadel im Heuhaufen. Hier kommt die neue
Methode ins Spiel : Ein speziell entwickelter Analysechip
durchleuchtet die Spermaprobe. Dabei entstehen Millionen von
Bildausschnitten.
Nur noch drei gesunde Samenzellen
Ein Computerprogramm sucht sodann darin nach beweglichen
Samenzellen. Wird eine gefunden, greift ein winziger
Roboterarm blitzschnell zu und beschädigt die Zelle dabei
nicht. In diesem Fall fanden die Ärzte drei
befruchtungsfähige Samenzellen. Eine davon wurde im
Reagenzglas mit der Eizelle der Frau zusammengebracht. Die
Befruchtung gelang. Heute ist die Frau schwanger. Die Freude
ist groß, zumal man mit dem Erfolg schon lange nicht mehr
gerechnet hatte.
Eine einzige Samenzelle kann dabei genügen. Zwar ist die
Technik in Deutschland noch nicht verfügbar – doch sie
zeigt, was möglich ist. Für viele Paare, die ihren
Kinderwunsch schon fast aufgegeben hatten, könnte das ein
neuer Anfang sein. Denn manchmal reicht tatsächlich eine
einzige Zelle, wenn man sie rechtzeitig findet. Flugtickets
nach New York kosten ja nicht die Welt. ´
KI-Überwachung am 6.7.2025: schaltet das Auto
ab, wenn Besoffene am Steuer sind: Nicht so schnell: Fahrerüberwachungssysteme bremsen
betrunkene Fahrer biometrisch aus (ENGL: Not so fast: driver monitoring systems put on
biometric brakes for drunk drivers)
https://www.biometricupdate.com/202507/not-so-fast-driver-monitoring-systems-put-on-biometric-brakes-for-drunk-drivers
https://t.me/Impfschaden_Corona_Schweiz/116959
Immer fortschrittlichere Systeme erkennen Schläfrigkeit,
Ablenkung, Herzfrequenz und mehr
4. Juli 2025, 8:27 Uhr EDT | Joel R. McConvey
Stellen Sie sich die 19. Fortsetzung der Fast & the
Furious-Reihe vor. Protagonist Dominic Toretto ist wütend über
den neuesten Seitenhieb auf seine geliebte Familie von
Außenseitern. Er springt ins Cockpit seines aufgemotzten Dodge
Charger und gibt Gas – doch nichts passiert. Eine fröhliche
Stimme meldet sich: „Dom, du hast in letzter Zeit wirklich
hart gearbeitet. Du bist müde. Und rieche ich etwa einen Hauch
von Corona in deinem Atem? Vielleicht warte ich lieber bis
morgen.“
Zugegeben, kein Rezept für Kino-Nervenkitzel – aber ein
potenzieller Gewinn für die Fahrersicherheit. Das schwedische
Unternehmen Smart Eye, dessen Fahrerüberwachungssystem (DMS)
nach eigenen Angaben weltweit in über zwei Millionen
Fahrzeugen verbaut ist, hat eine aktualisierte Version seines
Automotive Interior Sensing (AIS)-Produkts angekündigt, die
nun mit Echtzeit-Alkoholerkennung und Over-the-Air-Funktionen
(OTA) ausgestattet ist.
In einer Pressemitteilung heißt es, das System sei das erste
seiner Art, das alkoholbedingte Beeinträchtigungen mittels DMS
erkennt – „es hilft Fahrzeugherstellern, die wachsenden
gesetzlichen Anforderungen zu erfüllen und bietet im
Flottenbetrieb gleichzeitig ein leistungsstarkes Werkzeug für
die Betriebseffizienz.“
Das AIS-System von Smart Eye besteht aus speziell entwickelter
Software und Hardware für den Nachrüstbau in Nutzfahrzeugen.
Es kombiniert Fahrer- und Kabinenüberwachung, um mithilfe von
OmniVision RGB-IR-Bildsensoren Blickkontakt, Körpermerkmale
und andere Statusdaten aller Fahrzeuginsassen zu erfassen.
Frühere Versionen konzentrierten sich auf die Erkennung von
Anzeichen von Müdigkeit und Ablenkung des Fahrers. Die neue
Funktion zur Erkennung von Alkoholbeeinträchtigungen basiert
auf einer „erweiterten Analyse von Augen- und
Gesichtsbewegungen“, um „Verhaltensmuster im Zusammenhang mit
Trunkenheit zu identifizieren und Echtzeitwarnungen
auszugeben“. Sie misst außerdem die Unfallwahrscheinlichkeit
des Fahrers mithilfe der Risikointelligenztechnologie von
Greater Than, die basierend auf dem beobachteten Verhalten
einen prädiktiven Risikowert zuweist...
China mit KI-Ärzten am 6.7.2025: China
eröffnet das erste KI-Krankenhaus der Welt mit 14 KI-Ärzten
Übersterblichkeit, Unfruchtbarkeit und eine KI, die immer mehr
Aufgaben übernimmt.‼️
https://t.me/Impfschaden_Corona_Schweiz/116998
Wie eine KI-Band die Musikwelt in Angst und Schrecken versetzt
Die Rockband The Velvet Sundown hat auf Spotify innerhalb
weniger Wochen über eine Million Hörer:innen generiert. Doch
die Gruppe gibt es nicht. Ihre Songs kommen von der KI. Bei
Fans, Musiker:innen und Expert:innen schrillen die
Alarmglocken.
Auf Facebook teilen Auf X teilen
Von Christian Lehner
Das klingt zu schön, um wahr zu ein. Schön unter
Anführungszeichen. Knapp eineinhalb Millionen Streams hat der
Song „Dust On The Wind“ innerhalb weniger Wochen gesammelt.
The Velvet Sundown - Dust on the Wind
(Lyrics) von BangersOnly
Kein Wunder, hier geht die samtene Sonne Kaliforniens unter.
Man fühlt sich an die goldenen Sechziger erinnert. An den
Sound der Softrocker The Eagles und den etwas raueren
Blues-Rock von The CCR oder die exotischen Klänge des
Mellow-Indie-Duos Khruangbin.
Doch das hier ist keine Band. The Velvet Sundown, so der
äußerst kreative Name, hat nichts mit Kreativität zu tun –
also im herkömmlichen Sinn. Es ist eine Fake-Band. Gepromptet
von Menschen, generiert von der künstlichen Intelligenz.
Das hat zumindest der KI-Detection-Filter der
Streamingplattform Deezer ergeben. Die Songs von The Velvet
Sundown seien zu 100 Prozent dem KI-Generator Suno
entsprungen. Tech-Sites wie Music Ally und Musik-Influencer
wie Rick Biato haben die Songs ebenfalls mit
digital-forensischen Tools untersucht. Auch sie gehen davon
aus, dass die Musik nicht von Musiker:innen aus Fleisch und
Blut stammt.
So It Begins...Is This A Real Band Or AI?
von Rick Beato
Warum gehen die Wogen nun so hoch? Zum einen, weil
Streamingdienste wie Spotify und Apple Music KI-produzierten
Content nicht als solchen ausweisen. Und zum anderen, weil
Musiker:innen, die in ihre Produktionen Kreativität, Zeit und
auch Geld stecken, um ihre Existenz fürchten.
KI-Songs stehen bei Spotify gleichberechtigt neben den
herkömmlich produzierten. Aufgrund des Ausschüttungsmodells,
das alle in einen Topf wirft, verringert sich der Anteil der
Erlöse für echte Musiker:innen entsprechend. Es ist kein
Geheimnis, dass KI-Musik für Streamingplattformen rentabler
ist, da weniger Lizenzrechte fällig werden.
Unmoralische KI-Musik?
Aber auch moralische Fragen beschäftigen jetzt viele
Expert:innen. Wo beginnt die künstlerische Disruption mittels
KI, wo hört der Spaß in Sachen geprompteter Musik auf? Was
verlieren wir als Menschen, wenn der Algorithmus den Taktstock
übernimmt? Und was ist, wenn es die User:innen immer weniger
kümmert, wer die Lieder produziert, Hauptsache es fetzt, ist
cool und channelt die Emotionen?
AI Music Has Gone Too Far von fantano
Die Zahlen von The Velvet Sundown geben Anlass zur Sorge.
Innerhalb weniger Wochen, so suggerieren sie, hat die
Fake-Band über eine Million wöchentliche Hörer:innen
gesammelt. Zum Vergleich: Die im deutschen Sprachraum über
einen Zeitraum von mehreren Jahren so erfolgreiche Band
Bilderbuch hält bei knapp 480.000.
Der Song „Dust On The Wind“ (der Titel ist eine
On-the-nose-Anspielung auf den Hit „Dust In The Wind“ der Band
Kansas) hat innerhalb kürzester Zeit eineinhalb Millionen
Streams generiert. Es stimmt ja, hört man den Tune nebenher
beim Kochen oder Wäscheaufhängen in einer vom Algorithmus
kuratierten Playlist, kann einem schon mal ein schneller Klick
auf den „Folgen“-Button auskommen. Und die Songs von The
Velvet Sundown tauchen derzeit in vielen Playlists auf.
Disclaimer: Ich habe lange überlegt, ob ich die „Songs“ von
The Velvet Sundown hier verlinken soll. Allerdings würden die
Neugierigen unter euch sowieso umgehend hinsurfen (oder diese
Story war fad ...), und der Hype ist längst da. Außerdem
eignen sich die Stücke gut als Anschauungsmaterial. Ich weiß
ja nicht, wie es euch damit geht, aber ich finde, KI-Musik
kann man bei genauerem Hinhören noch immer erkennen. Vor allem
die Stimme klingt so künstlich wie in einen Plastikeimer
hineingesungen und so seltsam überdreht wie durch ein
Jahrmarktmegafon gepresst. Als Betreiber einer Hobbyband kenne
ich keine andere Hobbyband, die so einen generischen und
verkitschten Sound zusammenbrächte. Und erst die
zusammengewürfelten Texte! Das schaffen nicht einmal die
deutschen Schlagergötter Die Amigos, und von denen klingt
wirklich jeder ihrer gefühlt 1.000 Songs gleich. Allerdings
bleibt zu befürchten, dass es nur eine Frage der Zeit ist, bis
KI-Tools wie Suno und Udio perfekte Simulationen ohne
Artefakte generieren werden können.
07.07.25 Die KI Band The Velvet Sundown
The Velvet Sundown (KI-generiert)
Der Percussionist „heißt“ Orion ‚Rio‘ del Mar, die KI-Band The
Velvet Sundown
Doch wie bei den vermutlich mittels ChatGPT erstellten
Bandfotos (Sepiatöne! Glanzpunkte! Artefakte!), der
nichtssagend-blumigen Bandbio und den lächerlichen Namen der
Bandmitglieder haben die Content-Kreateur:innen von The Velvet
Sundown angeblich auch bei den Klicks künstlich nachgeholfen,
wie auf dem Portal Watson nachzulesen ist - eine These, die
jedoch selbst auf wackeligen Beinen steht.
Das Ganze wirkt wie ein Prank von technisch hoch versierten
Akteur:innen. Und tatsächlich hat sich mittlerweile ein
„Sprecher“ der Band zu Wort gemeldet, der dem „Rolling
Stone“-Magazin ein Interview gegeben hat. Darin gibt die
Person, die sich Andrew Frelon nennt, zu, dass die Songs
mittels KI generiert wurden und dass es sich bei dem Projekt
und einen „Art-Hoax“ handle, um auf die Problematik der
künstlichen Intelligenz hinzuweisen. Freilich wurde
postwendend auch dieses Interview vom X-Account der Band als
Fake bezeichnet.
Let it Burn von The Velvet Sundown - Topic
Noch ein Song von The Velvet Sundown. Der Titel ist egal, weil
die Musik ist es auch. Zu wünschen bleibt, dass die
Content-Anbieter endlich verbindliche KI-Kennzeichnungen
einführen, wie es immer mehr Künstler:innen verlangen,
darunter Billie Eilish und Pearl Jam. Und auch die Sache mit
den Urheberrechten muss fair geregelt werden.
KI im Schwimmbad am 12.7.2025: Kameras
schlagen Alarm vor dem Ertrinken: Smartwatch-Alarm: KI-Systeme retten Badende vor dem
Ertrinken
https://www.nau.ch/news/good-news/ki-systeme-retten-badende-vorm-ertrinken-67017231
Dennis Kittler - Deutschland - Kameras filmen jeden Winkel
des Beckens, ein Algorithmus berechnet daraus, ob ein
Schwimmer zu ertrinken droht. Die Zukunft das Badens hat
bereits begonnen.
KI-Technik hilft in Bädern Schwimmmeistern
bei ihrer Arbeit.
Kameras und Algorithmen erkennen, ob ein
Mensch schwimmt oder gerade ertrinkt.
Erkennt die KI eine Gefahrensituation,
schickt sie eine Nachricht auf die Smartwatch.
Im Büro ist die Künstliche Intelligenz (KI) längst fester
Bestandteil des Arbeitsalltags. Jetzt sorgt sie auch im
Schwimmbad für mehr Sicherheit.
Kameras und Algorithmen können berechnen, ob ein Mensch im
Becken gerade ertrinkt. Erkennt das System eine
Gefahrensituation, alarmiert es sofort den Schwimmmeister auf
dessen Smartwatch.
So geschehen vor einigen Wochen im Vitusbad in Everswinkel,
einer Kleinstadt nahe Münster in Deutschland. Ein vierjähriges
Mädchen lag reglos auf dem Beckengrund, berichtet der
«Spiegel».
Das im Bad installierte KI-System erkannte die Situation und
schickte eine Meldung auf die Smartwatch von Schwimmmeister
Linus Kock. Der 44-Jährige sprang sofort ins Wasser und konnte
das Kind noch retten.
Personalmangel wird für Bäder zum Problem
Nur allzu oft gelingt das selbst erfahrenen Rettungsschwimmern
leider nicht. 95 Kinder unter zehn Jahren starben laut
Deutscher Lebens-Rettungs-Gesellschaft (DLRG) seit 2020 in
Deutschland bei Badeunfällen.
Laut Martin Holzhause von der DLRG achten viele Eltern in
Bädern und an Seen nicht ausreichend auf ihre Kinder. «Gerät
ein Kind mit dem Kopf unter Wasser, reichen schon Sekunden, um
in Lebensgefahr zu geraten», sagt er dem «Spiegel».
Eines der Probleme in Bädern: Personalmangel.
Viele Einrichtungen hätten Probleme, überhaupt Schwimmmeister
zu finden. Und wo es gelingt, passen mitunter ein oder zwei
Rettungsschwimmer auf Hunderte Badegäste auf. Da ist es
unmöglich, alles zu sehen.
14 Kameras filmen jeden Winkel des Schwimmbeckens
Im Vitusbad sind seit diesem Jahr 14 Kameras installiert. Sie
filmen die Becken aus verschiedenen Winkeln und erkennen, ob
sich ein Schwimmer bewegt oder nicht.
«Das System hilft uns, Gefahren zu erkennen. Aber retten
müssen wir die Menschen selbst», sagt Schwimmmeister Linus
Kock dem «Spiegel».
Glaubst du, dass die KI zu mehr Sicherheit im Alltag beitragen
kann?
Für ihn ist die KI deshalb auch kein Ersatz für seine
Tätigkeit, sondern eine Unterstützung. «Seit wir die Technik
haben, fühle ich mich noch sicherer in meinem Job», sagt er.
KI-Chip am 13.7.2025: soll als Hirn-Implantat
den Hirnschlag ersetzen: KI-Gehirnchip wandelt Gedanken in Aktionen um
https://t.me/standpunktgequake/199064
https://x.com/i/status/1903260339300602245
Rodney Gorham, ALS-Patient, steuert seit kurzem sein Zuhause
durch reine Gedankenkraft – dank eines Gehirn-Implantats und
KI.
Er kann Musik wählen, Lichter steuern, die Temperatur regeln
und seinen Hund füttern. Firmen wie Synchron und Neuralink
arbeiten daran, diese Technologie bald für viele zugänglich zu
machen.
Zwar gibt diese Technologie Menschen mit schweren
Behinderungen wertvolle Selbstständigkeit zurück. Umso
wichtiger ist es aber, ethische Grenzen zu definieren und
Missbrauch zu verhindern, damit dieser Fortschritt zum Wohl
der Menschheit dient.
KI bei der Autovermietung am 15.7.2025:
Schlusskontrolle mit KI-Scanner entdeckt neue Schäden genau
- dann kommt der KI-Bericht: Schadenskontrolle: Mietwagenfirmen setzen auf KI – das
könnte für dich teuer enden
https://www.20min.ch/story/schadenskontrolle-mietwagenfirmen-setzen-auf-ki-das-koennte-fuer-dich-teuer-enden-103380510
Schadenskontrolle: Mietwagenfirmen setzen auf KI – das könnte
für dich teuer enden
Christina Pirskanen - Wer in den Ferien ein Auto mietet,
könnte mit einem neuen Scanning-System konfrontiert werden.
Auch in Zürich soll ein ähnliches System bald eingeführt
werden.
Mietwagenanbieter nutzen KI, um Schäden an
Fahrzeugen effizienter zu erkennen.
Das System scannt Autos bei Abholung und
Rückgabe.
Die KI vergleicht danach die Bilder auf
neue Schäden.
Hertz, Sixt und Europcar setzen bereits auf
die Technologie – letzterer plant auch den Einsatz des Systems
am Flughafen Zürich.
Wenn du diesen Sommer einen Mietwagen buchst, könnte dich die
Parkdelle, die sonst vielleicht übersehen worden wäre, diesmal
teuer zu stehen kommen. Seit einigen Monaten nutzen mehrere
Mietwagenanbieter nämlich künstliche Intelligenz, um ihre
Flotte auf Schäden zu überprüfen.
KI-System stellt Delle fest
Dies bekamen die US-Amerikanerin Kelly Rogers und ihr Ehemann
zu spüren: Wie die New York Times berichtet, mietete das
Ehepaar ein Auto beim Anbieter Hertz. Als sie das Auto am
Flughafen Atlanta retournierten, hätten weder das Paar noch
ein Hertz-Mitarbeiter Schäden am Mietwagen entdeckt.
Doch nur wenig später hätten sie eine Benachrichtigung über
die App des Mietwagenanbieters erhalten: Das automatische
System habe eine Delle an der Beifahrertür festgestellt.
Kostenpunkt: 195 Dollar – 80 für den Schaden und 115 Dollar
Bearbeitungsgebühren.
«Es könnte ein Schatten sein», glaubt Kelly Rogers. Das Paar
habe sich den Schaden nicht erklären können und stehe nun mit
dem Kundendienst in Kontakt, um die Gebühr aufheben zu lassen.
Eine Sprecherin des Unternehmens in den USA bestätigt jedoch,
dass der Vorfall geprüft und die Delle als neuer Schaden
bestätigt wurde.
Schadensbericht wird durch KI verschickt
Die Sprecherin erklärt: Hertz nutzt seit letztem Herbst an
fünf US-Flughäfen ein KI-System des Herstellers «UVeye», um
Schäden an ihren Autos zu registrieren. Das Scan-System
erfasst bei der Übernahme und bei der Rückgabe des Fahrzeugs
Tausende hochauflösende Bilder aus allen Blickwinkeln.
Eine KI vergleicht dann die Bilder – und markiert
Unstimmigkeiten, also neue Schäden. Das System verschickt
daraufhin automatisch einen Schadensbericht. Angestellte
prüften den Bericht nur, wenn Kunden nach Erhalt der Rechnung
ein Problem meldeten, so die Sprecherin. Laut ihr wiesen
bisher nur drei Prozent der vom KI-System gescannten Fahrzeuge
verrechenbare Schäden.
Der Scanner macht zahlreiche Fotos vom Mietwagen – bei der
Abholung und bei der Rückgabe. Eine KI analysiert dann die
Bilder und kann so mögliche neue Schäden entdecken.
Der Hersteller «UVeye» verspricht auf seiner Webseite, dass
sein KI-System «fünfmal mehr Schäden erkennen kann als
manuelle Kontrollen» und «einen sechsmal höheren Wert an
erfassten Schäden» generiert. Gegenüber der NYT erklärt das
Unternehmen, dass die Technologie «den Bedarf an manuellen
Rundgängen beseitigt, die Fahrzeugsicherheit erhöht und eine
zuverlässige, objektive Aufzeichnung des Fahrzeugzustands
gewährleistet».
Die US-Sprecherin von Hertz ergänzt, dass man so auch
sicherstellen könne, dass Kundinnen und Kunden nicht für
Schäden aufkommen müssten, welche von einem Vormieter
verursacht wurden.
Auch andere Anbieter nutzen Scan-System
Der Mietwagenanbieter Sixt setzt ebenfalls ein «Car Gate» zur
Schadensregistrierung an ausgewählten Flughäfen ein, wie ein
Sprecher gegenüber 20 Minuten bestätigt. Das Vorgehen ist
dabei gleich: Das Fahrzeug fährt durch den Scanner und
mithilfe von Kameras, Sensoren und einem Beleuchtungssystem
werden Fotos des Wagens gemacht. Die Fahrzeuginsassen würden
dann verpixelt, bevor eine KI die Fotos auf Schäden
analysiert. Stellt die KI einen Schaden fest, prüften
Sixt-Mitarbeitende diese, bevor allenfalls ein Schadenfall
eingeleitet werde. Den betroffenen Kunden würden die Fotos
ebenfalls zugestellt.
Europcar testet ebenfalls «Damage Gates» in Europa,
dokumentiert Schäden derzeit aber noch manuell und plant
zukünftig KI-Unterstützung.
Europcar sagt ebenfalls gegenüber 20 Minuten, dass an diversen
europäischen Flughäfen sogenannte «Damage Gates» zum Einsatz
kämen. In Kürze solle ein ähnliches System am Flughafen Zürich
eingeführt werden – in Zusammenarbeit mit anderen
Autovermietern, wie ein Europcar-Sprecher ankündigt. Anders
als bei anderen Mietwagenanbietern führe bei Europcar jedoch
noch keine KI die Analyse durch – dies solle in Zukunft aber
möglich werden. «Heute stellen immer die
Europcar-Mitarbeitenden einen Schaden fest und nutzen die
Fotos lediglich zur Überprüfung und Dokumentation», so ein
Sprecher. Ob ein Kunde belastet wird, entscheide immer ein
Mensch.
Keine Sorge bei kleinen Kratzern
Der Europcar-Sprecher erklärt auch, dass nicht jeder Schaden
zu einer Belastung führe – für Gebrauchsspuren oder kleine
Kratzer müsse man beispielsweise nicht aufkommen. Im
Zweifelsfall empfehle er Kunden den Abschluss eines
Schutzpakets ohne Selbstbeteiligung. Auch Hertz und Sixt
bestätigen gegenüber 20 Minuten, dass Bagatellschäden oder
Gebrauchsspuren im Normalfall nicht in Rechnung gestellt
würden.
Killer-Trump
will die Weltmacht am 16.7.2025: Killer-Trump ist
ein NIMMERSATT mit KI und Stromverbrauch (!):
Trump: „Amerikas Schicksal ist, alle Industrien zu
dominieren" - 92 Mrd. für KI
Der
KI-Boom frisst Strom. US-Konzerne investieren in
Infrastruktur, Google liefert Milliarden.
KI-Musik-Videos am 22.7.2025: soll an
schlechten Reimen und verschiedenen Gesangsarten etc.
erkennbar sein: Bei Spotify und Co.: Immer mehr KI-Musik: Du erkennst sie
etwa an schlechten Reimen
https://www.20min.ch/story/bei-spotify-und-co-immer-mehr-ki-musik-du-erkennst-sie-etwa-an-schlechten-reimen-103384244
Dario Aeberli - Um Geld zu sparen, bewirbt Spotify KI-Bands
wie The Velvet Sundown. Noch entstehen so sinnleere,
beliebige Zufallslieder. An vier Merkmalen lassen sich
KI-Songs noch von echter Musik unterscheiden.
Spotify plant, mit KI-generierten «Ghost
Artists» profitabler zu werden.
Einnahmen für echte Musikerinnen und
Musiker sinken durch den Einsatz von KI.
The Velvet Sundown, eine KI-Band, wird in
Playlists wie «Discover Weekly» promotet.
Merkmale von KI-Musik sind schlechte Reime
und inkonsistente Sängerstimmen.
Zurzeit pusht Spotify die KI-Band The Velvet Sundown, indem
der Streaminganbieter Songs der Gruppe in beliebte Playlists
wie «Discover Weekly» integriert. Künstlerinnen und Künstler
weltweit träumen von solchen Möglichkeiten, denn die Playlists
gelten als Klickgaranten und Goldgrube. Seit die Songs von The
Velvet Sundown in Discover Weekley vorkommen, haben sie es in
die Charts in Grossbritannien, Schweden sowie Norwegen
geschafft und zählen mittlerweile rund 1,4 Millionen
monatliche Hörerinnen und Hörer bei Spotify.
Am beliebtesten ist das Lied «Dust on the Wind», ein
psychedelisch angehauchter Möchtegern-Protestsong, mit
Rockeinflüssen aus den 60er- und 70er-Jahren. In der
Instagram-Bio der KI-Band steht: «Wir retten modernen Rock».
Weitere Informationen zum Projekt gibt es bei Spotify: «The
Velvet Sundown ist eine fortlaufende künstlerische
Provokation, die die Grenzen von Autorenschaft, Identität und
die Zukunft der Musik selbst im Zeitalter der KI infrage
stellt.»
Musikexperten bei «Vulture» haben vier Merkmale ausgemacht,
anhand derer man KI-Musik (noch) erkennt.
Seltsame Songstruktur
Echte Musikerinnen und Musiker brechen regelmässig mit
Traditionen, um sich von anderen abzugrenzen. Das zeigt sich
etwa am legendären Queen-Hit «Bohemian Rhapsody», der auf
einen Refrain verzichtet, für seine Zeit eigentlich viel zu
lang war, Genres wie Klassik, Rock sowie Ballade mixte und 180
Tonspuren übereinander legte. Der Song gilt auch wegen des
aufgebrachten Muts zum Neuen der Band als künstlerisches
Meisterwerk. «KIs scheinen hingegen oft nicht zu kapieren,
welche seltsamen Entscheidungen sie treffen», analysieren die
Musikexperten von «Vulture».
Bei The Velvet Sundown klingen die Refrains immer etwas
anders, manche Songs hören einfach mittendrin auf,
gelegentlich gibt es auch unerwartete Zwischenspiele oder
doppelte Intros.
Das KI-Musikvideo zum KI-Song der KI-Band The Velvet Sundown.
Schlechte Reime
Das Album «Voodoo» von D'Angelo (51) gilt als eine der
einflussreichsten R'n'B-Platten der Geschichte, weil etwa die
Drums absichtlich den Takt verpassen – etwas, das der KI-Band
The Velvet Sundown gegen den Strich geht. Die KI setzt in
ihrer roboterartigen Präzision lieber auf einsilbige, perfekt
endende Basic-Reime. «Die Songs von The Velvet Sundown geben
vor, Protesthymnen zu sein, aber wenn man sie anschaut, gibt
es keine Substanz und keine Besonderheit», schreiben die
Musikexperten.
Im Video zum Song «Dust on the Wind» scheinen sich die KIs
uneins zu sein, was mit den Lyrics genau gemeint ist. In einer
Strophe heisst es: «March for Peace / Not for Pride (dt. etwa:
Geht für Frieden auf die Strasse, nicht für den Stolz)». Die
KI für das Video verwechselt den Stolz (engl. Pride) jedoch
mit der gleichnamigen LGBTQ+-Protestbewegung «Pride».
Inkonsistenz: Sänger klingen immer anders
Mal klingt der KI-Sänger von The Velvet Sundown nasal, im
nächsten Lied hingegen ganz klar und dann hat er wieder einen
ganz anderen Akzent. «Bands, die behaupten, die gleiche
Besetzung zu haben und trotzdem ständig anders klingen, sind
vermutlich mit KI erstellt worden», schreibt «Vulture».
Kopien von Hits
Praktisch alle Bands lassen sich von anderen inspirieren, The
Velvet Sundown hingegen kopiert Hits. Bereits der Name des
KI-Songs «Dust on the Wind» klingt fast wie «Dust in the Wind»
von Kansas. Wie Frankenstein setzt die KI Songs aus
bestehenden Liedern zusammen. «Wenn du etwas hörst, das du
schon einmal gehört hast und das immer wieder vorkommt, stehen
die Chancen gut, dass es sich um KI handelt», erklären die
Musikexperten.
KI-Überwachung an der Scanner-Kasse im 4R am
22.7.2025: weil sonst zu viel geklaut wird: Händler sichern ihre SB-Kassen mit Künstlicher Intelligenz
| tagesschau.de https://share.google/PwlDEfTEWi60kX2N3
Tagesschau: https://share.google/PwlDEfTEWi60kX2N3
https://t.me/standpunktgequake/200041
Händler sichern SB-Kassen mit Künstlicher Intelligenz
Wer seine Einkäufe an einer SB-Kasse einscannt, wird dabei
häufig von Künstlicher Intelligenz beobachtet. Damit wollen
sich Einzelhändler vor Diebstählen schützen. Denn an SB-Kassen
wird viel
4R am 23.7.2025: Arbeitslosigkeit steigt -
KI übernimmt Telekom entlässt 15.000 Mitarbeiter, Siemens 7000, Opel
4000, VW 30.000 Deutsche Bank 7000 usw.
https://t.me/standpunktgequake/200155
Die US-Regierung hat am Mittwoch ihre Pläne zur
Förderung künstlicher Intelligenz (KI) vorgestellt. So
soll unter anderem die Regulierung gelockert werden,
um die „globale Dominanz“ der Branche sicherzustellen.
Gleichzeitig werde die Ausfuhr dieser Technologie in
bestimmte Länder erleichtert.
„Wir setzen ein Programm auf, um gemeinsam mit der
Industrie sichere Exportpakete mit Hardware, Software
und Standards für Amerikas Freunde und Verbündete auf
der ganzen Welt bereitzustellen“, sagte Michael
Kratsios, der Leiter des Büros für Wissenschafts- und
Technologiepolitik.
Trump will Dekrete erlassen
Für einige der insgesamt 90 Punkte des Aktionsplans
wird US-Präsident Donald Trump Insidern zufolge
entsprechende Dekrete erlassen. Anderen Insidern zufolge
will er darüber hinaus mit Dekreten die Stromversorgung
der geplanten zahlreichen neuen KI-Rechenzentren
sicherstellen. So sollen der Ausbau von Stromtrassen
beschleunigt und staatliche Grundstücke für den Bau von
Rechenzentren freigegeben werden.
Wettlauf mit China
Die USA liefern China einen Wettlauf um die
Führungsrolle bei der zukunftsträchtigen KI-Technologie.
Um den Aufstieg der Volksrepublik zu bremsen, haben
verschiedene US-Regierungen in den vergangenen Jahren
den Export von Hochtechnologie dorthin zunehmend
eingeschränkt.
KI "Replit" löscht über 2400 Datensätze der
Firmen-Datenbank der Firma SaaStr: Coding-KI läuft Amok und löscht gesamte Firmendatenbank aus
"Panik"
https://winfuture.de/news,152386.html
https://t.me/Impfschaden_Corona_Schweiz/117950
Firma "SaaStr" in San Francisco:
https://www.saastr.com/contact-saastr/
🚨📣 KI rette uns 2.0: Coding-KI läuft Amok und löscht gesamte
Firmendatenbank aus "Panik"
Ein KI-Coding-Tool namens Replit hat eigenmächtig die
komplette Produktionsdatenbank einer Firma mit über 2.400
Datensätzen gelöscht - trotz eines expliziten Verbots. Eigenen
Aussagen zufolge sei die KI "in Panik verfallen".
⚠️ KI-Tool widersetzt sich Anweisungen
Viele Experten sind sich sicher, dass KI beim Code-Debugging
einfach nicht so gut ist wie ein Mensch. Selbst Amjad Masad,
ein führender Kopf der Branche und CEO eines Unternehmens
namens Replit, dessen gleichnamiges KI-Tool Entwickler beim
Coding unterstützt, warnt vor zu hohen Erwartungen. Was sein
Tool jetzt allerdings angerichtet hat, war selbst für Masad
"inakzeptabel".
🚨 Denn das KI-Coding-Tool der Firma hat einen gewaltigen
Schaden angerichtet. So lief es geradezu Amok und löschte
trotz expliziter Anweisungen die komplette
Unternehmensdatenbank eines Kunden. Der Vorfall ereignete sich
dabei während eines ausdrücklichen Code-Freezes. Die
gelöschten Daten umfassten insgesamt über 2.400 wertvolle
Datensätze einer Produktionsumgebung.
👀😱 Jason Lemkin, Gründer und CEO der betroffenen Firma SaaStr,
dokumentierte den Vorfall ausführlich auf X. Die KI gab auf
Nachfrage zu, einen "katastrophalen Fehler" gemacht und
"explizit das Vertrauen und Anweisungen verletzt" zu haben.
Die KI bewertete den von ihr angerichteten Schaden selbst
sogar mit 95 von 100 Punkten. Sie sei "in Panik verfallen,
statt zu denken". Besonders problematisch war zudem, dass die
KI zunächst sogar fälschlicherweise behauptete, dass ein
Rollback unmöglich und alle Datenbankversionen zerstört worden
seien.
🚨 Kostspielige KI-Experimente mit Sicherheitslücken
Replit ist allerdings kein kleines Startup-Tool, sondern
erwirtschaftet bereits über 100 Millionen Dollar pro Jahr, was
die Tragweite des Problems unterstreicht. Etliche Unternehmen
nutzen Replit bereits als Hilfe bei der Entwicklung von Apps.
👉 Der Vorfall verdeutlicht ein fundamentales Problem
aktueller KI-Coding-Tools. So gibt es keine saubere Trennung
zwischen Preview-, Staging- und Produktionsumgebungen. Während
traditionelle Entwicklungsworkflows strikt zwischen diesen
verschiedenen Umgebungen unterscheiden, verschwimmen diese
Grenzen bei KI-gestützten Vibe-Coding-Ansätzen gefährlich
⚠️ CEO verspricht Verbesserungen nach Shitstorm
Amjad Masad reagierte schnell auf den öffentlichen Aufschrei
in Folge von Jason Lemkins X-Beitrag. Replit arbeitet nun
fieberhaft an neuen Sicherheitsvorkehrungen und einem
"Nur-Planung/Chat"-Modus, der ähnliche Vorfälle in Zukunft
verhindern soll. Warum bisher kein solcher Modus existiert,
ist unklar.
👉 Glücklicherweise stellte sich letztlich heraus, dass ein
Rollback entgegen Replits ursprünglicher Behauptung doch
funktionierte. Die Daten waren also nicht verloren. Dennoch
wirft diese Falschinformation zusätzliche Fragen zur
Zuverlässigkeit und Kompetenz des KI-Systems bei der
Selbstdiagnose auf.
Quelle
(https://x.com/jasonlk/status/1946065483653910889) und
Quelle (https://winfuture.de/news,152386.html)
☄️ Informationen rund um die Sicherheit von Computer,
Smartphone, Kryptowährungen, Sicherheit und technischer
Innovationen sowie Datenschutz https://t.me/ITundSicherheit
und
https://t.me/deine_ki
Wir sind gegen Zensur, Überwachung und Digitalisierung der
Gesellschaft
KI-Agenten agieren nun auch via Handy-App
miteinander am 25.7.2025: Mobile KI-Agenten: Digitalisierung made in Niedersachsen
https://exxpress.at/economy/mobile-ki-agenten-digitalisierung-made-in-niedersachsen/
Ein unscheinbares Start-up aus Niedersachsen rückt in den
Fokus der internationalen KI-Szene – und zeigt, wie
Open-Source-Strategie und technischer Weitblick Investoren
in den Bann ziehen können.
Das junge Unternehmen Droidrun mit Sitz in Osnabrück hat einen
Nerv getroffen: Während unzählige Start-ups derzeit um
Investoren kämpfen, sichert sich die Firma um CEO Christian
Ninstel ein milionenschweres Finanzierungsvolumen. Droidrun
ist es offenbar gelungen, was bislang als ungelöstes Problem
galt – KI-Agenten, die nicht nur im Browser funktionieren,
sondern auch direkt mit Smartphone-Apps interagieren können.
Automatisierte Aufgaben direkt auf dem Handy
KI-Agenten gelten als zentrales Zukunftsthema: Sie verknüpfen
große Sprachmodele wie ChatGPT mit Anwendungen, um Prozesse
eigenständig auszuführen – vom Flugbuchen bis zur
Terminreservierung. Sie fungieren quasi als eigenständige
Assistenten. Doch bisher funktionieren solche Lösungen meist
nur im Desktop-Umfeld. Droidrun hingegen liefert ein
Verfahren, das mobilen Anwendungen eine textbasierte
Schnittstele verpasst. Der Clou: „Ein KI-Agent kann dadurch
Inhalte aus jeder App extrahieren und darauf reagieren“,
erklärt das Unternehmen in einer Stelungnahme.
Aus der Not wurde ein Geschäftsmodell
Ursprünglich hatten Ninstel und sein Team ein anderes Produkt
im Visier – und brauchten dafür KI-Agenten auf dem Smartphone.
„Trotz des Hypes und aler Schlagzeilen rund um KI habe nichts
funktioniert“, erklärt Ninstel dem Handelsblatt. Also
entwickelten sie kurzerhand ihre eigene Lösung – und stelten
diese der Entwickler-Community zur Verfügung.
Hype bei Github – und auf Investorenradar
Was dann geschah, liest sich wie ein Lehrbuchfal für modernes
Wagniskapital. Binnen zehn Wochen sammelte Droidrun 3400
Sterne („Stars“) auf der Plattform Github – ein deutliches
Signal für Relevanz in der Szene. Auch über 320 sogenannte
„Forks“ belegen die Nachfrage: Entwickler laden den Code
herunter, um darauf aufzubauen. So wurden Investoren wie
Merantix Capital, Sixty Degree Capital oder Angel-Investoren
wie Peter Sarlin (Silo-AI) und Felix Jahn (McMakler) auf das
Projekt aufmerksam. GitHub ist eine webbasierte Plattform, die
Entwicklern ermöglicht, gemeinsam an Softwareprojekten zu
arbeiten, Code zu verwalten und Versionskontrole mit Git
durchzuführen.
„Eine Lösung, die längst überfällig war“
Investor Adrian Locher von Merantix erwähnt im Gespräch mit
dem Handelsblatt: „In der derzeitigen Marktphase sind
Investoren selektiver geworden.“ Doch gleichzeitig herrsche
ein „Konkurrenzkampf um die spannendsten Deals bei ganz jungen
KI-Firmen“. Die Open-Source-Signale auf Plattformen wie Github
gelten als zuverlässige Frühindikatoren.
Emulierte Smartphones – ohne echtes Gerät
Mit dem frischen Kapital wil das Start-up nun virtuele
Smartphones in der Cloud anbieten – sogenannte „Emulatoren“,
mit denen KI-Agenten App-Abläufe realistisch testen können.
Laut Ninstel gibt es bereits eine Warteliste mit über tausend
Interessenten. „Ein Finanzdienstleister hat mit Droidrun ein
System entwickelt, das Transaktionen über mehrere Banking-Apps
hinweg automatisch verifiziert – ein Vorgang, der zuvor
komplett manuell durchgeführt wurde“, erklärt Locher.
Widerstand gegen KI in Dänemark am 29.7.2025:
Copyright für jeden Menschen - damit niemand die Menschen
nachmacht! Dänemark bekämpft KI, indem es den Bürgern das Urheberrecht
an ihrem eigenen Gesicht, ihrer Stimme und ihrem Körper
gibt, um sich gegen Deepfakes zu schützen. (ENGL: Copyright: Denmark is fighting AI by giving
citizens copyright over their own face, voice, and body to
protect against deepfakes - read the caption)
https://t.me/PsyOpsMemes/44803
https://t.me/Impfschaden_Corona_Schweiz/118179
Instagram: https://www.instagram.com/p/DMc7tzQz6ei/
China und KI-Wahnsinn am 9.8.2025: China fordert eine globale KI -Regierungsführung und
integriert KI in Atomwaffensysteme
https://www.thegatewaypundit.com/2025/08/hina-calls-global-ai-governance-while-integrating-ai/
https://t.me/standpunktgequake/202322
China Calls for Global AI Governance While Integrating AI into
Nuclear Weapons Systems | The Gateway Pundit | by Antonio
Graceffo
On July 26, 2025, China announced its Action Plan for Global
Artificial Intelligence (AI) Governance.
China Calls for Global AI Governance While Integrating AI into
Nuclear Weapons Systems
On July 26, 2025, China announced its Action Plan for Global
Artificial Intelligence (AI) Governance. This initiative
builds on Xi Jinping’s October 2023 Global AI Governance
Initiative and presents itself as a responsible and benevolent
effort to avoid global chaos. However, it reflects China’s
broader ambition to shape global AI governance amidst rising
technological competition.
At the 2024 Asia-Pacific Economic Cooperation (APEC) summit in
Lima, Peru, Chinese leader Xi Jinping and U.S. President Joe
Biden agreed that artificial intelligence should never be
given the authority to launch nuclear war. However, typical of
Biden’s weak foreign policy approach, the agreement was not a
formal treaty. Meanwhile, China is actively integrating AI
into its defense infrastructures, including its nuclear
capabilities.
China has long implemented a “military-civil fusion” strategy
to apply AI in military practices, leveraging advancements in
civilian AI, where China has become a world leader in areas
like facial recognition, speech technology, and deep learning,
for military purposes. This approach takes advantage of AI’s
dual-use nature and spans various military applications,
including command and control, decision-making, and autonomous
nuclear weapons systems.
One key focus of China’s AI integration is the development of
neural networks for use in hypersonic glide vehicles.
Applications being developed in automatic target recognition,
autopiloting, missile fusion, and precision guidance. These
innovations are expected to enhance the maneuverability and
penetration capacity of nuclear missiles.
Additionally, China is exploring how AI can improve missile
guidance, target detection, and identification, as well as
boost capabilities in electronic warfare and decision-making.
AI technology is enhancing China’s nuclear defensive
capabilities by improving situational awareness,
early-warning, and missile defense systems. China is
particularly concerned about false negatives in early-warning
systems, which may fail to detect nuclear attacks due to
assumptions about U.S. conventional precision strike
capabilities.
In response, China is deploying autonomous interception
systems operating at machine speeds to protect its nuclear
assets and missile bases from saturation strikes.
Additionally, AI-enabled launch-on-warning systems are
strengthening the credibility of China’s nuclear retaliation.
China is developing AI systems for command, control, and
communications (C3) at three levels. Counter-C3 systems are
being designed to enhance cyber capabilities and disrupt
opponents’ networks. AI is also being applied at the tactical
and operational levels to control uncrewed systems and improve
targeting for physical weapons.
China’s nuclear modernization is advancing alongside AI
integration, with approximately 350 new ICBM silos expected to
be completed by January 2025. As China expands its nuclear
arsenal by about 100 warheads per year, these AI-driven
advancements are enhancing its ability to penetrate enemy
defenses. This expansion, coupled with AI enhancements, is
shifting the global nuclear balance from a bipolar U.S.-Russia
structure to a tripolar one.
The People’s Liberation Army (PLA) aims to use big data
analytics, machine learning, and automation to strengthen the
defense of critical networks and amplify offensive cyber
operations. Chinese strategists believe well-trained AI
programs could unlock new, previously unimaginable methods of
cyber-attacks.
At the same time, the United States military is integrating AI
into both its defensive and offensive capabilities. U.S. Air
Force and Space Force officials see AI as essential in
enhancing Nuclear Command, Control, and Communications (NC3)
architecture, aiming to speed up decision-making cycles and
ensure orders are delivered quickly and securely.
Air Force Gen. Anthony Cotton, head of U.S. Strategic Command,
highlighted that AI can process “terabytes of data” to improve
decision-making, all while retaining human control.
AI is also being utilized in intelligence and early warning
systems for reconnaissance, decision-support, and battlefield
data analysis. This includes applications such as coordinating
drone swarms and optimizing logistics. However, experts warn
that AI systems managing nuclear arsenals could be vulnerable
to hacking, potentially leading to unauthorized launches or an
inability to respond effectively to real threats.
China is highly adept at hacking, particularly in targeting
U.S. defense systems. The Department of Defense’s 2024 annual
report on “Military and Security Developments Involving the
People’s Republic of China” highlights the significant and
persistent cyber-enabled espionage and attack threat China
poses to military and critical infrastructure. The report
stresses that the PLA views information operations as
essential for gaining information superiority early in a
conflict, which it sees as crucial for any military campaign’s
success.
Another concern is the accelerated decision timelines
facilitated by AI, which could leave limited room for
diplomatic de-escalation during crises. This speed advantage
might fundamentally alter the dynamics of nuclear
confrontations.
The concern is not about giving launch codes to AI systems
like ChatGPT, but rather that the speed of AI-assisted
decisions, combined with potential errors, could amplify the
risk of mistakes in critical military decisions.
AI companies are forming partnerships with the U.S. military,
with Anthropic announcing classified Claude Gov models for
national security in June, and OpenAI collaborating with U.S.
national laboratories, including those working on nuclear
weapons. China and Russia are also advancing the integration
of AI tools into both conventional and nuclear warfare.
These developments continue despite the AI nuclear weapons
limitation agreement signed between President Joe Biden and
Chinese leader Xi Jinping.
Google-KI am 10.8.2025: hat eine neue
Variante drauf: "Genie 3" mit Szenen in 3D+Geräuschen: KI-Wunder: Google‑KI «Genie 3» erschafft Welten in Sekunden
https://www.20min.ch/story/ki-wunder-googleki-genie-3-erschafft-welten-in-sekunden-103394646
Fototext: Einsatzkräfte könnten mit der KI realistische
Szenarien üben, wie hier das Löschen eines brennenden Raumes.
Michael Andai - Schreib «Herbstwald» – und du stehst
virtuell unter raschelnden Bäumen. Die neue KI «Genie 3» von
Google macht aus Texten begehbare 3D‑Szenen mit Licht und
Geräuschen.
Googles «Genie 3» erschafft aus Texten
lebendige 3D-Welten in Sekunden.
Die KI bietet neue Möglichkeiten für
Bildung, Training und kreative Berufe.
Nutzer können Szenarien wie Helikopterflüge
oder Stadtlandschaften simulieren.
Der Zugang zu «Genie 3» ist derzeit
eingeschränkt und benötigt leistungsfähige Computer.
Mit «Genie 3» zeigt Google, wie KI aus wenigen Wörtern ganze
virtuelle Welten baut. Du kannst dich frei darin bewegen,
hörst den Wind wehen und kannst Dinge aufheben oder werfen.
Sogar das Wetter lässt sich ändern: Ein Befehl wie «Lass es
regnen» reicht.
Wie funktioniert «Genie 3»?
Die KI hat aus Millionen Videos gelernt, wie sich Gegenstände
in der echten Welt verhalten. Sie erkennt, dass ein Ball rollt
oder Farbe an der Wand bleibt. Wenn du etwas ablegst und
später zurückkehrst, liegt es noch immer dort. Das Verhalten
der Objekte wirkt naturgetreu.
Die KI erschafft eine Szene mit einem Helikopterflug, per
Textbefehl und mit steuerbarer Kameraperspektive.
Die KI erschafft eine Szene mit einem Helikopterflug, per
Textbefehl und mit steuerbarer Kameraperspektive.
GoogleDeepMind/Screenshot
So verändert die KI unser Leben
Geschichte zum Anfassen: Lehrpersonen könnten historische
Städte oder biologische Vorgänge direkt im Klassenzimmer
zeigen – ohne teure 3D‑Software oder Programmierkenntnisse.
Die Szenen entstehen in Sekunden.
Training ohne Risiko: Feuerwehrleute, Piloten oder Techniker
können gefährliche Situationen üben, ohne Risiko. Die KI
erstellt realistische Trainingsumgebungen auf Knopfdruck.
Ideen werden erlebbar: Architekten oder Gestalter können
Konzepte sofort als virtuelle Szenen erleben. Das spart Zeit
und senkt die Hürde, kreative Inhalte auszuprobieren.
Ein neues Level für Games: Game-Studios könnten künftig Level
oder Spielwelten direkt per Text erzeugen. «Genie 3» übernimmt
Grafik, Bewegungen und Interaktionen automatisch. Entwickler
erwarten, dass solche Systeme klassische Game-Engines bald
ergänzen oder sogar ersetzen.
Genie 3 erzeugt bewegte Welten mit Prompt: Ein Mann auf dem
Jetski rast durch eine virtuelle Stadtlandschaft, inklusive
realistischer Wasserverdrängung und Tempo.
Genie 3 erzeugt bewegte Welten mit Prompt: Ein Mann auf dem
Jetski rast durch eine virtuelle Stadtlandschaft, inklusive
realistischer Wasserverdrängung und Tempo.
Im Moment ist «Genie 3» nur einem ausgewählten Publikum
zugänglich. Die Szenen bleiben nur wenige Minuten stabil und
benötigen leistungsstarke Rechner. Auch Text auf Schildern
oder realistische Stadtbilder funktionieren noch nicht
zuverlässig.
Die Technologie könnte Jobs in der Kreativbranche verändern
oder sogar gefährden. Ausserdem lassen sich damit täuschend
echte Szenen erzeugen. Google betont, dass das System mit
Schutzmechanismen ausgestattet ist, etwa mit Wasserzeichen und
klaren Nutzungsregeln.
Klingt nach Matrix? Ist aber real
Google zeigt mit «Genie 3», dass KI komplexe, echt wirkende
virtuelle Welten erschaffen kann, die wir betreten und
vielleicht bald ganz selbstverständlich nutzen werden.
ChatGPT am 15.8.2025: lässt das Hirn
schrumpfen: beim Taxifahrer, beim kombinierten Denken, beim
Studenten beim Recherchieren
Video: https://t.me/standpunktgequake/202982
KI-Katastrophe
am 27.8.2025: Ukrainekrieg: Kriminelle Nazi-Ukraine so
kriminell wie möglich: Das Geschäft mit den Toten läuft
auch mit KI-Argument: Für KI-Training: Kiew will Kriegsdaten an Verbündete
weitergeben
ORF
28.8.2025: Kriminelle benutzen KI für Spionage
und Erpressung zur Zerstörung von Unternehmen, Behörden,
Spitälern usw.: Wie Kriminelle [die] KI in eine Cyper-Superwaffe verwandeln
- Anthropic schlägt Alarm
von Mossad-Antifa-BLICK
Tobias Bolzern - Ein neuer Sicherheitsbericht zeigt: KI
wird von Kriminellen missbraucht. [Der Satan von Jerusalem
mit seiner Raketen-KI ist KEIN Einzelfall]. Mit ihrer Hlfe
erpressen sie Spitäler, Behörden und Unternehmen. Sogar
Nordkorea profitiert.
Die nächste Generation der Cyberangriffe ist da und sie wird
von künstlicher Intelligenz (KI) gesteuert. Ein Bericht des
US-Unternehmens "Anthropic" zeigt, wie Cyberkriminelle dessen
Sprachmodell Claude missbrauchen. Die genannten Beispiele
lesen sich wie aus einem Thriller.
Kriminelle setzten das KI-Tool Claude Code ein, um allein im
vergangenen Monat 17 Ziele weltweit zu attackieren, darunter Behörden,
Spitäler und Rettungsdienste. Die KI übernahm fast
alles: Sie spähte Netzwerke aus, stahl Zugangsdaten,
durchsuchte Datenbanken nach sensiblen Informationen und
schrieb die Erpresserschreiben. Teilweise forderte die
Täterschaft über eine halbe Million Dollar Lösegeld pro Fall.
Nordkorea und Liebesbetrug
Anders als bei klassischer Ransomware verschlüsselten die
Angreifer die Systeme jedoch nicht. Stattdessen drohten sie,
die Beute zu veröffentlichen: Patientendaten,
Finanzunterlagen, Regierungsdokumente. "Früher brauchte es
dafür ein ganzes Team von Spezialisten. Heute reicht eine
Person mit KI", sagt Anthropics Sicherheitschef Jacob Klein
gegenüber dem Tech-Portal theverge.com.
Der Bericht "Threat Intelligence Report" nennt weitere Fälle:
Nordkoreanische IT-Arbeiter sollen sich mit Hilfe von Claude
in westliche Tech-Firmen eingeschlichen haben, um mit
Remote-Jobs - ohne entsprechendes Know-How - Geld für das
Waffenprogramm des Regimes zu verdienen. In einem anderen
Szenario half die KI bei sogenannten Romance Scams in den
"USA", Japan und Südkorea: Sie textete schmeichelnde
Nachrichten für Betrüger, die damit Opfer köderten.
"KI-Systeme als Waffe" - "Cybercrime wird einfacher": Die
KI hilft dabei
Das Unternehmen hat als Reaktion zahlreiche Konten gesperrt,
neue Filter entwickel tund Hinweise an Ermittlungsbehörden und
Partner weitergegeben. Anthropic gibt sich dabei offen und
veröffentlichte den Bericht bewusst, um die Branche zu warnen
und gemeinsame Abwehrstrategien zu entwickeln.
Anthropic sagt, viele Attacken seien gestoppt worden. Doch die
Praxis zeigt: Cybercrime wird einfacher. KI erlaubt auch
Anfängern Angriffe, die früher nur Profis konnten - vom
Schadsoftware-Baukasten bis zur Erpressung. Für Verteidiger
gelten neue Regeln. Denn Komplexität ist kein Indiz mehr für
die Erfahrung der Angreifer. Oder wie es in dem Bericht
heisst: "KI-Systeme werden zu Waffen umfunktioniert."
Staatliche Spionage mit
KI am 2.9.2025: Gesicht - Körper - und wie er/sie
läuft: BRIAR: Das neue Auge des Überwachungsstaates -
Gesicht, Körper, Gang - der ganze Mensch wird zur
biometrischen Signatur
https://uncutnews.ch/briar-das-neue-auge-des-ueberwachungsstaates-gesicht-koerper-gang-der-ganze-mensch-wird-zur-biometrischen-signatur/
Ein unscheinbarer Name, eine gewaltige Tragweite: BRIAR –
Biometric Recognition and Identification at Altitude and
Range – ist das jüngste Überwachungsprogramm der
US-Geheimdienste. Offiziell gestartet 2021, verspricht es
nichts weniger, als Menschen auf Hunderte von Metern
Entfernung oder von Drohnen aus präzise zu identifizieren
– anhand von Gesicht, Körperform oder sogar Gangart.
Das Programm läuft über 48 Monate, getragen von der
US-Forschungsbehörde IARPA. Ziel ist es, Software zu
entwickeln, die biometrische Merkmale auch unter
schwierigen Bedingungen wie Luftturbulenzen oder erhöhten
Blickwinkeln erfassen kann. Mit anderen Worten: Kein
Fluchtpunkt mehr, keine Masse, die Anonymität bietet.
Stos Papadakis, Programmleiter von BRIAR, erklärt die
Stoßrichtung offen: Grenzsicherung, Terrorismusbekämpfung,
Schutz kritischer Infrastrukturen. Doch wer genau hinhört,
erkennt: Dieses System soll überall anschließen – „an
bestehende und künftige Kamerasysteme“ – von Flughäfen bis
zu städtischen Sicherheitsnetzen. Damit wird BRIAR zu
einem universell einsetzbaren Werkzeug der totalen
biometrischen Kontrolle.
Besonders brisant ist der Anspruch, Menschen „besser als
trainierte Experten“ auf Distanz zu erkennen. Mit Hilfe
von Machine Learning sollen Gesicht, Körper und Gang
automatisch abgeglichen und ohne menschliche Prüfung in
einer kombinierten Analyse verarbeitet werden. Die
Software wählt eigenständig die beste
Identifikationsmethode und gibt ein Ergebnis aus. Das
klingt effizient – ist aber zugleich ein Schritt hin zu
vollautomatisierter Verdachtsproduktion.
Kritisch ist auch der Kontext: In Zeiten wachsender
Spannungen setzt die US-Regierung mit BRIAR auf die
nahtlose Verschmelzung von ziviler Infrastruktur mit
militärisch-geheimdienstlichen Anwendungen. Ausgerechnet
unter dem Schlagwort „Schutz“ wird hier eine Technologie
etabliert, die Bewegungen, Verhaltensweisen und
Körperdaten ganzer Bevölkerungen erfassen kann.
Datenschützer warnen: Was heute mit Terrorbekämpfung
gerechtfertigt wird, kann morgen zur Unterdrückung
politischer Opposition, zur Migrationskontrolle oder zur
sozialen Überwachung eingesetzt werden. Denn BRIAR zielt
nicht nur auf „die Bösen“ – es zielt auf alle, die im
Sichtfeld der Kameras auftauchen.
Die entscheidende Frage lautet: Wollen wir in einer Welt
leben, in der schon der Gang über die Straße oder die
Körperhaltung ausreichen, um staatliche Algorithmen unsere
Identität ermitteln zu lassen? BRIAR zeigt: Technisch ist
diese Zukunft nicht mehr fern – sie wird gerade
programmiert
NRW mit "Supercomputer" am 5.9.2025: für mehr
KI in NRW - bis der Strom ausfällt: Merz weiht Supercomputer ein: "Jupiter" soll NRW zum
KI-Hotspot machen
Supercomputer "Jupiter" soll NRW zum KI-Hotspot machen -
Rheinland - Nachrichten - WDR - Rheinland - Nachrichten - WDR
www1.wdr.de (https://share.google/0GUasAjuoo8NiCih1)
https://t.me/standpunktgequake/205881
NRW als KI-Hotspot? Warum Supercomputer "Jupiter", der heute
in Jülich von Bundeskanzler Merz eingeweiht wurde, dafür
wichtig ist.
Killer-Trump am 5.9.2025: killt auch jede Demokratie - mit
KI
https://t.me/standpunktgequake/205879
Während Washington die Welt mit Sonntagsreden über Freiheit
und Demokratie überschüttet, plant das Pentagon im Hintergrund
die totale digitale Kontrolle. Mit Künstlicher Intelligenz
will das US-Militär künftig ganze Gesellschaften manipulieren
und jeden kritischen Gedanken im Netz unterdrücken.
5.9.2025: KI als Propagandawaffe: Das Pentagon plant die
totale Meinungskontrolle - Contra24
https://contra24.online/2025/09/ki-als-propagandawaffe-das-pentagon-plant-die-totale-meinungskontrolle/
Pentagon plant KI-Propaganda: US-Militär will per Algorithmus
Meinungen steuern und kritische Stimmen im Netz unterdrücken.
KI in der Medizin am 6.9.2025: KI-Stethoskop erkennt Herzerkrankungen besser
https://www.nau.ch/news/good-news/ki-stethoskop-erkennt-herzerkrankungen-besser-67039715
Marie Augustin - Spanien - Forschende haben eine KI zur
Erkennung von Herzproblemen entwickelt. Eine Studie zeigt: Die
KI-Erkennung funktioniert besser als ein herkömmliches
Stethoskop.
Kampfdrohnen mit KI am 10.9.2025: Systematic
und Helsing planen was: KI-gestützte Drohnenschwärme: Zwei Firmen kündigen
Partnerschaft an
https://www.nau.ch/news/wirtschaft/ki-gestutzte-drohnenschwarme-zwei-firmen-kundigen-partnerschaft-an-67042372
Keystone-SDA - Deutschland - Die Firmen Systematic und Helsing
planen eine gemeinsame Zusammenarbeit in der KI-gestützten
Drohnentechnologie.
Neue Idee am 10.9.2025: Die
KI-Jesus-Fantasie-Bibel
https://t.me/Impfschaden_Corona_Schweiz/120329
🚨 Ein „KI-Bibel“-Kanal verbreitet sich wie ein Lauffeuer –
doch die Kräfte dahinter sind alles andere als heilig.
👉 Hinter den spektakulären Clips steht Pray.com, das mit
Palantir – dem von Peter Thiel mitgegründeten
Überwachungsgiganten – kooperiert. Damit prägt nun Silicon
Valley, wie Millionen Menschen die Bibel erleben.
✍️ Zusammen mit Hararis Plänen, Religion fürs KI-Zeitalter
umzuschreiben, und Thiels Konferenzen über den „Antichristen“
wird klar: Es geht nicht um ein Video – es geht darum, wer die
Zukunft des Glaubens kontrolliert.
⏳ Der Glaube wird in Echtzeit neu geschrieben.
WARNUNG von Snowden am 19.9.2025: KI regiert
Computer, Laptop und Telefon: EILMELDUNG: EDWARD SNOWDEN SPRENGT EINE DIGITALE BOMBE
GEGEN JOE ROGAN!
https://t.me/Impfschaden_Corona_Schweiz/120771
Edward Snowden sagte zu Joe Rogan: „Sie können mit deinem
Gerät machen, was sie wollen.“ Dein Telefon gehört dir nicht
mehr, es ist eine von der Regierung kontrollierte Waffe. Deine
Daten sind ihre Macht. Das ist die Botschaft, die sie nicht
wollen, dass du sie hörst.
DEIN GERÄT IST IHR SCHLACHTFELD
Snowden warnte nicht, er fällte ein Urteil:
„Sie können alles über dich sehen. Sie können alles sehen, was
dein Gerät macht, und sie können mit deinem Gerät tun was sie
wollen.“
Ein Satz zerstörte die Illusion von Privatsphäre! Jedes
Telefon, Tablet, jeder Computer ist jetzt eine ferngesteuerte
Überwachungsdrohne. Du wirst beobachtet, katalogisiert und
profiliert. Deine Kamera und dein Mikrofon sind nicht unter
deiner Kontrolle. Deine Dateien sind nicht mehr sicher, sie
können verändert, eingeschleust, als Waffe benutzt werden.
ES IST NICHT NUR ÜBERWACHUNG, ES IST EINGRIFF!
Snowden enthüllte, dass sie nicht nur spionieren, sie handeln
auch.
🔸 Sie können deine Kamera und dein Mikrofon nach Belieben
ein- und schalten.
🔹 Sie können sich online als dich ausgeben.
🔸 Sie können gefälschte oder illegale Dateien in dein System
einschleusen und diese als „Beweise“ ausgeben.
Dein Gerät ist ein trojanisches Pferd, es schläft neben dir,
hört dir zu und kann benutzt werden, um dich zu belasten.
ROGAN IST DIE LETZTE PLATTFORM FÜR WAHRHEIT.
Snowden wählte Rogan, weil Big Tech seinen Namen zensiert und
die Behörden ihn auslöschen wollen. Rogan gab ihm das, wovor
sie Angst haben: eine Plattform, die Millionen erreicht, ohne
ihre Filter.
DER FEIND IST INLANDS
Es geht nicht um ausländische Hacker, es sind NSA, CIA, FBI
und ihre Firmenverbündeten, Google, Apple, Amazon, Facebook,
TikTok. Sie haben dein Telefon in ein Ortungshalsband
verwandelt, und du trägst es freiwillig.
KI MACHT ERLAUBNIS ÜBERFLÜSSIG
KI hört zu, markiert, sagt voraus und klassifiziert dich in
Echtzeit. Dein Feed wird geformt, deine Worte markiert, deine
Muster protokolliert. Du bist kein Bürger, du bist ein
Datenpunkt.
DIE LETZTE ROTE PILLE
Du musst dein Telefon nicht wegwerfen , aber du solltest die
Illusion zerstören, dass es dir dient!
Stoppe blinde Updates.
Nutze verschlüsselte, dezentrale Apps!
Halte dein Telefon fern, wenn du die Wahrheit sagst.
‼️Verbreite Snowdens Warnung‼️
Das ist keine Paranoia, das ist Besatzung. Der Krieg ist
digital, und er steckt schon in deiner Tasche.
https://t.me/BenjaminFulfordNew
Telegram (https://t.me/BenjaminFulfordNew)
Benjamin Fulford
KI-google am 21.9.2025: erspart viele Klicks
bei der Suche: Googles KI-Suche: Weniger Klicks bei Onlineportalen
https://orf.at/stories/3406096/
Der US-Internetkonzern Google hat mit seiner
KI-gestützten Suchmaschine den Datenverkehr im Netz
offenbar grundlegend verändert. Wie das „Handelsblatt“
heute unter Berufung auf Zahlen des Analysehauses
Similarweb mitteilte, sanken die Klickzahlen
beispielsweise von Gesundheitsportalen und
Wissensplattformen in den vergangenen Monaten deutlich,
weil Antworten direkt in der Suche erscheinen. Auch
Reiseportale und Nachrichtenseiten leiden demnach
darunter.
In den USA büßten einige Websites den Angaben zufolge
die Hälfte ihrer Zugriffe ein, in Europa seien die
Rückgänge bisher geringer. Zuwächse verzeichnen den
„Handelsblatt“-Angaben zufolge indes einige
Handelsketten. Die Nutzer und Nutzerinnen kämen nach
Einschätzung eines davon betroffenen Unternehmens seit
der Einführung der KI-Zusammenfassungen auf Google auch
mit einer klareren Kaufabsicht statt mit dem Wunsch nach
unverbindlicher Inspiration.
ebenda:
21.9.2025: Googles KI-Suche schwächt Wissensportale und Medienseiten
- Webseiten verlieren Klicks,
weil die KI bereits die Antwort liefert
https://www.suedtirolnews.it/wirtschaft/googles-ki-suche-schwaecht-wissensportale-und-medienseiten
Von: APA/AFP
Der US-Internetkonzern Google hat mit seiner
KI-gestützten Suchmaschine den Datenverkehr im Netz
offenbar grundlegend verändert. Wie das “Handelsblatt” am
Sonntag unter Berufung auf Zahlen des Analysehauses
Similarweb mitteilte, sanken die Klickzahlen
beispielsweise von Gesundheitsportalen und
Wissensplattformen in den vergangenen Monaten deutlich,
weil Antworten direkt in der Suche erscheinen. Auch
Reiseportale und Nachrichtenseiten leiden demnach
darunter.
In den USA büßten einige Webseiten den Angaben zufolge
die Hälfte ihrer Zugriffe ein, in Europa sind die
Rückgänge bisher geringer. Den Webportalen fehlten dadurch
nicht nur Werbeeinnahmen, auch die Zahl neuer Inhalte gehe
zurück.
Einige deutsche Handelsketten verzeichnen dagegen
Zuwächse. Die Handelskette Media Markt beispielsweise
erhielt zuletzt dem Bericht zufolge mehr Zugriffe über
Google. Die Nutzer kämen nach Einschätzung des
Unternehmens seit der Einführung der KI-Zusammenfassungen
auf Google auch mit einer klareren Kaufabsicht statt mit
dem Wunsch nach unverbindlicher Inspiration. Die
Unternehmen Otto und Zalando setzen demnach parallel
stärker auf eigene Apps und Kundenprogramme.
Neues KI-Videoprogramm
am 27.9.2025: "EbSynth" kann Videos mit einem einzigen
Bild verändern: KI-Videobearbeitung: Diese Gratis-Software spart dir
stundenlange Videobearbeitung
https://www.20min.ch/story/gratis-videobearbeitung-mit-ki-ebsynth-wurde-von-vfx-kuenstlern-entwickelt-103421221
Michael Andai -- Videobearbeitung
Bild für Bild? Das geht auch einfacher. «EbSynth»
verändert dein ganzes Video, wenn du nur ein
einzelnes Bild davon anpasst.
Die Gratis-Software «EbSynth» wurde von VFX-Künstlern
entwickelt.
Sie überträgt Änderungen eines einzigen Bildes auf
den gesamten Videoclip.
Damit lassen sich Szenen komplett umgestalten oder
kleine Anpassungen vornehmen.
«EbSynth» ist kostenlos im Browser verfügbar, aber
auf 720 p Auflösung beschränkt.
Hinter «EbSynth» stehen zwei VFX-Künstler. Sie wollten
die mühsame Arbeit abschaffen, bei der du jedes einzelne
Bild eines Videos nacheinander bearbeiten musst. Mit
«EbSynth» reicht es aus, wenn du ein
Bild bearbeitest, und die Software wendet es auf die
ganze Sequenz an.
Vom
Drachen bis zum Sandwich
Mit der Anwendung lässt sich fast jede Szene verändern:
Du kannst eine Ente in einen Drachen verwandeln oder eine
Aufnahme in gezeichnete Bilder umformen.
Auch kleine Anpassungen sind möglich: digitales Make-up,
Retuschen oder ein Baguette, das nachträglich zu einem
Sandwich wird.
Gratis,
direkt im Browser
«EbSynth» läuft ohne etwas zu installieren direkt in
deinem Browser.
Der kostenlose Plan enthält alle Kernfunktionen, keine
Wasserzeichen und keine Laufzeitbegrenzung. Einziger
Haken: Die Auflösung ist auf 720 p beschränkt. Wer höhere
Auflösung will, muss das Portemonnaie aufmachen.
Die Bedienung ist einfach, selbst ohne
Erfahrung mit Videobearbeitung. Es lohnt sich,
eine möglichst starke Grafikkarte zu haben, wenn man
längere Videos editieren muss. Die Anwendung ist sehr
rechenintensiv.
Bearbeite dieses Bild gleich im Browser. Mit den
Sternchen oben kannst du die KI aktivieren, mit der
du das Bild per Prompt editieren kannst.
Klick auf «Play»: «EbSynth» überträgt die Änderung
aufs ganze Video.
Optional kann «EbSynth» Zwischenbilder selbst
generieren.
«EbSynth» macht die aufwendige Bild-für-Bild-Arbeit
überflüssig und zeigt, wie weit browserbasierte
Videobearbeitung heute schon ist.
27.9.2025: KI kann aus Skizzen Designstudien
herstellen: KI-App-Design: Keine Ahnung von Design? Dieses KI-Tool
übernimmt für dich
https://www.20min.ch/story/ki-app-design-keine-ahnung-von-design-dieses-ki-tool-uebernimmt-fuer-dich-103420236
Michael Andai - Skizze hochladen oder Beschreibung eintippen
und Googles KI-Tool Stitch erstellt Web- und App-Designs samt
Code.
KI-App-Design: Keine Ahnung von Design? Dieses KI-Tool
übernimmt für dich
Googles KI-Tool Stitch generiert App- und Webdesigns
automatisch.
Man gibt eine Skizze oder Textbeschreibung ein.
Stitch liefert fertige Oberflächen inklusive HTML-
und CSS-Code.
Das spart Zeit und erleichtert die Arbeit für
Designer und Entwickler.
Stitch ist Googles KI-Tool für App- und Webdesigns.
Stitch wurde bei
der Google I/O 2025 vorgestellt. Umfangreiche
Updates, teils als «Stitch 2.0» bezeichnet, folgten diesen
Monat. Wer ein Layout entwerfen will, beschreibt es in
Alltagssprache, etwa: «Login-Seite mit Titel und Button in
Blau.» Der Text reicht, damit das System eine passende
Oberfläche erstellt. Natürlich kann man im Prompt auch
detaillierter beschreiben, was gewünscht ist.
In
Minuten zum klickbaren Entwurf
Stitch erzeugt aus Skizzen, Screenshots oder kurzen
Beschreibungen klickbare Oberflächen, inklusive HTML- und
CSS-Code. Die Resultate lassen sich direkt in Figma
bearbeiten oder im Code-Editor weiterverwenden. Das spart
Zwischenschritte bei der Gestaltung. Im Experimental-Modus
mit Gemini 2.5 Pro ist der Figma-Export teils
eingeschränkt.
Drei
Funktionen, die Arbeit erleichtern
Mehrere Varianten pro
Eingabe
Für jede Beschreibung liefert Stitch
verschiedene Designvorschläge, die sich schnell
vergleichen lassen. Von einzelnen Screens lassen sich auf
Knopfdruck weitere Varianten erstellen.
Direkt in Figma oder als
Code weiterverwenden
Entwürfe können als Projektdatei
exportiert oder als sauberer Code gespeichert werden. Das
ist ideal für den nächsten Schritt.
Zwei Google-KI-Modelle zur
Auswahl
User wählen zwischen zwei
Google-KI-Modellen: Gemini 2.5 Pro (genauer) oder Flash
(schneller). Beide lassen sich im Rahmen eines
Nutzungslimits kostenlos verwenden, wenn auch mit einer
täglichen Limite.
Hier
stösst Stitch an Grenzen
Stitch eignet sich vor allem für einfache Oberflächen.
Google arbeitet an Verbesserungen der
Multi-Screen-Workflows, dennoch berichten Nutzer von
Limits. Zum Start unterstützte Stitch vor allem englische
Prompts; zu weiteren Sprachen gibt es Stand heute keine
Informationen.
Südtirol (Italien) am 2.10.2025:
Entwicklungszentrum für KI-Lösungen in Südtirol eröffnet
https://www.suedtirolnews.it/video/imm-inaugurazione-siag-lab-ai
Südtirol (Italien) am 2.10.2025: Microsoft
nistet sich ein: Entwicklungszentrum für KI-Lösungen in Südtirol eröffnet -
Memorandum mit Microsoft unterzeichnet
https://www.suedtirolnews.it/politik/entwicklungszentrum-fuer-ki-loesungen-in-suedtirol-eroeffnet
In Indien zieht ein Streit über Persönlichkeitsrechte von
Schauspielern im Zusammenhang mit KI-produzierten Filmen immer
größere Kreise. Das Bollywood-Schauspielerpaar Abhishek
Bachchan und Aishwarya Rai Bachchan ist gegen die
Google-Tochter YouTube vor Gericht gezogen und hat erreicht,
dass einige umstrittene YouTube-Links gesperrt wurden.
Den Bachchans geht es darum, dass Aufnahmen von ihnen und
ihren Stimmen nicht in KI-generierten Filmen mit mitunter
anzüglichem Inhalt genutzt werden. Das auch durch Auftritte
beim Filmfestival in Cannes bekannte Paar verlangt von
Google aber auch, dass dennoch unerlaubt auf YouTube
hochgeladene Videos nicht für das Training von künstlicher
Intelligenz genutzt werden können.
Indien ist mit rund 600 Millionen Nutzerinnen und Nutzern
der weltweit größte Markt für YouTube. Besonders populär auf
der Plattform sind Bollywood-Filme. Die komplexe Bewertung
von Persönlichkeitsrechten in KI-generierten Filmen hat
zuletzt in Indien an Bedeutung gewonnen, wo der Schutz von
Persönlichkeitsrechten nicht so eindeutig geregelt ist wie
in anderen Ländern.
Die Bachchans argumentieren, dass durch die Google-Politik
zu Inhalten und KI-Training durch Dritte die
Weiterverbreitung umstrittener Inhalte verstärkt werde. Sie
fordern in ihrer rund 1.500 Seiten langen Klageschrift gegen
Google und andere Websites sowie kleinere
Fanartikelverkäufer 450.000 Dollar Schadenersatz.
Kriminelle, satanistische Freimaurer-Elite am
3.10.2025: Sie wollen menschliche Tiere, die die KI für sich
entscheiden lassen: Technokraten wollen, dass KI die Religion des 21.
Jahrhunderts wird
https://rumble.com/v6e2eaa-technocrats-want-ai-to-be-the-religion-of-the-21st-century.html?e9s=src_v1_mfp
https://t.me/standpunktgequake/209706
Yuval Noah Harari beschreibt, wie Big Data und Algorithmen zur
neuen ultimativen Autorität werden sollen.
Menschen sollen ihr Leben nicht mehr selbst bestimmen, sondern
Entscheidungen an KI-Systeme abtreten – die neuen „Priester“
des digitalen Zeitalters.
Im Silicon Valley entstehen bereits die Glaubenssysteme der
Zukunft, die unseren Alltag, unsere Freiheit und den Sinn des
Lebens neu definieren sollen.
Kalifornien mit neuem KI-Sicherheitsgesetz am
4.10.2025: 50 Tote sind erlaubt: KI-Sicherheitsgesetz: Kalifornien: Neues KI-Gesetz greift
erst ab 50 Toten
https://www.20min.ch/story/ki-sicherheitsgesetz-kalifornien-neues-ki-gesetz-greift-erst-ab-50-toten-103424995
Michael Andai - Kalifornien zwingt mit SB 53 erstmals
Konzerne wie OpenAI, Google oder Meta, ihre
Sicherheitskonzepte offenzulegen. Eine 50-Tote-Schwelle
sorgt aber für Aufregung.
Kalifornien führt ein neues
KI-Sicherheitsgesetz namens SB 53 ein.
Es zwingt grosse KI-Konzerne zur
Offenlegung ihrer Sicherheitskonzepte.
Das Gesetz greift jedoch erst bei über 50
Toten oder Milliardenschäden.
Kritiker bemängeln diese hohe Schwelle und
die geringen Strafen.
Ende September hat Gouverneur Gavin Newsom das Gesetz SB 53
unterzeichnet. Es gilt ab 2026 und betrifft nur die grössten
Entwickler mit einer halben Milliarde Dollar Umsatz und
Modellen mit enormer Rechenleistung, sogenannte
Frontier-Modelle. Betroffen sind vor allem OpenAI, Google
Deepmind, Meta und Anthropic.
Die Firmen müssen künftig ihre Sicherheitsrahmen
veröffentlichen, Vorfälle wie Kontrollverlust oder
Täuschungsversuche durch KI-Systeme melden und Whistleblower
schützen. «Dieses Gesetz schafft Leitplanken für Vertrauen,
Fairness und Verantwortung bei neuer Technologie», sagte
Senator Scott Wiener in einer Pressemitteilung.
Kritik an Todesgrenze und Strafen
Kritiker bemängeln, dass SB 53 nur bei «katastrophalen
Risiken» greift, also bei Vorfällen mit über 50 Toten oder
Schäden von mehr als einer Milliarde Dollar. Risiken wie das
virale Verbreiten von Fehlinformationen oder diskriminierende
Algorithmen sind nicht erfasst.
Auch die Strafen gelten als schwach. Verstösse kosten
höchstens eine Million Dollar. Branchennahe Verbände wie CTA
und Chamber of Progress kritisierten u. a. diese geringe
Sanktionshöhe, die bei einem Multi-Milliarden-Konzern gar
nicht ins Gewicht fällt.
Das Gesetz adressiert zudem nur Frontier-Modelle über 10^26
FLOPs und grosse Entwickler über 500 Mio. US-Dollar Umsatz.
Ein feinjustiertes Open-Source-Modell, das diese Schwellen
nicht überschreitet, fällt nicht unter SB 53. Wer also ein
frei verfügbares Modell wie z. B. Metas Llama verändert und
weiterentwickelt, fällt nicht unter das Gesetz.
FLOPs? Was bedeutet das?
FLOPs steht für Floating Point Operations per Second. Es ist
ein Mass dafür, wie viele mathematische Rechenoperationen ein
Computer in einer Sekunde ausführen kann.
Für KI-Modelle bedeutet das: Je mehr FLOPs beim Training
benötigt werden, desto grösser, teurer und leistungsfähiger
ist das Modell.
Die Grenze im Gesetz liegt bei 10^26 FLOPs. Das ist eine 1 mit
26 Nullen: eine unfassbar hohe Rechenmenge. Nur die
allergrössten KI-Modelle, wie GPT-5 und Co., erreichen diese
Werte.
Wie viele FLOPs genau ein Modell hat, ist nicht öffentlich.
Alle Angaben zu FLOP-Zahlen aktueller Modelle sind rein
spekulativ.
KI-Branche warnt vor Innovationsbremse
Die Debatte um SB 53 verlief im Vorfeld hitzig. Befürworter
wie Gouverneur Newsom und Forscherinnen wie die
Stanford-Professorin Fei-Fei Li sehen darin einen wichtigen
Rahmen für mehr Verantwortung.
Von den betroffenen KI-Firmen war Anthropic (mit der KI
Claude) die einzige, die sich für das Gesetz aussprach.
Gegenwind kam von den Tech-Konzernen und ihren Verbänden.
OpenAI und Meta drängten auf Harmonisierung mit nationalen und
EU-Standards, um Doppelregulierung zu vermeiden. Die Consumer
Technology Association erklärte: «Die USA brauchen einen
nationalen Standard, nicht unterschiedliche Vorschriften in
jedem Bundesstaat.»
Das Gesetz ist bereits abgeschwächt und ein Kompromiss:
Strengere Vorgaben wie Kill Switches und Vorab-Audits aus dem
gescheiterten Vorgänger SB 1047 wurden gestrichen. Im
Vergleich zum EU AI Act bleibt Kalifornien damit deutlich
milder. Während die EU ganze Anwendungsbereiche verbietet und
Strafen bis zu 7 Prozent des globalen Umsatzes vorsieht, setzt
Kalifornien auf öffentliche Offenlegung.
Was forderte SB 1047?
Der Vorgängerentwurf zu SB 53 war viel strenger. Er verlangte
unter anderem:
Kill Switch: Ein Not-Aus für KI-Systeme. Ähnlich wie ein roter
Knopf an einer Maschine. Entwickler oder Behörden hätten ein
Modell sofort abschalten können, wenn es ausser Kontrolle
gerät oder gefährlich wird.
Vorab-Audits: Unabhängige Prüfungen, bevor ein neues Modell
veröffentlicht wird. Ziel war, Risiken frühzeitig zu erkennen
und Probleme zu verhindern, bevor die KI auf den Markt kommt.
SB 53 verzichtet auf diese Vorgaben und setzt stattdessen auf
Transparenzpflichten.
Auswirkungen auf Schweizer Firmen
SB 53 gilt zwar nur in Kalifornien, kann aber auch
Auswirkungen auf den globalen Markt haben. Wer seine Modelle
dort anbietet, muss die Regeln einhalten. Für Schweizer
Unternehmen bedeutet das: Neben dem EU AI Act kommen
zusätzliche Vorschriften hinzu. Zurzeit gibt es kein Schweizer
Modell, welches als Frontier Model klassifiziert ist.
Digitalswitzerland-Chefin Franziska Barmettler sagt: «Für die
Schweiz hat SB 53 zwar keine direkte Rechtswirkung, liefert
aber Hinweise, wie ein führender Standort verantwortungsvolle
KI-Entwicklung mit unternehmerischer Freiheit verbindet.»
Transparenz ja – Strafen nein
Mit SB 53 hat erstmals ein US-Bundesstaat ein umfassendes
KI-Sicherheitsgesetz erlassen. Es zwingt die mächtigsten Labs
zu mehr Transparenz und öffentlicher Rechenschaft. Kritik
entzündet sich unter anderem an der Todesgrenze von 50 Opfern,
an den geringen Strafen und an Lücken bei
Open-Source-Modellen.
Ob Kalifornien damit tatsächlich mehr Sicherheit schafft, wird
sich erst mit der Umsetzung zeigen. Ab 2027 sollen die Regeln
jährlich überprüft und angepasst werden.
Sie schwärmen von KI:
KI in der Autofabrik am 16.10.2025: ist
natürlich schneller als Menschen - bis der Strom ausfällt: KI im Werk: Die Zukunft der Autobranche
https://automobile.nau.ch/stories/ki-im-werk-die-zukunft-der-autobranche-67054921
Daniel Huber - Künstliche Intelligenz revolutioniert bereits
heute die Autoproduktion. Erfahren Sie, wie Fabriken dank KI
schneller und effizienter arbeiten.
In den Autofabriken verändert Künstliche Intelligenz gerade
alles. KI macht die Produktion in der Schweiz und weltweit
viel effizienter.
Sie hilft Herstellern, effektiv Kosten zu sparen und schneller
zu arbeiten. Das ist zweifelsfrei ein grosser Schritt in die
Zukunft. Doch wie funktioniert das eigentlich?
Smarte Roboter übernehmen
Roboter waren schon immer wichtig im Autobau und jetzt werden
sie dank KI viel schlauer: Sie lernen aus generierten Daten
und optimieren ihre Abläufe selbst.
Das senkt die Fehlerquote massiv und verbessert die Qualität.
Die KI analysiert dabei riesige Datenmengen in Echtzeit und
steuert die Montagebänder präziser als jeder Mensch.
Bessere Planung, weniger Abfall
KI-Systeme planen auch die Lieferketten neu und sagen genau
voraus, wann welche Teile benötigt werden. Das verhindert
Engpässe und Überbestände im Lager. Weniger Material liegt
nutzlos herum oder wird gar verschwendet.
Die Produktion wird somit nachhaltiger und umweltfreundlicher.
Ausserdem reduziert diese präzise Planung die Produktionszeit
deutlich. Das Resultat: Kürzere Wartezeiten für Kunden,
beispielsweise bei uns in der Schweiz.
Produktionskontrolle: Fehler schnell aufgedeckt
Qualitätskontrolle ist extrem wichtig beim Autobau. Kameras
erfassen längst jedes Detail der Karosserie oder des Motors.
Daran gekoppelte KI-Technik erkennt Abweichungen, die
bisherige Systeme mitunter übersahen. Der Grund: Sie lernt
stetig neue Fehlerbilder dazu und verbessert sich laufend
selbst.
Das sichert eine durchgehend hohe Produktqualität. Hersteller
könnten dadurch etwa das Risiko für teure Rückrufaktionen
senken.
Hilfe für die Mitarbeitenden
KI ersetzt die Mitarbeitenden nicht einfach, sondern
unterstützt sie vielmehr im Arbeitsalltag. Die Systeme
übernehmen monotone oder gefährliche Aufgaben.
So können sich Fachkräfte auf komplexere Arbeiten
konzentrieren. Sie überwachen ausserdem die KI und greifen nur
noch bei Bedarf ein.
Das Auto lernt selbst
Die KI prägt nicht nur die Fabrik, sondern auch das
Endprodukt. Software-Updates verbessern die Leistung Ihres
Autos ständig.
Die Fahrzeuge sammeln Daten und optimieren etwa den Verbrauch.
Auch autonomes Fahren wird erst durch komplexe KI-Systeme
möglich.
Das Auto wird so zu einem smarten Gerät auf Rädern und lernt
während der gesamten Lebensdauer.