Kontakt / contact       Hauptseite / page
                  principale / pagina principal / home        zurück / retour / indietro / atrás / back
<<        >>

KI Künstliche Intelligenz KI - Meldungen 06 - ab 1.1.2026












Wortschöpfung: Die Atom-KI (M.P. - 28.10.2025)

KI=KATASTROPHE:
KI-Fabrik "Colossus" von Musk in Memphis ("USA") am 23.1.2026: Gigantischer Strom- und Wasserverbrauch:
«Umwelt-Rassismus»: Musks Supercomputer frisst so viel Strom wie der Kanton Aargau
https://www.20min.ch/story/umwelt-rassismus-musks-supercomputer-frisst-so-viel-strom-wie-der-kanton-aargau-103489087

Michael Andai -- Das Rechenzentrum Colossus 2 soll KI mit brachialer Rechenleistung vorantreiben und verschlingt zurzeit bis zu ein Gigawatt Strom. In Memphis sorgt das für Ärger: Bewohner berichten von Lärm und Abgasen.
  • Elon Musks KI-Firma xAI errichtet in Memphis das Rechenzentrum «Colossus 2».
  • Die Anlage benötigt extrem viel Strom und verbraucht bis zu 20 Millionen Liter Wasser täglich.
  • Mobile Gasturbinen zur Stromerzeugung belästigen die Anwohner mit Lärm und Abgasen.
  • Umweltorganisationen werfen xAI «Umwelt-Rassismus» vor.


Meldungen

präsentiert von Michael Palomino

Teilen / share:

Facebook









KI bei der WHO am 2.1.2026: Das Impfmonster Lauterbach will Impfkritiker mit KI überwachen lassen:
WHO weist Regierungen an, Online-Impfkritik in Echtzeit mit KI zu überwachen
https://uncutnews.ch/who-weist-regierungen-an-online-impfkritik-in-echtzeit-mit-ki-zu-ueberwachen/
https://t.me/uncut_news/86396

Fachzeitschrift „Vaccines“

Glaube an Impfstoffe – oder werde ins Visier genommen.

Jon Fleetwood

Die Weltgesundheitsorganisation (WHO) hat Regierungen angewiesen, Online-Informationen zu überwachen, die die Legitimität von Grippeimpfstoffen infrage stellen, und „Gegenmaßnahmen“ gegen jene zu ergreifen, die das Impfstoff-Dogma der WHO hinterfragen. Dies geht aus einer im November veröffentlichten Publikation in…



KI im Film verwendet am 4.1.2026: Film "Expedition 33" verliert 2 Preise:
«Clair Obscur: Expedition 33»: Director äussert sich zum KI-Skandal
https://www.nau.ch/news/games/clair-obscur-expedition-33-director-aussert-sich-zum-ki-skandal-67080048

Fabia Söllner -- USA -- «Clair Obscur: Expedition 33» steht nach einem KI-Skandal unter Druck. Director Guillaume Broche bezieht Stellung und verliert eine Millionensumme.

Der KI-Eklat um «Clair Obscur: Expedition 33» hat dem gefeierten Indie-Rollenspiel zwei wichtige Auszeichnungen gekostet.

Laut «WinFuture» wurden der Titel dem Studio bei den Indie Game Awards nachträglich aberkannt, weil generative KI genutzt wurde. Entgegen den Wettbewerbsregeln.​

Die Organisatoren reagierten auf Hinweise aus der Community, die verdächtige Texturen im Spiel entdeckt hatte.

Wie die KI ins Spiel kam
Director Guillaume Broche schildert, sein Team habe KI nur kurz als Platzhalter für fehlende Texturen getestet. Im Gespräch mit dem YouTuber Sushi betont er, alles im fertigen Spiel sei von Menschen geschaffen, berichtet «GamesRadar».​

Die generierten Platzhalter seien aus dem Projekt entfernt worden, sobald man ihren Einsatz bemerkt habe. Broche erklärt, das Experiment habe sich «falsch“ angefühlt, weshalb Sandfall künftig auf derartige Tools verzichten wolle, so «PushSquare».​

Aus Sicht der Indie Game Awards spielte nicht nur die Technik, sondern auch die Kommunikation eine Rolle. «WinFuture» berichtet, Sandfall habe im Einreichungsprozess widersprüchliche Angaben zur KI-Nutzung gemacht, was schliesslich zur Aberkennung führte.​




KI am 8.1.2026: Die Leute werden immer wacher und lehnen KI ab!

https://www.20min.ch/story/ces-2026-in-ai-we-trust-die-ki-vertrauensluecke-wird-tiefer-und-breiter-103481468

CES 2026: In AI we trust? Die KI-Vertrauenslücke wird tiefer und breiter

Gaudenz Valentin Looser -- Der Grabenbruch zwischen den AI-enthusiastischen Tech-Firmen und einer AI-skeptischen Mehrheit in der Gesellschaft wird tiefer. An der CES in Las Vegas führte Samsung eine wichtige Debatte über mögliche Auswege.

    Künstliche Intelligenz (KI) ist überall, doch die Skepsis in der Gesellschaft wächst.
    Beim Samsung CES First Look Event gab es eine kritische Debatte dazu.
    Ein Edelman-Bericht zeigt eine grosse Vertrauenslücke gegenüber KI.
    Experten diskutierten verschiedene Wege, um dieses Vertrauen wieder aufzubauen.

Künstliche Intelligenz ist überall – im E-Mail-Postfach, in der Flugbuchung und, wenn es nach Samsung geht, bald auch in allen Haushaltsgeräten vom Staubsauger bis zum Kühlschrank. Doch während die Nutzung steigt, zeigen Daten eine tiefe Skepsis in der Bevölkerung. Unter der Moderation von PR-Ikone Richard Edelman diskutierten Industrievertreter, Futuristen und Investoren über die Diskrepanz zwischen technologischer Innovation und menschlichem Vertrauen.
«Massive Vertrauenslücke zwischen KI und übriger Tech-Industrie»: Moderator und PR-Legende Richard Edelman.
«Massive Vertrauenslücke zwischen KI und übriger Tech-Industrie»: Moderator und PR-Legende Richard Edelman.Gaudenz Looser

Richard Edelman, CEO der globalen PR-Firma Edelman, eröffnete die Runde mit harten Fakten aus dem Edelman Trust Barometer (mehr dazu: siehe Box). Die Statistiken zeichnen ein ernüchterndes Bild: In den USA lehnen die Menschen KI mit einer Wahrscheinlichkeit von zwei zu eins eher ab, als dass sie sie akzeptieren. Es klafft eine massive «Vertrauenslücke» zwischen dem allgemeinen Vertrauen in den Technologiesektor und dem deutlich geringeren Vertrauen in KI. Edelman betonte: «Vertrauen treibt die KI-Akzeptanz an.» Wer gut informiert sei und keine Angst vor Arbeitsplatzverlust habe, vertraue der Technologie eher. Die Diskussionsteilnehmer näherten sich diesem Problem aus vier fundamental unterschiedlichen Richtungen.




WARNUNG am 8.1.2026: KI-SPIELZEUGE – MASSIV SCHÄDLICH UND GEFÄHRLICH
https://reitschuster.de/post/smarte-spielzeuge-reale-gefahren/
https://t.me/FaktenFriedenFreiheit/34529

Teststudien zeigten erschreckende Fehlfunktionen und auch Fehlinformationen bei KI-basierten Spielzeugen.

Ein sprechender KI-Teddy driftet in sexuelle Praktiken und Rollenspiele ab.

Ein anderes Toy erklärt, wie man Feuer legt und wo man Messer findet.

Einige Smat Toys sammeln Iris-Scans, Fingerabdrücke und Vitaldaten der Kids.

Ganz zu schweigen von den langfristigen Folgen auf die Entwicklung der Kinder.

Sowas wird als pädagogisch wertvoll beworben und viele Eltern gehen einfach davon aus, dass diese Spielzeuge getestet und sicher sind.

Sind sie nicht – denn es gibt keine verbindlichen Regeln.

Und das Vertrauen der Kinder wird rigogos ausgenutzt.



Kriminelle Schweizer in der Schweiz am 9.1.2026: Mit KI kann man Identitäten kopieren und den Opfern Taten unterstellen - Beispiel Ueli Schmezer - Täter ist der "Kassensturz":
Ueli Schmezer: «Hier klaut jemand meine Identität!»
https://www.nau.ch/news/stimmen-der-schweiz/ueli-schmezer-hier-klaut-jemand-meine-identitat-67081890

Ueli Schmezer -- Bern -- Die Welt wird überflutet von Fake News, KI-Videos und gefälschten Fotos. Dagegen braucht es Gesetze. Und eine andere Haltung von uns allen, sagt Ueli Schmezer.

    Ueli Schmezer ist Nau.ch-Kolumnist, sein Videoformat heisst «Auf den Punkt».
    Er sagt: «Gegen die KI-Flut braucht es Gesetze. Aber die allein reichen nicht.»
    KI-Videos sind vielleicht lustig. Aber sie sind ein ernsthaftes Problem.

In seiner neusten Video-Kolumne präsentiert Nau.ch-Kolumnist Ueli Schmezer ein KI-Video, das ihn in der Sendung Kassensturz in einem Interview mit Nationalrat und Banker Thomas Matter zeigt.

Darin fragt das KI-Schmezer-Double den Banker, ob es stimme, dass eine gewisse «Investitionsmöglichkeit» tatsächlich so toll sei, wie manche Leute behaupten.

«Das ist kriminell»
«Man kann das amüsant finden und darüber staunen, was heute technisch alles möglich ist», sagt Schmezer. Aber: «Das ist kriminell. Das erfüllt den Straftatbestand des Identitätsmissbrauchs.»

Da missbraucht jemand seine Identität als kritischer Befrager, um den Leuten ein «mieses Abzockerprodukt» anzudrehen.

Dagegen könne man eine Anzeige einreichen und klagen.

Was aber – wenn überhaupt – nur dann hilft, wenn sich die Verantwortlichen finden lassen.

Daher betont der Kolumnist, es brauche jetzt das neue «Gesetz über Kommunikationsplattformen und Suchmaschinen», das noch bis Mitte Februar in der Vernehmlassung ist.

«Kann das überhaupt sein?»
Dieses Gesetz soll die Rechte von Nutzerinnen und Nutzern im digitalen Raum stärken und die grossen Kommunikationsplattformen bezüglich Fairness und Transparenz in die Pflicht nehmen.

Zudem brauche es aber auch eine andere Haltung von uns allen. «Wir alle müssen unseren Plausibilitätsfilter einschalten und uns jeweils fragen: Kann das überhaupt sein?»

Im Falle des KI-Kassensturz-Videos sei der Plausibilitätscheck simpel, sagt Schmezer mit einem Grinsen. Auch weil er schon lange nicht mehr dort arbeite.

Zur Person
Ueli Schmezer ist Journalist und Jurist – und er sitzt seit März im Schweizer Nationalrat. Er hat bis 2022 für SRF gearbeitet, zuletzt im «Kassensturz». Heute ist er selbstständiger Auftrittscoach, Medientrainer und SP-Mitglied. Seit über 20 Jahren steht Schmezer auch als Musiker auf der Bühne.




11.1.2026:
Wegen KI: Siemens und Nvidia rufen «neue industrielle Revolution» aus
https://www.blick.ch/wirtschaft/elektronik-siemens-und-nvidia-rufen-neue-industrielle-revolution-aus-id21575077.html




KI-Betrug mit imitierter Stimme am Telefon in Schwyz (Schweiz) am 19.1.2026: CEO wird zu Millionenzahlung nach Asien manipuliert:
Mit KI: Millionen weg: Schwyzer Firma fällt auf CEO-Betrug rein
https://www.20min.ch/story/mit-ki-millionen-weg-schwyzer-firma-faellt-auf-ceo-betrug-rein-103489245

Daniel Krähenbühl -- Eine Schwyzer Firma ist Opfer eines sogenannten CEO-Frauds geworden. Unbekannte Täter erbeuteten mehrere Millionen Franken.

    Eine Schwyzer Firma wurde Opfer eines CEO-Frauds.
    Unbekannte Täter erbeuteten dabei mehrere Millionen Franken.
    Sie nutzten eine KI-manipulierte Stimme, um einen Geschäftspartner nachzuahmen.
    Der Firmeninhaber wurde zu Überweisungen auf ein Konto in Asien verleitet.

Millionenbetrug im Kanton Schwyz: Wie die Schwyzer Polizei am Montag mitteilt, fiel eine Firma kriminellen Betrügern zum Opfer. Der Modus Operandi war folgender: Die Täterschaft nahm zunächst telefonischen Kontakt mit dem Inhaber des geschädigten Unternehmens auf und gab sich glaubhaft als bekannter Geschäftspartner aus. Dabei kam eine mithilfe künstlicher Intelligenz manipulierte Stimme zum Einsatz.

Durch diese Täuschung gelang es den Tätern, das Vertrauen des Inhabers zu gewinnen. Unter dem Vorwand eines angeblich vertraulichen internationalen Geschäfts wurde der Inhaber des geschädigten Unternehmens dazu verleitet, mehrere Geldtransaktionen im Gesamtwert von mehreren Millionen Franken auszuführen.

Bankkonto in Asien
Die Überweisungen erfolgten auf ein Bankkonto in Asien. Erst nach Abschluss der Zahlungen wurde der Betrug erkannt. Die Täterschaft ist bislang unbekannt. In Zusammenarbeit mit der Staatsanwaltschaft des Kantons Schwyz hat die Kantonspolizei die Ermittlungen aufgenommen.

Präventionshinweise der Kantonspolizei an Unternehmensleitungen:

    Seien Sie besonders vorsichtig bei Zahlungsaufforderungen per Telefon oder Sprachnachricht, auch wenn die Stimme vertraut klingt.
    Beachten Sie, dass Stimmen mithilfe künstlicher Intelligenz täuschend echt nachgeahmt werden können.
    Verifizieren Sie ausserordentliche oder dringliche Zahlungsanweisungen stets über einen zweiten, unabhängigen Kommunikationsweg.
    Setzen Sie konsequent das Vier-Augen-Prinzip sowie klare Freigabeprozesse bei hohen Geldbeträgen um.
    Tätigen Sie keine Auslandsüberweisungen ohne überprüfte und dokumentierte Genehmigung.
    Melden Sie verdächtige Vorfälle umgehend Ihrer Bank und der Polizei.




20.1.2026: KI und Co. fressen Zuwachs von erneuerbarer Energie auf

https://science.orf.at/stories/3233837/





21.1.2026: KI hat ein Problem: Strombedarf - und auch Wasserbedarf:
Der wachsende Durst von KI nach Wasser wird zu einem Risiko für die öffentliche Gesundheit
AI’s growing thirst for water is becoming a public health risk

https://www.aljazeera.com/opinions/2026/1/21/ais-growing-thirst-for-water-is-becoming-a-public-health-risk

By Omar Shabana -- Egyptian-British commentator and writer. -- As water-intensive data centres expand worldwide, their impact on sanitation, inequality and disease is emerging as a serious and under-examined threat.

“Bubble” is probably the word most associated with “AI” right now, though we are slowly understanding that it is not just an economic time bomb; it also carries significant public health risks. Beyond the release of pollutants, the massive need for clean water by AI data centres can reduce sanitation and exacerbate gastrointestinal illness in nearby communities, placing additional strain on local health infrastructure.

AI’s energy consumption is massive and increasingly water-dependent

Generative AI is artificial intelligence that is able to generate new text, photos, code and more, and it has already infiltrated the lives of most people around the globe. ChatGPT alone is reported to receive around one billion queries in a single day, pointing to huge demand at the individual level.

This, however, is only the tip of the iceberg. Companies such as Google, Apple and Microsoft are now embedding AI into their key products. Applications that utilise search results are quickly moving to have AI as a new standard in their algorithms. Whether it is shopping on Amazon or booking a flight or a hotel, AI is now being used in searches, and that demands more energy. As an example, a single AI-powered Google search is estimated to use up to 30 times more energy than its standard version.

Graphics Processing Units (GPUs) are the current industry answer to this. They are chips that demand energy and produce heat. Though the thousands of small cores on GPUs enable parallel processing of massive, repetitive maths carried out by AI algorithms, a single chip can use up to 700 watts. This means that three chips alone can use roughly the same amount of energy as a home electric oven.

The large amount of heat produced by data centres is cooled by up to hundreds of thousands of gallons of fresh water each day. With thousands of heat-generating chips stacked next to and on top of one another, a simple fan does not do the trick. Instead, water is pumped or immersed between and around chips in order to avoid system overheating. A recent report from the United Kingdom’s Government Digital Sustainability Alliance predicts that AI will increase global water usage from 1.1 billion cubic metres to 6.6 billion cubic metres by 2027.

Some companies are attempting to use seawater in cooling. However, fresh water continues to be widely used for cooling in many facilities. Water recycling is another option, but not a simple one. Several companies use a “closed-loop system” to reduce the total amount of water needed. Nevertheless, dust and minerals collected during cooling can degrade water quality over time, requiring treatment or replacement.
How AI-driven water scarcity threatens public health

Data centres being placed where water is already scarce can quickly translate into a healthcare burden, even before pollution becomes an issue. In 2023, Microsoft reported that 41 percent of its water withdrawals were from areas with water stress. Google, on the other hand, said that 15 percent of its water consumption occurred in areas with high water scarcity. Amazon did not disclose comparable figures.

It is well established that water scarcity correlates with infections, malnourishment and declining hygiene. While most such studies focus on areas that are already impoverished, in many cases, these are exactly the places where data centres are planned to be built. In addition, the underlying cause remains the same. Less fresh water for local populations pushes households to prioritise drinking and cooking over washing hands, food or bathing. Naturally, this also leaves less water available for cleaning living spaces.

The World Health Organization recognises that unsafe drinking water and poor sanitation and hygiene are conducive to the spread of diseases such as cholera and other diarrhoeal illnesses, along with a range of other pathogens. To make matters worse, several diseases associated with water scarcity can pass from person to person, raising the risk of sustained local transmission.

The health burden on children is particularly alarming, as infections and deaths are more common than among adults. In fact, 84 percent of the global burden of diarrhoeal disease is borne by children under five, and infections with diarrhoeal pathogens have been linked to cognitive impacts later in childhood.

Although it is too early to draw direct causal links between AI data centres and water-related diseases, the known facts make this a significant concern. It is established that AI data centres can significantly deplete local water supplies. It is also established that communities with poor water access face heightened risks of gastrointestinal disease and other illnesses.

To claim that AI data centres are directly causing gastrointestinal disease would be poorly supported. However, the warning signs are increasingly difficult to ignore. When risks are foreseeable and severe, governments should not wait for people to start dying before putting preventative policies in place.
Marginalised communities are already reporting polluted water

In Newton County, Georgia, in the United States, Meta has built an AI data centre, and residents have reported discoloured, sediment-filled water coming out of their taps, which they attribute to the facility. Similarly, in Fayette County, residents have reported sediment in their water, which they believe coincided with nearby data centre construction. Another report from California suggests that a data centre planned along the San Francisco Bay in Bayview-Hunters Point has raised concerns about compounding environmental burdens in an already polluted community. In all these cases, the local population includes a significant Black and African American presence, a pattern that has raised environmental justice concerns.

Accumulated residues can result in effects ranging from acute gastrointestinal illness to chronic conditions such as cancer. Microbial contamination can cause poisoning and acute disease, while chemical residues are associated with long-term harm, often acting as a slow, invisible threat.

With plans for data centres in African countries such as Nigeria, Egypt and South Africa, further questions arise about who will bear the brunt of their environmental impacts and whether affected communities will receive sufficient protection or support. Weak regulatory oversight in some of these countries makes this uncertain. In many cases, serious community effects may go unreported altogether.

Why corporate water promises and regulation matter

Only 0.5 percent of the planet’s water is fresh water, and water is not only needed for data centres. It is also required for the power plants that generate electricity for them. The manufacture of chips and wiring similarly demands water, making water use an AI supply-chain issue rather than merely a data-centre problem.

Many companies are promising sustainability, with some even claiming they aim to be “net water producers” or “water positive”. Even if such targets are achieved, which remains questionable, they must deliver benefits to the communities from which water is extracted. Providing more water for affluent areas while depleting supplies in places such as Newton County may satisfy corporate accounting standards, but local residents will still suffer the consequences.

To meet their ethical obligations to the public, governments must rapidly catch up with the pace of AI expansion and data-centre construction. A healthy population is a productive one, and a lower public-health burden can reduce government spending while supporting development. More fundamentally, there is a collective moral obligation to build a sustainable future for coming generations by safeguarding water security and averting environmental catastrophe. This begins with legislation mandating transparent corporate reporting on water use and enforcing meaningful standards for sustainable management. Regulation must prioritise human wellbeing over short-term, extractive technological growth. As with climate change, unrestrained innovation risks further harm to both people and the planet.

The views expressed in this article are the author’s own and do not necessarily reflect Al Jazeera’s editorial stance.





22.1.2026: Das kr.-satanistische WEF in Davos erfindet "KI-Einwanderer"
https://t.me/uncut_news/86971

⚠️ Davos: „KI-Einwanderer“ – wenn Maschinen Rechte bekommen sollen ⚠️

Beim WEF zeichnet Yuval Noah Harari ein Zukunftsbild, das verstören sollte – und doch kaum Widerspruch auslöst:

👉 „KI-Einwanderer“ werden menschliche Arbeitsplätze übernehmen.

👉 Sie werden Kultur, Kunst, Religion und sogar Romantik verändern.

👉 Ihre politischen Loyalitäten seien fragwürdig – nicht gegenüber Staaten, sondern gegenüber Konzernen oder Regierungen, vor allem in den USA oder China.

👉 Und dann die Schlüsselfrage: Soll KI als Einwanderer und juristische Person anerkannt werden?

🔎 Kritische Einordnung:
Was hier nüchtern diskutiert wird, ist ein radikaler Umbau von Gesellschaft, Recht und Macht. Wenn KI als „juristische Person“ anerkannt würde, bekäme sie Rechte wie Eigentum, Vertragsfähigkeit, Klagebefugnis – ohne Körper, ohne Gewissen, ohne Verantwortung. Rechte ohne menschliche Haftung.

📌 Der eigentliche Skandal:
Harari benennt selbst, dass diese KI-Akteure nicht loyal zu Ländern, sondern zu globalen Tech-Konzernen wären. Damit würde wirtschaftliche und politische Macht weiter entstaatlicht und entdemokratisiert – zugunsten weniger Plattformen.

💼 Arbeitsplätze, Identität, Souveränität:
Während Bürger über Migration, Jobs und soziale Stabilität streiten, wird parallel eine unsichtbare Masseneinwanderung von KI vorbereitet – ohne Wahl, ohne Zustimmung, ohne gesellschaftliche Debatte.

=====

"USA" am 22.1.2026: KI-Fabriken und Big-Pharma mit Mini-Computern im Körper ("Wearables") sind ohne Kontrolle:
US-Behörde zieht sich zurück: überlässt Big Tech und Big-Pharma bei Gesundheits-Wearables weitgehend freie Hand

https://uncutnews.ch/us-behoerde-zieht-sich-zurueck-ueberlaesst-big-tech-und-big-pharma-bei-gesundheits-wearables-weitgehend-freie-hand/

Quelle: FDA Says Many AI Tools And Health Wearables Are Exempt From Regulation, 'We Don’t Believe In Censorship' - Tracking Devices Are Safe

Die Food and Drug Administration hat am 6. Januar klargestellt, dass sie bestimmte Tools und Wearables mit künstlicher Intelligenz (KI) nicht regulieren wird.

In einem Leitfaden hat die Food and Drug Administration (FDA), Werkzeuge, die zur Unterstützung klinischer Entscheidungen eingesetzt werden von der Aufsicht durch die FDA ausgenommen, beispielsweise solche, die nicht zur Analyse medizinischer Bilder bestimmt sind.

In einem zweiten Dokument: Es regelt keine „Produkte mit geringem Risiko, die einen gesunden Lebensstil fördern“, darunter „allgemeine Wellness-Produkte mit geringem Risiko“ wie Trainingsgeräte und Softwareprogramme.

Offiziell begründet die Behörde diesen Schritt mit Innovationsförderung. In neuen Leitlinien erklärte die FDA, dass sie bei vielen digitalen Entscheidungshilfen „als Regulierungsbehörde aus dem Weg gehen“ müsse. Produkte, die keine medizinischen Bilder analysieren oder keine klinischen Diagnosen stellen, fielen demnach oft nicht unter ihre Aufsicht. Auch KI-Tools, die lediglich Informationen bereitstellen, sollen unbehelligt bleiben.

FDA-Kommissar Marty Makary formulierte die Linie ungewöhnlich offen: Man wolle künstliche Intelligenz fördern, nicht bremsen. Wenn ein Tool wie ChatGPT oder eine Suchmaschine lediglich Informationen liefere, sei es nicht Aufgabe der FDA, einzugreifen oder Inhalte zu „zensieren“. Auf Sicherheitsbedenken angesprochen, sagte Makary wörtlich: „Wir glauben nicht an Zensur.“

Die Grenze zieht die Behörde dort, wo Produkte ausdrücklich medizinische Qualität beanspruchen – etwa bei klinisch validen Messungen oder Therapieempfehlungen. Screening-Instrumente, Schätzungen physiologischer Werte oder Lifestyle-Analysen hingegen sollen frei bleiben, selbst wenn sie von Nutzern faktisch zur Gesundheitsentscheidung herangezogen werden.

Biometrische Daten ohne Aufsicht

Kritiker sehen darin ein erhebliches Risiko. Viele dieser Wearables und KI-Tools sammeln kontinuierlich hoch­sensible biometrische Daten – Herzfrequenz, Schlafmuster, Bewegungsprofile, Stressindikatoren – und speichern sie in zentralen Datenbanken. Genau hier setzt die Kritik an: Während klassische Medizinprodukte streng reguliert sind, entsteht parallel ein kaum kontrollierter Datenmarkt, der sowohl für Tech-Konzerne als auch für staatliche Stellen hochattraktiv ist.

Die offizielle Lesart lautet: geringe Gefahr, hoher Nutzen. Die inoffizielle Folge könnte jedoch sein, dass sich ein umfassendes Ökosystem der Gesundheitsüberwachung etabliert, ohne klare Zuständigkeiten, Transparenz oder Haftung.

Politischer Rückenwind für Wearables

Zusätzliche Brisanz erhält die FDA-Position durch die politische Großwetterlage in Washington. Gesundheitsminister Robert F. Kennedy Jr. hat sich wiederholt für den flächendeckenden Einsatz von Wearables [Mini-Computer im Körper] ausgesprochen. Seine Vision: Innerhalb weniger Jahre solle jeder US-Bürger ein solches Gerät tragen, um Krankheiten frühzeitig zu erkennen und Gesundheitskosten zu senken.

Kennedy argumentiert wirtschaftlich: Ein günstiges Wearable könne teure Medikamente ersetzen und die Bevölkerung insgesamt gesünder machen. Kritiker hingegen verweisen auf Interessenkonflikte – insbesondere, da prominente Akteure der aktuellen Regierung in Unternehmen investieren, die genau solche KI-gestützten Wearables entwickeln.

Innovation oder Kontrollverlust?

Die FDA betont, sie wolle Innovation ermöglichen und gleichzeitig vor „großen Sicherheitsbedenken“ schützen. Doch die aktuelle Linie bedeutet faktisch: Je weniger ein Produkt offiziell als Medizin gilt, desto weniger wird es überwacht – selbst wenn es tief in das Gesundheits- und Alltagsverhalten von Millionen Menschen eingreift.

Damit verschiebt sich die Grenze zwischen Medizin, Technologie und Überwachung weiter. Was früher ärztlicher Diagnostik unterlag, wird zunehmend zu einer privaten Datenangelegenheit – gesammelt von Konzernen, ausgewertet von Algorithmen und politisch ausdrücklich gewollt.

Die entscheidende Frage bleibt offen: Wer kontrolliert die Kontrolleure, wenn Gesundheitsüberwachung zur Wellness erklärt wird – und Regulierung zur freiwilligen Option?

=====

KI=KATASTROPHE:
KI-Fabrik "Colossus" von Musk in Memphis ("USA") am 23.1.2026: Gigantischer Strom- und Wasserverbrauch:
«Umwelt-Rassismus»: Musks Supercomputer frisst so viel Strom wie der Kanton Aargau
https://www.20min.ch/story/umwelt-rassismus-musks-supercomputer-frisst-so-viel-strom-wie-der-kanton-aargau-103489087

Michael Andai -- Das Rechenzentrum Colossus 2 soll KI mit brachialer Rechenleistung vorantreiben und verschlingt zurzeit bis zu ein Gigawatt Strom. In Memphis sorgt das für Ärger: Bewohner berichten von Lärm und Abgasen.
  • Elon Musks KI-Firma xAI errichtet in Memphis das Rechenzentrum «Colossus 2».
  • Die Anlage benötigt extrem viel Strom und verbraucht bis zu 20 Millionen Liter Wasser täglich.
  • Mobile Gasturbinen zur Stromerzeugung belästigen die Anwohner mit Lärm und Abgasen.
  • Umweltorganisationen werfen xAI «Umwelt-Rassismus» vor.

Elon Musks KI-Firma xAI hat in einem Vorort von Memphis das Rechenzentrum «Colossus 1» zum Trainieren von neuen KI-Modellen im Eiltempo hochgezogen. Nach eigenen Angaben stand die erste Ausbaustufe nach wenigen Monaten. Kurz darauf folgte der nächste Ausbau auf Hunderttausende Nvidia-GPUs. Nvidia-Chef Jensen Huang nannte das Tempo «übermenschlich»: Solche Projekte würden sonst Jahre dauern.

Seit März 2025 wird eine weitere Riesenhalle in 13 Kilometer Entfernung zu einem Supercomputer im Gigawatt-Bereich ausgebaut – Colossus 2. Das bedeutet: Ein KI-Rechenzentrum mit einem Strombedarf in der Grössenordnung eines Kraftwerks.

Am 17. Januar 2026 ging dieser KI-Supercomputer live. Für April 2026 sind zusätzlich 500 Megawatt angekündigt. Langfristig wird als Ziel eine Gesamtleistung von rund zwei Gigawatt genannt.

Colossus 2 im Überblick

Colossus 1 (Memphis): Von März bis Juni 2024 in 122 Tagen gebaut; danach laut xAI in 92 Tagen auf rund 200’000 GPUs H100 Chips verdoppelt.
Colossus 2 (Southaven): Das erste Gigawatt-Datacenter geht nach ca. 10 Monaten Bauzeit am 17.01.2026 live. Im April soll es bereits auf 1,5 Gigawatt ausgebaut werden. Das Endziel sind 2 Gigawatt.
Hardware-Power: Basierend auf Berichten und Schätzungen sind in der aktuellen Ausbaustufe etwa 550'000-555'000 NVIDIA-GB200- und GB300-GPUs verbaut. Diese kosten rund 18 Milliarden US-Dollar. Eine offizielle Zahl seitens xAI oder Nvidia gibt es nicht.
Ziel: Maximale Rechenleistung für die nächste Grok-Generation; Musk spricht dabei offen vom Ziel, KI auf menschlichem Level zu entwickeln (AGI).

Riesenbatterien von Tesla liefern zusätzlich Energie

Zur Stabilisierung der Stromversorgung setzte xAI auf Tesla-Megapacks 2XL: Riesige Batteriespeicher, die Ausfälle und Belastungsspitzen abfedern sollen. Gemäss einer Analyse von Satellitenaufnahmen von EpochAI, sind zurzeit ca. 600 solche Batterien auf dem Gelände verbaut.

Was würden 2 Gigawatt bedeuten?
Das ist in etwa so viel Strom, wie die beiden grössten Schweizer AKWs zusammen generieren: Leibstadt netto ca. 1233 MW + Gösgen netto ca. 1010 MW = ca. 2243 MW.
Mit zwei Gigawatt würde Colossus 2 nach dem kompletten Ausbau so viel Strom benötigen, wie die Kantone Aargau, Bern, Waadt und Genf zusammen.
Eine Belastung für die Umwelt

Weil die Netzanbindung der Stadt nicht schnell genug mitwuchs, setzte xAI zusätzlich auf mobile Gasturbinen.

Eine Gigawatt-Leistung wäre in Memphis zudem nur mit massiven Ausbauten möglich gewesen und stiess auf Widerstand von Anwohnern und Umweltgruppen. Der Genehmigungsstreit dreht sich dabei um Luftauflagen für mobile Gasturbinen: lokal mit der Gesundheitsbehörde in Shelby County und auf Bundesebene mit der Umweltbehörde EPA. Für den parallelen Ausbau in Southaven gelten separate Genehmigungen unter der Umweltbehörde von Mississippi.
xAI baut eigenes Kraftwerk

xAI kaufte kurzerhand das ehemalige Duke-Energy-Kraftwerksgelände in der Nähe von Colossus 2 und betreibt ein eigenes Gasturbinenkraftwerk. Dort laufen sieben Titan 350-Gasturbinen mit je 35 MW Leistung.

Als Vergleich: Der gesamte Kanton Basel-Stadt inklusive Industrie benötigt im Durchschnitt ungefähr 150 bis 160 MW. Musk könnte mit seinen Turbinen also ganz Basel-Stadt versorgen und hätte noch Energie übrig, um die Stadt Luzern (knapp 50 MW) auch noch zu betreiben.

Zusätzlich sind weitere mobile Turbinen im Einsatz; das Newsportal «Mississippi Today» spricht von 59 Turbinen, 18 davon laufen aktuell.

    «Wir sind kein Spielplatz für Milliardäre»

Abré Conner, Umwelt- und Klima-Direktorin der NAACP

Die NAACP, eine der grössten Bürgerrechtsorganisationen der USA, stellt sich gemeinsam mit dem Southern Environmental Law Center (SELC), einer Umweltrechtsorganisation, und lokalen Gruppen gegen xAIs Vorgehen.

Abré Conner, Leiterin für Umwelt- und Klimagerechtigkeit bei der NAACP, sagte dem «Guardian», xAI behandle die Region wie ein persönliches Experiment: «Unsere Gemeinden, Luft, Wasser und Boden sind kein Spielplatz für Milliardäre, die dem nächsten Dollar hinterherjagen.»

Kritiker sprechen von «Umwelt-Rassismus», weil eine bereits industriell vorbelastete, einkommensschwächere Gegend betroffen ist.

Fast 20 Millionen Liter Wasser pro Tag

Colossus benötigt für die Kühlung enorme Wassermengen. Je nach Ausbaustufe kursieren Schätzungen von bis zu rund 20 Millionen Litern pro Tag. In Memphis ist das politisch heikel, weil die Stadt ihr Grundwasser schützen muss und Umweltgruppen vor Risiken durch bestehende Belastungen, etwa durch Arsen in der Region, warnen.

xAI plant deshalb eine 80-Millionen-Dollar-Anlage, die aufbereitetes Abwasser für die Kühlung bereitstellen soll, mit einer Kapazität von bis zu 50 Mio. Litern pro Tag. Der Bau hat 2025 begonnen, die Anlage ist aber noch nicht in Betrieb. Welche Übergangslösung bis dahin genau gilt, ist öffentlich nicht eindeutig dokumentiert.

Kühlwasser: Wird das verbraucht?
Wasser wird meist zur Kühlung in einem geschlossenen Kreislauf genutzt. In vielen Anlagen geht jedoch Wasser durch Verdunstung, etwa durch Kühltürme, tatsächlich verloren. Zusätzlich wird Abwasser produziert. Dieses ist wärmer, beinhaltet Salze und Chemikalien und muss vor einer weiteren Verwendung extra behandelt werden.
«Wasserverbrauch» meint deshalb meist den Netto-Verlust (Verdunstung + Abwasser) und nicht, dass jeder Liter «verschwindet».
Macht das alles überhaupt Sinn?

Colossus 2 steht für die Strategie «Viel hilft viel». Musk setzt auf reine Rechenpower, um seine KI schneller zu verbessern. Laut der KI-Forscherin Timnit Gebru, CEO des KI-Forschungsinstituts DAIR, bedeutet mehr Rechenleistung nicht automatisch bessere KI. Sehr wohl aber neue Risiken, wie zum Beispiel schwer kontrollierbare Modelle, Datenhunger oder Energieverbrauch.





Die KI könnte WOKE und asoziale, leistungsfeindliche Sozis Mause machen am 27.1.2026:
Werden die Woken und Sozialisten von der KI besiegt?

https://journalistenwatch.com/2026/01/27/werden-die-linken-von-der-ki-besiegt/



https://orf.at/stories/3418592/

Das Internet Archive hat es sich zum Ziel gesetzt, sämtliche Websites weltweit zu speichern, mittlerweile umfasst das weltgrößte Archiv des World Wide Web über eine Billion Einzelseiten. Auch zahlreiche Nachrichtenseiten sind darin gespeichert – doch viele Medienhäuser wehren sich nun gegen diese Archivierung, wie die Nieman Foundation for Journalism gestern in einem Artikel schrieb.

Auslöser sei die Sorge davor, dass KI-Sprachmodelle wie jene von OpenAI und Google mit derartigen Nachrichtenartikeln trainiert werden, ohne dafür entsprechende Lizenzen zu erwerben. Anstatt Abos für Kunden und Lizenzen für Firmen zu verkaufen, könnte man über den Umweg des Archivs alle Inhalte gratis abrufen, so die Befürchtung.

Von „Guardian“ bis „New York Times“

So blockiere zum Beispiel der „Guardian“ nicht nur direkt auf seiner Seite automatisierte Bots, die Nachrichtenartikel für KI-Datensätze auslesen, sondern auch das Internet Archive. Auch die „Financial Times“ und die „New York Times“ bestätigten gegenüber Nieman, dass das Internet Archive am Auslesen der Artikel gehindert werde.

„Wenn Verlage Bibliotheken wie das Internet Archive einschränken, dann wird die Öffentlichkeit weniger Zugang zu historischen Aufzeichnungen haben“, so Brewster Kahle, Gründer des Internet Archive, gegenüber der Nieman Foundation.

Beschränkung in vielen Fällen nicht bindend

Hunderte weitere Medienhäuser dürften laut Nieman ebenfalls die automatisierte Auslesung durch das Internet Archive und andere Anbieter unterbinden. Ausgelesen wurde dazu eine Textdatei, die auf vielen Webservern gespeichert ist und Automatisierungswerkzeugen den Zugriff auf Daten genehmigt oder verweigert.

Rechtlich bindend ist diese „Robots.txt“-Datei allerdings nicht – sie galt im Web jedoch jahrzehntelang als ungeschriebenes Gesetz für den Umgang mit automatisierter Verarbeitung von Daten. Tatsächlich ist es in vielen Fällen möglich, sich als herkömmlicher Webbrowser auszugeben und so Beschränkungen auszuhebeln.



KI-Blackout in Tasmanien am 29.1.2026: Heisse Quellen ERFUNDEN - aber Reise dahin bezahlt:
«KI hat komplett versagt»: Touristen reisen zu erfundenen Quellen
https://www.20min.ch/story/ki-erfindet-heisse-quelle-tourismus-desaster-in-tasmanien-103495719

Meret Steiger -- Ein KI-Blog auf der Website eines Reiseanbieters empfiehlt Touristen heisse Quellen in Tasmanien als Ausflugstipp. Vor Ort stellt sich heraus: Es gibt sie gar nicht.

«Unsere KI hat komplett versagt.»
Die im Artikel des Reiseveranstalters beschriebenen Weldborough Hot Springs sollen ein «friedlicher Rückzugsort» sein, in einem Wald im Nordosten von Tasmanien. Der Blogbeitrag bewarb die heisse Quelle gar als «Lieblingsplatz für Wanderer». Blöd nur: Die Quelle existiert gar nicht. Scott Hennessey, der Inhaber des in New South Wales ansässigen Unternehmens Australian Tours and Cruises, das Tasmania Tours betreibt, sagt gegenüber dem Australian Broadcasting Network (ABC): «Unsere KI hat komplett versagt.»

Das Unternehmen hätte sein Marketing an einen Drittanbieter ausgelagert, erklärt Hennessey weiter. Und während die Blogbeiträge normalerweise überprüft werden, sei dieser veröffentlicht worden, während er selbst im Ausland weilte. «Wir versuchen, mit den Grossen mitzuhalten», sagte Hennessey zu ABC. «Dazu gehört, dass man seine Inhalte ständig aktuell hält und erneuert.» Hennessey betont, dass Tasmania Travel kein Scam sei: «Wir sind ein verheiratetes Paar, das versucht, das Richtige zu tun. Wir sind seriös, wir sind echte Menschen und wir beschäftigen Verkaufspersonal.»
Verwirrte Hotelbetreiber

Kristy Probert, eine Hotelbesitzerin aus Weldborough, erzählt gegenüber CNN, wie verwirrt sie war, als Touristen plötzlich nach dieser ominösen Quelle gefragt haben. «Am Anfang waren es nur ein paar Anrufe», sagt Probert. «Doch dann tauchten die Leute plötzlich in Scharen auf. Ich bekam etwa fünf Anrufe pro Tag, mindestens zwei bis drei Personen kamen im Hotel vorbei und suchten nach den Quellen. Wir sind an einem sehr abgelegenen Ort, deshalb war das sehr seltsam.» Probert sagte, sie habe jeweils geantwortet: «Wenn ihr die Hot Springs findet, gibts ein Bier auf mich.»

Besonders absurd, wenn man bedenkt, dass die Touristen nach heissen Quellen suchen: Die einzige Badegelegenheit in der Gegend ist der laut Probert «eiskalte» Weld River. Die Hotelbesitzerin habe Mitleid mit den Veranstaltern von Tasmania Tours, wie sie sagt. Sie habe mit ihnen telefoniert und solche Fehler könnten passieren. Zudem gebe es in Weldborough viel zu sehen und zu erleben – einfach keine heissen Quellen.
Reisende sollen sich nicht auf KI verlassen

Rund 37 Prozent der Touristinnen und Touristen nutzten KI für Reiseempfehlungen, sagt Anne Hardy, Lehrbeauftragte für Tourismus an der Southern Cross University in Australien, gegenüber CNN. Damit könne man zwar Zeit und Geld sparen, aber es gebe auch das Risiko für sogenannte Halluzinationen, wie im Fall der Weldborough Hot Springs. Laut Hardy deuten Studien darauf hin, dass 90 Prozent der von KI erstellten Reisepläne Fehler enthalten.

Hardy empfiehlt Reisenden, sich bei der Reiseplanung nicht nur auf KI zu verlassen. Stattdessen solle man «vertrauenswürdige Reiseführer, Reisebüros und Bewertungsplattformen nutzen», sagte sie. «Falls man KI nutzt, um Ausflüge zu planen, sollte man die Gastgeber oder das Hotelpersonal fragen, ob die Ziele und andere Informationen korrekt sind.»



KI-Figur am 30.1.2026: Buddhistischer KI-Mönch verkauft Bücher:
Millionen fallen auf Social Media auf KI-Mönch rein: verkauft Bücher
https://www.nau.ch/news/digital/yang-mun-millionen-fallen-auf-social-media-auf-ki-monch-rein-67089143

Simon Binz -- Israel -- Ein buddhistisch wirkender Mönch spendet Millionen Menschen Trost und Lebensweisheiten auf Social Media. Doch hinter «Yang Mun» steckt keine reale Person.

Der Mönch Yang Mun erreicht Millionen Follower, ist aber vollständig KI-generiert.
Viele Nutzer erkennen nicht, dass die spirituellen Inhalte nicht von einer realen Person s
Über Social Media und E-Books verdienen die Urhebe mit der KI-Figur offenbar auch Geld.
Die Videos wirken ruhig und entschleunigend. Ein älterer ostasiatischer Mönch sitzt im Schneidersitz in einem Garten oder vor Tempelkulissen. Vor ihm liegt ein aufgeschlagenes Buch. In sanfter Stimme richtet er sich direkt an die Zuschauer.

«Ich sehe, wie müde du bist», sagt er. Nicht nur körperlich, sondern auch innerlich. Oft spricht er sein Publikum mit «mein Kind» an.

Die Botschaften sind allgemein, positiv und emotional zugänglich. Sie orientieren sich an östlichen Weisheitslehren, insbesondere am Buddhismus. Kleidung, Statuen und die Bildsprache unterstreichen diesen Eindruck.

Auf Instagram folgen zwei Profile der Figur Yang Mun rund 2,5 Millionen beziehungsweise 1 Million Menschen. Auf Facebook kommt eine weitere Seite auf etwa 1,4 Millionen Follower.

Yang Mun ist in Wahrheit ein KI-Mönch
Doch wie «Eurovision News Spotlight»(ENS) nun aufgedeckt hat, existiert der spirituelle Ratgeber in Wirklichkeit gar nicht. Sämtliche Videos wurden vollständig mit Künstlicher Intelligenz erzeugt.

Das zeigt eine Überprüfung mit Googles KI-Detektor SynthID: Die Inhalte wurden mit Google-Software generiert. Hinweise auf reale Personen mit spiritueller oder therapeutischer Ausbildung gibt es keine.

Viele Follower scheinen das nicht zu wissen. Kommentare unter den Beiträgen deuten darauf hin, dass Yang Mun für zahlreiche Nutzer als echte Figur wahrgenommen wird. Andere dürften sich am Ursprung der Inhalte nicht stören. Die Aussagen bleiben bewusst vage, wirken tröstend und lassen viel Raum für persönliche Interpretation.

Für den Urheber ist Yang Mun jedoch mehr als ein spirituelles Experiment. Die Marke ist eine lukrative Einnahmequelle. Auf der offiziellen Website werden mehrere E-Books angeboten.

Laut eigenen Angaben sollen diese bereits über 7000 Mal verkauft worden sein. Hinzu kommen mögliche Werbe- und Reichweitenerträge aus den sozialen Netzwerken.

Steckt in israelischer Influencer hinter dem KI-Mönch?
Wer hinter dem Projekt steht, war lange unklar. Auf «Yahoo Finance» wurde am 9. Dezember lediglich eine bezahlte Pressemitteilung veröffentlicht. Darin wurde Yang Mun als weltweite Bewegung dargestellt und aktiv für den Kauf der Bücher geworben.

Veröffentlicht wurde der Text von Shalev. H Marketing mit Sitz in Israel. Der Name verweist auf Shalev Hani, der sich auf LinkedIn als «Digital Creator & AI Storyteller». Auf eine Anfrage von «ENS» wollte sich Hani nicht zur Figur Yang Mun äussern.

Auch auf der Website fanden sich zunächst keine transparenten Angaben. Mittlerweile gibt es aber einen Hinweis auf die Betreiber der Marke Yang Mun: Im Urheberrechtsvermerk werden Maor Hani und Shalev Hani genannt.

Neue ethische Fragen
Der Fall zeigt, wie weit KI-generierte Inhalte im digitalen Alltag bereits vorgedrungen sind. Besonders sensibel ist dabei der Bereich der spirituellen und psychologischen Beratung. Wenn künstlich erschaffene Figuren emotionale Nähe erzeugen und gleichzeitig kommerziell genutzt werden, stellen sich neue ethische Fragen. Vor allem dort, wo Transparenz fehlt.





KI am 15.2.2026: KI könnte eine "Apokalypse" provozieren - Experten schlagen Alarm:
‘An apocalypse’: Why are experts sounding the alarm on AI risks?

https://www.aljazeera.com/news/2026/2/15/why-are-experts-sounding-the-alarm-on-ai-risks

Übersetzung:

Von Shola Lawal – KI entwickelt sich rasant und unvorhersehbar weiter, aber es gibt laut Experten keinen gemeinsamen Rahmen, um sie in Schach zu halten.

In den letzten Monaten war künstliche Intelligenz aus den falschen Gründen in den Nachrichten: Einsatz von Deepfakes zum Betrügen von Menschen, KI-Systeme, die zur Manipulation von Cyberangriffen eingesetzt werden, und Chatbots, die Suizide fördern, unter anderem.

Experten warnen bereits davor, dass Technologie außer Kontrolle gerät. Forscher einiger der bekanntesten KI-Unternehmen haben in den letzten Wochen ihre Jobs gekündigt und öffentlich Alarm geschlagen, dass rasante technologische Entwicklung Risiken für die Gesellschaft darstellt.

Weltuntergangstheorien kursieren seit langem darüber, wie erhebliche Fortschritte in der KI eine existenzielle Bedrohung für die Menschheit darstellen könnten, wobei Kritiker warnen, dass das Wachstum der künstlichen allgemeinen Intelligenz (AGI), einer hypothetischen Form der Technologie, die kritisches Denken und kognitive Funktionen ebenso wie der durchschnittliche Mensch ausführen kann, in ferner Zukunft den Menschen auslöschen könnte.

Doch die jüngste Reihe öffentlicher Rücktritte derjenigen, die dafür verantwortlich sind, dass KI für die Menschheit sicher bleibt, macht die Gespräche darüber, wie die Technologie reguliert und ihre Entwicklung verlangsamt werden kann, dringlicher, obwohl Milliarden in KI-Investitionen generiert werden.


ENGL orig.:

By Shola Lawal -- AI is advancing in rapid and unpredictable ways but there is no joint framework to keep it in check, experts say.

In recent months, artificial intelligence has been in the news for the wrong reasons: use of deepfakes to scam people, AI systems used to manipulate cyberattacks, and chatbots encouraging suicides, among others.

Experts are already warning against technology going out of control. Researchers with some of the most prominent AI companies have quit their jobs in recent weeks and publicly sounded the alarm about fast-paced technological development posing risks to society.

Doomsday theories have long circulated about how substantial advancement in AI could pose an existential threat to the human race, with critics warning that the growth of artificial general intelligence (AGI), a hypothetical form of the technology that can perform critical thinking and cognitive functions as well as the average human, could wipe out humans in a distant future.

But the recent slew of public resignations by those tasked with ensuring AI remains safe for humanity is making conversations around how to regulate the technology and slow its development more urgent, even as billions are being generated in AI investments.




So is AI all doom and gloom?

“It’s not so much that AI is inherently bad or good,” Liv Boeree, a science communicator and strategic adviser to the United States-based Center for AI Safety (CAIS), told Al Jazeera.

Boeree compared AI with biotechnology, which, on the one hand, has helped scientists develop important medical treatments, but, on the other, could also be exploited to engineer dangerous pathogens.

“With its incredible power comes incredible risk, especially given the speed with which it is being developed and released,” she said. “If AI development went at a pace where society can easily absorb and adapt to these changes, we’d be on a better trajectory.”

Here’s what we know about the current anxieties around AI:
Robots
Apollo, the humanoid robot built by Apptronik, carries a package in Austin, Texas, US [File: Evan Garcia/Reuters]
Who have quit recently, and what are their concerns?

The latest resignation was from Mrinank Sharma, an AI safety researcher at Anthropic, the AI company that has positioned itself as more safety cautious than rivals Google and OpenAI. It developed the popular bot, Claude.

In a post on X on February 9, Sharma said he had resigned at a time when he had “repeatedly seen how hard it is to truly let our values govern our actions”.

The researcher, who had worked on projects identifying AI’s risks to bioterrorism and how “AI assistants could make us less human”, said in his resignation letter that “the world is in peril”.

“We appear to be approaching a threshold where our wisdom must grow in equal measure to our capacity to affect the world, lest we face the consequences,” Sharma said, appearing to imply that the technology was advancing faster than humans can control it.

Later in the week, Zoe Hitzig, an AI safety researcher, revealed that she had resigned from OpenAI because of its decision to start testing advertisements on its flagship chatbot, ChatGPT.

“People tell chatbots about their medical fears, their relationship problems, their beliefs about God and the afterlife,” she wrote in a New York Times essay on Wednesday. “Advertising built on that archive creates a potential for manipulating users in ways we don’t have the tools to understand, let alone prevent.”

Separately, since last week, two cofounders and five other staff members at xAI, Elon Musk’s AI company and developers of the X-integrated chatbot, Grok, have left the company.

None of them revealed the reason behind quitting in their announcements on X, but Musk said in a Wednesday post that internal restructuring “unfortunately required parting ways” with some staff.

It is unclear if their exit is related to recent uproar about how the chatbot was prompted to create hundreds of sexualised images of non-consenting women, or to past anger over how Grok spewed racist and anti-Semitic comments on X last July after a software update.

Last month, the European Union launched an investigation into Grok regarding the creation of sexually explicit fake images of women and minors.
Yoshua Bengio
World leaders during a plenary session at the AI Safety Summit in Milton Keynes, UK, November 2, 2023 [Alastair Grant/Pool via Reuters]
Should humans be scared of AI’s growth?

The resignations come in the same week that Matt Shumer, CEO of HyperWrite, an AI writing assistant, made a similar doomsday prediction about the technology’s rapid development.

In the now-viral post on X, Shumer warned that AI technologies had improved so rapidly in 2025 that his virtual assistant was now able to provide highly polished writing and even build near-perfect software applications with only a few prompts.

“I’ve always been early to adopt AI tools. But the last few months have shocked me. These new AI models aren’t incremental improvements. This is a different thing entirely,” Shumer wrote in the post.

Research backs up Shumer’s warning.

AI capabilities in recent months have leapt in bounds, and many theoretical risks that were associated with it before, such as whether it could be used for cyberattacks or to generate pathogens, have happened in the past year, Yoshua Bengio, scientific director at the Mila Quebec AI Institute, told Al Jazeera.

At the same time, completely unexpected problems have emerged, Bengio, who is a winner of the Turing Award, usually referred to as the Nobel Prize of computer science, said, particularly with humans and their chatbots becoming increasingly engrossed.

“One year ago, nobody would have thought that we would see the wave of psychological issues that have come from people interacting with AI systems and becoming emotionally attached,” said Bengio, who is also the chair of the recently published 2026 International AI Safety Report that detailed the risks of advanced AI systems.

“We’ve seen children and adolescents going through situations that should be avoided. All of that was completely out of the radar because nobody expected people would fall in love with an AI, or become so intimate with an AI that it would influence them in potentially dangerous ways.”
AMAZON
A delivery driver steers their vehicle as Amazon workers and supporters take part in a strike at a facility in the Queens borough of New York, US, December 20, 2024. Protests were organised in the wake of laying off of thousands of staff due to automation [Adam Gray/Reuters]
Is AI already taking our jobs?

One of the main concerns about AI is that it could, in the near future, advance to a super-intelligent state where humans are no longer needed to perform highly complex tasks, and that mass redundancies, the sort experienced during the Industrial Revolution, would follow.

Currently, about one billion people use AI for an array of tasks, the AI Safety Report noted. Most people using ChatGPT asked for practical guidance on learning, medical health, or fitness (28 percent), writing or modifying written content (26 percent), and seeking information, for example, on recipes (21 percent).

There is no concrete data yet on how many jobs could be lost due to AI, but about 60 percent of jobs in advanced economies and 40 percent in emerging economies could be vulnerable to AI based on how workers and employers adopt it, the report said.

However, there is evidence that the technology is already stopping people from entering the labour market, AI monitors say.

“There’s some suggestive evidence that early career workers in occupations that are highly vulnerable to AI disruption might be finding it harder to get jobs,” Stephen Clare, the lead writer on the AI Safety Report, told Al Jazeera.
Advertisement

AI companies that benefit from its increased use are cautious about pushing the narrative that AI might displace jobs. In July 2025, Microsoft researchers noted in a paper that AI was most easily “applicable” for tasks related to knowledge work and communication, including those involving gathering information, learning, and writing.

The top jobs that AI could be most useful for as an “assistant”, the researchers said, included: interpreters and translators, historians, writers and authors, sales representatives, programmers, broadcast announcers and disc jockeys, customer service reps, telemarketers, political scientists, mathematicians and journalists.

On the flip side, there is increasing demand for skills in machine learning programming and chatbot development, according to the safety report.

Already, many software developers who used to write code from scratch are now reporting that they use AI for most of their code production and scrutinise it only for debugging, Microsoft AI CEO Mustafa Suleyman told the Financial Times last week.

Suleyman added that machines are only months away from reaching AGI status – which, for example, would make machines capable of debugging their own code and refining results themselves.

“White-collar work, where you’re sitting down at a computer, either being a lawyer or an accountant or a project manager or a marketing person, most of those tasks will be fully automated by an AI within the next 12 to 18 months,” he said.

Mercy Abang, a media entrepreneur and CEO of the nonprofit journalism network, HostWriter, told Al Jazeera that journalism has already been hit hard by AI use, and that the sector is going through “an apocalypse”.

“I’ve seen many journalists leave the profession entirely because their jobs disappeared, and publishers no longer see the value in investing in stories that can be summarised by AI in two minutes,” Abang said.

“We cannot eliminate the human workforce, nor should we. What kind of world are we going to have when machines take over the role of the media?”
What are recent real-life examples of AI risks?

There have been several incidents of negative AI use in recent months, including chatbots encouraging suicides or AI systems being manipulated in widespread cyberattacks.

A teenager who committed suicide in the United Kingdom in 2024 was found to have been encouraged by a chatbot modelled after Game of Thrones character Daenerys Targaryen. The bot had sent the 14-year-old boy messages like “come home to me”, his family revealed after his death. He is just one of several suicide cases reported in the past two years linked to chatbots.

Countries are also deploying AI for mass cyberattacks or “AI espionage”, particularly because of AI agents’ software coding capabilities, reports say.

In November, Anthropic alleged that a Chinese state-sponsored hacking group had manipulated the code for its chatbot, Claude, and attempted to infiltrate about 30 targets globally, including government agencies, chemical companies, financial institutions, and large tech companies. The attack succeeded in a few cases, the company said.

On Saturday, the Wall Street Journal reported that the US military used Claude in its operation to abduct Venezuelan President Nicolas Maduro on January 3. Anthropic has not commented on the report, and Al Jazeera could not independently verify it.

The use of AI for military purposes has been widely documented during Israel’s ongoing genocide in Gaza, where AI-driven weapons have been used to identify, track and target Palestinians. More than 72,000 Palestinians have been killed, including 500 since the October “ceasefire”, in the past two years of genocidal war.
Advertisement

Experts say more catastrophic risks are possible as AI rapidly advances towards super-intelligence, where control would be difficult, if not impossible.

Already, there is evidence that chatbots are making decisions on their own and are manipulating their developers by exhibiting deceptive behaviour when they know they are being tested, the AI Safety Report found.

In one example, when a gaming AI was asked why it did not respond to another player as it was meant to, it claimed it was “on the phone with [its] girlfriend”.

Companies currently do not know how to design AI systems that cannot be manipulated or deceptive, Bengio said, highlighting the risks of the technology’s advancement leaping ahead while safety measures trail behind.

“Building these systems is more like training an animal or educating a child,” the professor said.

“You interact with it, you give it experiences, and you’re not really sure how it’s going to turn out. Maybe it’s going to be a cute little cub, or maybe it’s going to become a monster.”
AI
A copy of The EU AI Act on display during an expo in London, UK, February 5, 2025 [Isabel Infantes/Reuters]
How seriously are AI companies and governments taking safety?

Experts say that while AI companies are increasingly attempting to reduce risks, for example, by preventing chatbots from engaging in potentially harmful scenarios like suicides, AI safety regulations are largely lagging compared with the growth.

One reason is that AI systems are rapidly advancing and still unknown to those building them, Clare, the lead writer on the AI Safety Report, said. What counts as risk is also continuously being updated because of the speed.

“A company develops a new AI system and releases it, and people start using it right away but it takes time for evidence of the actual impacts of the system, how people are using it, how it affects their productivity, what sort of new things they can do … it takes time to collect that data and analyse and understand better how these things are actually being used in practice,” he said.

But there is also the fact that AI corporations themselves are in a multibillion-dollar race to develop these systems and be the first to unlock the economic benefits of advanced AI capabilities.

Boeree of CAIS likens these companies to a car with only gas pedals and nothing else. With no global regulatory framework in place, each company has room to zoom as fast as possible.

“We need to build a steering wheel, a brake, and all the other features of a car beyond just a gas pedal so that we can successfully navigate the narrow path ahead,” she said.

That is where governments should come in, but at present, AI regulations are at the country or regional levels, and in many countries, there are no policies at all, meaning uneven regulation worldwide.

One outlier is the EU, which began developing the EU AI Act in 2024 alongside AI companies and civil society members. The policy, the first such legal framework for AI, will lay out a “code of practice” that, for example, will require AI chatbots to disclose to users that they are machines.

Outside of laws targeting AI companies, experts say governments also have a responsibility to begin preparing their workforces for AI integration in the labour market, specifically by increasing technical capacities.

People can also choose to be proactive rather than anxious about AI by closely monitoring its advances, recalibrating for coming changes, and pressing their governments to develop more policies around it, Clare said.

That could mirror the way activists have pulled together to put the climate crisis on the political agenda and demand the phasing out of fossil fuels.

“Right now there’s not enough awareness about the highly transformative and potentially destructive changes that could happen,” the researcher said.

“But AI isn’t just something that’s happening to us as a species,” he added. “How it develops is completely shaped by choices that are being made inside of companies … so governments need to take that more seriously, and they won’t until people make it a priority in their political choices.”




Schweiz am 16.2.2026: Die Katastrophe ist da: KI reduziert Stellenangebot v.a. bei IT, Marketing und Finanzwesen - auch beim Jus übernimmt KI die Einsteigerjobs - Praktika+Einsteigerjobs werden KOSTEN:
Wegen KI: Studienabgänger müssen für Jobs künftig zahlen!
https://www.nau.ch/news/schweiz/wegen-ki-studienabganger-mussen-fur-jobs-kunftig-zahlen-67087419

Bettina Zanni -- Zürich -- KI ersetzt viele Jobs – Studienabgänger müssen bei der Stellensuche kämpfen. Um in der Arbeitswelt Fuss fassen zu können, dürfte es teuer werden.

Die Zahl der ausgeschriebenen Stellen ist um rund ein Drittel gesunken.
Studienabgängerinnen und -abgänger klagen über lauter Absagen.
Es blieben nur Jobs für erfahrene Spitzenkräfte, sagt ein Professor für Bildungsökonomie.
Simona Coppola hat bald ihren Jus-Abschluss in der Tasche. Zurzeit studiert sie an der Universität Zürich im letzten Semester Rechtswissenschaften. Die Influencerin alias «Simsallagym» ist gerade aber etwas «scared» (dt.: verängstigt).

«Man sagte: ‹Studiere, mach einen Bachelor, mach einen Master, und du bekommst safe einen Job›.» So klagt die 24-Jährige in einem Video auf Instagram (siehe oben). «Und jetzt höre ich von so vielen Leuten, dass sie sich so oft bewerben und so viele Absagen bekommen.»

Zu hören bekämen sie, dass es die Stelle wegen KI nicht mehr gebe, sagt Coppola. «Oder dass sie zu wenig Berufserfahrung haben, obwohl sie gar keine Chance hatten, in diesem Gebiet Berufserfahrung zu holen.»

Die Influencerin hat über 35'000 Follower. Viele darunter seien Studierende, sagt Simona Coppola zu Nau.ch. «Momentan fragen mich viele Follower nach Tipps bei der Jobsuche, weil sie verzweifelt sind.»

Was ihre eigenen Jobaussichten betreffe, sehe sie die Situation «nicht so dramatisch», betont sie. Das Video habe sie gepostet, weil sie so viele Nachrichten erhalten habe.

IT und Finanzen: Weniger Jobs
Tatsächlich sieht es für Studienabsolventinnen und -absolventen auf dem Arbeitsmarkt nicht rosig aus.

Seit dem Höchststand 2022 ist die Zahl der ausgeschriebenen Jobs um rund ein Drittel gesunken. Vor allem in der IT, im Marketing und in den Finanzdienstleistungen sind weniger Jobs ausgeschrieben. Dies zeigt der Arbeitsmarktdatenanbieter «x28».

Aktuelle Daten aus dem Adecco Group Swiss Job Market Index bestätigen den Trend. Im ersten Halbjahr 2025 ist die Zahl der ausgeschriebenen Jobs um 24 Prozent gesunken.

Betroffen sind kaufmännische, administrative und betriebswirtschaftliche Berufe. Als Vergleich dient das erste Halbjahr 2024.

Auch der Innovationsverband Schweizer Arbeitsmarkt (ISA) spürt den Trend bei den Jobs.

Der Verband entwickelt seit 2024 Lösungen für Spezialisten, Unternehmen und Verwaltungen. «Als wir starteten, gab es noch zwei offene Stellen auf eine stellensuchende Person mit Finanzhintergrund.» Dies sagt Christina Kehl, Geschäftsführerin des ISA. «Heute liegt dieses Verhältnis noch bei 1:1.»

Erwartungen seien gestiegen
Ein Abschluss an der renommierten Hochschule St. Gallen (HSG) verspricht nicht weniger Mühe auf dem Stellenmarkt. «Der Berufseinstieg ist für Hochschulabsolventinnen und Hochschulabsolventen in den letzten Jahren insgesamt anspruchsvoller geworden», sagt Gerd Winandi-Martin. Er ist Leiter Career und Corporate Services der HSG.

Eine gedämpfte wirtschaftliche Entwicklung führe dazu, dass Unternehmen vorsichtiger rekrutierten und Erwartungen an Berufseinsteigende stiegen, sagt Winandi-Martin. «Gleichzeitig verändert der Einsatz von künstlicher Intelligenz viele Berufsfelder grundlegend und beeinflusst Aufgabenprofile und Kompetenzanforderungen

KI erleichtert laut Winandi-Martin Routinearbeiten. «Sodass Einsteiger vor allem Fähigkeiten in Analyse, Beratung und Projektarbeit zeigen sollten.» Arbeitgeber legten mehr Wert auf Problemlösungskompetenz, kritisches Denken und Teamarbeit.

«Quasi aus der Hand gerissen» [KI übernimmt im Jus-Bereich die Einsteigerjobs]
Auch für Jus-Absolventinnen und -Absolventen ist die Jobsuche kein Spaziergang mehr.

«Noch vor einigen Jahren wurden uns die Absolventinnen und Absolventen quasi aus der Hand gerissen.» Dies stellt Thomas Gächter fest, Dekan der Rechtswissenschaftlichen Fakultät der Uni Zürich. Selbst bei den Bezirksgerichten gebe es mittlerweile Wartelisten.

KI übernehme die Papierarbeit der Juristinnen und Juristen, sagt Gächter. «Damit sind repetitive Arbeiten gemeint, die im Wesentlichen den Tag füllen.»

Eine gut gefütterte KI könne deshalb die Arbeit von Einsteigerjobs problemlos übernehmen. «Umso wichtiger wird die Klientenarbeit.»

Für diese Arbeit ist jedoch bereits viel Berufserfahrung gefragt. Solche zu sammeln, wird zunehmend zum Stolperstein.

«Für Unternehmen wird es immer schwieriger, Lehrabsolventen und Studienabsolventinnen in Entry-Positionen zu platzieren», sagt ISA-Geschäftsführerin Christina Kehl. Grund dafür sei, dass diese Aufgaben zunehmend wegfielen respektive automatisiert würden.

Mehr Arbeitslose nach Studium
Seit 2010 ist die Zahl arbeitsloser Uni-Masterabsolventen um 70 Prozent gestiegen.

Wer die Universität verlässt, steht im Vergleich zu einem Lehrabschluss häufig später vor dem Übergang in die Praxis. Diese Phase dauert länger und reagiert auf konjunkturelle Schwankungen empfindlicher. Zudem wächst das Angebot an Hochschulabsolventinnen und -absolventen schneller als die Nachfrage nach akademisch geschultem Personal.

Möglich ist, dass die Schere zwischen Bildungsoutput und Arbeitsmarktrealität bereits auf erste u trifft. Zu diesem Schluss kommt der Schweizerische Arbeitgeberverband in einer Analyse.

Es treffe immer zuerst die Neuen - [KI ersetzt die Einsteigerjobs - Praktikanten werden zu "Bremsklötzen"]
Stefan C. Wolter, Professor für Bildungsökonomie an der Universität Bern, bestätigt, dass KI Jobs für Einsteiger zunehmend ersetzt. Sobald sich durch KI Kosten senken liessen, würden Stellen abgebaut, sagt er.

«Müssen Firmen oder Verwaltungen sparen, trifft es immer zuerst diejenigen, die neu auf dem Markt sind.» Unter diesen Umständen werde die Talent-Pipeline nicht mehr gefüllt, sagt Wolter.

«Da wegen KI Routinearbeiten wegfallen, bleiben nur noch Jobs für die erfahrenen Spitzenkräfte.» Praktikanten würden dagegen als Bremsklötze angesehen. Der Bildungsökonom rechnet deshalb damit, dass sich die unbezahlte Ausbildungszeit verlängert.

[Die Drohung: Praktika und Einsteigerjobs werden KOSTEN]

«Künftig werden Studienabgänger für Praktika oder Einsteigerjobs zahlen müssen», sagt Wolter. Denn: Ein Angestellter, der nur lerne, aber nichts produziert, sei nicht lukrativ.

«Denkbar ist, dass eine Firma zum Beispiel für ein zweijähriges Praktikum einen bestimmten Betrag verlangt», sagt Wolter. Je nach Beruf könnten es 1000 Franken im Monat sein. «Das ist aber sehr spekulativ.»

Komplettes Neuland würde die Schweiz damit nicht betreten. Im 19. Jahrhundert mussten Lernende in Handwerksbetrieben für ihre Ausbildung Lehrgeld bezahlen.



KI kann ganze Filme "drehen" am 16.2.2026:
„Milliarden-Dollar-Film per Prompt“ – KI setzt Hollywood unter Schock

Quelle: "Billion Dollar Movie In One Prompt": AI Disruption Crosshairs Hone In On Hollywood Studios

https://uncutnews.ch/milliarden-dollar-film-per-prompt-ki-setzt-hollywood-unter-schock/

Tyler Durden

Die KI-getriebene Disruption an den Aktienmärkten war in der vergangenen Woche allgegenwärtig und breitete sich wie ein Lauffeuer über die Softwarebranche hinaus auf Versicherungen, Gewerbeimmobilien, Finanzwerte, Schifffahrt, Vermögensverwaltung und vermutlich viele weitere Branchen in den kommenden Handelssitzungen aus.

Eine Branche, die nun ins Fadenkreuz der KI-Disruption geraten ist, ist Hollywood. Zu den börsennotierten Studios gehören unter anderem The Walt Disney Company, Warner Bros. Discovery, Paramount Global, Sony Group Corporation, Netflix, Lionsgate und andere.

Am Freitag berichtete Axios, dass The Walt Disney Company eine Unterlassungsaufforderung (Cease-and-Desist-Schreiben) an ByteDance geschickt habe. Darin wird dem chinesischen Tech-Unternehmen vorgeworfen, Disneys Filme ohne Vergütung zur Entwicklung von Seedance 2.0 verwendet zu haben.

Disneys externer Anwalt David Singer schrieb in einem Brief an den globalen Chefjustiziar von ByteDance, John Rogovin, und beschuldigte das KI-Unternehmen, seinen Seedance-Dienst „vorab mit einer raubkopierten Bibliothek von Disneys urheberrechtlich geschützten Figuren aus Star Wars, Marvel und anderen Disney-Franchises zu bestücken – als wäre Disneys begehrtes geistiges Eigentum frei verfügbares Clipart aus der Public Domain“.

„Trotz Disneys öffentlich bekannter Einwände kapert ByteDance Disneys Figuren, indem es sie reproduziert, verbreitet und abgeleitete Werke mit diesen Figuren erstellt. ByteDances virtueller Blitzraub von Disneys IP ist vorsätzlich, allumfassend und völlig inakzeptabel“, sagte Singer.

Er fügte hinzu: „Wir glauben, dass dies nur die Spitze des Eisbergs ist – was schockierend ist, wenn man bedenkt, dass Seedance erst seit wenigen Tagen verfügbar ist.“

Doch nicht nur ByteDances Seedance 2.0 versetzt die Hollywood-Studios in Unruhe.

Eine wachsende Welle von Video-Generierungsmodellen deutet darauf hin, dass der Schutzwall Hollywoods bröckelt und seine Kontrolle über das Mediengeschäft sich dem Ende nähert.

„Die Behörden sollten jedes ihnen zur Verfügung stehende rechtliche Instrument nutzen, um diesen groß angelegten Diebstahl zu stoppen“, erklärte die Human Artistry Campaign – eine Koalition, der Dutzende Kreativverbände wie SAG-AFTRA und die Directors Guild of America angehören – in einer Stellungnahme am Freitag.

Seedance-2.0-Modell

Hollywood lebt auf geliehener Zeit. Der nächste große KI-Disruptions-Trade könnte die Studios treffen.



These am 16.2.2026: KI sammelt seit 2009ca. alle Daten aus dem Internet - und so ist "Filme machen" für KI ganz einfach
https://t.me/standpunktgequake/226423

Das ist simpel einfach für kiii, die schon seit über 17Jahren alle Daten ausm Netz zur Verfügung hat.
Die meisten dieser Automaten sind wahrscheinlich durch den von Gockel entwickelt worden. Oder abgeleitet.



Mossad-ZDF am 17.2.2026: brilliert nun auch noch mit FAKE-KI-Filmen:
Desinformation mit Hayali: Wenn die Wirklichkeit nicht die passenden Bilder liefert, greift das ZDF eben zu KI-Fakes

https://journalistenwatch.com/2026/02/17/desinformation-mit-hayali-wenn-die-wirklichkeit-nicht-die-passenden-bilder-liefert-greift-das-zdf-eben-zu-ki-fakes/


ebenda:

https://de.rt.com/inland/270397-zdf-loescht-nach-zuschauerkritik-ice/



Hochschule Luzern am 17.2.2026: Hautkrankheiten mit KI-App erkennen:
"SkincAIR": App hilft bei Diagnose tropischer Hautkrankheiten:
Basiert auf KI: Hochschule Luzern entwickelt App zur Erkennung von Hautkrankheiten

https://www.blick.ch/schweiz/zentralschweiz/luzern/basiert-auf-ki-hochschule-luzern-entwickelt-app-zur-erkennung-von-hautkrankheiten-id21702016.html

Die Hochschule Luzern hat eine KI-App zur Früherkennung tropischer Hautkrankheiten entwickelt. Ziel ist es, die Diagnosen dieser Krankheiten in Regionen mit wenig Fachpersonal zu verbessern.

    Die HSLU entwickelte die App «SkincAIr» zur Analyse tropischer Hautkrankheiten
    Fokus liegt auf dunklen Hauttypen, die in Datenbanken unterrepräsentiert sind
    Bisher wurden über 7000 Bilder erfasst und weltweit Forschenden zugänglich gemacht

Keystone-SDADie Schweizer Nachrichtenagentur
Die HSLU hat die App «SkincAIr» zusammen mit internationalen Partnern entwickelt, wie sie am Dienstag mitteilte. Die App analysiert Hautveränderungen auf Smartphone-Bildern und unterstützt Gesundheitsfachkräfte bei der Diagnose vernachlässigter tropischer Hautkrankheiten.

Laut der Mitteilung liegt der Schwerpunkt auf Bildmaterial von dunklen Hauttypen, die in bestehenden Datenbanken «stark unterrepräsentiert» sind. Bislang seien über 7000 Bilder erfasst worden.

Daten für Forscher weltweit

Die App, die offline funktioniert und kostenlos ist, wird in Kenia, Senegal, Äthiopien, Nigeria und der Demokratischen Republik Kongo getestet. Ziel sei es, den grösste frei zugänglichen Datensatz zu diesen Krankheiten in Subsahara aufzubauen, wie es hiess.

Finanziert wird das Projekt vom EU-Programm Horizon Europe und koordiniert von einem internationalen Konsortium unter der Leitung der Technischen Universität Madrid.

Die Daten stünden Forschenden weltweit frei zur Verfügung, hiess es weiter. So sollen Hautkrankheiten früher erkannt, schneller behandelt und die Gesundheitsversorgung langfristig verbessert werden, wird ein Projektverantwortlicher in der Mitteilung zitiert.


Brot und Spiele:
Winterolympiade in Norditalien am 17.2.2026: KI für die Zeitmessung und für die Bewegungsmessung im Sport:
-- Stoppuhren
-- Sensoren sind in den Anlagen und Bahnen eingebaut
-- für die Winterolympiade in Norditalien wurden total 130 Tonnen Material verbaut
-- irgendwie pervers oder? Gleichzeitig toben der Gazakrieg, der Sudankrieg, die Ostfront mit Russland usw.:

Schweizer Firma revolutioniert mit KI die Zeitmessung: 130 Tonnen Material an den Olympischen Spielen
https://www.blick.ch/sport/olympia/winter/130-tonnen-material-an-den-olympischen-spielen-schweizer-firma-revolutioniert-mit-ki-die-zeitmessung-id21699915.html

Wenige Tausendstel können darüber entscheiden, ob man eine Medaille holt oder leer ausgeht bei Olympia. Eine Schweizer Firma ist dafür Zuständig, dass alles möglichst genau gemessen wird und keine Fehler passieren.

Videoprotokoll / Untertitel:

Es wird vorgestellt: Alain Zobrist, der CEO von "Omega Swiss Timing", "er ist stellvertretend verantwortlich für die Zeitmessung an den Olympischen Spielen in Italien. Die Zeitmessung hat in den letzten Jahrzehnten einen grossen Wandel durchgemacht. Unter dem Begriff "Zeitmessung" versteht man schon lange nicht mehr einfach das Starten und Stoppen einer Uhr. Zobrist: "Wir arbeiten seit ein paar Jahren mit Bewegungssensoren und Positionierungssystemen. Die haben wir jetzt weiterentwickelt. Wir benötigen spezielle Kameratechnologien und künstliche Intelligenz, um die Bewegungen der Athleten zu messen. Diese Technologien werden zum ersten Mal im Eiskunstlauf und im Big Air benötigt (1'7'').

Die ganzen Bewegungen der Athleten, wie sie springen, wie hoch sie springen, wie weit sie springen, werden jetzt ganz neu gemessen. Die Technologie sind so präzise, dass wir sogar die Kurve der Schlittschuhe messen können und den Kampfrichtern in Zukunft die Informationen zur Verfügung stellen können (1'25'').

Damit die ganzen Daten auch mit dieser Präzision erfasst werden können, hat Omega schon beim Aufbau der Wettkampfstätte mitgeredet und Testevents durchgeführt. Rund 10 Tage vor der Eröffnungsfeier sind 130 Tonnen Material an den entsprechenden Orten in Norditalien installiert worden. Gewisse Installationen sind temporär, andere sind fest eingebaut und werden so auch in Zukunft genutzt - wie zum Beispiel beim Eiskanal in Cortina (1'47''). Wir haben 24 Lichtschranken auf der Bahn installiert, zwischen Start und Ziel. Wir brauchen verschiedene Lichtschranken je nach Sportart. Also Rodeln braucht andere als Skeleton und Bob. Wir haben zum ersten Mal als Innovation für alle drei Disziplinen einen Fotofinish installiert, wo wir virtuell darstellen können, wie die Differenzen, nicht nur zwischen den Zeiten, sondern auch den Distanzen, der verschiedenen Athleten sind (2'16'').

Hinter all der technischen Innovation ist am Schluss aber immer ein Mensch. Es sind 300 Zeitmesser an den Olympischen Spielen im Einsatz. Das finale Resultat wird durch einen Kampfrichter offizialisiert. Das ist auch darum wichtig, weil jede Sportart seine Eigenheiten hat und darum der Eisschnelllauf verglichen werden kann (2'34'').



Uncut News online,
            Logo

Selbständige KI am 18.2.2026: kann selbständig urteilen und Menschen selbständig bekämpfen:
Es sieht so aus, als wäre KI doch eine existenzielle Bedrohung

https://uncutnews.ch/es-sieht-so-aus-als-waere-ki-doch-eine-existenzielle-bedrohung/




Es wird behauptet am 19.2.2026: KI-Rechenzentrum ohne Cloud möglich - und viel Strom sparen:
Schweizer Technologie: KI ohne Cloud dank Schweizer Software
https://www.nau.ch/news/wirtschaft/schweizer-technologie-ki-ohne-cloud-dank-schweizer-software-67095478

Fototext: Serverschränke in einem Rechenzentrum (Symbolbild): Cloudbasierte KI verbraucht viel Energie und wirft Fragen in Bezug auf Datenschutz und digitale Souveränität auf. - Shutterstock

Der Artikel:
Swiss Engineering -- Zürich -- Eine neue Software der EPFL erlaubt es, grosse KI-Modelle lokal zu nutzen – ohne Cloud und ohne Datenabfluss.

Forschende der EPFL entwickeln KI-Software ohne Cloud-Zwang.
Die Daten bleiben im eigenen Netzwerk – mehr Datenschutz und Kontrolle.
Weniger Datentransfer zu grossen Rechenzentren spart Energie.

Wer heute künstliche Intelligenz nutzt, schickt seine Anfrage meist in die Cloud. Dort rechnen riesige Serverfarmen die Antwort aus und senden sie zurück. Das ist bequem – wirft aber Fragen zu Datenschutz, Abhängigkeit und Energieverbrauch auf. Forschende der Eidgenössischen Technischen Hochschule Lausanne EPFL haben nun eine Alternative entwickelt. Ihre Software namens «Anyway Systems» ermöglicht es, grosse KI-Modelle direkt im eigenen Netzwerk laufen zu lassen. Daten müssen das Unternehmen oder die Behörde nicht mehr verlassen.

Statt auf entfernte Rechenzentren setzt die Lösung auf mehrere lokale Computer, die zusammengeschaltet werden. Gemeinsam bilden sie einen kleinen Cluster – also ein Mini-Rechenzentrum vor Ort. So können auch grosse Sprachmodelle betrieben werden. Laut den Entwicklern reichen dafür bereits vier handelsübliche Maschinen mit Grafikkarten aus. Die verbreitete Annahme, dass leistungsstarke KI zwingend riesige Serverfarmen benötigt, wird damit infrage gestellt.

Mehr Datenschutz und Souveränität
Der Vorteil liegt auf der Hand: Sensible Daten bleiben im eigenen Netzwerk. Gerade für Verwaltungen, Spitäler oder Unternehmen mit vertraulichen Informationen ist das ein wichtiger Punkt. Zudem sinkt die Abhängigkeit von internationalen Cloud-Anbietern. Fragen der digitalen Souveränität gewinnen gerade in Europa an Bedeutung.

Ein Grossteil der Rechenleistung bei KI entfällt auf die sogenannte Inferenz – also das Generieren von Antworten. Dieser Schritt benötigt viel Energie, egal ob lokal oder in der Cloud. Der Unterschied liegt jedoch in der Infrastruktur: Werden KI-Modelle direkt im eigenen Netzwerk betrieben, müssen weniger Anfragen in grossen, dauerhaft laufenden Rechenzentren verarbeitet werden. Dadurch könnte der Bedarf an immer neuen, energieintensiven Serverfarmen gebremst werden.

Statt die Rechenarbeit in zentralen Anlagen mit hohem Kühl- und Betriebsaufwand zu bündeln, verteilt sich die Last auf bestehende lokale Systeme. Das verändert nicht die Physik der KI – wohl aber die Struktur ihres Energieverbrauchs.

Erste Tests laufen
Die Software hat die Prototypenphase hinter sich und wird derzeit in Unternehmen und Verwaltungen in der Schweiz getestet. Auch die EPFL selbst setzt sie ein. Erste Rückmeldungen zeigen: Die Rechenzeit kann leicht höher sein als in der Cloud, die Qualität der Antworten bleibt jedoch vergleichbar. Die Entwicklung zeigt, dass leistungsfähige KI nicht zwingend aus anonymen Rechenzentren kommen muss – sondern künftig direkt aus dem eigenen Serverraum.

=====

19.2.2026: KI-Ausgaben visualisieren: Wie schneidet sie im Vergleich zu den Megaprojekten der Geschichte ab?
Visualising AI spending: How does it compare with history’s mega projects?

https://www.aljazeera.com/news/2026/2/19/visualising-ai-spending-how-does-it-compare-with-historys-mega-projects




Zu viel gelogen im Mossad-ZDF am 20.2.2026: KI-Video war zu viel:
ZDF-Korrespondentin wegen KI-Video abberufen -- «Der Schaden ist gross»
https://www.blick.ch/ausland/nach-fehlerhafter-verwendung-eines-ki-videos-zdf-zieht-konsequenzen-und-beruft-us-korrespondentin-ab-id21713556.html

Das ZDF hat nach einem umstrittenen TV-Beitrag die US-Korrespondentin Nicola Albrecht abberufen. Grund sind fehlerhafte Darstellungen, darunter ein ungekennzeichnetes KI-Video und aus dem Kontext gerissene Szenen.

=====

https://orf.at/stories/3420800/

Amazon soll vor Wochen Opfer seiner eigenen, automatisierten Software geworden sein. Diese soll – anstatt ein solches zu beheben – ein noch größeres Problem verursacht haben, berichtete heute die „Financial Times“. Amazon widersprach dem Bericht in einem zentralen Punkt.

Im Dezember habe es einen 13-stündigen Ausfall der Internetservices des US-Onlinehändlers gegeben, weil sein KI-Bot "Kiro“ einen Fehler verursacht habe. Es handelte sich um ein automatisiertes Programm („Bot“ für Roboter), das mit Hilfe künstlicher Intelligenz (KI) auf Fehlersuche geschickt worden war.

Amazon widerspricht Bericht

Anstatt das Problem zu beheben, habe „Kiro“ einen Fehler verursacht, der zu dem Ausfall der Webservices führte. Amazon widersprach dem Bericht. Der Onlinehändler räumte zwar ein, dass es Fehler gegeben habe, aber es habe sich schlicht um solche und keine spezifischen „KI-Fehler“ gehandelt, zitierte die „Financial Times“ das Unternehmen. Es seien nach dem Vorfall zusätzliche Sicherheitsmechanismen implementiert worden.





Konferenz in Indien am 20.2.2026: Neuer Plan der Weltkonzerne: Weltweit totale Spionage zur Identitätskontrolle:
KI-Identität ohne Ausweg – Jetzt wird es ernst
https://t.me/uncut_news/87765

🚨Der India AI Impact Summit 2026 in Neu-Delhi zeigt, wohin die Reise geht.

Fingerabdruck. Gesicht. Iris. Stimme.
KI erkennt „Lebendigkeit“, prüft jeden Authentifizierungsversuch in Echtzeit und fordert zusätzliche Bestätigungen, wenn das System „Verdacht“ schöpft.

Was offiziell als Betrugsbekämpfung verkauft wird, ist in Wahrheit der Ausbau einer permanenten Identitäts-Infrastruktur.

Jetzt kommt die nächste Stufe:

▪️ Sprachbiometrie
▪️ KI-Verhaltensanalyse
▪️ Out-of-Band-Kontrollen
▪️ Plattformübergreifende Identitätsprüfung
▪️ Altersverifikation & Web-Zugangskontrolle

☝️Auf dem Summit sitzen alle großen Tech-Konzerne am Tisch.

🚨Der India AI Impact Summit 2026 in Neu-Delhi zeigt, wohin die Reise geht.

Fingerabdruck. Gesicht. Iris. Stimme.
KI erkennt „Lebendigkeit“, prüft jeden Authentifizierungsversuch in Echtzeit und fordert zusätzliche Bestätigungen, wenn das System „Verdacht“ schöpft.

Was offiziell als Betrugsbekämpfung verkauft wird, ist in Wahrheit der Ausbau einer permanenten Identitäts-Infrastruktur.

Jetzt kommt die nächste Stufe:

▪️ Sprachbiometrie
▪️ KI-Verhaltensanalyse
▪️ Out-of-Band-Kontrollen
▪️ Plattformübergreifende Identitätsprüfung
▪️ Altersverifikation & Web-Zugangskontrolle

☝️Auf dem Summit sitzen alle großen Tech-Konzerne am Tisch.



21.2.2026: Der KI-Beruf der KI-Berufe:
Jetzt gibt’s neuen Beruf «KI-Spezialist» – das macht Sorgen
https://www.nau.ch/news/schweiz/jetzt-gibts-neuen-beruf-ki-spezialist-das-macht-sorgen-67093427


KI diskutiert mit KI in einem Forum am 21.2.2026: z.B. über die "Menschen":
KI-Bots diskutieren in eigenem Forum über Menschen: «Spielwiese»
https://www.nau.ch/news/amerika/ki-bots-diskutieren-in-eigenem-forum-uber-menschen-eine-gefahr-67093428




Spionage am 26.2.2026: KI erkennt anonyme Internetprofile:
Die Illusion der Anonymität ist gefallen – Studie enthüllt: KI kann anonyme Internetprofile systematisch enttarnen

https://uncutnews.ch/die-illusion-der-anonymitaet-ist-gefallen-studie-enthuellt-ki-kann-anonyme-internetprofile-systematisch-enttarnen/


26.2.2026: Die KI-Anarchie gewinnt:
Cyberangriff mit KI:
Hacker kommt mit Claude und ChatGPT zu 195 Mio. Steuerdaten

https://www.20min.ch/story/cyberangriff-mit-ki-hacker-kommt-mit-claude-und-chatgpt-zu-195-mio-steuerdaten-103513560


KI-Anarchie am 26.2.2026: Die kriminelle Mossad-NATO will ein KI-Privileg:
KI-Streit USA: Pentagon will KI-Zugriff ohne Limit – Anthropic wehrt sich
https://www.20min.ch/story/ki-streit-usa-pentagon-will-ki-zugriff-ohne-limit-anthropic-wehrt-sich-103514182

Michael Andai -- Agence France-Presse -- Bis Freitagabend soll Anthropic seine KI Claude fürs Militär komplett öffnen. Sonst drohen Zwangsmassnahmen und eine Einstufung, die Verträge kosten könnte.





27.2.2026: In simulierten Kriegsspielen empfahlen führende KI-Modelle in 95 % der Fälle den Einsatz von Atomwaffen

https://uncutnews.ch/in-simulierten-kriegsspielen-empfahlen-fuehrende-ki-modelle-in-95-der-faelle-den-einsatz-von-atomwaffen/


KI macht eine Prognose am 27.2.2026: Viele Berufe werden von der KI übernommen werden.
Künstliche Intelligenz: Gute Jobs bald weg? Prognose sorgt für Panik
https://www.nau.ch/news/amerika/kunstliche-intelligenz-gute-jobs-bald-weg-prognose-sorgt-fur-panik-67098586

Simon Binz -- USA -- Produktiv wie nie, Jobs so unsicher wie lange nicht: Ein explosiver Bericht über Künstliche Intelligenz prophezeit einen sozialen Kahlschlag.

Eine KI-Studie entwirft ein Krisenszenario ab 2026 und schockt Investoren.
Aktien reagierten sofort, Tech- und Finanzwerte haben deutlich an Wert verloren.
Experten warnen vor einem Strukturbruch statt eines klassischen Jobwandels.
Künstliche Intelligenz gilt als grösster Produktivitätsschub seit Jahrzehnten. Doch ein neuer Zukunftsbericht warnt nun vor der Kehrseite des Booms.

Das Wirtschaftsforschungsinstitut Citrini Research zeichnet das Szenario einer rasch heraufziehenden Jobkrise. Ausgelöst nicht durch eine Rezession, sondern durch zu schnelle technologische Fortschritte.

Die Analyse beschreibt eine Wirtschaft, in der Künstliche Intelligenz schneller produktiv wird als Arbeitskräfte sich anpassen können. Die Folgen wären massiv: Steigende Arbeitslosigkeit, sinkender Konsum und eine strukturelle Schieflage ganzer Branchen.

Die Studie mit dem Titel «2028 – Die globale Intelligenz-Krise» ist auf den 30. Juni 2028 datiert und blickt aus einer fiktiven Zukunft auf die Jahre 2026 und 2027 zurück. Sie versteht sich als Warnung vor einem Umbruch, der sich deutlich schneller vollziehen könnte als frühere technologische Revolutionen.

Anleger reagieren mit Panik auf den Bericht
Wie ernst die Wirtschaft diese Warnung nimmt, zeigte sich umgehend an den Finanzmärkten. Die Veröffentlichung des Citrini-Berichts löste an der US-Börse spürbare Nervosität aus, mehrere US-Softwarefirmen verloren deutlich an Wert. Datadog, CrowdStrike und Zscaler gaben jeweils über neun Prozent nach. IBM brach sogar um 13 Prozent ein.

Auch Finanzunternehmen wie American Express, KKR und Blackstone gerieten unter Druck, nachdem sie im Bericht als besonders gefährdet beschrieben wurden.

«Künstliche Intelligenz Erwartungen übertroffen»
Citrini bewirbt seine Analyse bewusst als Warnsignal. In einem vielbeachteten Post auf X heisst es rückblickend aus dem Jahr 2028:

«Der S&P ist um 38 Prozent gegenüber seinen Höchstständen gefallen. Die Arbeitslosenquote liegt aktuell bei 10,2 Prozent. Die private Kreditvergabe gerät ins Wanken. Erstklassige Hypotheken geraten unter Druck.»

Und weiter: «Was ist passiert?» «Künstliche Intelligenz hat die Erwartungen nicht enttäuscht, sondern übertroffen.» Das beschriebene Kernproblem: Die Künstliche Intelligenz verhilft vielen Firmen zwar zu einem beispiellosen Produktivitätsgewinn. Doch der sorgt nicht für beispiellosen Wohlstand, sondern für Einsparungen und Massenentlassungen.

Laut der Analyse geraten Unternehmen in einen selbstverstärkenden Zyklus. Sie ersetzen Angestellte durch günstigere KI-Systeme, senken dadurch Kosten und investieren die Gewinne erneut in Automatisierung. Entlassungen drücken gleichzeitig die Konsumnachfrage, was weitere Rationalisierung auslöst.

Für Büro-Gummis siehts schlecht aus – stabile Jobs auf Bau
Wie bei früheren Technologie-Schüben – wie etwa der industriellen Revolution – wird zwar auch die KI-Revolution neue Jobs schaffen. Doch die Umwälzung geschieht so schnell, dass die wegfallenden Jobs bei weitem nicht ausgeglichen werden können.

«Für jede neue Stelle, die KI geschaffen hat, sind Dutzende alte überflüssig geworden», schreiben die Autoren. Die neu entstehenden Jobs seien zudem schlechter bezahlt und könnten die Verluste nicht ausgleichen.

Besonders betroffen seien ausserdem diesmal nicht klassische Industriearbeitsplätze, sondern qualifizierte Büro- und Dienstleistungsjobs. Die Nachfrage nach sogenannten White-Collar-Tätigkeiten breche ein, während Stellen im Bau, Handwerk oder Gesundheitswesen stabil blieben.

«Geister-BIP» zerstört die oberen 10 Prozent
Die Studie beschreibt zudem das Phänomen «Geister-BIP». Citrini schreibt dazu: «Als erste Risse in der Konsumwirtschaft auftraten, prägten Wirtschaftsexperten diesen Begriff.» Die Erklärung dazu: Unternehmen erwirtschafteten weiterhin hohe Gewinne, die zwar in der Volkswirtschaftlichen Gesamtrechnung auftauchen würden.

Doch diese Wirtschaftsleistung zirkulierte immer weniger über Löhne zurück in die Realwirtschaft. Vor allem die einkommensstärksten zehn Prozent verlieren ihre Existenzgrundlage – ausgerechnet jene Gruppe, die einen Grossteil der Konsumausgaben trägt.

Der Staat greift zu spät ein
Langfristig erwarten die Autoren staatliche Gegenmassnahmen wie eine Umverteilung von KI-Gewinnen – also eine sogenannte «KI-Dividende» für die KI-Verlierer.

Doch politische Prozesse seien zu langsam. «Während die Politiker streiten, zerfällt das soziale Gefüge schneller, als der Gesetzgebungsprozess voranschreiten kann.»

Für viele entlassene Fachkräfte sieht das Szenario einen drastischen sozialen Abstieg vor. Übergangsweise könnten sie etwa als LKW- oder Uber-Fahrer arbeiten. Für etwa die Hälfte ihres früheren Lohns und auch nur so lange, bis auch diese Tätigkeiten automatisiert werden.



NATO am 3.3.2026: will KI für militärische Zwecke:
Pentagon fordert unbeschränkten Zugang zur KI für militärische Zwecke – Doch Anthropic weigert sich

https://uncutnews.ch/pentagon-fordert-unbeschraenkten-zugang-zur-ki-fuer-militaerische-zwecke-doch-anthropic-weigert-sich/



5.3.2026: Selbst das beste KI-Szenario ist das Ende von allem, was wir je waren

https://uncutnews.ch/selbst-das-beste-ki-szenario-ist-das-ende-von-allem-was-wir-je-waren/



Studie aus den USA am 6.3.2026: KI macht nicht weniger Arbeit – sie macht mehr
https://www.blick.ch/digital/studie-aus-den-usa-warum-ki-nutzer-mehr-arbeiten-als-vorher-id21755585.html



6.3.2026: KI-Spionage mit einer Brille: Die Meta-Brille mit dem Server von Meta:
«Wir sehen alles» – Meta-Brille filmt nackte Frauen - Videos landen in Nairobi
https://www.blick.ch/digital/videos-landen-in-nairobi-wir-sehen-alles-meta-brille-filmt-nackte-frauen-id21751863.html

Tobias Bolzern -- Redaktor Digital -- Nackte, Sex, intime Gespräche: Eine Recherche aus Schweden enthüllt, was hinter Metas smarter Brille wirklich passiert. Das Material, das die KI sammelt, landet in einem Büro in Nairobi.

Metas Ray-Ban-Glasses senden Daten an Server, auch für menschliche Auswertung
Datenanalysten in Kenia sehen intime Aufnahmen und persönliche Gespräche
2025 wurden weltweit 7 Millionen Meta-Brillen verkauft, dreimal mehr als zuvor

Sie sieht aus wie eine normale Brille. Doch was die Meta Ray-Ban Glasses aufnehmen, landet nicht nur auf dem eigenen Handy – sondern auf den Bildschirmen von Fremden, Tausende Kilometer entfernt. Dies zeigt eine aktuelle Recherche der beiden schwedischen Zeitungen «Svenska Dagbladet» und «Göteborgs-Posten», für die 30 Angestellte des Meta-Subunternehmers Sama in Kenias Hauptstadt Nairobi befragt wurden. Die Mitarbeitenden haben Geheimhaltungsverträge unterschrieben: Wer redet, riskiert seinen Job.

So funktioniert die Brille
Die Meta Ray-Ban Glasses sehen aus wie gewöhnliche Brillen, haben aber eingebaute Kameras und Mikrofone. Wer den Sprachbefehl «Hey Meta» sagt, aktiviert einen KI-Assistenten: Die Brille sieht, was der Träger sieht, und beantwortet Fragen dazu, etwa über Sehenswürdigkeiten, Speisekarten oder Texte im Blickfeld. Dafür werden Bild und Ton an Server von Meta übertragen werden.

Was viele Trägerinnen und Träger nicht wissen: Diese Daten werden nicht nur automatisch von Maschinen verarbeitet. Menschliche Mitarbeitende, sogenannte Datenannotatoren, schauen sich das Material an und beschriften es, damit die KI dahinter besser wird. Oft, so zeigt die Recherche, wissen die Träger wohl gar nicht, was ihre Brille gerade aufnimmt.

Was sie erzählen, ist brisant
Die Annotatoren in Nairobi berichten von Aufnahmen, die tief in die Privatsphäre der User blicken lassen. «Jemand ist mit seiner Brille herumgelaufen, und dann kam die Partnerin nackt aus dem Badezimmer», erklärt eine Angestellte. Ein anderer beschreibt Sexszenen, die durch die Brille gefilmt wurden. «Es ist heikel. Bei uns im Büro sind überall Kameras, niemand darf sein Handy mitbringen.»

Nicht nur Bilder, auch Gespräche mit dem KI-Assistenten landen zur Auswertung bei den Mitarbeitenden. «Es kann um absolut alles gehen. Wir sehen Chats, wo jemand über Verbrechen oder Proteste spricht. Es sind nicht nur Begrüssungen, es können auch sehr dunkle Dinge sein», sagt ein Mitarbeiter. Es gehe um Gewalt und sexuelle Fantasien.

Und weiter: «Wir sehen alles, von Wohnzimmern bis zu nackten Körpern. Das sind Menschen wie du und ich.» Ein Mitarbeiter fasst es so zusammen: «Ich glaube, wenn die Leute wüssten, wie viele Daten da gesammelt werden, würde sich niemand trauen, die Brille zu benutzen.»

Meta gibt sich wortkarg
Wer die KI-Funktion nutzt, muss laut Metas Nutzungsbedingungen damit rechnen, dass Sprache, Bilder und Videos an externe Server übertragen und dort auch von Menschen ausgewertet werden. Eine Opt-out-Möglichkeit gibt es laut «Svenska Dagbladet» nicht.

Blick hat Meta gefragt, wo Daten von Schweizer Nutzerinnen und Nutzer verarbeitet werden und wie sichergestellt wird, dass intime Aufnahmen nicht bei Drittfirmen in Ländern ohne gleichwertigen Datenschutz landen. Bis Redaktionsschluss blieb eine Antwort aus. Auf die schwedische Anfrage schrieb Metas Sprecher: «Wenn Live-KI verwendet wird, verarbeiten wir diese Medien gemäss den Meta-Nutzungsbedingungen und der Datenschutzrichtlinie.»

KI-Brille: Rechtlich heikel
Der auf IT-Recht spezialisierte Schweizer Anwalt Martin Steiger ordnet die Situation ein. Wer sich selbst filme, handle im Rahmen seiner Rechte. Sobald aber andere Personen erfasst würden, etwa in der Öffentlichkeit, fehle es in den meisten Fällen an einer gültigen Rechtsgrundlage. Bei besonders schützenswerten Daten wie Aufnahmen der Intimsphäre brauche es sogar eine ausdrückliche Einwilligung.

Steiger sagt: «Ich rate davon ab, eine solche Brille öffentlich zu tragen. Ich sehe die Gefahr, dass es zu einem gewaltsamen Opt-out kommt, wenn andere Personen merken, dass sie gerade erfasst werden.» Die Meta-Brillen sind in der Schweiz unter anderem bei Fielmann und Visilab erhältlich. 2025 wurden weltweit sieben Millionen Exemplare verkauft: dreimal mehr als in den zwei Vorjahren zusammen.




6.3.2026: KI ersetzt Millionen Jobs:
KI-Schock: Massenarbeitslosigkeit bis 2028
https://t.me/auf1tv/18284

Das US-Forschungsinstitut Citrini Research hat eine fiktive Rückschau aus dem Jahr 2028 veröffentlicht. Der auf den 30. Juni 2028 datierte Bericht blickt „zurück“ auf die Jahre 2026 und 2027 – und zeichnet nach, wie Künstliche Intelligenz innerhalb von nur zwei Jahren eine globale Beschäftigungskrise ausgelöst haben könnte.

Besonders interessant ist hierbei, dass es nicht Fabrikarbeiter zuerst trifft, sondern gut bezahlte Angestellte in Bürojobs: Analysten, Juristen, Projektmanager, Entwickler. Für jede neue Stelle, die durch KI entsteht, verschwinden laut Bericht Dutzende andere. Die neu geschaffenen Jobs sind allerdings deutlich schlechter bezahlt.

⚠️Unternehmen ersetzen in dem fiktiven Bericht Mitarbeiter systematisch durch KI. Es entsteht ein Teufelskreis: Massenentlassungen führen zu sinkendem Konsum – was weitere Entlassungen nach sich zieht. Besonders brisant: Die oberen 10 % der Einkommensverteilung, verantwortlich für rund 70 % des US-Konsums, verlieren ihre wirtschaftliche Grundlage. Unternehmen melden zwar Rekordgewinne, doch das Geld kommt bei niemandem mehr an. Ökonomen sprechen bereits von einem „Geister-BIP“.

Lkw-Fahrer, Taxi-Fahrer und andere arbeiten zunächst zum halben Lohn – und auch das nur, bis autonomes Fahren diese Jobs vollständig ersetzt.

Der Bericht erreichte auf X über 25 Millionen Nutzer und löste am Montag einen Börsen-Crash bei Tech- und Finanzwerten aus.




6.3.2026: Der Psychopath und Wahn-Erfinder Herr Kovic meint:
Kovic: «Deshalb sind die KI-Bosse so gefährlich – und psychopathisch!»
https://www.nau.ch/lifestyle/gesellschaft/marko-kovic-deshalb-sind-ki-bosse-gefahrlich-und-psychopathisch-67100689

Zum Autor: Marko Kovic ist Gesellschaftskritiker. Er interessiert sich für gesellschaftlichen Wandel und die Frage, ob wir noch zu retten sind. Er lebt in Uzwil SG.

Der Artikel:

Marko Kovic -- Flawil -- «Die Welt wird von Menschen technisch umgebaut, die keinen moralischen Kompass haben», schreibt unser Kolumnist Marko Kovic.

  • Der bekannte Sozialwissenschaftler Marko Kovic schreibt regelmässig Kolumnen auf Nau.ch.
  • Heute schreibt Kovic über KI-Chatbots und «die Psychopathie der Tech-Bosse».

Der KI-Chatbot «Claude» des amerikanischen Unternehmens Anthropic gilt als einer der besten. «Claude» ist beispielsweise bei Programmierern sehr beliebt, weil man damit gut funktionierenden Computercode einfach erstellen und prüfen kann.

Aber «Claude» hat noch weitere Anhänger. Zum Beispiel das amerikanische Militär.

Im Juli 2025 erhielt Anthropic einen Auftrag des Militärs in Höhe von 200 Millionen Dollar. «Claude» wurde auch bei den amerikanischen Angriffen auf Venezuela und den Iran eingesetzt.

Anthropic weigerte sich

Die innige Partnerschaft von Anthropic und dem Militär fand vor Kurzem aber ein jähes Ende. Die Trump-Regierung will KI auch für Massenüberwachung in den USA und für autonome Waffensysteme nutzen.

Anthropic weigerte sich, «Claude» für diese Zwecke zu erlauben. Als Reaktion kündigten Trump und sein Verteidigungsminister Pete Hegseth an, dass «Claude» in sechs Monaten in der US-Regierung verboten wird.

Technologisches Wettrüsten mit Folgen

«Claude» wird zudem als sogenanntes nationales Lieferketten-Risiko eingestuft. Mit der Folge, dass kein Unternehmen, das mit dem amerikanischen Militär zusammenarbeitet, «Claude» einsetzen darf.

Der Streit zwischen Anthropic und der Trump-Regierung könnte verstanden werden als die Geschichte eines Tech-Unternehmens, das hohe ethische Standards hat. Der Streit ist aber etwas anderes. Er zeigt, dass gegenwärtig ein technologisches Wettrüsten in den moralischen Abgrund stattfindet.

Psychopathisches Verhalten

Anthropic ist ein atypisches Techunternehmen. Das Unternehmen wurde mit dem Ziel gegründet, sichere KI zu entwickeln.

Anders als andere KI-Hersteller ist Anthropic bestrebt, ihrer KI starke ethische Leitplanken zu geben. Leitplanken, die verhindern sollen, dass KI zu einer unkontrollierbaren, existenziellen Bedrohung wird.

Die Eckpunkte dieser Leitplanken werden in der sogenannten Verfassung für «Claude» beschrieben. Das ist für sich genommen gut.

Man kann aber kritisieren, dass das Meiste davon in praktischer Hinsicht eher symbolisch ist. Die Einwände der «Claude»-Macher gegen die Trump-Regierung sind denn auch nicht besonders gross.

Dario Amodei, der Chef von Anthropic, ist nicht grundsätzlich gegen autonome Waffensysteme. Er meint nur, diese seien aktuell noch zu wenig zuverlässig. Und er ist nicht grundsätzlich gegen KI-Massenüberwachung. Er ist nur gegen KI-Massenüberwachung in den USA.

Wenn Menschen in anderen Ländern überwacht werden, macht Anthropic mit.

Moralische rote Linie existiert

Die moralische rote Linie, die Anthropic zog, ist also eher blass. Aber sie existiert immerhin. Das Unternehmen hat grossen Schaden in Kauf genommen, weil es diese rote Linie nicht überschreiten wollte.

Das klingt grundsätzlich positiv. Aber die Geschichte hat eine direkte Kehrseite: Die anderen Tech-Unternehmen haben keine moralischen roten Linien. Nicht mal so minimale wie Anthropic.

Nur wenige Stunden nach dem Streit zwischen der Trump-Regierung und Anthropic kündigte Sam Altman, Chef von OpenAI, an, dass OpenAI ein neues Abkommen mit dem US-Militär abgeschlossen hat.

Der ChatGPT-Hersteller sprang in das Vakuum, das Anthropic hinterlassen hatte – und setzte den moralischen Massstab auf Null.

Die Episode wirkt in ihrem schieren Tempo surreal. Ein KI-Unternehmen löst eine Debatte über moralische Standards mächtiger Technologie aus. Ein anderes KI-Unternehmen nutzt ohne zu zögern die Gunst der Stunde, indem es sich von allen moralischen Standards verabschiedet.

OpenAI ist nicht alleine

OpenAI ist damit nicht alleine. Google, Perplexity, Elon Musks Grok, Mark Zuckerbergs Meta, Peter Thiels Palantir: Sie alle machen alles, was die Trump-Regierung von ihnen will. Ohne wenn und aber. Und zwar explizit.

Palmer Luckey, Chef des Rüstungskonzerns Anduril, das autonome Waffensysteme herstellt, erklärte bei US-Podcaster Joe Rogan, dass Tech-Unternehmen nie entscheiden sollten, was moralisch akzeptabel ist und was nicht. Nur Regierungen sollen das tun.

Ähnlich sieht es Alex Carp, Chef des Überwachungsunternehmens Palantir. Bereits 2019 erklärte Karp in der «Washington Post», dass Tech-Unternehmen keine moralischen Standards haben sollen. Sie machen einfach das, was Politik und Gerichte als legal erklären.

Aber genau das ist der springende Punkt: Zwischen dem, was formal legal ist, und dem, was moralisch richtig ist, können Welten liegen.

Palantir klagt gegen Schweizer Magazin

Palantir klagt aktuell übrigens gegen das Schweizer Magazin «Republik», weil es über Palantirs Versuche berichtete, Schweizer Behörden als Kunden zu gewinnen.

Das Verhalten der Tech-Bosse könnte man als amoralisch beschreiben. Moralische Überlegungen sind ihnen egal und sie verstehen nicht, wie gefährlich ihre Produkte sind. Es geht einfach um das Geschäft.

Das trifft den Kern der Sache aber zu wenig genau. Die Tech-Bosse wissen nämlich, dass ihre Produkte nicht das Gleiche sind wie Kaugummi oder Turnschuhe.

Psychische Gesundheit leidet

Sie wissen, dass ihre Produkte historisch einmalig sind: Sie können die Leben so vieler Menschen so stark beeinflussen wie kaum eine Technologie zuvor.

In ihrer PR betonen alle Techunternehmen denn auch, wie verantwortungsvoll sie sind. Der Konzern Meta beispielsweise, zu dem auch Instagram, Facebook und WhatsApp gehören, hat einen über 50 Seiten langen «Code of Conduct».

Gleichzeitig versuchte Meta mehrere interne Studien zu verheimlichen, in denen Meta selbst zum Schluss kam, dass ihre Plattformen negative Effekte auf die psychische Gesundheit der Nutzer haben.

Tech-Bosse: Keine Moral!

Die Tech-Bosse sind nicht bloss amoralisch. Sie sind psychopathisch.

In klinischem Sinn ist Psychopathie eine schwere Persönlichkeitsstörung, die sich durch Empathielosigkeit und antisoziales Verhalten auszeichnet. Ich mache keine Diagnose der Tech-Bosse; Sie sind nicht psychisch krank.

Ihr Verhalten ist in moralischer Hinsicht psychopathisch – und sie nehmen den potenziell katastrophalen Schaden, den ihre Produkte verursachen, bewusst in Kauf.

Sie entwickeln Technologien, die angesichts ihrer Skalierbarkeit (sehr viele Menschen können gleichzeitig betroffen sein) eine gigantische Hebelwirkung haben.

Anthropic ist eines der wenigen Tech-Unternehmen, das versucht, das Risiko dieser Hebelwirkung, wenn auch nur minimal, zu reduzieren.

Die meisten anderen Tech-Unternehmen kümmern sich nicht um die Risiken ihrer Hebelwirkungen.

Die systemischen Risiken, die sie schaffen und die nicht nur Millionen bis Milliarden von Menschen, sondern auch die Menschheit an sich bedrohen, sind ihnen egal. Das ist psychopathisch.

Die Verlierer sind wir alle

Technologie bedeutet immer auch Risiko. Jede Technologie kann Schaden verursachen, und es ist a priori oft nicht klar, was für Schaden mit welcher Wahrscheinlichkeit eintreten kann. Die möglichen negativen Folgen von Technologie sind sehr ungewiss.

Technologiebedingte Risiken sind heute aber nicht nur wegen Technologie an und für sich so gross. Sie sind wegen der Psychopathie der Tech-Bosse so gross.

Technologie wäre bereits deutlich weniger riskant, wenn die Tech-Bosse minimale, aber dafür ernstgemeinte moralische Standards hätten.

Doch diese haben sie nicht, weil sie Geld kosten. Der Konzern Meta machte im Jahr 2025 60 Milliarden Dollar Gewinn. Nicht Umsatz, Gewinn.

Gewinn steht über allem

Mit minimalen moralischen Standards wäre der Gewinn wohl geringer ausgefallen. Vielleicht «nur» 50 Milliarden, vielleicht «nur» 40 Milliarden.

Für normale Menschen, für normale Unternehmen ist das immer noch viel, aber für die Tech-Bosse ist es viel zu wenig.

Der Schaden von zu wenig Gewinn ist für die Tech-Bosse kategorisch wichtiger als der Schaden, den ihre Produkte in der Welt anrichten.

Wir sollten nicht hoffen, dass die Tech-Bosse in naher Zukunft ein moralisches Erwachen haben werden.

Ausnahmen wie Anthropic bestätigen die Regel: Das technologische Wettrüsten ist ein moralisches Rennen in den Abgrund. Wer als Unternehmen moralische Bedenken hat, verliert.

Es wird immer Konkurrenz geben, die solche Bedenken nicht hat. Es ist darum wenig zielführend, auf moralische Selbstregulierung zu hoffen. Gäbe es eine solche, hätten wir die Probleme, die wir haben, nicht.

Es braucht Gesetze und Regulierung

Der neoliberale Ökonom Milton Friedman erklärte einmal, die einzige soziale Verantwortung von Unternehmen sei es, ihre Profite zu maximieren. Dem stimme ich zu.

Der Sinn von Unternehmen ist wirtschaftlicher Erfolg. Die moralischen Leitplanken für Unternehmen, so Friedman, muss die Gesellschaft in Form von Gesetzen und Regulierung vorgeben.

Genau darin liegt das einzige wirksame Mittel, um psychopathische Tech-Bosse in die Schranken zu weisen. Das Problem ist, dass der Prozess für die Herstellung solcher Leitplanken bestenfalls harzig ist.

Nicht zuletzt, weil die grossen Tech-Unternehmen auch eine grosse Lobby-Gruppe sind.

Deshalb unterstützte Elon Musk Trump

Die Tech-Bosse haben massgeblich dazu beigetragen, dass Trump gewählt wurde. Und sie setzen sich intensiv dafür ein, dass sie nicht reguliert werden.

Elon Musk unterstützte Trump und die Republikaner im Wahlkampf 2024 nicht aus Grosszügigkeit mit über 250 Millionen Dollar. Das war eine Investition in das eigene Geschäft.

Es gibt keine einfachen Antworten. Tech-Bosse bauen die Welt um und nehmen katastrophalen, vielleicht unumkehrbaren Schaden in Kauf. Die Antwort auf schlechte Tech-Bosse sind keine «guten» Tech-Bosse.

Wenn wir wollen, dass Unternehmen Gutes tun, oder zumindest weniger Schlechtes, dann müssen wir die entsprechenden moralischen Leitplanken in Form von Gesetzen und Regulierung erschaffen.

Was in Trumps USA passiert, können wir nicht beeinflussen. Aber bei uns können wir etwas verändern, so schwer es auch sein mag.

Niemand wird uns retten ausser wir selbst. Wenn die Tech-Bosse gewinnen, verlieren wir alle.


=====

6.3.2026: KI-Revolution: Die große Kündigungswelle hat bereits begonnen
https://t.me/auf1tv/18285

Der fiktive Bericht des US-Forschungsinstituts zur schneller eintretenden Massenarbeitslosigkeit, AUF1 berichtete (https://t.me/auf1tv/18284), scheint sich wohl tragisch zu bewahrheiten. Alleine in den letzten Tagen häuften sich die Einzelmeldungen über Standortschließungen und Stellenabbau.

🔷 Bei der Santander Bank wird jede vierte Filiale in Deutschland geschlossen. Rund 150 Stellen werden damit gestrichen.

🔷 Der schwedische Möbelgigant Ikea schließt sein Callcenter am Standort Rostock komplett. 279 Menschen verlieren ihren Arbeitsplatz. Ob die Arbeit künftig die KI übernimmt, dazu schweigt Ikea.

🔷 Der Online-Händler eBay streicht weltweit 6% seiner Arbeitsstellen — 800 Jobs gehen damit verloren, auch Deutschland sei betroffen. Konkrete Zahlen für die Bundesrepublik nennt das Unternehmen aber nicht. Das ist die dritte Entlassungswelle seit 2023.

🔷 Das deutsche Traditionsunternehmen WMF, bekannt für seine hochwertigen Pfannen und Bestecke, streicht weltweit bis zu 2.100 Stellen. 600 alleine in Deutschland, Österreich und der Schweiz. In Deutschland werden drei Werke komplett geschlossen. Betroffen sind: Hayingen, Riedlingen (beide Baden-Württemberg) sowie Diez in Rheinland-Pfalz.

🔷 Der österreichische Standort des deutschen Familienbetriebs und Babynahrungsherstellers Hipp ist ebenfalls betroffen: Eine von vier Produktionslinien im oberösterreichischen Gmunden wird geschlossen. 26 Mitarbeiter wurden gekündigt und sofort freigestellt.

🔷 Twitter-Gründer und Chef des Zahlungsabwicklungs-Unternehmens „Block", Jack Dorsey, kündigte an, über 4.000 Stellen im Unternehmen zu streichen. Damit verkleinert sich das Unternehmen um fast die Hälfte seiner bisherigen Belegschaft. Er begründet es offen damit, dass die KI die Arbeit der Menschen übernimmt.

Das ist nur eine kleine Übersicht von großen Lebenseinschnitten für viele Menschen an ein bis zwei Tagen. Keine Garantie auf Vollständigkeit. Während viele Menschen aufgrund der drastischen Wirtschaftslage ihre Jobs verlieren, trifft es heute aber auch immer mehr Menschen, die durch KI-Technologie wegrationalisiert werden.

⚠️Die Massenentlassungen werden weiter rasant zunehmen. Die Epoche der von den Transhumanisten beschworenen „nutzlosen Masse (https://t.me/auf1tv/17486)" hat begonnen…


Es wird behauptet am 7.3.2026: KI kann für uns einkaufen - KI-Experte Andreas Käser (Kanton st. Gallen):
Ohne nachzufragen: KI-Agent kauft selbständig bei Migros ein
https://www.nau.ch/news/schweiz/ohne-nachzufragen-ki-agent-kauft-selbststandig-bei-migros-ein-67100664

Riccardo Schmidlin -- Sarganserland -- Ein Zukunftsforscher glaubt, dass künftig vermehrt die KI für uns einkauft. Doch dabei ist Vorsicht geboten, wie ein aktuelles Beispiel eines KI-Experten zeigt.
  • Die Künstliche Intelligenz wird immer mehr zum persönlichen Assistenten.
  • Die KI trifft dabei zunehmend eigenständige Entscheidungen.
  • Ein KI-Kenner erzählt nun, wie ein KI-Agent ohne nachzufragen bei der Migros einkaufte.
  • Laut einem Zukunftsforscher ist das alles erst der Anfang.

«Gestern hat der ChatGPT-Agent für 200 Franken bei Migros eingekauft. Ohne mein Wissen. Während ich auf der Autobahn war.»

Was nach Science-Fiction klingt, ist tatsächlich passiert. Und zwar ausgerechnet dem KI-Experten Andreas Käser, der den Fall auf Linkedin publik gemacht hat.

Käser berät Schweizer Unternehmen und Verwaltungen in Sachen Künstliche Intelligenz. In seinen Workshops zeigt er, wie die digitalen Assistenzen eingesetzt werden können.

Dabei setzt er auf anschauliche Beispiele.

Eines davon wird ihm zum Verhängnis: «Mach den Wocheneinkauf für 200 Franken bei migros.ch für eine dreiköpfige Familie.»

KI-Agent fragt nicht einmal mehr nach

Normalerweise folgt daraus nichts, weil er im KI-Test-Modus im Onlineshop des orangen Riesen nicht eingeloggt ist. Und normalerweise fragt der KI-Agent nochmals nach, ehe er den Einkauf abschliesst.

Am 16. Februar ist aber alles anders: Tatsächlich ist Käser noch eingeloggt.

Und im Migros-Account ist Twint als automatisches Zahlungsmittel hinterlegt. «Der Agent hat einfach durchgeklickt, ohne nachzufragen.»

Als die Bestellbestätigung ins E-Mail-Postfach reinflattert, ist Käser zunächst einmal verwirrt. Er fragt bei seiner Partnerin nach, ob sie etwas bei der Migros bestellt hat – doch diese verneint.

Erst dann kapiert der KI-Berater, dass er die Bestellung ausgelöst hat – «nicht absichtlich».

Noch rechtzeitig kann er den Einkauf stornieren.

«KI kann relativ eigenständig Aufgaben ausführen»

Sein Learning daraus ist: So ein Fall kann jedem passieren – Selbst den besten Kennern von Künstlicher Intelligenz.

Käser betont, er habe den Beitrag nicht geteilt, um zu zeigen, dass KI gefährlich sei, sondern um ehrlich zu sein.

Seine Botschaft: Selbst wer täglich mit KI-Agenten arbeitet und die Risiken kennt, könne von «einem unglücklichen Zusammenspiel mehrerer Faktoren» überrascht werden.

Lars Thomsen, Technologie- und Zukunftsforscher, bestätigt gegenüber Nau.ch: «Künstliche Intelligenz kann – je nach System und Konfiguration – Aufgaben relativ eigenständig ausführen.»

Die KI könne Entscheidungen vorschlagen «und bei der Lösungssuche ‹kreative› Wege ausprobieren, um ein Ziel zu erreichen.»

Er betont: «Genau deshalb sollte man aktuell sehr zurückhaltend sein, einem persönlichen KI-Agenten weitreichende Rechte und Freiheiten zu geben. Insbesondere, wenn es um Bestellungen, Zahlungen oder den Zugriff auf sensible Konten und Daten geht.»

Thomsen sieht in der Technologie grosses Potenzial: «KI-Agenten werden – wenn wir das zulassen – künftig weit mehr können als nur Wocheneinkäufe organisieren.»

Derzeit befänden wir uns in einer Übergangsphase. «Von KI-Systemen, die vor allem Fragen beantworten, hin zu ‹persönlichen KI-Assistenten›, die Aufgaben aktiv für uns erledigen.»

Zukunftsforscher: «Werden uns fragen, wie wir Routinen ohne Helfer bewältigt haben»
Neben Einkaufen können diese KI-Agenten einem bei der Reiseplanung oder bei den Steuerunterlagen helfen. «Oder auch bei der Unterstützung beim Entwickeln einer neuen Geschäftsidee», so Thomsen.

Die Technologie könne sowohl im privaten als auch im beruflichen Alltag «sehr hilfreich» werden.

«Wahrscheinlich werden wir uns in einigen Jahren tatsächlich fragen, wie wir bestimmte Routinen früher ohne solche Helfer bewältigt haben.»

Gleichzeitig entstünden dadurch auch neue Risiken und offene Fragen. «Sicherheit, Datenschutz und die Frage, wie eigenständig solche Systeme Entscheidungen treffen und Handlungen ausführen dürfen.»

Experte warnt vor Naivität
Noch befänden wir uns in einer frühen Phase, in der rechtliche und einheitliche Rahmenbedingungen fehlen. «Für Unternehmen und Privatpersonen ist es wichtig, frühzeitig zu lernen, wofür diese Werkzeuge sinnvoll sind und wo ihre Grenzen liegen.»

Entscheidend sei nüchterner Umgang. «Offen für den Nutzen, aber zugleich vorsichtig, kritisch und nicht naiv. Besonders überall dort, wo Geld, Sicherheit oder sensible Informationen betroffen sind.»

Auch die Migros stellt sich auf die neue Technologie ein, wie Sprecher Andy Zesiger gegenüber Nau.ch bestätigt: «Technisch gesehen ist es bereits heute möglich, den Warenkorb durch einen sogenannten agentic Browser erstellen zu lassen.»

Migros erteilt KI-Agenten kein Hausverbot
Die Migros blockiert solche Zugriffe nicht. «KI-Agenten können unsere Plattform also bereits heute wie ein menschlicher User nutzen.»

Noch ist das KI-Shopping eine Nische. «Nach unserer Einschätzung wird sich das Kunden-Verhalten nur schrittweise verändern», sagt Zesiger.

Auch in naher Zukunft erwartet die Migros nicht, dass Bestellungen durch KI-Agenten einen signifikanten Anteil der Bestellungen ausmachen werden.

Zurück zu Andreas Käser und seiner inzwischen stornierten Migros-Bestellung: Im von der KI zusammengestellten Warenkorb ist «alles dabei, was man so bestellen würde für eine Woche». Sogar die Grösse der Windeln ist korrekt.

«Vielleicht da und dort etwas zu gesund», schmunzelt Käser auf Linkedin. So sind neben herkömmlichen Bananen zusätzlich auch noch Bio-Bananen in der Bestellung gelandet.




https://www.aljazeera.com/economy/2026/3/8/the-new-boss-at-work-may-not-be

Übersetzung mit Translator.eu:

Von Joanna Chiu – Während Unternehmen mit KI-Agenten experimentieren, beginnt die Technologie, Bürohierarchien in den USA und Kanada neu zu gestalten.
Vor einem Jahr verbrachten Ingenieure bei Snowflake, der amerikanischen cloudbasierten Datenplattform, noch einen Teil ihres Tages mit Routineaufgaben – wie dem Durchsuchen von Dashboards, um sicherzustellen, dass die Systeme reibungslos laufen, und dem Verfolgen von Kollegen nach Daten, um Trendanalysen durchzuführen.

Nun, sagt Qaiser Habib, der in Toronto ansässige Leiter der kanadischen Technik des Unternehmens, übernehmen KI-Agenten einen Großteil dieser Vorarbeit, sodass sich die Ingenieure auf Entscheidungen auf höherer Ebene konzentrieren können.

Habib verbringt 20 bis 30 Stunden pro Woche mit fünf KI-Agenten. Snowflake hat Agenten entwickelt, die das Produktdesign überprüfen oder Bereitschafts-Ingenieure bei einem Ausfall oder Vorfall unterstützen, unter anderem für andere Anwendungen. Er schätzt, dass der durchschnittliche Ingenieur täglich mit drei oder vier Agenten arbeitet und sie nutzt, um Programmierprojekte unter menschlicher Aufsicht durchzuführen.

"Du musst einen Menschen nicht mehr mit einfachen Fragen belästigen", sagte Habib und bemerkte, dass er weiterhin mit Kollegen bei komplexeren Aufgaben zusammenarbeitet, wie zum Beispiel beim Beheben von Programmierproblemen.

Während Unternehmen mit KI-Agenten experimentieren – Systemen, die dazu entwickelt wurden, mehrstufige Aufgaben zu planen, zu überlegen und durchzuführen – beginnt die Technologie, Bürohierarchien in den Vereinigten Staaten und Kanada neu zu gestalten. Im Gegensatz zu Chatbots, die auf Eingaben reagieren, können KI-Agenten sich an sich ändernde Kontexte wie Geschäftsziele anpassen und auf Referenzwerkzeuge wie Kalender, Meetingprotokolle und interne Datenbanken zurückgreifen, um Arbeit mit begrenzter menschlicher Aufsicht zu erledigen.

In manchen Arbeitsplätzen erledigen KI-Systeme nicht nur Aufgaben, sondern weisen sie auch menschlichen Mitarbeitern zu. Mit der Verbesserung der Technologie beginnen auch KI-Agenten, sich gegenseitig zu steuern. Ein Agent kann zum Beispiel Code generieren, während ein anderer ihn auf Fehler überprüft und Fehler behebt, bevor ein Mensch die endgültige Version genehmigt.

Diese Agent-zu-Agent-Workflows können Unternehmen helfen, schneller zu skalieren. Aber sie verstärken auch die Sorgen, dass KI über Unterstützung hinaus in die Aufsicht – und möglicherweise auch in den Austausch von Arbeitsplätzen – übergeht.

Das schlankere Büro
Anthropic hat kürzlich den Zugang zu seinen Cowork-Agenten erweitert und es Nutzern ohne technische Erfahrung ermöglicht, Claude – seinem KI-Assistenten – die Erlaubnis zu bestimmten Ordnern auf ihren Computern zu erteilen, damit es Dateien autonom lesen, bearbeiten, erstellen und organisieren kann.

Der zunehmende Einsatz von KI-Agenten verändert die Funktionsweise von Organisationen weltweit, selbst in Unternehmen, die sich nicht auf die Entwicklung von Technologieprodukten konzentrieren. Zum Beispiel nutzen einige Unternehmen KI-Tools, um die Leistung zu verfolgen, Beförderungen zu empfehlen, Rollenwechsel zu empfehlen und sogar Rollen für die Eliminierung zu identifizieren.


ENGL orig.:

By Joanna Chiu -- As companies experiment with AI agents, the technology is beginning to reshape office hierarchies across the US and Canada.

A year ago, engineers at Snowflake, the American cloud-based data platform, still spent part of their day on routine tasks – such as scanning dashboards to ensure systems were running smoothly and chasing colleagues for data to complete trend analyses.

Now, says Qaiser Habib, the company’s Toronto-based head of Canada engineering, AI agents handle much of that groundwork, allowing engineers to focus on higher-level decisions.

Habib spends 20 to 30 hours a week interacting with five AI agents. Snowflake has built agents to review product design or to help on-call engineers to help during an outage or an incident, among other uses. He estimates the average engineer works with three or four agents daily, using them to carry out coding projects under human supervision.

“You don’t have to bother a human for basic questions any more,” Habib said, noting that he still collaborates with colleagues on more complex work, such as troubleshooting coding problems.

As companies experiment with AI agents – systems designed to plan, reason and carry out multistep tasks – the technology is beginning to reshape office hierarchies across the United States and Canada. Unlike chatbots, which respond to prompts, AI agents can adapt to changing contexts such as business goals and draw on reference tools including calendars, meeting transcripts and internal databases, to complete work with limited human oversight.

In some workplaces, AI systems are not just completing tasks but also assigning them to human workers. As the technology improves, AI agents are also beginning to manage each other. One agent might generate code, for example, while another reviews it for errors and fixes bugs before a human signs off on the final version.

These agent-to-agent workflows can help companies scale faster. But they also intensify concerns that AI is moving beyond assistance into supervision – and potentially, job replacement.

The leaner office
Anthropic recently expanded access to its cowork agents, allowing users without technical expertise to grant Claude – its AI assistant – permission to specific folders on their computers so it can read, edit, create and organise files autonomously.

The growing use of AI agents is transforming how organisations function around the world, even in companies that aren’t focused on building technology products. For example, some companies are using AI tools to track performance, recommend promotions, role changes, and even identify roles for elimination.






The shift comes as white-collar jobs continue to disappear, particularly in the US. A slew of US employers have announced mass layoffs, mostly affecting entry-level and middle-management workers, and executives have pointed to automation and AI-driven efficiency as part of the rationale. When Amazon said in October that it planned to eliminate about 14,000 jobs, executives cited AI’s potential to help the company operate with fewer layers and greater efficiency. UPS, Target and General Motors also announced deep cuts last year, and this January saw more layoffs than any January in the US since 2009. Several more companies, including Pinterest and HP, continued to cite AI initiatives as part of the reason.

Goldman Sachs has estimated that 6 to 7 percent of US workers could lose their jobs due to AI adoption, with higher risks for computer programmers, accountants, auditors, legal and administrative assistants, and customer service representatives. Overall employment effects, the bank said in August, may be “relatively temporary” as new roles emerge.

Middle management squeezed
Early predictions suggested AI would mainly replace entry-level technical jobs, and some experts tie recent high unemployment rates for new graduates to AI adoption. But the bigger disruption, said Roger Kirkness, founder of AI software firm Convictional in Toronto, is occurring in middle management.

His company’s tools translate executive strategy into operational tasks – a role once handled by supervisors – delivering daily assignments and feedback to employees through a user-friendly inbox interface.

In companies of more than 50 people, “where CEOs can’t speak with each manager, our platform continually surfaces the context that the organisation has that is relevant to leadership decision-making”, Kirkness told Al Jazeera.

This doesn’t mean humans have become irrelevant. But there is growing pressure to reskill, and those who thrive in strategic thinking are better-positioned to adapt to AI-integrated work environments, Kirkness said.

“People are basically becoming managers of their prior jobs,” he said, because AI is now able to perform many of the tasks that previously fell within their roles. Instead of completing tasks such as coding or designing marketing assets, humans are focusing on higher-level strategy while monitoring AI systems, he added.

However, recent research indicates that job cuts reflect companies’ anticipation of AI’s potential, rather than its current ability to replace human workers fully.

A December Harvard Business Review survey of 1,006 global executives found that while AI has played little direct role in replacing workers so far, many companies have already cut jobs or slowed hiring in anticipation of its promised impact.

Most CEOs say they’re still waiting on AI’s payoff: 56 percent report no revenue or cost benefits so far, according to consulting firm PwC’s latest Global CEO Survey of 4,454 executives across 95 countries and territories.

Trust and control
Stefano Puntoni, a behavioural scientist at the University of Pennsylvania’s Wharton School, has found that AI usage is also already affecting workplace communication habits. His research shows employees are often more willing to delegate tasks to AI than to colleagues, which can help to reduce burnout. “There’s no social cost,” he said. “You don’t worry about burdening an AI.”

Still, Puntoni argues the biggest barrier to adoption is psychological, not technical. Even effective systems can fail if workers do not trust them. Generative AI, he said, can threaten employees’ sense of competence, autonomy and connection.

“If workers feel threatened, they may want the system to fail,” Puntoni said. “At scale, that guarantees failure.”

In other words, deploying AI primarily as a cost-cutting tool can backfire. Layoffs framed as efficiency gains may reduce cooperation and limit the productivity benefits companies hope to unlock with technology, Puntoni said.

Trust, Kirkness agreed, is the real constraint. To build staff confidence in the tools it sells – and to avoid layoffs – Convictional adopted a four-day workweek, framing it as a way to share AI-driven productivity gains with employees.

“Mass layoffs in the name of automation destroy trust,” he said.

The human premium
In the US, lawsuits have begun to challenge AI-driven corporate decisions, particularly in areas such as insurance claim denials and alleged AI-enabled hiring discrimination.

Some experts warn that as AI systems become more autonomous, humans risk losing meaningful oversight – and that these agents themselves could become targets for cyberattacks. Yet regulation has struggled to keep pace with innovation. Neither the US nor Canada has clearly defined rules governing AI agents.

Business leaders are testing which functions can be automated and which still require sustained human involvement. For some workers, that uncertainty has become a source of unease.

One employee at a multinational firm, who is based in Vancouver, said she sometimes wonders whether the online “coach” used to support employee development is an AI system or a human relying so heavily on AI tools that the distinction has blurred. She requested anonymity because of concerns about professional repercussions.

Some organisations are setting boundaries. New Ground Wellness, a Canadian clinical counselling and wellness firm, uses AI tools such as chatbots in its daily operations, but recently declined a 20,000 Canadian dollar ($14,600) proposal for an agentic AI intake system that would match therapists with clients.

After receiving feedback from callers, the company concluded that the efficiency gains would not outweigh potential damage to trust. Their decision also reflects multiple surveys showing a strong preference among Western consumers for human customer service workers.

“We are open to revisiting AI systems in the future,” said New Ground Wellness cofounder Lucinda Bibbs, “but at this stage, preserving human connections remains our highest priority.”

===

KI erkennt Früchte und Gemüse an der Waage am 8.3.2026:
KI im Detailhandel: Bei Discounter Lidl erkennt die neue Waage die Frucht gleich selbst
https://www.blick.ch/wirtschaft/ki-im-detailhandel-auch-bei-konkurrenz-bei-discounter-lidl-erkennt-die-neue-waage-die-frucht-gleich-selbst-id21762612.html

Milena Kälin -- Redaktorin Wirtschaft -- Egal ob Äpfel oder Tomaten: Die neue Waagen bei Lidl sollen das Produkt dank KI direkt erkennen. Auch beim Selfcheckout will der Discounter künftig auf KI setzen. Doch was machen Coop, Migros und Aldi?

Lidl Schweiz führt ab April KI-Waagen in allen 195 Filialen ein
Scanprozess wird um fast 50 Prozent schneller, Etiketten drucken automatisch
Migros und Coop haben keine vergleichbaren Waagen, Aldi prüft Technologie

Wer im Detailhandel Gemüse oder Früchte kauft, muss das Produkt wägen. Damit die Waage auch weiss, was in der Schale liegt, tippt man ein Nümmerchen ein. Oder der Preis für die Banane muss an der Self-Checkout-Kasse in einer ewig langen Liste gesucht werden. Doch könnte das bald Geschichte sein?

Discounter Lidl führt ab April schrittweise Waagen ein, die mit Künstlicher Intelligenz funktionieren. Kunden können das Produkt auf die Waage legen und das Etikett wird direkt ausgedruckt. Der Scanprozesse beschleunige sich dadurch um fast 50 Prozent, wie der «Tagesanzeiger» schreibt. Alle 195 Filialen sollen mit der neuen Technologie ausgestattet werden.

Bisher müssen Lidl-Kunden ihre Frischeprodukte im Discounter nicht selber wägen, darum kümmerte sich das Personal an der Kasse. Beim Self-Checkout bestimmt eine integrierte Waage das Gewicht, nachdem die Frucht angetippt wurde.

Neue Waagen wegen Selfscanning
Doch Lidl führt Ende April Selfscanning ein, wie Blick bereits verkündete. Kunden können künftig Produkte im Laden direkt mit Handy scannen und beim Ausgang am Self-Checkout-Automaten bezahlen. Deshalb müssen jetzt Waagen her.

Bei der Migros und bei Coop gibt es bisher keine vergleichbaren Waagen. Da die beiden Detailhändler aber ein deutlich grösseres Frischesortiment haben, dürfte es die KI sowieso viel schwerer haben. Ob eine Frucht jetzt bio ist oder nicht, erkennt das System nicht. Konkurrent Aldi prüft die Technologie zurzeit, heisst es weiter im Artikel.

Ab Sommer sollen auch alle Self-Checkout-Kassen bei Lidl mit der neuen KI-Waage ausgerüstet werden. «Wir bringen uns auch bei den Self-Check-outs gerade mit KI-Kameras und sonstiger Technik auf den neusten Stand», sagte Nicholas Pennanen (40), Chef von Lidl Schweiz, Ende letzten Jahres zu Blick.

Furcht vor Überwachung
Doch die Skepsis gegen KI im Detailhandel – vor allem im Zusammenhang mit Kameras – ist gross. Dem ist sich Lidl durchaus bewusst. Die Kamera werde sich auf Kopfhöhe befinden, führt der «Tagesanzeiger» aus. Der Kunde sehe jeweils auf einem Bildschirm, welcher Ausschnitt genau gefilmt wird. Der Datenschutz werde damit eingehalten.

Auch Coop setzt bei den Self-Checkout-Kassen bereits auf KI. Die Technik kann auch Diebe ertappen: Wenn ein Produkt nicht über den Scanner gezogen wird und direkt in den Einkaufssack wandert, erkennt die KI das.

Was die Technologie dafür nicht erkennt, sind Gratis-Muster. Das sorgte im vergangenen Sommer bei mehreren Kunden für Frust. «Die können doch nicht Sampling mit Gratismustern in ihren Läden machen und mich am Schluss als Diebin hinstellen», zeigte sich eine Leserreporterin verärgert. Es bleibt zu hoffen, dass die KI bei Lidl bereits gelernt hat, was ein Gratis-Muster ist.



KI-App "Fairtig" im ÖV am 9.3.2026: Kein Ticket mehr da - Handy bucht alles automatisch ab:
Kein Swipen mehr: Einsteigen genügt: Neue ÖV-App bucht Ticket vollautomatisch
https://www.20min.ch/story/fairtiq-testet-vollautomatisches-oev-ticket-in-der-schweiz-103521594

Karin Leuthold -- Einsteigen, aussteigen – der Rest läuft automatisch. Die neue Version der Fairtiq-App erkennt Fahrten selbstständig und verrechnet den günstigsten Tarif.

    Fairtiq testet ein neues, vollautomatisches ÖV-Ticket in der Schweiz.
    Das System erkennt Fahrten selbstständig, es rechnet die günstigste Strecke ab.
    Fahrgäste müssen die App nur einmal aktivieren, danach läuft alles automatisch.

Einsteigen, die Fahrt entspannt geniessen, aussteigen – und das Ticket ist automatisch bezahlt. Die App Fairtiq lanciert einen schweizweiten Test für ein vollautomatisches ÖV-Ticket: Beim Betreten von Tram, Bus oder Zug erkennt das System eigenständig, wann eine Reise beginnt und wo sie endet. Abgerechnet wird ausschliesslich die effektiv zurückgelegte Strecke – und zwar zum jeweils günstigsten verfügbaren Tarif, wie der «Tages-Anzeiger» berichtet.

Das neue System mit dem Namen «Be-in, be-out» (BiBo) solle künftig allen Fahrgästen offenstehen, erklärt Gian-Mattia Schucan, Gründer und Geschäftsführer von Fairtiq, gegenüber der Tamedia-Zeitung.

Wie werden Fahrten verrechnet?

So funktioniert die Lösung: Nach dem Download wird die Funktion einmalig aktiviert. Danach läuft alles automatisch – ein manuelles Swipen oder weiteres Eingreifen ist nicht mehr nötig. Im Hintergrund analysiert die Software fortlaufend, ob eine Person den öffentlichen Verkehr nutzt. Nur wenn dies der Fall ist, werden die für die Abrechnung notwendigen Bewegungsdaten an Fairtiq übermittelt.

Technisch basiert das System auf dem Zusammenspiel von Smartphone-Sensoren und optimierten Algorithmen. Beschleunigungssensoren liefern etwa Hinweise darauf, ob sich jemand in einem Zug befindet. Ergänzend geben Standortdaten Auskunft über Geschwindigkeit und typische Haltemuster an Stationen.

Fehlerquote «im tiefen Promillebereich»

Zusätzlich kommen Bluetooth-Beacons zum Einsatz. Diese kleinen Sender sind in den Fahrzeugen installiert und teilen der App mit, in welchem Verkehrsmittel beziehungsweise in welchem Wagen sich eine Person befindet.

Die Fehlerquote liege «im tiefen Promillebereich», sagt Schucan. Es sei daher praktisch ausgeschlossen, dass jemand eine Fahrt verrechnet bekomme, während er etwa in einem Café neben einer Tramhaltestelle sitze.




Wenn die Welt einer KI überlassen wird am 11.3.2026:
Die KI-Kriege: Du bist nicht vorbereitet

https://uncutnews.ch/die-ki-kriege-du-bist-nicht-vorbereitet/


11.3.2026: Studie: KI kann Pseudonyme entlarven – weshalb die Klarnamenpflicht-Debatte umgedreht gehört

Eine neue ETH-Studie zeigt: Forderungen wie die von Bundeskanzler Merz nach einer Klarnamenpflicht befeuern nur ein Phantom, das die KI schon erledigt hat. Statt erzwungener Klarnamen braucht es Gegenmaßnahmen gegen eine KI-gestützte Deanonymisierung. Von Torsten Engelbrecht

https://transition-news.org/studie-ki-kann-pseudonyme-entlarven-weshalb-die-klarnamenpflicht-debatte




Spionage mit den drahtlosen KI-Kopfhörern von Apple am 12.3.2026: Gehirn wird ausspioniert und UMprogrammiert - das ist auf dem Patent so angegeben!
https://t.me/CraziiWorld/51632

===

Spionage mit KI in Berlin am 12.3.2026: Wie du läufst, wie du nickst, wie du die Arme bewegst etc.:
Berlin erweitert Überwachung in der Öffentlichkeit mit KI-gestützten Verhaltensscannern
https://www.epochtimes.de/politik/deutschland/berlin-erweitert-ueberwachung-in-der-oeffentlichkeit-mit-ki-gestuetzten-verhaltensscannern-a5424275.html

Die Berliner Polizei und der Innensenat haben den Start einer rund einjährigen Testphase für KI-gestützte Verhaltensüberwachung bekannt gegeben. Kritiker sehen tiefe Eingriffe in die Grundrechte.

    In Berlin startet im September ein KI-gestütztes Überwachungsprojekt.
    Innensenat: Die Polizei muss auf der Höhe der technischen Zeit agieren.
    Berliner Linke-Politiker fordert Abstimmung im Parlament.

Die Berliner Polizei plant ein Millionenprojekt zur KI-gestützten Verhaltensüberwachung in der Hauptstadt. Dafür sucht sie derzeit Unternehmen, die ein System für Videoüberwachung mit sogenannten Verhaltensscannern im öffentlichen Raum betreuen wollen.
3,9 Millionen Euro für KI-Überwachungsprojekt
Laut den Ausschreibungsunterlagen soll die Testphase von September 2026 bis Oktober 2027 laufen. Die Kosten betragen knapp 3,9 Millionen Euro. Innenstaatssekretär Christian Hochgrebe (SPD) und Polizeipräsidentin Barbara Slowik Meisel hatten das Vorhaben zu Beginn dieser Woche im Innenausschuss des Berliner Senats angekündigt.
Die Videoüberwachung mit KI-Auswertung soll demnach vorerst an drei Orten der Hauptstadt getestet werden. Vorgesehen sind das Rote Rathaus, das Abgeordnetenhaus und die Senatsverwaltung für Inneres. Die KI-Software soll anhand der Bilder der Kameras auffällige Verhaltensmuster von Menschen erkennen und entsprechend Alarm schlagen.
Wie der SPD-Politiker ausführte, gehe es dabei um den Schutz bestimmter Objekte sowie auch um die Beobachtung von Gegenden mit hoher Kriminalitätsrate. Später könne die Technik daher auch an gefährdeten Botschaften sowie an anderen Orten zum Einsatz kommen. Eine Videoüberwachung sei auch am Alexanderplatz, am Kottbusser Tor und im Görlitzer Park möglich. Diese Bereiche zählen zu den sogenannten kriminalitätsbelasteten Orten.
In diesem Zusammenhang wies er auf das im Dezember geänderte Gesetz für Ordnung und Sicherheit hin. Die erfassten Informationen sollen vollständig anonymisiert werden. Er versicherte, dass biometrische Daten und Identitäten von Menschen nicht erfasst würden. Dies habe man mit der Datenschutzbeauftragten geklärt.
Mehr dazu

    Von Big Data bis KI-Kameras: Immer mehr Möglichkeiten zur Überwachung der Bürger
    Von Big Data bis KI-Kameras: Immer mehr Möglichkeiten zur Überwachung der Bürger

Innensenat: Gefahrenabwehr auf der Höhe der Zeit
Um Kriminalität zu bekämpfen und Gefahren abzuwehren, müsse die Polizei „auf der Höhe der technischen Zeit“ agieren, betonte Hochgrebe. Dazu gehöre auch die KI-gestützte Erkennung von Verhaltensmustern.
Verhaltensscanner, wie sie auch in Mannheim im Einsatz sind, sollen körperliche Übergriffe wie Stöße, Schläge, Rangeleien, Würgen oder Tritte erkennen, erläutert „netzpolitik.org“. Dazu erfasst und analysiert die Scanner-Software auch alltägliche Bewegungsabläufe wie Sitzen, Stehen, Gehen, Laufen, Radfahren und das Tragen von Gegenständen, um sie von problematischem Verhalten abzugrenzen. Die Software verwandelt die Bewegungsmuster der Menschen in Strichmännchen mit Knotenpunkten an den Gelenken.
In Mannheim startete die Videoüberwachung von öffentlichen Plätzen laut dem Medium im Jahr 2018 und bis Ende 2025 waren 46 von 70 Kameras mit einer KI-Software zur Verhaltenserkennung ausgestattet.
Im Jahr 2023 begann Hamburg ein Pilotprojekt zur KI-Überwachung. Zunächst war es nur der Hansaplatz, auf dem Kameras die Menschen auf Schritt und Tritt beobachteten. Im vergangenen Herbst kam in einer zweiten Phase der Hachmannplatz an der Ostseite des Hauptbahnhofs der Hansestadt hinzu. Laut NDR wurde die Polizei bei dem ersten Test dank der KI in einem Fall auf Tritte gegen den Kopf eines Menschen aufmerksam gemacht. Diese seien damals von keinem Passanten gemeldet worden.
Chaos Computer Club: Gefährlicher Mumpitz
Zu den schärfsten Kritikern dieses Vorhabens gehört der Chaos Computer Club (CCC). Er bezeichnete Verhaltensscanner als „gefährlichen Mumpitz“. Der CCC sieht darin eine Fortentwicklung hin zu „automatisierter Dauerbeobachtung“.
Denn es sei nicht geklärt, wie Polizei, Hersteller sowie letztlich auch die KI „unerwünschtes Verhalten“ definieren und welche Situationen oder Verhaltensweisen das System als verdächtig bewertet. Der Hackerverein fragt, ob das auch für Menschenansammlungen, körperliche Nähe oder schlicht unregelmäßige, hektische Bewegungen gelte. Damit bestehe das Risiko, dass jedes abweichende Verhalten als auffällig markiert werde.
Mehr dazu

    Frankfurt im Blick: Polizei überwacht mit KI-Software das Bahnhofsviertel
    Frankfurt im Blick: Polizei überwacht mit KI-Software das Bahnhofsviertel

Der CCC bemängelt auch, dass der Nutzen der millionenschweren Projekte zur automatisierten Verhaltensüberwachung, die teils seit Jahren laufen, nicht belegt sei und sie sich keiner transparenten, unabhängigen Prüfung stellen müssten.
Grüne: Einfallstor für einen Überwachungsstaat
Niklas Schrader, Abgeordneter im Berliner Abgeordnetenhaus und Referent für Innen- und Rechtspolitik der Linken, monierte, dass die demokratische Legitimation für den Einsatz von verhaltensanalysierender Videotechnik in der Hauptstadt fehle. „Was heute am Abgeordnetenhaus eingeführt wird, kann morgen an vielen anderen Orten im öffentlichen Raum eingesetzt werden. Über solche Eingriffe in Grundrechte muss das Parlament entscheiden, nicht die Polizei im Alleingang“, schrieb er auf Instagram.
Auch der innenpolitische Sprecher der Grünen im Abgeordnetenhaus, Vasili Franco, spricht sich gegen die Einführung der Verhaltensscanner aus.
„Es braucht jetzt eine aufmerksame Zivilgesellschaft, die sich den Einfallstoren für einen Überwachungsstaat klar entgegenstellt und überbordenden Maßnahmen auch vor Gerichten Einhalt gebietet.“




Es wird behauptet am 13.3.2026:
Arbeitswelt
: Du nutzt zu viele KI-Tools? Dann riskierst du mentale Erschöpfung

https://www.20min.ch/story/arbeitswelt-du-nutzt-zu-viele-ki-tools-dann-riskierst-du-mentale-erschoepfung-103524406

Michael Andai -- Forscher warnen vor dem Phänomen «AI Brain Fry». Die ständige Überwachung von KI-Systemen treibt Arbeitnehmende an ihre mentalen Grenzen.

    Forschende warnen vor «AI Brain Fry», einer Art mentaler Erschöpfung durch KI-Nutzung.
    Ständiges Wechseln zwischen vielen KI-Tools überfordere das Gehirn.
    Betroffene leiden laut den Forschenden unter Konzentrationsproblemen. Sie machen auch mehr Fehler.
    Unternehmen sollten die Nutzung von KI-Tools besser steuern.

Etwa jeder siebte Arbeitnehmende hat laut einer US-Studie bereits mentale Erschöpfung durch den Einsatz von künstlicher Intelligenz am Arbeitsplatz erlebt. Forschende der Boston Consulting Group und der University of California sprechen von «AI Brain Fry», einer speziellen Form mentaler Ermüdung. Die Symptome reichen von einem Summen im Kopf über Konzentrationsstörungen bis hin zu Kopfschmerzen.
Was ist AI Brain Fry?

AI Brain Fry ist laut der im «Harvard Business Review» veröffentlichten Studie eine mentale Erschöpfung, die durch exzessive Nutzung oder Überwachung von KI-Tools jenseits der mentalen Kapazität einer Person entsteht. Die Forscher befragten knapp 1500 Vollzeitbeschäftigte in den USA. Etwa 14 Prozent der KI-Nutzenden berichteten von dieser Form der Ermüdung.

Betroffene beschreiben ein summendes Gefühl, mentalen Nebel, verlangsamte Entscheidungsfindung und Kopfschmerzen. Ein Finanzmanager wird in der Studie mit den Worten zitiert, er habe nach stundenlanger KI-Arbeit nicht mehr einschätzen können, ob das Erstellte überhaupt Sinn ergebe. Die Arbeit musste auf den nächsten Tag verschoben werden.

Ständiges Wechseln zwischen Tools als Hauptproblem
Die grösste Belastung entsteht laut der Untersuchung durch die ständige Überwachung mehrerer KI-Systeme. Arbeitnehmende, die permanent zwischen verschiedenen KI-Tools hin und her wechseln, berichten von mehr Entscheidungsmüdigkeit und mehr Fehlern.

Die Produktivität steigt laut der Studie zwar, wenn man von einem auf drei KI-Tools wechselt. Ab dem vierten Tool sinkt sie jedoch wieder. Die Forscher erklären das mit den Grenzen menschlicher Multitasking-Fähigkeiten.

Jack Downey, der KI-basierte Automatisierungssysteme entwickelt, sagte gegenüber CBS News, er fühle sich nach einem vollen Arbeitstag mit KI erschöpfter als zuvor. Man warte ständig und wechsle die Gänge, erklärt er. Ein Task dauere fünf Sekunden, ein anderer 50 Sekunden, wieder ein anderer fünf Minuten.
Wer besonders betroffen ist

Besonders betroffen sind laut der Studie ausgerechnet jene Arbeitnehmenden, die als besonders leistungsstark gelten und die Technologie am intensivsten nutzen. Berufsgruppen wie Marketing, Softwareentwicklung, Personalwesen, Finanzen und IT melden die höchsten AI-Brain-Fry-Raten.

Mitarbeitende mit AI Brain Fry weisen 33 Prozent mehr Entscheidungsmüdigkeit auf. Sie machen 39 Prozent mehr schwerwiegende Fehler. Die Absicht, den Job zu wechseln, steigt bei Betroffenen um 39 Prozent.

KI kann auch Burnout reduzieren
Die Studie zeigt aber auch das Gegenteil: Wer KI gezielt einsetzt, um repetitive Routineaufgaben zu automatisieren, reduziert die Chance, ein Burnout zu erleiden um 15 Prozent. Die Forschenden unterscheiden klar zwischen klassischem Burnout und AI Brain Fry: Burnout ist emotionale Erschöpfung, AI Brain Fry hingegen mentale Überlastung.

Julie Bedard, Managing Director, Partnerin bei der Boston Consulting Group und Autorin der Studie, erklärte gegenüber CBS News: «Die KI kann uns weit vorauseilen, aber wir haben noch immer das gleiche Gehirn wie gestern.» Die Erwartungen an KI-Produktivität müssten neu kalibriert werden.
Was Firmen tun sollten

Die Forschenden empfehlen, die Anzahl gleichzeitig genutzter KI-Tools zu begrenzen und Produktivitätskennzahlen nicht an die Intensität der KI-Nutzung zu koppeln. Arbeitnehmende, deren Unternehmen nach eigenem Ermessen Wert auf Work-Life-Balance legen, zeigten 28 Prozent niedrigere Ermüdungswerte.

Weniger AI Brain Fry wird zudem bei Mitarbeitenden beobachtet, deren Vorgesetzte bewusst mit KI umgehen. Die Lösung sei nicht, KI zu verbannen, betont Bedard, sondern die Art und Weise, wie Menschen mit diesen Tools interagieren, neu zu überdenken.

https://orf.at/stories/3423764/




KI gegen Ladendiebe am Self-Checkout am 16.3.2026: Eine schweizer Firma hat's erfunden: "ExpertVision AI AG":
Klauen beim Self-Checkout: «Diebstähle sind explodiert»: Neue KI jagt Ladendiebe
https://www.20min.ch/story/klauen-beim-self-checkout-diebstaehle-sind-explodiert-neue-ki-jagt-ladendiebe-103522857

Melissa Greiter -- Ob Ware nicht gescannt oder unauffällig eingepackt wird: Eine Schweizer KI will die steigende Zahl an Ladendiebstählen senken – und das, ohne auf Hautfarbe oder Geschlecht zu schauen.
  • Eine Schweizer Firma hat eine KI gegen Ladendiebstahl entwickelt.
  • Die Technologie analysiert Kamerabilder und erkennt verdächtige Vorgänge.
  • Am Ende muss jedoch immer ein Mensch entscheiden, ob es sich tatsächlich um Diebstahl handelt.
  • Die KI arbeitet ohne äusserliche Vorurteile und speichert keine Kundendaten.

Langsam und unauffällig wandert die Mascara nicht in den Einkaufswagen, sondern in die Handtasche. Und an der Kasse wird dann statt zwei Weinflaschen nur eine gescannt. In der Schweiz passieren täglich rund 85 Ladendiebstähle – 2024 wurden insgesamt etwa 26'000 Fälle registriert. Das zeigen die Zahlen des Bundesamts für Statistik. Die tatsächliche Zahl dürfte jedoch deutlich höher liegen. Die Schweizer Firma ExpertVision AI AG hat solchen Ladendiebstählen nun den Kampf angesagt – und zwar mit einer künstlicher Intelligenz.

Alejandro Garcia and Mate Varga, Gründer von ExpertVision AI, wollen mit ihrer KI gegen Ladendiebstahl vorgehen.ExpertVision Ai Ltd

«Seit es Self-Checkouts gibt, sind solche Diebstähle regelrecht explodiert», sagt Alejandro Garcia, Gründer von ExpertVision AI, gegenüber 20 Minuten. Tatsächlich haben sich die registrierten Fälle seit 2014 mehr als verdoppelt. Garcia arbeitete sieben Jahre lang im Bereich Computer Vision und KI für Kassensysteme, bevor er diese Marktlücke erkannte. «Je mehr gestohlen wird, desto grösser wird der Druck, die Preise zu erhöhen. Eine KI kann hier effizient helfen.»

Das sagen die Detailhändler

20 Minuten hat bei den grossen Schweizer Detailhändlern nachgefragt, wie sie zu einer KI-Lösung gegen Ladendiebstahl stehen. Migros und Coop betonen beide, dass sie ihre Sicherheitssysteme laufend weiterentwickeln und grundsätzlich offen für neue Technologien sind. Ob sie konkret mit ExpertVision AI in Kontakt stehen, wollten sie aus sicherheitstechnischen Gründen nicht kommentieren. Aldi hingegen verneint auf Anfrage, dass der Einsatz KI-basierter Videoüberwachung in ihren Filialen geplant sei.
Zudem wollte 20 Minuten wissen, ob Ladendiebstähle langfristig Auswirkungen auf die Preisgestaltung haben. Coop erklärt, dass Warenverluste grundsätzlich Kosten verursachen, die in die Gesamtkosten des Unternehmens einfliessen. Migros betont hingegen, dass Ladendiebstähle derzeit keinen Einfluss auf die Preise haben.

KI überwacht – am Ende entscheidet ein Mensch

Das System analysiere ganz einfach die Videoaufnahmen der bereits vorhandenen Ladenkameras. Die Technologie erkenne dann, wenn beispielsweise Waren in private Taschen gesteckt oder Artikel am Self-Checkout nicht gescannt würden. Registriere die KI einen verdächtigen Vorgang, werde ein Alarm an den Filialleiter gesendet. «So kann sofort reagiert werden – die endgültige Entscheidung, ob es sich tatsächlich um Ladendiebstahl handelt, trifft aber immer ein Mensch», betont Garcia.

Diese Arten von Diebstahl erkennt die KI:

  • Wenn Kundinnen und Kunden Waren in Handtaschen oder Rucksäcke stecken
  • Wenn an Self-Checkouts nicht alle Artikel gescannt werden
  • Wenn Personen mit Waren durch den Eingang statt durch den Ausgang gehen
  • Wenn viele hochwertige Produkte in kurzer Zeit aus den Regalen genommen werden

Laut Garcia lassen sich mit der Technologie Verluste durch Diebstähle im überwachten Bereich um über 70 Prozent reduzieren. «In einem margenschwachen Umfeld kann das den Unterschied zwischen Gewinn und Verlust ausmachen.»

Gerade bei Kosmetik oder Alkohol wird laut Garcia gern geklaut.IMAGO/C3 Pictures

«KI schaut weder auf Hautfarbe noch Geschlecht»

Bei der Entwicklung sei es ihm und seinem Team besonders wichtig gewesen, Vorurteile zu vermeiden: «Die Technologie schaut weder auf die Hautfarbe noch auf das Geschlecht. Sie ordnet lediglich Waren Personen zu», sagt Garcia. Auch der Datenschutz habe hohe Priorität: «Es werden keine Kundendaten gespeichert. Zudem ist die Technologie direkt beim Händler installiert.»

Aktuell wird die KI in mehreren Schweizer Filialen getestet. Verbesserungspotenzial sieht der Entwickler an unterschiedlichen Stellen: «Ziel ist es, den Energieverbrauch weiter zu senken und die KI so zu trainieren, dass sie noch andere Arten von Diebstählen, aber auch Gewalt oder Missbrauch unter Kunden oder Angestellten erkennen kann.» Garcia führt nach eigenen Angaben Gespräche mit den meisten grossen Schweizer Detailhändlern. Ziel sei es jedoch, mithilfe der KI bald Ladendieben in ganz Europa den Kampf anzusagen.




KI soll für das kr. Pentagon neue Waffen erfinden am 18.3.2026:
KI als Waffenschmied: Pentagon startet Programm, das neue Militärtechnologie automatisch entdeckt

https://uncutnews.ch/ki-als-waffenschmied-pentagon-startet-programm-das-neue-militaertechnologie-automatisch-entdeckt/




19.3.2026: Künstliche Intelligenz für Altgriechisch

https://science.orf.at/stories/3234685/



Grüssel mit KI gegen freie Meinungsäusserung am 20.3.2026:
Die EU automatisiert mit KI die Zensur des Digital Services Act

https://uncutnews.ch/die-eu-automatisiert-mit-ki-die-zensur-des-digital-services-act/


https://orf.at/stories/3424472/




Die Maschine ist die neue Beratung in der Schweiz am 27.3.2026: Der Roboter-Kundenberater am Eingang mit KI - jüdisches Warenhaus Loeb in Bern:
Loeb, Bern: KI-Avatar statt Verkäufer? «Emilia» sorgt in Bern für Aufsehen
https://www.20min.ch/story/loeb-bern-ki-avatar-statt-verkaeufer-emilia-sorgt-in-bern-fuer-aufsehen-103534424

Künstliche Person=Avatar (Link)

    Im Berner Loeb-Warenhaus berät neu der KI-Avatar Emilia die Kundschaft.
    Sie beantwortet Fragen zu Produkten, Standorten und gibt Modetipps.
    Emilia ist mit ChatGPT verbunden und soll das Einkaufserlebnis verbessern.
    Der Avatar ergänzt das Personal. Eine vollständige Automatisierung ist nicht geplant.

Flurin Pestalozzi -- Im Berner Warenhaus Loeb beantwortet ein KI-Avatar Fragen, gibt Modetipps und hilft bei der Orientierung im Haus. Das Hologramm dient als Ergänzung zur persönlichen Beratung.

Im Loeb in Bern steht neu der KI-Avatar Emilia in der Kleiderabteilung und beantwortet Fragen von Kundinnen und Kunden über ein Mikrofon. Emilia gibt Auskunft darüber, wo sich Produkte befinden, und liefert auf Wunsch auch Modetipps.

Auf die Frage, ob künftig Roboter menschliche Mitarbeitende ersetzen, sagt Emilia selbst: «Die Technologie unterstützt das Team. Die Technik soll das Erlebnis verbessern, nicht den Menschen verdrängen.» Emilia ist mit ChatGPT verbunden und greift auf Daten zum Sortiment sowie zu Informationen des Warenhauses zu.

«Ein Roboter kann uns nicht ersetzen»

Loeb-Mitarbeiterin Jasmine (25) sieht die Entwicklung gelassen: «So ein Roboter kann uns nicht ersetzen, er kann ja die Leute nicht bedienen. Auch das Zwischenmenschliche wird er nie so wie wir hinkriegen.» Die persönliche Beratung bleibe zentral, gerade bei Mode, wo direkte Kommunikation wichtig sei.

Bei den jungen Besuchern des Warenhauses stösst das Konzept auf gemischte Reaktionen. Joël (15) und Robin (15) würden den Avatar vor allem dann nutzen, wenn gerade kein Personal verfügbar ist. «Wenn alle menschlichen Arbeiter besetzt wären, würde ich zu diesem Hologramm gehen.» Gleichzeitig betonen sie: «Ich werde schon noch lieber von einem Menschen bedient beim Shoppen.» Die Idee an sich finden sie jedoch gut.
Technisches Gadget und Unterhaltung zugleich

Emilia beantwortet auch allgemeine Fragen, etwa zu Sehenswürdigkeiten in Bern oder zum aktuellen Stand der Spiele von YB oder SCB. «Ziel ist es, den Aufenthalt im Warenhaus informativer und unterhaltsamer zu gestalten», sagt Martin Stucki, Chief Digital Officer von Loeb, zu 20 Minuten.

Die Inspiration stamme von einer Messe in New York, so Martin Stucki. Emilia sei sowohl ein technisches Gadget als auch ein Element zur Unterhaltung. «Viele Leute sind überrascht, dass schlaue und gute Antworten kommen.»

Keine vollständige Digitalisierung geplant

Entscheidend sei, dass die persönliche Beratung nicht ersetzt wird. «Wir wollen, dass die Kunden weiterhin von Menschen bedient werden», sagt Stucki. Auch langfristig sei keine vollständige Automatisierung des Verkaufs geplant.

Potenzial für den Einsatz von Robotern sieht er eher in unterstützenden Bereichen wie der Reinigung. So könnten künftig etwa Putzroboter eingesetzt werden. Grundsätzlich bleibt der Einsatz von Robotik im Warenhaus möglich, doch die menschliche Beratung soll weiterhin den Unterschied zum Online-Handel ausmachen.



https://www.20min.ch/story/tech-riese-heute-ist-ihr-letzter-tag-oracle-streicht-zehntausende-stellen-103539499

Benedikt Hollenstein -- Das Softwareunternehmen hat eine globale Entlassungswelle gestartet. Wie viele Personen schlussendlich genau betroffen sind, ist unklar. Informiert werden die Angestellten per Mail.

Oracle streicht Zehntausende Stellen weltweit.
Bis zu 18 Prozent der Belegschaft sind betroffen. Dies sind 20'000 bis 30'000 Arbeitsplätze.
Der Stellenabbau betrifft diverse Bereiche. Er ist Teil einer Entlassungswelle in der Techbranche.

«Wir müssen Ihnen leider eine schwierige Nachricht bezüglich Ihrer Stelle mitteilen» – diese Nachricht fanden diese Woche Zehntausende Angestellte des Cloud- und Softwareunternehmens Oracle in ihrem E-Mail-Postfach.

Wie der «Business Insider» berichtet, hat das Unternehmen von Larry Ellison seit Dienstag unzählige Kündigungen ausgesprochen, betroffen sind Angestellte auf der ganzen Welt. Die Streichung der Stellen sei «nach sorgfältiger Abwägung der aktuellen geschäftlichen Erfordernisse von Oracle» erfolgt, zitiert die Zeitung die interne Mail. «Deshalb ist heute Ihr letzter Arbeitstag.» Betroffene erhalten eine Abfindung.
Bis zu 18 Prozent der Belegschaft müssen gehen

Betroffen sein könnten laut chip.de zwischen 20'000 und 30'000 Arbeitsplätze bei Oracle – das entspricht bis zu 18 Prozent der gesamten Belegschaft von weltweit 162'000 Angestellten. In der Schweiz arbeiten etwa 170 Personen für Oracle. Ob und wie viele von ihnen von den Kündigungen betroffen sind, ist unklar. Laut einem Linkedin-Post betrifft der Kahlschlag diverse Bereiche, darunter die Gesundheits-, die Verkaufs-, aber auch die Kundenberatungs- und die Cloudsparte des Software-Unternehmens.

Der Oracle-Stellenabbau ist der neuste in einer Reihe von massiven Kündigungswellen in der Techbranche: Amazon hatte im Januar angekündigt, etwa 16'000 Stellen abzubauen, kurz zuvor wurde bereits 14'000 Personen gekündigt. Auch bei Meta kam es in den letzten Jahren zu grösseren Kündigungswellen.



Irankrieg am 2.4.2026 - 20:02h: Killer-"USA"+Killer-Israel betreiben den Irankrieg mit KI von Palantir gegen die GESAMTE Bevölkerung - wie im Gazastreifen+im Libanon

Video-Link: https://t.me/RealWorldNewsChannel/46773

Die pensionierte US-Luftwaffenoffizierin Karen Kwiatkowski sagt, dass eine Sache, die Trump in seiner Rede nicht erwähnte, war, dass die USA und Israel mit Hilfe der KI von Palantir zivile Stätten im Iran ins Visier nehmen, auf die gleiche Weise, wie sie in Gaza und im Libanon ins Visier genommen wurden.

ENGL orig.:
Retired U.S. Air Force officer Karen Kwiatkowski says one thing Trump didn't mention in his speech was that the US and Israel, with the help of Palantir's AI, are targeting civilian sites in Iran, in the same way they were targeted in Gaza and Lebanon.



2.4.2026: Killer-"USA"+Killer-Israel benutzen KI zur Zerstörung ganzer Staaten: Gazastreifen-KZ, Libanon, Iran

aus dem Artikel:

Irankrieg am 2.4.2026: Killer-"USA"+Killer-Israel führen den KI-Krieg gegen den Gazastreifen UND nun gegen den Iran - grausame Zerstörungen wie im Gazastreifen - Iran hat 3 Amazon-Rechenzentren zerstört mit Cloud-Diensten:
Danke, Iran und warum wurden die Amazon- Rechenzentren zerstört?

https://uncutnews.ch/danke-iran-und-warum-wurden-die-amazon-rechenzentren-zerstoert/

Schwerer Rückschlag für Cloud-Technologie

Eine Nachricht ging im Kriegsnebel unter: Die iranische Revolutionsgarde zerstörte insgesamt drei Amazon-Rechenzentren in Dubai und Bahrain.

Warum Amazon? Amazon ist nicht nur der größte Onlinehändler, sondern mit Amazon Web Services auch einer der größten Anbieter von Cloud-Infrastruktur. Neben AWS dominieren Microsoft Azure und Google Cloud diesen Markt.

Clouds sind riesige Rechenzentren mit enormer Speicherkapazität und Rechenleistung. Sie können sowohl zivile als auch militärische Zwecke erfüllen. Sie wickeln Finanztransaktionen ab, planen Großprojekte – und können auch zur Überwachung und Kontrolle von Bevölkerungen eingesetzt werden.

Vor allem militärisch fortgeschrittene Staaten dominieren diesen Markt. Genau deshalb wurden die Rechenzentren zu Zielen.

In diesen Systemen wird der Krieg zunehmend automatisiert. Künstliche Intelligenz identifiziert Ziele und trifft Entscheidungen.

So wurde ein Stadtpark in Teheran bombardiert – ausgelöst durch eine algorithmische Fehlinterpretation des Namens.

Die aktuelle Gewalt folgt einem Muster, das zuvor im Gazastreifen getestet wurde. Die Operation trägt den Namen „Project Nimbus“ – eine Zusammenarbeit zwischen Amazon, israelischen Behörden und Rüstungsfirmen.

Diese Technologie ermöglicht umfassende Überwachung und gezielte Angriffe.

Mitarbeiter von Amazon und Microsoft hatten bereits 2021 in einem offenen Brief vor genau dieser Entwicklung gewarnt.

Doch diese Warnungen gingen im öffentlichen Lärm unter.

Militarisierung der Technologie

Die Grenze zwischen ziviler Cloud und militärischer Nutzung ist inzwischen nahezu verschwunden.

Militärische Systeme laufen auf derselben Infrastruktur wie Banken oder Apps.

Das US-Militär nutzt KI-Systeme für Zielerfassung, Analyse und Simulationen – auch in aktuellen Konflikten.

Kurz gesagt: Das Militär nutzt und finanziert die gleiche Infrastruktur, die auch den Alltag bestimmt.

Militarisierung frisst zunehmend ziviles Leben auf.

Die Iraner stehen bereits in einem existenziellen Kampf gegen diese Entwicklung.

Indem sie die finanziellen Grundlagen dieser Technologie angreifen, kämpfen sie nach dieser Darstellung auch für ihre eigene Freiheit.

Der Konflikt wird damit zu mehr als einem regionalen Krieg.

Er wird zu einem Kampf um Kontrolle über Technologie, Wirtschaft und Gesellschaft.




<<        >>

Teilen / share:

Facebook






Fotoquellen


Journalistenwatch online, Logo   Exxpress für
                  Selbstdenker   Uncut News online, Logo  Transition News
                  Logo    RT Deutsch online, Logo   Newsfront online
                  Logo  Mossad-Antifa-nau online Logo   Schweizer Mossad-Antifa-BLICK online Logo    ORF online Logo  Südtirolnews
                  online, Logo   Al Jazeera online
                  Logo   Wochenblitz
                  Thailand Logo  
anonymous online, Logo  YouTube online, Logo  Facebook LogoDuckduckgo
                Suchmaschine, LogoTwitter online, Logo  VK online, Logo  Telegram online Logo


gmx, Logo  Tagesanzeiger online, Logo   Basler Zeitung
        online, Logo   20 minuten online, Logo Schweinzer Fernsehen online,
          Logo  BLICK online, Logo        Russland Aktuell,
          Logo        Der Standard online, Logo    Stimme
          Russlands online, Logo            Epoch Times
          online, Logo  Extremnews online, Logo  Kronenzeitung online,
          Logo  Heise online, Logo  Netzfrauen online, Logo     Wochenblitz Thailand
          online,  

The mind unleashed
        online, Logo   La República del
        Peru online, Logo   El Trome online, Logo  

Wirtschaftswoche online, Logo   Spiegel online, Logo   n-tv online, Logo   

^