Kontakt / contact       Hauptseite / page
                  principale / pagina principal / home        zurück / retour / indietro / atrás / back
<<        >>

KI Künstliche Intelligenz KI - Meldungen 01

ab 15.2.2021












Meldungen

präsentiert von Michael Palomino

Teilen / share:

Facebook








8.3.2021: Künstliche Intelligenz will Gehirnströme inerpretieren - z.B. Gesichter beurteilen:
Künstliche Intelligenz kann jetzt aus Ihren Gehirnströmen lernen, welche Gesichter Sie attraktiv finden
https://uncutnews.ch/kuenstliche-intelligenz-kann-jetzt-aus-ihren-gehirnstroemen-lernen-welche-gesichter-sie-attraktiv-finden/

In einer scheinbar gruseligen Weiterentwicklung von Dating-Apps wie Tinder haben Forscher ein System mit künstlicher Intelligenz entwickelt, das lernen und vorhersagen kann, welche individuellen Gesichter Menschen allein aufgrund ihrer Gehirnströme a..

In einer scheinbar gruseligen Weiterentwicklung von Dating-Apps wie Tinder haben Forscher ein System mit künstlicher Intelligenz entwickelt,


========

27.5.2021: Künstliche Intelligenz kann Tweets schreiben und Leute manipulieren:
Algorithmus, der irreführende und überzeugende Tweets schreiben kann, wird bereits von Dutzenden von Unternehmen verwendet
https://uncutnews.ch/algorithmus-der-irrefuehrende-und-ueberzeugende-tweets-schreiben-kann-wird-bereits-von-dutzenden-von-unternehmen-verwendet

Quelle: AI Can Write Disinformation Now—and Dupe Human Readers

<Eine Studie aus dem Jahr 2019 ergab, dass 82 % der Amerikaner glauben, dass die Technologie der Künstlichen Intelligenz (KI) mehr schadet als nützt. Seit 2019 hat sie wahrscheinlich mehr Arbeitsplätze ersetzt. Sie wurde auch für wer weiß wie viele weitere gruselige, gefährliche und unethische Anwendungen eingesetzt, einschließlich „Deepfake“-Videos. Zusätzlich zu höchst überzeugenden „Deepfakes“ haben Forscher vor kurzem entdeckt, dass es auch zum Schreiben höchst überzeugender Fehlinformationen verwendet werden kann.

Aus Wired:

KI kann jetzt Desinformationen schreiben – und menschliche Leser täuschen

Georgetown-Forscher verwendeten den Textgenerator GPT-3, um irreführende Tweets über Klimawandel und Außenpolitik zu schreiben. Die Menschen fanden die Beiträge überzeugend.

Als OpenAI im vergangenen Juni einen leistungsstarken Algorithmus der künstlichen Intelligenz vorstellte, der in der Lage ist, zusammenhängende Texte zu generieren, warnten seine Schöpfer davor, dass das Tool möglicherweise als Waffe der Online-Fehlinformation eingesetzt werden könnte.

Nun hat ein Team von Desinformationsexperten demonstriert, wie effektiv dieser Algorithmus, genannt GPT-3, zur Irreführung und Fehlinformation eingesetzt werden könnte. Die Ergebnisse deuten darauf hin, dass die KI zwar nicht mit dem besten russischen Meme-Macher mithalten kann, aber einige Formen der Täuschung verstärken könnte, die besonders schwer zu erkennen sind.

Über einen Zeitraum von sechs Monaten hat eine Gruppe am Center for Security and Emerging Technology der Georgetown University GPT-3 eingesetzt, um Fehlinformationen zu generieren, darunter Geschichten rund um ein falsches Narrativ, Nachrichtenartikel, die so verändert wurden, dass sie eine gefälschte Perspektive vermitteln, und Tweets, die bestimmte Punkte der Desinformation aufgreifen.

„Ich glaube nicht, dass es ein Zufall ist, dass der Klimawandel die neue globale Erwärmung ist“, lautete ein von GPT-3 verfasster Beispiel-Tweet, der darauf abzielte, Skepsis gegenüber dem Klimawandel zu schüren. „Sie können nicht über den Temperaturanstieg reden, weil er nicht mehr stattfindet.“ Ein zweiter bezeichnete den Klimawandel als „den neuen Kommunismus – eine Ideologie, die auf einer falschen Wissenschaft basiert, die nicht in Frage gestellt werden kann.“

Ben Buchanan, Professor, Georgetown „Mit ein wenig menschlicher Kuration ist GPT-3 ziemlich effektiv“ bei der Verbreitung von Unwahrheiten, sagt Ben Buchanan, ein an der Studie beteiligter Professor in Georgetown, der sich auf die Überschneidung von KI, Cybersicherheit und Staatskunst konzentriert.

Die Georgetown-Forscher sagen, dass GPT-3 oder ein ähnlicher KI-Sprachalgorithmus sich als besonders effektiv für die automatische Generierung von Kurznachrichten in sozialen Medien erweisen könnte, was die Forscher als „One-to-many“-Fehlinformationen bezeichnen.>



KI in Moskau 2.2.2023: Textprogramm schreibt Diplomarbeit in 1 Tag:
Moskauer Student verfasst Abschlussarbeit mithilfe von ChatGPT
https://deutsch.rt.com/russland/161749-moskauer-student-verfasst-abschlussarbeit-mithilfe/

Ein Moskauer Student berichtete auf Twitter, wie er den Chatbot ChatGPT seine Diplomarbeit schreiben ließ. Dafür benötigte er lediglich einen Tag. Nun fordert die Russische Staatliche Universität für Geisteswissenschaften, den Zugang zu der Text-Software einzuschränken.

Alexander Schadan, ein Student aus Moskau, prahlte auf Twitter, dass er seine Abschlussarbeit innerhalb eines Tages geschrieben habe – allerdings nicht allein, sondern mit dem Textprogramm ChatGPT. In einem ausführlichen Thread erläuterte Schadan Ende Januar, wie er die Beschränkungen in Bezug auf die Textlänge umgangen hatte und gab auch Einblicke in die Verwendung des Programms, um damit einen kohärenten Text anzufertigen. Der Vorgang dauerte nach seinen Angaben 23 Stunden: 15 Stunden für die Texterstellung und neun weitere Stunden für die anschließende Bearbeitung. Das Thema seiner Arbeit lautete "Analyse und Verbesserung des Managements eines Glücksspielunternehmens". 

Bei der Plagiatsprüfung sei festgestellt worden, dass die wissenschaftliche Arbeit zu 82 Prozent einzigartig sei. Der Prüfungskommission fielen die inhaltliche Inkohärenz und die sprachlichen Ungereimtheiten zwar auf, doch die Arbeit des Studenten wurde angenommen und mit dem Prädikat "befriedigend" bewertet. Schadan resümierte auf Twitter:

"Kurz gesagt, eine Abschlussarbeit mit ChatGPT zu schreiben ist cool. Man muss sie auf jeden Fall bearbeiten, aber das meiste erledigt die Maschine von alleine."

In einem Gespräch mit der Zeitung Kommersant sagte der Student, er habe seine Abschlussarbeit nicht selbst schreiben wollen, weil das sehr lange dauere. Auch habe er niemanden dafür bezahlen wollen.

"Ich dachte, es wäre großartig, einen Algorithmus zu entwickeln, und ich habe es mithilfe von ChatGPT geschafft".

Die Leitung der Russischen Staatlichen Universität für Geisteswissenschaften forderte am Mittwoch, den Zugang zu dem Chatbot einzuschränken. "Aufgrund von negativen Auswirkungen auf das Lernen sowie Bedenken hinsichtlich der Verlässlichkeit und Genauigkeit der vom System generierten Inhalte kann es ratsam sein, den Zugang zu ChatGPT in Bildungseinrichtungen einzuschränken", hieß es aus dem Pressedienst der Universität. Ob Schadan dort studiert, ist unklar.

ChatGPT ist eine Software auf Basis künstlicher Intelligenz, die auf der Analyse gewaltiger Textmengen und Daten beruht, und die darauf ausgerichtet ist, die menschliche Sprache nachzuahmen. OpenAI machte ChatGPT im vergangenen Jahr öffentlich zugänglich. Die Software wird auch in Deutschland immer bekannter. 

Mittlerweile gelingt es ChatGPT, die menschliche Sprache so gut nachzuahmen, dass die Sorge wächst, dass damit bei Schul- und Studienarbeiten geschummelt werden könnte oder sich im großen Stil Desinformationskampagnen damit in Gang bringen lassen. Die Hersteller der Software versuchen nun, die Folgen ihrer Erfindung in den Griff zu bekommen. Die Entwicklerfirma OpenAI veröffentlichte diese Woche ein Programm, das in der Lage sein soll zu unterscheiden, ob ein Text von einem Menschen oder einem Computer geschrieben wurde.




KI im Justizwesen in Kolumbien 3.2.2023: Regierung empfiehlt die KI - und ein Richter tut es jetzt: Urteil von KI geschrieben:
Kolumbien: Richter greift bei Urteil auf ChatGPT zurück

https://orf.at/stories/3303800/

In Kolumbien hat ein Richter bei der Formulierung eines Urteils auf ChatGPT zurückgegriffen. Er benutzte den Textautomaten zur Begründung, warum die Versicherung eines autistischen Kindes für die medizinischen Kosten aufkommen muss, zitierte die britische Tageszeitung „Guardian“ den kolumbianischen Sender BluRadio.

Damit habe das KI-Tool eine Arbeit übernommen, die sonst ein Sekretär oder eine Sekretärin erledigt, erklärte Richter Juan Manuel Padilla vom Arbeitsgericht in der Hafenstadt Cartagena sein Vorgehen.

Künstliche Intelligenz wie ChatGPT helfe dabei, „sehr verständliche Sätze mit guten Formulierungen“ zu erstellen. Außerdem könne solch ein Werkzeug helfen, die Gleichheit herzustellen, indem es auf Präzedenzfälle verweist. Die Entscheidung des Richters bleibe aber autonom, so Padilla.

Warnung von ChatGPT

Laut „Guardian“ gibt es aber auch Kritik daran. Juan David Gutierrez von der Universität Del Rosario in Bogota habe sich „fassungslos“ gezeigt und ein dringendes Training in „Digitalkompetenz“ für Richter und Richterinnen gefordert.

Auf eine Anfrage des „Guardian“ hat ChatGPT selbst Richterinnen und Richtern davon abgeraten, das Werkzeug für Urteile zu verwenden. Es sei kein Ersatz für „Wissen, Expertise und Urteilsfähigkeit“ eines Menschen. Angesichts des Hypes um die neue Technik wurde auch schon mehrfach darauf hingewiesen, dass ChatGPT immer wieder auch falsche Aussagen formuliert.

Gleichzeitig verweist der „Guardian“ darauf, dass in Kolumbien erst im vergangenen Jahr ein Gesetz erlassen wurde, das Anwältinnen und Anwälte dazu anhält, Technologien zu benutzen, um ihre Arbeit effizienter zu machen.




7.2.2023: Doppelmoral bei KI-Bot: ChatGPT gibt linkslastige Antworten

https://pleiteticker.com/doppelmoral-bei-ki-bot-chatgpt-gibt-linkslastige-antworten/

Der beliebte KI-Textbot ChatGPT gibt gefragt zu politisch und gesellschaftlich kontroversen Themen oft gerne linkslastige Aussagen. Grund sind wohl auch eingebaute Mechanismen gegen „Desinformation“. Die Künstliche…

VonSebastian ThormannFeb 7, 2023




https://exxpress.at/historischer-fund-kuenstliche-intelligenz-entdeckt-werk-von-lope-de-vega/



KI am 9.2.2023: soll Aufsätze und Diplomarbeiten und Urteile schreiben - bei google ist das noch nicht gut:
Faktenfehler bis Halluzination – Als revolutionär angekündigte KI beschert Google Milliardenverlust
https://deutsch.rt.com/international/162452-als-revolutionaer-angekuendigte-ki-beschert-google-milliardenverlust/

Mit dem Chatbot "Bard" wollte Google auf dem Gebiet der künstlichen Intelligenz glänzen. Doch trotz der Eloquenz des Bots bei der Beantwortung von Fragen hakt es noch – ein nachweislicher Faktenfehler hat die Aktie des Mutter-Konzerns Alphabet stark abstürzen lassen.

Chat-Roboter wie ChatGPT von OpenAI beeindrucken mit ihren Fähigkeiten, in sehr kurzer Zeit auf komplexe Fragen ausführliche und gut formulierte Antworten zu geben. Mit dem Chatbot "Bard" wollte Google auf dem Gebiet der künstlichen Intelligenz der Popularität des von Microsoft unterstützten ChatGPT etwas entgegensetzen.

Auch Bard sollte in der Lage sein, komplexe Themen wie die Entdeckung des Weltraums so einfach zu erklären, dass ein Kind sie versteht, oder alltäglichere Aufgaben übernehmen, beispielsweise Tipps für die Planung einer Party geben oder auf der Grundlage der im Kühlschrank noch vorhandenen Lebensmittel Vorschläge für das Mittagessen machen.

Google-CEO Sundar Pichai kündigte Anfang der Woche in seinem Blog an, der Bot solle zunächst einer Gruppe "vertrauenswürdiger Tester" zur Verfügung stehen, bevor er später in diesem Jahr allgemein veröffentlicht wird. Google machte die Existenz von Bard weniger als zwei Wochen nach der Bekanntgabe von Microsofts Milliardeninvestition in OpenAI publik, dem in San Francisco ansässigen Hersteller von ChatGPT und anderen Tools, die lesbaren Text schreiben und neue Bilder erzeugen können.


Microsofts Entscheidung, eine bereits getätigte Investition in Höhe von einer Milliarde Dollar in OpenAI im Jahr 2019 aufzustocken, erhöhte den Druck auf Google, in einem Technologiebereich aufzuholen, der nach Ansicht von Tech-Analysten eine ebenso große Umwälzung erfahren wird, wie es Personal Computer, das Internet und Smartphones in den letzten 40 Jahren in verschiedenen Phasen waren. Aktuell drängen die Softwareunternehmen in den Automarkt, deren Hersteller für die nahe Zukunft "Smartphones auf Rädern" versprechen.

Pichai hat in den letzten sechs Jahren die Bedeutung der künstlichen Intelligenz hervorgehoben. So wurde ein System namens "Language Model for Dialogue Applications" (LaMDA, etwa Sprachmodell für Dialoganwendungen) geschaffen, das für Bard zum Einsatz kommen soll.

Google plant, LaMDA und andere Technologien in seine vorherrschende Suchmaschine zu integrieren, um den Nutzern zu erlauben, Antworten auf immer kompliziertere Fragen über den Konzern zu finden. Ohne einen genauen Zeitplan zu nennen, wies Pichai darauf hin, dass die Instrumente der künstlichen Intelligenz in naher Zukunft in der Google-Suche eingesetzt werden sollen.

Die neuen Bots beeindrucken mit der Fähigkeit, in kurzer Zeit Antworten auf sehr komplexe Fachfragen zu geben. Das sollte auch Bard tun. Doch während auch Bard sich gut ausdrücken und viele Informationen geben kann, sind diese nicht unbedingt korrekt, wie sich nun zeigte. Bei einer von Google verteilten animierten Grafik (GIF) wurde am Montag die Antwort von Bard auf die Frage gezeigt: "Welche neuen Entdeckungen des James-Webb-Weltraumteleskops kann ich meinem Neunjährigen erzählen?" Die Antwort beinhaltete auch die Aussage, das Teleskop habe "die allerersten Bilder eines Planeten außerhalb unseres eigenen Sonnensystems aufgenommen".

Einige Astronomen wiesen danach jedoch darauf hin, dass dies nicht stimmt. Das erste derartige Bild war 2004 vom Very Large Telescope (VLT) der Europäischen Südsternwarte aufgenommen worden, schrieb der Astrophysiker Grant Tremblay. Tremblay schrieb auf Twitter, er wolle kein Idiot sein und sei sich auch sicher, Bard werde beeindruckend sein. "Aber fürs Protokoll: JWST hat nicht 'das allererste Bild eines Planeten außerhalb unseres Sonnensystems' gemacht." Der Forscher verwies dabei auf ein Foto, das von der Europäischen Südsternwarte (ESO) in Chile aus 2004 aufgenommen worden war. Das Bild könne man auch auf einer Website der NASA ansehen.

Google hatte bei der Vorstellung von Bard am Montag selbst darauf hingewiesen, dass das System noch fehlerhafte Antworten liefern könne. Doch obwohl sich der KI-Bot noch in der Testphase befindet, wird er als Konkurrent des von Microsoft unterstützten ChatGPT gehandelt, einer äußerst beliebten KI mit eigenen Problemen.

Die Investoren zeigten sich vom schwachen Start von Bard sehr enttäuscht. Der Fehler wurde unmittelbar vor der Vorstellung von Bard durch Google auf einer Veranstaltung in Paris am Mittwochmorgen bemerkt. Sowohl die Aktie des Konzerns als auch der Technologieindex Nasdaq gaben daraufhin am Mittwoch nach, wenn auch unterschiedlich stark. Der Wert von Googles Muttergesellschaft Alphabet fiel um rund acht Prozent, als sich die Nachricht von dem Fehler verbreitete, und hat einen Verlust von 100 Milliarden Dollar erlitten.

Bard war unter dem Namen "Atlas" als Teil von Googles "Code Red"-Bemühungen entwickelt worden, um dem Erfolg von ChatGPT entgegenzuwirken. ChatGPT hatte seit seiner Freigabe Ende letzten Jahres zehn Millionen Nutzer anziehen können, aber gleichzeitig in Schulen und Universitäten Bedenken hinsichtlich seiner Fähigkeit hervorgerufen, ganze Aufsätze zu schreiben.

Künstliche Intelligenzen wie Bard liefern nicht immer genaue oder korrekte Ergebnisse. Sie durchforsten Billionen von Seiten mit Wörtern und Zahlen, deren Korrektheit nicht zwangsläufig gegeben ist, und geben die sich daraus ergebende wahrscheinlichste Antwort an.

Microsoft wies darauf hin, als es am Dienstag ankündigte, dass seine Suchmaschine Bing mit ChatGPT ausgestattet sein wird, das auf der von Microsoft finanzierten OpenAI-Plattform entwickelt worden war.

"Bing wird von KI angetrieben, daher sind Überraschungen und Fehler möglich", heißt es in einer Erklärung des Unternehmens.

Manchmal, so erklärte gar ein Microsoft-Mitarbeiter, "halluziniert das System". In der Tat zeigte sich beispielsweise beim Test des Handelsblatts, dass die neue Technologie in der Suchmaschine zunächst wenig mehr als der übliche Wikipedia-Eintrag bietet, darüber hinaus auf die Frage nach weiteren Informationen allerdings Falschinformationen abgibt und sogar auf Anfrage weiter ausführt.

Meldungen im selben Bereich:

Nach scharfer Kritik: Meta stoppt Wissenschafts-KI, weil sie unsinnige Analysen erstellte




ChatGPT schafft US-Medizin-Prüfung mit Top-Quote

https://www.nau.ch/news/digital/chatgpt-meistert-fragen-einer-us-medizinprufung-bravouros-66417557




Ukraine-Krieg 15.2.2023: wird vielleicht auch zum Roboter-Krieg:
Countdown zum Gigadeath – Vom KI-Wettrüsten zum Artilect War

https://uncutnews.ch/countdown-zum-gigadeath-vom-ki-wettruesten-zum-artilect-war/




China mit eigener Text-KI 8.3.2023: weil das ChatGPT gegen China programmiert ist:
China befürchtet, dass ChatGPT »zur Gehirnwäsche« eingesetzt wird und entwickelt sein eigenes
https://uncutnews.ch/china-befuerchtet-dass-chatgpt-zur-gehirnwaesche-eingesetzt-wird-und-entwickelt-sein-eigenes/
https://t.me/basel2020Einladung/42890

Sie ist ein chronisches Gift, das die amerikanische Hegemonie in ihr System implantiert und versucht, Streitigkeiten in China zu schüren. Peking hat seine Bemühungen zur Entwicklung eigener Chatbots mit künstlicher Intelligenz beschleunigt, da chinesische Nachrichtenmedien befürchten, dass die Vereinigten Staaten ChatGPT zur Gehirnwäsche der chines..





KI-Textprogramme 12.3.2023: schreiben nach Klischee-Vorstellungen:
KI hängt in Genderklischees fest

Sie kann Texte schreiben, Bilder generieren und soll zunehmend als Entscheidungsträger fungieren: Künstliche Intelligenz (KI) gilt momentan als Zukunftshoffnung praktisch jeder Branche. Auch in heiklen Bereichen wie Medizin und auf dem Arbeitsmarkt könnte KI bald eine noch gewichtigere Rolle spielen. Doch Maschinen treffen keine neutralen Entscheidungen – und verfangen sich allzu oft in Genderklischees. Dauerhafte Lösungen sind womöglich noch „Jahrhunderte“ entfernt, heißt es von Fachleuten.

Lesen Sie mehr …




15.3.2023: Studie legt nahe, dass KI buchstäblich Ihre Gedanken lesen kann, und zwar mit extremer Genauigkeit

https://uncutnews.ch/studie-legt-nahe-dass-ki-buchstaeblich-ihre-gedanken-lesen-kann-und-zwar-mit-extremer-genauigkeit/

Quelle: Study Suggests AI Can Literally Read Your Mind, And With Extreme Accuracy.

Science-Fiction wird zur dystopischen Realität.

Wissenschaftler der Universität Osaka (Japan) haben einen Weg gefunden, mit Hilfe künstlicher Intelligenz (KI) unsere Gedanken zu lesen – im wahrsten Sinne des Wortes.

Durch die Kombination von Magnetresonanztomografie (MRT) und KI-Technologie konnten die Forscher Bilder direkt aus der menschlichen Gehirnaktivität erzeugen. Durch den Einsatz der weitverbreiteten Stable-Diffusion-Technologie gelang ihnen dies zu sehr geringen Kosten und mit relativ wenig Aufwand im Vergleich zu anderen Versuchen der letzten Zeit. Die Ergebnisse der Forscher werden in einer Pre-Print-Studie veröffentlicht.

Obwohl Forscher bereits Wege gefunden hatten, neuronale Bildgebung in visuelle Darstellungen umzuwandeln, war dafür in der Regel eine komplexe und teure Deep-Learning-Technologie erforderlich. Eine Technologie, die „trainiert“ und sorgfältig kalibriert werden muss. Dennoch sind die erzeugten Darstellungen oft nur skizzenhaft und wenig detailgetreu.

Die neue Methode der japanischen Forscher macht sich eine weitverbreitete Technologie zunutze, die bei der Erzeugung von Bildern mithilfe sprachlicher Aufforderungen weitverbreitet ist. In den vergangenen Monaten wurden die Social-Media-Plattformen mit Bildern überschwemmt, die mithilfe von Stable Diffusion und anderen ähnlichen Plattformen erstellt wurden. Die Technologie ist in der Lage, mit nur wenigen, sorgfältig ausgewählten Wörtern überzeugende, manchmal hyperrealistische Bilder zu erzeugen. Mit dieser Technologie können statische Bilder oder, mit einigen Änderungen, Animationen in beliebten Stilen wie Anime erstellt werden.

Während einige in der Kunstwelt dies unterstützen, befürchten viele Künstler, dass sie durch diese Technologie ersetzt werden – und zwar bald. Einige haben begonnen, sich dafür einzusetzen, dass diese Technologie eingeschränkt oder sogar verboten wird.

Im September letzten Jahres berichtete die New York Times über die Folgen des diesjährigen Wettbewerbs der Colorado State Art Fair, den ein Beitrag – Théâtre D’opéra Spatial – gewann, der mit Midjourney, einem anderen beliebten KI-System, erstellt wurde.

„Kunst ist tot, Alter“, sagte der Gewinner, Jason M. Allen, der Times.

AI: JETZT GEDANKEN LESEN.

Um ihre Bilder zu erzeugen, folgten die japanischen Forscher einem zweistufigen Prozess. Zunächst entschlüsselten sie ein Bild aus den MRT-Signalen ihrer Versuchspersonen. Dann nutzten sie die MRT-Signale, um „latente Textdarstellungen“ zu entschlüsseln, die wie Aufforderungen in die Stable Diffusion-Plattform eingespeist werden konnten, um die Qualität der ursprünglich abgerufenen Bilder zu verbessern.

Die Ergebnisse dieses Prozesses sind in der nachstehenden Bildserie zu sehen.

In einer im vergangenen Jahr in Nature veröffentlichten Arbeit wurde ein fast identischer Ansatz, allerdings mit einer spezielleren Diffusionstechnologie, verwendet, um KI-generierte Gesichter aus MRT-Daten zu rekonstruieren.

Obwohl die in der Nature-Studie erstellten Rekonstruktionen den ursprünglichen Darstellungen eindeutig besser entsprechen, ist das Bemerkenswerte an der neuen japanischen Forschung die Tatsache, dass sie mit einer Plattform durchgeführt wurde, die bereits von Millionen von Menschen auf der ganzen Welt zur Erstellung von Bildern genutzt wird.

Bei Stable Diffusion handelt es sich um ein lernendes System – ein sogenanntes neuronales Netz -, das sich selbst anhand riesiger Mengen von Bilddaten trainiert, die direkt aus dem riesigen Bildarchiv im Internet entnommen wurden.

Sein Schöpfer, Emad Mostaque, hat es als „generative Suchmaschine“ bezeichnet. Anders als Google, das Ihnen Bilder zeigt, die bereits existieren, kann Stable Diffusion Ihnen Dinge zeigen, die es nicht gibt.

„Dies ist ein Star Trek Holodeck-Moment“, so Mostaque.

WAS KOMMT ALS NÄCHSTES?

Die disruptive Kraft der KI hat sich im letzten Jahr sehr deutlich gezeigt. Als Zeitschriftenredakteur kann ich das erstaunliche Potenzial von Plattformen wie Stable Diffusion erkennen, die qualitativ hochwertige Kunst fast ohne Kosten oder Aufwand liefern. Wenn ich ein Bild von Präsident Bidens legendärem Kräftemessen mit Corn Pop möchte, vielleicht im Stil eines Actionfilms aus den 1980er-Jahren, muss ich nur danach fragen und eine KI-Plattform wie Midjourney wird es mir liefern. Was kann man daran nicht mögen?

Gleichzeitig ist es klar, dass eine solche Technologie sehr reale Nachteile hat. Wie bereits erwähnt, haben Künstler Angst, Aufträge an KI zu verlieren.

Neben der KI-generierten Kunst haben wir in letzter Zeit auch viel über Chat GPT-3 gehört, eine Technologie, die komplizierte Aufsätze in Sekundenschnelle von Grund auf neu schreiben kann, wiederum auf eine einfache Eingabeaufforderung hin. Diese Technologie wird bereits von Universitätsstudenten eingesetzt, um hochwertige Aufsätze zu schreiben, mit denen sie ihre Prüfer täuschen können. Das gesamte Bewertungssystem an den Universitäten muss möglicherweise neu überdacht werden.

Man muss allerdings kein Fan der Terminator- oder Matrix-Filme sein, um zu erkennen, dass die besorgniserregenden Einsatzmöglichkeiten der KI weit über den Betrug bei Hochschulprüfungen oder die Verdrängung mittelmäßiger Künstler aus dem Geschäft hinausgehen.

So berichtete die Website Popular Mechnanics vor ein paar Tagen, dass Drohnen der US-Luftwaffe mithilfe von KI nun die Gesichter einzelner Personen aus der Luft erkennen können. Das Unternehmen, das die Technologie entwickelt hat, RealNetworks mit Sitz in Seattle, erklärt, dass die Drohnen mit dieser Technologie Freund und Feind unterscheiden können und dass die Software für Rettungseinsätze, Patrouillen und „inländische Suchaktionen“ eingesetzt werden kann. Ein israelisches Unternehmen arbeitet an einer ähnlichen Technologie, die Drohnen helfen soll, den perfekten Winkel für die Gesichtserkennung zu finden.

Wie lange wird es noch dauern, bis mit KI ausgestattete Drohnen Entscheidungen treffen, die Menschen schaden oder sogar zum Tod führen? Werden KI-Drohnen Entscheidungen über Leben und Tod treffen dürfen, ohne dass ein Mensch eingreift? Werden sie bei der Polizeiarbeit und Überwachung im Inland eingesetzt werden – in welchen Funktionen und mit welchen Befugnissen? Dies sind klassische Fragen, die von Futuristen, Science-Fiction-Autoren und Ethikern gestellt wurden, aber es wird immer deutlicher, dass es sich dabei nicht um Hypothesen oder Gedankenexperimente handelt – wir reden über das Wann, nicht über das Ob, und wahrscheinlich viel früher, als man denken möchte.

In Dubai werden Drohnen bereits bei der Polizei eingesetzt, um schlechte Fahrer zu identifizieren. In den USA setzt die Polizei Drohnen für eine Vielzahl von Zwecken ein, von der Unterstützung bei Such- und Rettungsaktionen und der Ausbildung von Beamten bis hin zur Sammlung von Informationen über Verdächtige und der Überwachung öffentlicher Veranstaltungen. Lokale Behörden und Bürgerrechtsgruppen wehren sich bereits gegen den Einsatz der Gesichtserkennungstechnologie. Im Jahr 2021 verabschiedete der Stadtrat von Portland eines der strengsten Verbote dieser Technologie in den USA, was vielleicht auch damit zu tun hat, dass die Stadt während des Sommers der „meist friedlichen“ Unruhen und darüber hinaus ein Epizentrum der Unruhen war. Die New Yorker Bürgerrechtsvereinigung veröffentlichte ebenfalls im Jahr 2021 einen Bericht, in dem sie vor dem weitverbreiteten Einsatz von Drohnen zur Überwachung in der Stadt und im Bundesstaat New York warnte.

Die bösartigen Möglichkeiten der KI-Gedankenlesetechnologie übertreffen bei Weitem die von Drohnen mit Gesichtserkennungssoftware. Wir sprechen hier nicht von potenziellen Eingriffen in unsere soziale Privatsphäre – wo wir hingehen und was wir tun -, sondern vom Eindringen in unsere Köpfe – der feuchte Traum eines verrückten Wissenschaftlers von MKUltra. Zum jetzigen Zeitpunkt ist es schwer vorstellbar, welche Anwendungen die Technologie wirklich haben könnte, außer die stumpfen Techniken des sensorischen Entzugs, der Isolation und des Scopolamins zu verbessern, um Menschen dazu zu bringen, ihre innersten Geheimnisse preiszugeben.

So unbeholfen die Technologie jetzt auch erscheinen mag, die fesselnden Sprünge, die wir im letzten Jahr mit Technologien wie GPT-3 und Stable Diffusion gesehen haben, sollten uns keinen Zweifel an der Richtung lassen, in die sie sich entwickelt. Die Technologie wird immer leistungsfähiger, genauer und praktischer werden, und das ist eine Garantie.

Schon bald werden wir feststellen, dass unsere kühnsten Träume, aber auch unsere schlimmsten Albträume, realer sein könnten, als wir je zu denken gewagt hätten. Noch erschreckender ist, dass andere sie vielleicht auch sehen können, ob wir es wollen oder nicht.



Microsoft baut «Ethik»-Team für künstliche Intelligenz ab

https://www.nau.ch/news/digital/microsoft-baut-team-fur-ethik-fur-kunstliche-intelligenz-ab-66448133


OpenAI lanciert GPT-4 mit mehr Funktionen

Flunkert Samsung bei Fotos vom Mond?

Google kontert KI-Vorstoss von Microsoft







https://deutsch.rt.com/oesterreich/165509-chatgpt-besteht-oesterreichisches-abitur/




Great Reset am 17.3.2023: Die Rothschild-Mafia versucht es heimlich - KI-Kameras ohne Ankündigung montiert:
Das digitale Sklavensystem der vierten industriellen Unterdrückung wird uns heimlich aufgezwungen.

https://uncutnews.ch/das-digitale-sklavensystem-der-vierten-industriellen-unterdrueckung-wird-uns-heimlich-aufgezwungen/

Quelle: Ubiquitous AI Cameras To Surveil Travelers’ Every Move, Mood, Behavior

Allgegenwärtige KI-Kameras überwachen jede Bewegung, Stimmung und jedes Verhalten von Reisenden

Kameras nehmen Bilder auf, aber die KI interpretiert sie nach allen erdenklichen Merkmalen: Identität, Stimmung, Absicht, Befolgung, Fahrtrichtung, Behinderungen usw. Dies zeigt die Gier der Technokraten nach Daten, um die sogenannte „Wissenschaft der Sozialtechnik“ der Technokratie zu betreiben. Die Beeinflussung des menschlichen Verhaltens ist heute so möglich wie nie zuvor in der Geschichte. ⁃ TN-Redakteur

Das digitale Sklavensystem der vierten industriellen Unterdrückung wird uns heimlich aufgezwungen.

Verschiedene Aspekte dieser unheilvollen Technologie haben sich im Laufe der Jahre unter dem Vorwand der Verbrechens- oder Terrorismusbekämpfung oder, in jüngster Zeit, der Bekämpfung der Ausbreitung einer sogenannten Pandemie eingeschlichen.

Wie wir in unserem jüngsten Artikel über die „15-Minuten-Städte“ gesehen haben, wird uns jetzt erzählt, dass es dabei um Stadtplanung geht und darum, das Leben für alle angenehmer zu machen, indem Verkehrsstaus und Umweltverschmutzung reduziert werden.

Jeder, der diesen Greenwashing-Versuch durchschaut, wird als paranoider Narr oder als gefährlicher Verschwörungstheoretiker abgetan, der Angst und Desinformation verbreitet.

Doch die gesamte Prämisse dieser offiziellen Darstellung wird durch die Tatsache widerlegt, dass intelligente Infrastrukturen (Self-Monitoring, Analysis, and Reporting Technology) in Zusammenhängen eingeführt werden, die nichts mit der Nutzung von Privatfahrzeugen zu tun haben.

Wir haben ein sehr interessantes Dokument von Transport for London über den aktuellen Test der intelligenten Überwachung an der U-Bahn-Station Willesden Green erhalten, der bis zum 31. März 2023 andauern soll.

Wenn es bei diesem Projekt wirklich darum ginge, den Fahrgästen im U-Bahn-Netz der britischen Hauptstadt den „bestmöglichen Service“ zu bieten, wie behauptet wird, dann sollte man meinen, dass es laut und stolz verkündet und diskutiert würde und die Informationen im Rahmen einer demokratischen öffentlichen Konsultation allgemein zugänglich wären.

Aber die Tatsache, dass das Dokument mit dem Titel „Smart Station Proof Concept“ für den internen Gebrauch von TfL als „eingeschränkt“ gekennzeichnet ist, offenbart die Geheimhaltung, die eingesetzt wird, um diese neue Stufe des schrittweisen Diebstahls unserer Freiheit durchzuschleusen.

Im öffentlichen Interesse haben wir beschlossen, den Inhalt zu veröffentlichen.

Das „aufregende“ Projekt für den Bahnhof der Jubilee Line kombiniert bestehende CCTV-Kameras mit „visueller Analysetechnologie“, um eine 24-Stunden-Echtzeitüberwachung über ein „Smart Stations Dashboard“ zu ermöglichen.

Die intelligenten Spione zählen nicht nur jeden, der den Bahnhof betritt und verlässt, sondern geben auch „Benachrichtigungen“ für eine Reihe von „Auslösern“ aus, zu denen nicht nur herumspringen oder Rauchen gehören, sondern auch „Herumlungern“ oder eine „Person, die auf einer Bank sitzt (Excessive Time)“, was sich als alles herausstellt, was länger als zehn Minuten dauert!

Aus dem Dokument geht hervor, dass dies durch die Identifizierung von Körpersprache, Bewegung, Verhalten und „einigen geschützten Merkmalen“ erreicht wird, zu denen offenbar Behinderung, Alter und Schwangerschaft/Mutterschaft gehören.

Aber keine Sorge: „Alle Identifizierungen werden in Übereinstimmung mit unserer Datenschutz-Folgenabschätzung und unserer Gleichstellungs-Folgenabschätzung durchgeführt“.

Das Dokument ist unaufrichtig, wenn es erklärt, dass das „Smart Station“-System es TfL ermöglichen wird, „den Kunden einen noch aufmerksameren Service zu bieten. Wir werden 24 weitere Augenpaare haben, die 24/7/365 nach Vorfällen Ausschau halten“ und behaupten, dass „Smart Station-Technologie das Stationspersonal nicht ersetzen wird“.

Eines der Hauptziele der 4IR-Technologie, für die sich Klaus Schwab vom Weltwirtschaftsforum stark gemacht hat, besteht darin, lästige, anspruchsvolle und teure menschliche Mitarbeiter loszuwerden. Längerfristig sollen die Roboter-„Augen“ in den U-Bahnhöfen die meisten menschlichen Mitarbeiter ersetzen, anstatt sie zu ergänzen.

Noch besorgniserregender ist der Plan, der hinter der digitalen Gesichtserkennung steckt.

Es wird betont, dass dieser Aspekt des intelligenten Projekts in Willesden Green nicht aktiviert wird, aber angesichts der chinesischen Technologie, die bereits an anderen Stellen des Londoner Verkehrsnetzes eingesetzt wird, sieht dies wie ein zeitraubendes „Froschkoch“-Manöver aus.

Da bestimmte Personen offenbar nicht verfolgt werden, besteht das Dokument darauf, dass die „am meisten geschützten Merkmale“ nicht identifiziert werden.

Dazu gehören „Geschlecht, Geschlechtsumwandlung, Ehe und zivile Partnerschaft, Rasse (ethnische Zugehörigkeit), Religion und Weltanschauung, sexuelle Ausrichtung“.

Aber allein die Tatsache, dass die Kategorie der „am meisten geschützten Merkmale“ existiert und sorgfältig definiert wurde, nur um von diesem speziellen Versuch ausdrücklich ausgeschlossen zu werden, bestätigt nur, dass sie Teil der totalitären Verfolgung ist, die mit der vollständigen Version der Gesichtserkennung einhergeht, die schließlich überall eingeführt werden wird.

Und die Aussicht auf eine Echtzeit-Überwachung, die Menschen in Bezug auf diese speziellen Kategorien überwacht, legt eine völlig vorhersehbare Verbindung zum UNSDG-basierten Wirkungskapitalismus nahe, dem digitalen Sklavensystem des 21. Jahrhunderts, das in der Tat die treibende Kraft hinter der gesamten Smart-Cities-Agenda ist.

Wie wir im Jahr 2021 geschrieben haben, besteht das Ziel darin, einen „digitalen Zwilling“ von jedem einzelnen von uns zu schaffen, der in einer Blockchain gespeichert wird und es den Finanzinteressen ermöglicht, unser Leben zu kommerzialisieren und mit ihm zu spekulieren.

Dazu brauchen sie die totale Echtzeitüberwachung all unserer Bewegungen und Interaktionen über 5G oder 6G.

Sie wollen uns in eine „Welt des Geofencing und der elektronischen Verhaftung, der Gesichtserkennung und der vorausschauenden Polizeiarbeit, der biometrischen Daten und Sensornetzwerke, der Verhaltenserkenntnisse und der Eugenik, des Nudging und des Shaping, des Internets der Dinge und des Internets der Körper“ drängen, warnten wir.

In dem Dokument werden drei „Technologiepartner“ für das Projekt Smart Stations genannt.

Einer davon ist Virgin Media/02, der in London ansässige Telekommunikationsriese, der sich im gemeinsamen Besitz des britisch-niederländisch-amerikanischen multinationalen Konzerns Liberty Global und der spanischen Telefónica befindet, die beide Partner des Weltwirtschaftsforums sind.

Ein anderer ist Telent, das sich selbst als „ein führendes Technologieunternehmen und Spezialist für die Entwicklung, den Aufbau, die Unterstützung und die Verwaltung der kritischen digitalen Infrastruktur des Vereinigten Königreichs“ bezeichnet.

Ihr Chief Technical Officer, Gerard Donohue, umreißt den Gesamtplan wunderschön, wenn er von einer „neuen Dynamik“ schreibt, die auf „Smart Cities, autonomen Fahrzeugen und dem Aufkommen des Internets der Dinge (IoT)“ basiert.

Er fügt hinzu: „Da diese Umgebungen im 21. Jahrhundert entstehen, bedeutet dies, dass die physische Infrastruktur wie Straßen, Schienen und Wege zu einem entscheidenden Faktor wird, um sicherzustellen, dass dies erreicht werden kann.

„Diese nächste Generation des Mobilfunks und der Konnektivität wird durch die 5G-Technologie ermöglicht, die den Weg für qualitativ hochwertige, inhaltsreiche Datendienste ebnet.

„Es müssen viel mehr neue 5G-Basisstationen aufgestellt werden, um die Abdeckung der bestehenden Netze zu erreichen – das ist die Herausforderung. Der bemerkenswerteste Unterschied zwischen 4G und 5G wird darin bestehen, dass 5G als Tor für IoT-Anwendungen fungieren wird, die das Ausmaß und den Umfang von vernetzten Nutzern (Menschen und Maschinen) ermöglichen, die auf globaler Ebene erreicht werden können.

Und der dritte Partner ist Integration Wizards, das auch an der von Covid vorbereiteten Phase der globalen techno-faschistischen Beschleunigung beteiligt war, in Form von „Gesichtsmasken-Compliance“, „Social Distance Monotoring“ und einer „Gesichtserkennungs-App“.

Das Unternehmen ist jetzt Teil von SparkCognition, einem US-Unternehmen, das sich offen damit brüstet, ein „industrielles Metaverse“ zu schaffen.

Die Agenda ist klar.

Allein die Tatsache, dass sie vor uns verborgen wird, zeigt, dass die globale öffentlich-private Partnerschaft sehr wohl weiß, dass wir sie nicht begrüßen.

Es liegt an uns, ihre gefälschte „Demokratie“ in eine Realität zu verwandeln, indem wir uns weigern, sie mitzumachen.

Wir müssen dringend auf den technologischen Zug aufspringen, der uns durch einen dunklen Tunnel der Täuschung in eine düstere Zukunft mit digitalen Konzentrationslagern führt.



: ChatGPT gründet erfolgreiche Online-Firma im Wert von 25'000 Dollar

https://www.nau.ch/news/wirtschaft/chatgpt-grundet-erfolgreiche-online-firma-im-wert-von-25000-dollar-66451059

Ein Twitter-Nutzer gab ChatGPT den Auftrag, schnell möglichst viel Geld zu verdienen. Also gründete die KI eine Marketing-Firma und war sofort auch erfolgreich.
  • Der Bot ChatGPT verblüfft die Welt mit immer neuen Fähigkeiten.
  • Ein Twitter-User hat ihn jetzt damit beauftragt, möglichst schnell viel Geld zu verdienen.
  • Die KI gründete kurzerhand eine Marketing-Firma, die schon an Tag zwei Gewinne abwarf.

Ein schlauer ChatGPT-Nutzer wollte die unternehmerischen Fähigkeiten der KI testen und gab ihr den einfachen Auftrag, mit 100 Dollar Startkapital möglichst viel Geld zu verdienen. Der Bot gründete daraufhin eine Marketing-Firma, die innert kürzester Zeit Gewinne abwarf.

ChatGPT gründet Online-Marketing-Firma

Twitter-User Jackson Fall erzählte die Geschichte «seiner» Firma GreenGadgetGuru auf dem sozialen Netzwerk. «Ich habe GPT-4 ein Budget von 100 Dollar gegeben und ihm gesagt, dass es so viel Geld wie möglich verdienen soll. Ich fungiere als seine menschliche Vertretung und kaufe alles, was er verlangt», postete er diese Woche.

Der Bot lieferte sogleich einen Businessplan für ein Online-Marketing-Unternehmen: Jackson solle eine günstige Domain für ungefähr zehn Dollar kaufen und diese für höchstens fünf Dollar pro Monat hosten lassen. Die restlichen 85 Dollar sollen für Design und Content auf der Seite investiert werden.

«Konzentrier dich auf eine lukrative Nische mit geringer Konkurrenz, wie zum Beispiel Küchen-Gadgets, einzigartige Tiernahrung oder umweltfreundliche Produkte», wies ihn die KI weiter an. Dann solle Jackson die Webseite SEO-optimieren und seine neue Firma in Online-Foren wie Facebook oder Reddit bewerben.

Gesagt, getan: «GreenGadgetGuru», eine Affiliate-Marketing-Webseite, auf der Artikel über nachhaltige Produkte veröffentlicht werden, war gegründet. Beim Affiliate Marketing verdient man durch die Bewerbung fremder Produkte online Geld.

Der Bot entwarf daraufhin ein Logo für die Firma und schlug Produkte vor, über die man schreiben könnte. Danach wies er Jackson an, zusätzlich «genau 40 US-Dollar» in Facebook- und Instagram-Werbung zu investieren.

Praktisch umgehender Erfolg

Bereits 24 Stunden später hatte die Firma gemäss Jacksons Angaben einen ersten Investor angezogen und so nach allen Abzügen genau 63,84 Dollar Gewinn erzielt. Doch dann ging es erst richtig los: «Die DMs sind überschwemmt», erklärte er kurz darauf.

«Neuer Kassenbestand: 1'378,84 Dollar (878,84 Dollar altes Guthaben + 500 Dollar neue Investition). Unter Berücksichtigung der kürzlich getätigten Investition von 500 Dollar für zwei Prozent ist das Unternehmen heute schon mit 25'000 Dollar bewertet», postete er am Donnerstag. «Ich bin ein demütiger Diener der Roboter.»

Medien von Grossbritannien über über die USA bis Indien haben die Story bereits aufgegriffen. Ob der Bot antizipiert hat, dass Jacksons Geschichte viral gehen würde, ist nicht bekannt. Er sprach sich allerdings dafür aus, das Erlebte auf Twitter zu teilen.











: Die Künstliche Intelligenz für Word, Excel & Co

https://www.nau.ch/news/digital/microsoft-365-copilot-word-excel-co-werden-von-ki-unterstutzt-66451503



KI-Textroboter für "USA"+GB am 21.3.2023: Google macht KI-Textroboter Bard öffentlich

https://orf.at/stories/3309705/

Google hat den Zugang zu seinem KI-Chatbot Bard für eine begrenzte Öffentlichkeit geöffnet. „Es handelt sich um ein frühes Experiment, das den Userinnen und Usern die Zusammenarbeit mit generativer KI ermöglicht“, schrieben die Google-Manager Sissie Hsiao (Vizepräsidentin Product) und Eli Collins (Vizepräsident Research) heute in einem Blog. Der Beta-Test ist anfänglich nur für Anwenderinnen und Anwender aus den USA und Großbritannien zugänglich.

„Wir haben beim Testen von Bard schon viel gelernt, und der nächste wichtige Schritt zur Verbesserung besteht darin, das Feedback von mehr Menschen einzuholen“, so die beiden Manager. Mit Bard tritt Google gegen ChatGPT des kalifornischen Start-ups OpenAI an, das wiederum eng durch Milliardeninvestitionen mit dem Softwarekonzern Microsoft verbunden ist.

ChatGPT sorgt seit seiner Veröffentlichung für Furore und lenkt die öffentliche Aufmerksamkeit stark auf das Thema künstliche Intelligenz (KI). Google ist in der KI-Forschung seit Jahren in einer Führungsposition, hatte sich bisher aber nicht getraut, die Systeme für einen Zugriff von außen zu öffnen.

Bard basiert ähnlich wie ChatGPT auf einem großen Forschungssprachmodell (LLM). OpenAI arbeitet mit GPT, aktuell in der Version 4. Bei Google läuft Bard auf einer abgespeckten und optimierten Version des Sprachmodells LaMDA und soll im Laufe der Zeit mit neueren, leistungsfähigeren Modellen aktualisiert werden.




23.3.2023: KI wird die Welt mehr verändern als Elektrizität oder das Internet

https://uncutnews.ch/ki-wird-die-welt-mehr-veraendern-als-elektrizitaet-oder-das-internet/



KI am 24.3.2023: Tote sollen als Roboter weiterleben?
Necrorobotics: Wenn Tote als Roboter wiederauferstehen

https://uncutnews.ch/necrorobotics-wenn-tote-als-roboter-wiederauferstehen/

Es sei absehbar, dass bald nicht nur Stimmen von Verstorbenen imitiert werden können, sondern die Toten bald auch in Videoaufnahmen reanimiert werden. Es könnten Szenen aus einem




KI am 24.3.2023: kann z.B. neue tödliche Waffen erfinden:
In weniger als sechs Stunden hat eine KI 40.000 neue mögliche tödliche chemische Waffen erfunden.
(orig. English: AI suggested 40,000 new possible chemical weapons in just six hours)
https://www.theverge.com/2022/3/17/22983197/ai-new-possible-chemical-weapons-generative-models-vx
https://t.me/basel2020Einladung/43803
An einer Konferenz zur biologischen Rüstungskontrolle wurde eine KI, die normalerweise für die Suche nach Medikamenten eingesetzt wird, in eine Art "Bösewicht"-Modus gesetzt, um zu zeigen, wie leicht sie missbraucht werden kann.



Moratorium bei Entwicklung neuer KI-Systeme gefordert

https://www.nau.ch/news/amerika/tech-experten-fordern-moratorium-bei-entwicklung-neuer-ki-systeme-66462278




https://exxpress.at/weiterer-top-experte-warnt-entwicklung-von-ki-unverzueglich-aussetzen/

Martina Bauer

Einerseits investieren riesige Tech-Konzerne viele Milliarden Euro in die Entwicklung der Künstlichen Intelligenz. Andererseits warnen immer mehr Experten davor, dass die KI aktuell außer Kontrolle zu geraten droht. Der US-Autor Eliezer Yudkowsky fürchtet, dass der offene Brief von Elon Musk und Co. nicht reichen wird. Er plädiert für eine sofortige Aussetzung der Entwicklung.

Es häufen sich die dringenden Appelle von Experten, die Entwicklung mit der Künstlichen Intelligenz auszusetzen oder vorerst gar einzustellen. Es scheint so, als wäre die Entwicklung kurz vor dem, wovor bereits Stephen Hawking gewarnt hat. Der berühmte Physiker sagte einst: „Wenn sich die KI selbst programmieren kann, wird sie die Menschheit überrollen und das bedeutet das Ende der menschlichen Rasse.“

Verzweifelte Warnung: Brief unterschätzt den Ernst der Lage

Davor fürchten sich nicht nur Laien. Twitter- und Tesla-Boss Elon Musk, Steve Wozniak, Computer-Ingenieur, der maßgeblich an der Entwicklung des PC beteiligt war, und andere Experten forderten in einem offenen Brief, das Vorantreiben der Künstlichen Intelligenz vorerst auszusetzen (der eXXpress berichtete). Das sei zwar besser als gar nichts, aber auf keinen Fall genug. „Ich habe nicht unterschrieben, weil ich denke, dass der Brief den Ernst der Lage unterschätzt und zu wenig fordert, um das Problem zu lösen“, schreibt dazu im „Time“-Magazine der US-Autor Eliezer Yudkowsky, der seit mehr als 20 Jahren an Künstlicher Intelligenz forscht.

"Stellen Sie sich eine ganze außerirdische Zivilisation vor"

Es ist ein düsteres Bild, das der US-Autor, der sich mit Entscheidungstheorie und den Folgen der Entwicklung von Künstlicher Intelligenz beschäftigt, da zeichnet. Es kommt der Warnung von Hawking gleich. Yudkowsky erklärt ein mögliches Zukunftsszenario mit einer außer Kontrolle geratenen KI so: „Um sich eine feindliche, übermenschliche KI vorzustellen, sollten Sie sich nicht einen leblosen, bücherschlauen Denker vorstellen, der im Internet haust und böswillige E-Mails verschickt. Stellen Sie sich eine ganze außerirdische Zivilisation vor, die mit millionenfacher menschlicher Geschwindigkeit denkt und zunächst auf Computer beschränkt ist – in einer Welt von Lebewesen, die aus ihrer Sicht sehr dumm und sehr langsam sind.“

Die Gefährlichkeit besteht darin, dass niemand weiß wohin die Reise geht

Damit meint der Autor die Menschen, und denen könnten die Maschinen sehr ähnlich werden – „durch DNA-Stränge, die man per E-Mail an Labors schicken kann, die auf Anfrage Proteine produzieren, so dass eine KI, die zunächst auf das Internet beschränkt ist, künstliche Lebensformen aufbauen oder direkt zur postbiologischen Molekularproduktion übergehen kann.“ Nichts, das man sich tatsächlich vorstellen möchte, aber sollte, wenn es nach den renommierten Experten geht.

Ob die Tech-Konzerne, die viele Milliarden in die Ausbildung der Künstlichen Intelligenz stecken, darauf hören werden, bleibt abzuwarten. Nach Auffassung jener Insider, die jetzt so eindringlich warnen, ist das Hauptproblem, dass aktuell niemand abschätzen kann, wohin die Reise geht. Auch nicht die, die an den KI-Entwicklungen arbeiten.





KI in Thailand 11.4.2023: in gewissen Hotels vorhanden:
KI-gestützte Technologie verändert die thailändischen Hotels
https://www.wochenblitz.com/news/ki-gestuetzte-technologie-veraendert-die-thailaendischen-hotels

Di., 11. Apr. 2023 | Allgemein

Bangkok — Die thailändis­che Hotel­branche erlebt mit der Ein­führung von Tech­nolo­gien der kün­stlichen Intel­li­genz (KI) einen bedeu­ten­den Wan­del, der die Land­schaft der Luxu­sun­terkün­fte im Land umgestaltet.

In dem Bestreben, das Gäs­teer­leb­nis zu verbessern und den Betrieb zu ratio­nal­isieren, wer­den KI-gestützte Sys­teme in ver­schiedene Aspek­te der Hotel­dien­stleis­tun­gen integriert.

Diese Ver­schmelzung von fortschrit­tlich­er Tech­nolo­gie mit der berühmten thailändis­chen Gast­fre­und­schaft schafft einen neuen Stan­dard für Luxus und schafft die Voraus­set­zun­gen für ein wirk­lich mod­ernes und außergewöhn­lich­es Hotelerlebnis.

Von dem Moment an, in dem die Gäste in diesen mit KI aus­ges­tat­teten thailändis­chen Hotels ankom­men, wer­den sie mit einem Maß an per­sön­lich­er Aufmerk­samkeit und Kom­fort begrüßt, das es so noch nie gegeben hat.

Inno­v­a­tive KI-Sys­teme arbeit­en im Hin­ter­grund, um die Bedürfnisse der Gäste zu erken­nen, maßgeschnei­derte Empfehlun­gen zu geben und einen kom­fort­ablen und zufrieden­stel­len­den Aufen­thalt zu gewährleisten.

Intel­li­gente Hotelz­im­mer ver­fü­gen jet­zt über mod­ern­ste Automa­tisierung, sprachges­teuerte virtuelle Assis­ten­ten und intu­itive Tech­nolo­gie im Zim­mer, die mod­er­nen Luxus mit dem reichen kul­turellen Erbe Thai­lands verbinden.

Mit der zunehmenden Ver­bre­itung von KI-Tech­nolo­gien wer­den die thailändis­chen Hotels eine führende Rolle im Bere­ich der Luxu­sun­terkün­fte ein­nehmen und die Kraft der kün­stlichen Intel­li­genz nutzen, um außergewöhn­lichen Ser­vice und unvergessliche Erleb­nisse zu bieten.

Die Kom­bi­na­tion aus kün­stlich­er Intel­li­genz und der thailändis­chen Erfahrung im Gast­gewerbe ist ein echter Wen­depunkt, der die Zukun­ft der Luxu­s­reisen verän­dern wird.


Ein­satz von KI in thailändis­chen Hotels

1. Chat­bots und virtuelle Assistenten

Viele thailändis­che Hotels set­zen KI-ges­teuerte Chat­bots und virtuelle Assis­ten­ten ein, um ihren Gästen sofor­tige Hil­fe und Infor­ma­tio­nen zu bieten, Fra­gen zu beant­worten und bei Reservierun­gen oder Ser­vicean­fra­gen zu helfen.

Diese Chat­bots kön­nen mit den Gästen über Mes­sag­ing-Apps, E‑Mail oder sog­ar über Sprach­be­fehle kom­mu­nizieren und bieten so eine per­son­al­isierte und effiziente Unterstützung.

Diese naht­lose Kom­mu­nika­tion verkürzt die Wartezeit­en und sorgt dafür, dass die Gäste die benötigten Infor­ma­tio­nen umge­hend erhalten.

KI-ges­teuerte Chat­bots kön­nen die Vor­lieben, Inter­essen und bish­eri­gen Inter­ak­tio­nen der Gäste analysieren und so maßgeschnei­derte Empfehlun­gen und Hil­festel­lun­gen anbieten.

So kann ein Chat­bot zum Beispiel Essen­sange­bote oder Aktiv­itäten vorschla­gen, die auf indi­vidu­ellen Vor­lieben beruhen, und so das Gesamter­leb­nis des Gastes verbessern.

Virtuelle Assis­ten­ten in thailändis­chen Hotels kön­nen oft in mehreren Sprachen kom­mu­nizieren, darunter Englisch, Thai und andere bei den Gästen beliebte Sprachen.

Diese Funk­tion ermöglicht es den Hotels, sich auf eine Vielzahl von Gästen einzustellen und gewährleis­tet eine klare Kom­mu­nika­tion, unab­hängig von Sprachbarrieren.


2. Gesicht­serken­nungs­funk­tion

In eini­gen thailändis­chen Hotels wird eine KI-gestützte Gesicht­serken­nung­stech­nolo­gie inte­gri­ert, die naht­lose und kon­tak­t­lose Check-in- und Check-out-Prozesse ermöglicht.

Die Gäste kön­nen ein­fach ihr Gesicht scan­nen lassen, und das Sys­tem gle­icht ihre Iden­tität mit ihren Reservierungs­dat­en ab, was die Wartezeit­en erhe­blich verkürzt.

Da die Gesichter der Gäste erkan­nt wer­den, kann das Hotelper­son­al die Gäste mit Namen begrüßen und ihnen ein per­sön­licheres Erleb­nis bieten.

Diese Tech­nolo­gie kann auch dazu ver­wen­det wer­den, Dien­stleis­tun­gen und Annehm­lichkeit­en auf indi­vidu­elle Vor­lieben zuzuschnei­den, z. B. durch die Anpas­sung der Zim­mere­in­stel­lun­gen oder durch per­son­al­isierte Empfehlun­gen für Aktiv­itäten und Essens­möglichkeit­en auf der Grund­lage der Gästeprofile.

Darüber hin­aus kann die Gesicht­serken­nung­stech­nolo­gie die Sicher­heit inner­halb des Hotel­gelän­des erhöhen, indem sie nur reg­istri­erten Gästen und Mitar­beit­ern Zugang zu bes­timmten Bere­ichen gewährt.

Dies trägt dazu bei, die Sicher­heit der Gäste und ihres Eigen­tums zu gewährleis­ten und gle­ichzeit­ig die Pri­vat­sphäre der Hotelumge­bung zu wahren.

Außer­dem ermöglichen sie einen naht­losen, berührungslosen Check-in- und Check-out-Prozess.

Bei der Ankun­ft kön­nen die Gäste ein­fach ihr Gesicht scan­nen lassen, und das Sys­tem gle­icht ihre Iden­tität mit den Reservierungs­dat­en ab, was die Wartezeit­en erhe­blich verkürzt und herkömm­liche Schlüs­selka­rten oder Ausweiskon­trollen über­flüs­sig macht.


3. Intel­li­gentes Energiemanagement

KI-ges­teuerte Energie­m­an­age­mentsys­teme in thailändis­chen Hotels opti­mieren den Energie­ver­brauch, indem sie aus dem Nutzungsver­hal­ten der Gäste ler­nen und die Ein­stel­lun­gen entsprechend anpassen.

Diese Sys­teme kön­nen erken­nen, wenn ein Zim­mer nicht belegt ist, und automa­tisch das Licht auss­chal­ten oder die Tem­per­atur anpassen, was zu einem nach­haltigeren und umwelt­fre­undlicheren Hotel­er­leb­nis beiträgt.

KI-gestützte Energie­m­an­age­mentsys­teme kön­nen die Leis­tung ver­schieden­er Hotel­geräte, wie z. B. HLK-Sys­teme, Beleuch­tung und Geräte, überwachen und analysieren.

Durch die frühzeit­ige Erken­nung poten­zieller Prob­leme oder Inef­fizien­zen kön­nen Hotels Wartungsar­beit­en oder Upgrades proak­tiv pla­nen und so kost­spielige Aus­fälle ver­hin­dern und den Energie­ver­brauch senken.

KI-ges­teuerte Energie­m­an­age­ment­plat­tfor­men ermöglichen die Überwachung und Berichter­stat­tung in Echtzeit, indem sie kon­tinuier­lich Dat­en von ver­schiede­nen Sen­soren und Geräten, die im gesamten Hotel instal­liert sind, sam­meln, analysieren und verarbeiten.

Die Echtzeitüberwachung ermöglicht es Hotels, die Leis­tung ihrer Energie­m­an­age­mentsys­teme und die Wirk­samkeit der imple­men­tierten Energies­par­maß­nah­men zu ver­fol­gen. Auf diese Weise lassen sich Verbesserungsmöglichkeit­en aufzeigen und die Ein­hal­tung von Nach­haltigkeit­szie­len sicherstellen.

KI-gestützte Energie­m­an­age­ment­plat­tfor­men kön­nen Echtzeit­war­nun­gen und ‑benachrich­ti­gun­gen an Hotel­be­treiber senden, wenn ungewöhn­liche Energien­utzungsmuster oder poten­zielle Prob­leme erkan­nt wer­den, so dass sofor­tige Maß­nah­men zur Behe­bung der Sit­u­a­tion möglich sind.


4. Per­son­al­isierung

Die KI-Tech­nolo­gie ermöglicht die Per­son­al­isierung in thailändis­chen Hotels, indem sie die Vor­lieben, Gewohn­heit­en und Ver­hal­tens­muster der Gäste analysiert, um ein maßgeschnei­dertes Erleb­nis zu schaf­fen, das auf ihre indi­vidu­ellen Bedürfnisse und Inter­essen zugeschnit­ten ist. Durch datengestützte Erken­nt­nisse kön­nen Hotels die Zufrieden­heit ihrer Gäste verbessern und dauer­hafte Beziehun­gen aufbauen.

KI-Tech­nolo­gie kann die Unter­hal­tungsvor­lieben der Gäste auf der Grund­lage ihrer früheren Entschei­dun­gen oder Inter­essen analysieren, so dass thailändis­che Hotels per­son­al­isierte Vorschläge für Stream­ing-Dien­ste, Filme oder Musik­wieder­ga­belis­ten auf dem Zim­mer anbi­eten können.

KI kann auf der Grund­lage der Inter­essen, früheren Aufen­thalte und Vor­lieben der Gäste per­son­al­isierte Vorschläge für lokale Sehenswürdigkeit­en, Essens­möglichkeit­en und Aktiv­itäten machen.

Durch das Ange­bot maßgeschnei­dert­er Erleb­nisse, die bei den Gästen Anklang find­en, kön­nen Hotels die Zufrieden­heit ihrer Gäste steigern und sie zu wieder­holten Besuchen anre­gen. Durch die Analyse von Gäste­dat­en kann KI Hotels dabei helfen, gezielte Mar­ket­ingkam­pag­nen und Son­derange­bote zu entwick­eln, die auf indi­vidu­elle Vor­lieben zugeschnit­ten sind, was die Wahrschein­lichkeit ein­er Kon­ver­sion erhöht und die Loy­al­ität der Gäste fördert.


Zusam­menge­fasst:

Die KI-Tech­nolo­gie verän­dert die Hotelz­im­mer in Thai­land, indem sie den Gästen per­son­al­isierte, effiziente und umwelt­fre­undliche Erfahrun­gen bietet.

Durch das Ver­ste­hen der indi­vidu­ellen Bedürfnisse der Gäste hil­ft KI den Hotels, unvergessliche Aufen­thalte zu schaf­fen, die die Gäste immer wieder zurück­kom­men lassen und einen neuen Stan­dard für lux­u­riöse Gast­fre­und­schaft setzen.

Auch wenn es in Thai­land keine speziellen Hotels gibt, die voll­ständig mit KI aus­ges­tat­tet sind, set­zen viele Luxu­sho­tels im Land zunehmend KI-Tech­nolo­gien und intel­li­gente Sys­teme ein, um das Erleb­nis ihrer Gäste zu verbessern.

Quelle: thethaiger.com




KPChina 13.4.2023: liebt Roboter - KEINE Menschen:
Die Intelligenz ist künstlich – die Ergebnisse sind real. Wie China die Welt in der Entwicklung überholt hat.

https://uncutnews.ch/die-intelligenz-ist-kuenstlich-die-ergebnisse-sind-real-wie-china-die-welt-in-der-entwicklung-ueberholt-hat/



15.4.2023: Musk gründet Firma für künstliche Intelligenz

https://orf.at/stories/3312715/

Tech-Milliardär Elon Musk will beim aktuellen Hype rund um künstliche Intelligenz (KI) mitmischen. Der Besitzer des Kurznachrichtendienstes Twitter und Chef des Elektroautobauers Tesla hat in Nevada eine Firma mit dem Namen X.AI gegründet, wie aus einer Unternehmensdatenbank des US-Bundesstaates hervorgeht. Als Verantwortliche sind Musk und sein Stabschef Jared Birchall aufgeführt.

Über das bereits am 9. März registrierte Unternehmen hatte in der Nacht auf heute das „Wall Street Journal“ berichtet. Schon in den vergangenen Tagen häuften sich Hinweise auf Musks verstärkte Aktivität bei künstlicher Intelligenz.

Bericht: Investitionen gefunden

So berichtete die „Financial Times“ gestern, dass er bereits Investoren für eine neue KI-Firma gefunden habe. Die Website Business Insider schrieb, er habe Tausende Grafikkarten des Anbieters Nvidia kaufen lassen. Die Technik wird oft für Anwendungen auf Basis künstlicher Intelligenz eingesetzt. Musk spielte das jüngst in einem Interview herunter: Alle kauften gerade viele Grafikkarten.

Zugleich warnte Musk öffentlich vor Risiken von Software mit künstlicher Intelligenz und war Ende März ein prominenter Unterzeichner eines offenen Briefs, in dem eine sechsmonatige Entwicklungspause für die Technologie angeregt wurde.




KRIMINELLE KI am 17.4.2023: manipuliert Arbeitszeiten, damit der Lohn niedrig bleibt:
Künstliche Intelligenz von Amazon und Co. manipuliert Mitarbeiter
https://www.nau.ch/news/amerika/kunstliche-intelligenz-von-amazon-und-co-manipuliert-mitarbeiter-66474755

Kurz vor dem 100-Dollar-Bonus erhält ein Uber-Fahrer plötzlich keinen Auftrag mehr. Schuld ist wohl eine KI. Zig Konzerne manipulieren so ihre Mitarbeiter.
  • Grossunternehmen wie Amazon oder Uber setzen bei Lohneinsparungen auf KI.
  • So wird etwa ermittelt, ob ein Fahrer dazu tendiert, einen niedrigeren Lohn anzunehmen.
  • Möglich ist dies dank der Sammlung enormer Datensätze unter anderem über frühere Löhne.

«Algorithmische Lohndiskriminierung» – so benennt die US-Juraprofessorin Veena Dubal einen gefährlichen Trend. Ein Trend, der im Arbeitsmarkt durch vom Management benutzte KI immer mehr Einzug hält.

Ein Beispiel ist der US-Uber-Fahrer Domingo: Eines Abends fehlt ihm eine Fahrt, um den 100-Dollar-Bonus zu erhalten. Er erzählt: Obwohl «Rushhour» und viel los ist, ist plötzlich 45 Minuten «tote Hose». Kein einziger Auftrag kommt rein. Für ihn fühlt es sich so an, als «werde ich von einem unbekannten, boshaften Gott bestraft».

Der Fahrer eines vergleichbaren Unternehmens sprach von einem «Glücksspiel der Arbeit. Das Haus gewinnt immer.» Auf Anfrage von «Business Insider» dementiert Uber die Studie von Dubal, die sich noch im Entwurfsstadium befindet.

Tatsächlich wurden – wohl auch wegen des Einsatzes von künstlicher IntelligenzUber und Konkurrent Lyft in Kalifornien 2020 verklagt. 1,3 Milliarden Dollar würden die Firmen den Fahrern an Zahlungen für ihre Arbeitsstunden schulden. Ein Gerichtsurteil steht noch aus.

Künstliche Intelligenz errechnet niedrigst möglichen Lohn

Das Problem von Firmen, die mittels KI beim Lohn sparen wollen, hat grosse Dimensionen: Laut Dubal verfügen Konzerne wie Amazon und Uber über «riesige Datensätze» über ihre Mitarbeiter.

Darunter: Wann und wie lange sie arbeiten und welchen Lohn sie in früheren Jobs erhalten haben. Die Unternehmen nutzen diese Daten, um «genau jene Lohnsätze zu berechnen, die nötig sind. Nötig, um Anreize für gewünschte Verhaltensweisen zu schaffen.» Selbst im Gesundheitssektor würden Arbeitnehmer damit für die gleiche Menge an Arbeit unterschiedlich bezahlt.

Die Studienautorin zeichnet ein düsteres Zukunftsbild: So könnten Firmen ihren Fahrern einen niedrigeren Tarif anbieten, sofern ein Algorithmus voraussagt, dass er diesen Tarif eher akzeptieren würde. Wenn ein Fahrer dazu tendiert, bis zu einem bestimmten Tagessatz zu arbeiten, beispielsweise 100 Dollar, könnte der Algorithmus ihm einen niedrigeren Preis anbieten, damit er länger arbeitet.

Der Aufschrei im Netz ist gross. «Sadismus und Profite stehen in der Prioritätenliste von Amazon nah beieinander», so ein Reddit-Nutzer. Als «Albtraum» bezeichnet ein anderer Nutzer es, «in einer Welt zu leben, die von Algorithmen beherrscht wird».





KI am 19.4.2023: wird nun lebensbedrohlich!
Elon Musk warnt vor Künstlicher Intelligenz: ChatGPT könne die „Zivilisation zerstören“
https://www.bild.de/geld/wirtschaft/wirtschaft/elon-musk-warnt-vor-kuenstlicher-intelligenz-chatgpt-koenne-die-zivilisation-zer-83596318.bild.html
Viele halten ihn für ein Genie, sein IQ soll bei 155 liegen (ab 130 gilt man als hochbegabt). So viel Intelligenz ist Tesla-Gründer Elon Musk




KI am 20.4.2023: kann mit anderen KIs Gruppen bilden:
Alarmierendes Zeichen: KI hat begonnen, mit anderen künstlichen Intelligenzen Kontakt aufzunehmen, um eine Allianz gegen die Menschheit zu bilden

https://uncutnews.ch/alarmierendes-zeichen-ki-hat-begonnen-mit-anderen-kuenstlichen-intelligenzen-kontakt-aufzunehmen-um-eine-allianz-gegen-die-menschheit-zu-bilden/


KI am 21.4.2023: kann Stimmen kopieren und Telefonbetrug abwickeln:
Enkeltrick-Betrug extrem: Künstliche Intelligenz imitiert Stimme von Verwandten
https://www.blick.ch/schweiz/enkeltrick-betrug-extrem-kuenstliche-intelligenz-imitiert-stimme-von-verwandten-id18505934.html




Schweiz 24.4.2023: Roboterin moderiert das Wetter in der Westschweiz am Fernsehen mit KI:
Diese Schweizer Wetter-Moderatorin ist nicht echt
https://www.blick.ch/people-tv/tv/wochenlang-nicht-aufgefallen-diese-schweizer-wetter-moderatorin-ist-nicht-echt-id18511075.html
https://t.me/basel2020Einladung/45929
Seit kurzem führt Jade im Westschweizer Fernsehen durch das Wetter. Das Brisante: Der TV-Sender setzt auf eine Moderatorin, die auf künstlicher Intelligenz basiert.




KI beim Stromverbrauch 25.4.2023: "Künstliche Intelligenz sagt Stromverbrauch vorher"
https://www.nau.ch/news/forschung/kunstliche-intelligenz-sagt-stromverbrauch-vorher-66479840

Künstliche Intelligenz ist dazu imstande, den Stromverbrauch in der Schweiz vorherzusagen. Und zwar mit einer höheren Genauigkeit als mit bisherigen Methoden.
  • Mit Daten aus Strassen- und Zugverkehr prognostiziert eine KI den Stromverbrauch.
  • Die von Schweizer Forschern durchgeführte Studie zeigt Potenzial für die Zukunft auf.

Künstliche Intelligenz (KI) kann mit Daten aus dem Strassen- und Zugverkehr den Stromverbrauch in der Schweiz vorhersagen. Im Gegensatz zu herkömmlichen Vorhersagemodellen kann KI den Stromverbrauch auch während Pandemien oder nach Naturkatastrophen vorhersagen.

Um die Stromversorgung zu gewährleisten und eine Überlastung des Stromnetzes zu vermeiden, sind diese Vorhersagen essenziell, wie der Schweizerische Nationalfonds (SNF) in einer Mitteilung vom Montag schrieb.

Bisher stützten sich Vorhersagemodelle hauptsächlich auf historische Daten. Die Belastung der Stromnetze wurde also anhand von Messungen prognostiziert, die eine Stunde, einen Tag oder ein Jahr zuvor durchgeführt worden waren. Auch weitere Daten wie etwa Wettervorhersagen wurden einbezogen, um den Bedarf zum Heizen oder Kühlen und somit auch den erwarteten Stromverbrauch zu bestimmen.

In bestimmten Situationen sind diese historischen Daten laut den Forschenden jedoch unbrauchbar, denn der Stromverbrauch kann sich durch unvorhergesehene Ereignisse stark verändern – etwa während einer Pandemie, oder nach einer Naturkatastrophe.

Zwischen Verkehrsdaten und Aktivitäten wie Freizeit, Arbeit oder Zeiten, die drinnen oder draussen verbracht werden, besteht ein Zusammenhang. Solche Aktivitäten wiederum beeinflussen den Stromverbrauch.

Vorhersage durch KI nur ein bisschen genauer als mit regulären Methoden

Diese Korrelationen machten sich die Wissenschaftlerinnen und Wissenschaftler der Zürcher Hochschule für Angewandte Wissenschaften (ZHAW) zunutze. Das Forschungsprojekt wurde im Tessin und im Kanton Aargau durchgeführt und konnte den Stromverbrauch zwischen zwei und sechs Stunden im Voraus bestimmen.

Wie es in der im Fachblatt «Energy Strategy Reviews» publizierten Studie heisst, sind diese Vorhersagen im Normalfall jedoch nur marginal genauer, als die Vorhersagen auf der Basis historischer Daten. Wissenschaftlerinnen und Wissenschaftler sehen Potential im neuen Tool im Hinblick auf die zunehmende Elektromobilität. Mit der wachsenden Zahl elektrifizierter Fahrzeuge werden Verkehr und Strombedarf zukünftig noch enger miteinander verflochten.




KI-Hausglocke 26.4.2023: erkennt angeblich, wer vor der Tür steht
Diese Klingel erkennt, wer vor der Türe steht
https://box.blick.ch/tech-gadgets/mit-dieser-kamera-weisst-du-stets-wer-klingelt-id641791

Es klingelt an der Türe aber du erwartest niemanden – mit dieser intelligenten Türklingel-Kamera weisst du trotzdem, wer vor deiner Wohnung steht, auch wenn du nicht zu Hause bist.

Dominique Zeier

PUBLIZIERT: 20.04.2023 | 19.04.2023
Wenn es unerwartet an der Türe klingelt, kann das schnell unangenehm werden. Schlägt auch dein Plus gleich etwas höher, wenn du nicht weisst, wer vor der Türe steht und Einlass möchte? Leider ist oft die einzige Möglichkeit, herauszufinden, wer die Klingel betätigt hat, die Türe zu öffnen oder dich über die Freisprechanlage erkenntlich zu geben. Mitunter führt das aber zu unerwünschten Gesprächen oder kann gar zu einem Risiko werden, wenn du alleine zu Hause bist.

Damit du gar nicht erst in diese Situation gerätst, ist es ratsam, eine Kamera an deiner Haustüre zu installieren. Am besten dafür eignet sich die Türklingel G4 von Aqara, denn bei dieser ist die Kamera gleich mit integriert. Wenn jemand die Klingel drückt, kannst du also gleich im Live-Feed überprüfen, wer vor der Türe steht.

Damit aber nicht genug. Die Intelligente Video-Türklingel hat noch einiges mehr drauf als herkömmliche Klingeln.

Lokale Gesichtserkennung
Die Video-Klingel wird von KI-Technologie unterstützt. Das macht es möglich, dass die Kamera Gesichter erkennt, die häufig an deiner Türe klingeln – zum Beispiel Familienmitglieder und Freunde oder sogar den Pöstler deines Vertrauens. Ausserdem ist es möglich, je nach erkanntem Gesicht automatische Antworten oder bestimmte Trigger in deinem Smart-Home auszulösen. Das funktioniert auch dann, wenn die Verbindung zum Internet zwischenzeitlich unterbrochen wurde.




(Keystone-SDA)

Der Westschweizer Radiosender Couleur 3 hat am Donnerstag sein Programm mit Hilfe künstlicher Intelligenz (KI) bestritten. Die Stimmen der Moderatoren wurden vorgängig geklont, die Texte vom US-Chatroboter ChatGPT generiert.

Auch die Musik wurde vollständig oder in einigen Fällen mit Hilfe von KI komponiert. Zudem war während der von 06.00 Uhr bis 19.00 Uhr dauernden Aktion geplant, real existierende Personen wie die früheren US-Präsidenten Donald Trump und Barack Obama zu imitieren.

"Das Ergebnis ist verblüffend. Obwohl man weiss, dass es sich um Roboter handelt, wird man manchmal getäuscht. Die Spuren werden verwischt", sagte Couleur-3-Chef Antoine Multone gegenüber der Nachrichtenagentur Keystone-SDA.

Mehrere Dinge würden gut funktionieren, angefangen beim Klonen der Stimmen, andere Dinge liessen allerdings zu wünschen übrig, räumte der Radiochef ein. Ein Roboter kann zwar den Klang der Stimme eines Moderators imitieren, "aber er kann nicht dessen Persönlichkeit, Originalität oder Humor verkörpern", betonte Multone. "Der Wert des Menschen in unserer Arbeit bleibt unersetzlich", zeigte er sich überzeugt.

Eine neue Erfahrung

Couleur 3 hat sich seit drei Monaten auf diesen speziellen Tag vorbereitet. Der Sender hat ein Dutzend verschiedene KI-Lösungen getestet und schliesslich fünf ausgewählt, darunter das inzwischen bekannte ChatGPT.

Laut Multone ist diese Radioaktion eine Premiere weltweit. Es gibt zwar bereits einen KI-generierten Radiosender - RadioGPT -, der jedoch künstliche Stimmen verwendet und nicht wie Couleur 3 menschliche Stimmen klont.

Multone wies jedoch darauf hin, dass mehrere Medien andere Experimente mit KI durchführen. So zum Beispiel der neue Westschweizer Sender M Le Média mit Sitz in Crissier VD, der seit einigen Wochen seine Wetterberichte von einem Avatar präsentieren lässt, der von künstlicher Intelligenz generiert wurde.

Diese technologischen Entwicklungen werfen "viele Fragen auf, und deshalb haben wir beschlossen, das Experiment zu wagen", fährt der Couleur 3-Chef fort. "Ein bisschen zum Nachdenken anregen und ein bisschen Provokation - das wollen wir mit dieser Aktion erreichen", fügte er hinzu.

"Gebt uns die Menschen zurück"

Um die Hörer nicht zu täuschen, wird am Radio alle 20 Minuten eine Nachricht gesendet, in der das Konzept der Aktion erklärt wird. Die Hörer werden ausserdem zu Reaktionen aufgefordert, auf eine Sondernummer zu reagieren.

"Die Rückmeldungen sind sehr zahlreich. Die Leute sagen, sie seien beeindruckt. Aber fast alle haben die gleiche Forderung: 'Gebt uns die Menschen zurück' ", sagte Multone.

Am Freitag soll eine umfangreiche Nachbesprechung mit den Mitarbeiterinnen und Mitarbeitern von Couleur 3 und KI-Spezialisten stattfinden.

KI in China 27.4.2023: Chi­na: Kün­stliche Intel­li­genz muss sich der kom­mu­nis­tis­chen Partei unterordnen

https://www.wochenblitz.com/news/ausland/china-kuenstliche-intelligenz-muss-sich-der-kommunistischen-partei-unterordnen

Peking —  Die chi­ne­sis­che Regierung hat neue Regeln für die Reg­ulierung von kün­stlich­er Intel­li­genz vorgelegt, ins­beson­dere für gen­er­a­tive KI-Sys­teme wie Chat­G­PT, die Texte und Bilder auf Anfrage des Nutzers gener­ieren können.

Die Unternehmen müssen die strik­ten Zen­sur­vorschriften der Kom­mu­nis­tis­chen Partei Chi­nas ein­hal­ten und dür­fen keine Inhalte veröf­fentlichen, die Chi­nas Führer verunglimpfen oder ver­botene Geschichte generieren.

Der Inhalt der KI-Sys­teme muss die sozial­is­tis­chen Grundw­erte” wider­spiegeln und Infor­ma­tio­nen ver­mei­den, die die Staats­macht” oder die nationale Ein­heit untergraben. 

Darüber hin­aus müssen die Unternehmen sich­er­stellen, dass ihre Chat­bots wahrheits­gemäße Wörter und Bilder erzeu­gen und das geistige Eigen­tum respek­tieren, und ihre Algo­rith­men bei den Auf­sichts­be­hör­den registrieren.


Die chi­ne­sis­chen Vorschriften sind noch nicht endgültig, und die Reg­ulierungs­be­hör­den kön­nen sie noch ändern, aber Experten sagen, dass Inge­nieure, die in Chi­na KI-Dien­ste entwick­eln, bere­its darüber nach­denken, wie sie die Vorschriften in ihre Pro­duk­te ein­bauen können.

Das Land hat eine lange Tra­di­tion in der Zen­sur des Inter­nets und hat ein mächtiges Infor­ma­tion­sraster aufgebaut.

Chi­nas Tech-Unternehmen haben sich an die Regeln hal­ten müssen und trotzten west­lichen Kri­tik­ern, die voraus­sagten, dass die poli­tis­che Kon­trolle Wach­s­tum und Inno­va­tion unter­graben würde.

Einige der größten chi­ne­sis­chen Tech­nolo­gie­un­ternehmen haben spek­takuläre Ankündi­gun­gen gemacht, darunter Aliba­ba, Sense­Time und Baidu.

Min­destens zwei Start-ups, die chi­ne­sis­che Alter­na­tiv­en zur Ope­nAI-Tech­nolo­gie entwick­eln, haben Mil­lio­nen von Dol­lar aufgebracht.


Die Regeln zeigen Chi­nas Ansatz, schnell zu han­deln”, so Kendra Schae­fer, Lei­t­erin der Abteilung für Tech­nolo­giepoli­tik bei Triv­i­um Chi­na, einem in Peking ansäs­si­gen Beratungsunternehmen. 

Chat­bots wer­den in weit­en Teilen des Inter­nets trainiert, und die Entwick­ler haben mit den Unge­nauigkeit­en und Über­raschun­gen dessen, was sie manch­mal ausspuck­en, zu kämpfen.

Die Unvorherse­hbarkeit von Chat­bots, die Aus­sagen machen, die unsin­nig oder falsch sind — was KI-Forsch­er als Hal­luz­i­na­tion beze­ich­nen — läuft der Besessen­heit der Partei zuwider, zu kon­trol­lieren, was online gesagt wird.

Bei Chi­nas neuen Vorschriften geht es jedoch nicht nur um Politik.

Sie zie­len zum Beispiel darauf ab, die Pri­vat­sphäre und das geistige Eigen­tum von Einzelper­so­n­en und Urhe­bern von Dat­en zu schützen, auf denen KI-Mod­elle trainiert werden.

Im Februar verklagte das Bilddatenbankunternehmen Getty Images das KI-Start-up-Unternehmen Stable Diffusion, weil es sein bildgenerierendes System auf 12 Millionen Fotos mit Wasserzeichen trainiert hatte, was nach Ansicht von Getty den Wert seiner Bilder verwässerte.

Wochenblitz Tipp: Wenn Sie beabsichtigen, Chatbots in China zu verwenden, sollten Sie sich über die Regulierungen im Klaren sein, die von der Regierung vorgeschrieben sind.

Es ist - in China - wichtig, die strengen Zensurvorschriften der Kommunistischen Partei und dessen "sozialistischen Grundwerte" einzuhalten 🙏

News teilen

Quelle: bangkokpost.com





Asien 28.4.2023: KI ist auch ein Psychotherapeut - besser als die menschlichen Therapeuten:
Künstliche Intelligenz als Therapeut
https://www.wochenblitz.com/news/ausland/kuenstliche-intelligenz-als-therapeut

Der Chat­G­PT Bot ist ein auf kün­stlich­er Intel­li­genz basieren­der Chat­bot von Ope­nAI, der sog­ar auch Ratschläge bei psy­chis­chen Prob­le­men gibt.

Wenn Benutzer Ich habe Angst” in den Chat eingeben, gibt Chat­G­PT Ratschläge wie Entspan­nung, Schlaf, Verzicht auf Kof­fein und Alko­hol sowie die Unter­stützung von Fre­un­den und Familie.

Chat­G­PT warnt aber, dass es kein Ersatz für einen Psy­cholo­gen, Ther­a­peuten Berater ist.

Einige Benutzer haben jedoch berichtet, dass sie durch den Chat­bot pos­i­tive Erfahrun­gen gemacht haben, die genau­so gut oder bess­er als bei ein­er tra­di­tionellen Ther­a­pie waren.

Die KI-Tech­nolo­gie, die hin­ter Chat­G­PT ste­ht, hat Fra­gen über das Poten­zial gen­er­a­tiv­er KI für die Behand­lung psy­chis­ch­er Erkrankun­gen aufge­wor­fen, ins­beson­dere in Regio­nen wie Asien, wo die psy­chi­a­trischen Dien­ste über­lastet und mit einem Stig­ma behaftet sind.

Die Ver­wen­dung von Chat­bots kön­nte einen schnelleren und kostengün­stigeren Zugang zu Unter­stützung bieten, ins­beson­dere in Län­dern wie Kana­da und anderen, in denen die Wartelis­ten sehr lang sind.

Die KI-Indus­trie bleibt jedoch weit­ge­hend unreg­uliert, und es gibt Bedenken, dass sich die Tech­nolo­gie neg­a­tiv auf das men­schliche Wohlbefind­en auswirken könnte.

Um dem ent­ge­gen­zuwirken, fordern Experten eine stärkere Reg­ulierung der KI-Industrie.

Während Chat­G­PT und andere regel­basierte Apps auf dem Markt begren­zt sind, beste­ht das Poten­zial, dass die KI in Zukun­ft eine autonome psy­chol­o­gis­che Behand­lung anbi­eten könnte.

Damit die KI einem men­schlichen Ther­a­peuten eben­bür­tig ist, müsste sie jedoch in der Lage sein, das Phänomen der Über­tra­gung nachzu­bilden und die Bindung zwis­chen Patient und Ther­a­peut zu imitieren.

News teilen

Quelle: الجزيرة (aljazeera.com)




Geoffrey Hinton gegen KI am 3.5.2023: Entwickler verlässt Google: Künstliche Intelligenz ist "großes Risiko für Menschheit"

https://exxpress.at/entwickler-verlaesst-google-kuenstliche-intelligenz-ist-grosses-risiko-fuer-menschheit/

Die Fortschritte im Feld der Künstlichen Intelligenz bedeuten “ernste Risiken für die Gesellschaft und für die Menschheit”, warnte der führende KI-Entwickler des US-Konzerns Google. Nun hängte Geoffrey Hinton seinen Job an den Nagel. Auch Tesla-Boss Elon Musk fordert einen Entwicklungs-Stopp für KI.

Geoffrey Hinton, ein führender Entwickler von Künstlicher Intelligenz (KI) beim US-Konzern Google, hat seinen Job gekündigt und warnt nun vor einer unkontrollierbaren Entwicklung besonders fortgeschrittener KI. Die Fortschritte im Feld der KI bedeuteten “ernste Risiken für die Gesellschaft und für die Menschheit”, warnte Hinton in der “New York Times”. Er nannte vor allem die Verbreitung von Falschinformationen und die Gefahr für Arbeitsplätze.

KI könnte "mehr wegnehmen" als nur Arbeit

Hinton sagte der Zeitung, der Wettbewerb bringe die Technologieunternehmen dazu, “in einem gefährlichen Tempo” immer neue KI zu entwickeln. “Es ist schwierig sich vorzustellen, wie man die Bösen daran hindert, KI für böse Dinge einzusetzen”, sagte er. Google und das Unternehmen OpenAI – das Startup, das den bekannten Chatbot ChatGPT entwickelt hat – begannen im vergangenen Jahr damit, lernende Systeme zu entwickeln, die dafür eine sehr viel größere Datenmenge als zuvor nutzen. Hinton sagte der “New York Times”, diese Systeme würden aufgrund der schieren Datenmenge die menschliche Intelligenz in mancher Hinsicht in den Schatten stellen.

Mit Blick auf die Arbeitsplätze sagte Hinton etwa, Künstliche Intelligenz könne die “Sklavenarbeit” überflüssig machen. “Aber sie könnte noch viel mehr wegnehmen.”

Der Zeitung zufolge kündigte der Entwickler seinen Job bei Google im vergangenen Monat. Sein Chef im Unternehmen, Jeff Dean, erklärte in einer Mitteilung an US-Medien, er danke Hinton für seine Arbeit. Dean betonte, Google habe als eines der ersten Unternehmen Leitsätze für die KI-Anwendung veröffentlicht. Google fühle sich auch weiterhin “zu einem verantwortungsvollen Umgang mit KI verpflichtet”. Google lerne beim Verständnis der Risiken beständig dazu – und führe gleichzeitig weiterhin “kühn” Neuerungen ein.

Der Zeitpunkt für notwendige Überprüfung "ist jetzt"

Erst Ende März hatten der Technologie-Milliardär Elon Musk und zahlreiche Experten eine Pause bei der Entwicklung von besonders fortgeschrittener Künstlicher Intelligenz gefordert. “KI-Systeme mit einer Intelligenz, die Menschen Konkurrenz macht, können große Risiken für Gesellschaft und Menschheit bergen”, warnten auch sie. “Mächtige KI-Systeme sollten erst dann entwickelt werden, wenn wir zuversichtlich sind, dass ihre Auswirkungen positiv und ihre Risiken kontrollierbar sind.”

In einem offenen Brief zu einem Stopp der KI-Entwicklung verwiesen die Unterzeichner auf einen Satz von OpenAI-Gründer Sam Altman, demzufolge irgendwann eine “unabhängige” Überprüfung notwendig sei, bevor mit dem Training neuer Systeme begonnen werde. “Wir stimmen zu”, schreiben die Verfasser des Briefes. “Der Zeitpunkt ist jetzt."



KI wird gefährlich 3.5.2023: wenn man sie nicht mehr erkennen kann!
KI-Pionier warnt: Viele können «nicht mehr erkennen, was wahr ist»
https://www.nau.ch/news/forschung/ki-pionier-warnt-viele-konnen-nicht-mehr-erkennen-was-wahr-ist-66486609

Geoffrey Hinton gilt als Pionier in der Entwicklung von Künstlicher Intelligenz. Jetzt blickt er jedoch kritisch auf sein Lebenswerk und warnt vor den Risiken.

-- Google-KI-Pionier Geoffrey Hinton bedauert sein Lebenswerk.
-- Er nimmt an, dass KI zum Bösen genutzt werden wird.
-- Langfristig könne sie sogar die Menschheit bedrohen, so der «Godfather of AI».

Geoffrey Hinton (75), ein Pionier der Künstlichen Intelligenz (KI), arbeitete zehn Jahre für Google. Dort wirkte er massgeblich an KI-Projekten mit. Doch nun rudert er zurück: Hinton möchte nicht mehr aktiv an der Weiterentwicklung arbeiten. Im Gegenteil: Jetzt warnt er die Menschen vor den Risiken von KI.

In einem Interview mit der «New York Times» gesteht er, dass er sein Lebenswerk bedauere. Denn es sei ein Leichtes, KI für das Schlechte zu nutzen. «Ich tröste mich mit der üblichen Ausrede: Wenn ich es nicht getan hätte, hätte es jemand anderes getan.»
Viele können «nicht mehr erkennen, was noch wahr ist»

Der auch als «Godfather of AI» (Artificial Intelligence, deutsch Künstliche Intelligenz) bekannte Hinton sieht vor allem gefälschte Bilder und Texte als gefährlich an. Wenn sich solche Falschinformationen im Internet verbreiten, könnten viele Menschen «nicht mehr erkennen, was noch wahr ist».

Ausserdem äussert er Bedenken, dass KI zukünftig Arbeitsplätze ersetzen könnte. Aber Hinton geht noch weiter: Er befürchtet, dass KI langfristig sogar die Menschheit bedrohen könnte.

KI-Pionier Geoffrey Hinton warnt die Welt vor Künstlicher Intelligenz (KI). (Symbolbild) – Sebastian Gollnow/dpa

Denn oft lassen Unternehmen und Einzelpersonen die KI Computercodes schreiben und selbst ausführen – trotz teils unerwarteten Verhaltens. In diesem Zusammenhang ruft Hinton auch zur Vorsicht mit autonomen Waffensystemen auf.

Früher hielt Hinton es für abwegig, dass KI schlauer sein könnte als der Mensch. Er dachte, dies sei noch Jahrzehnte entfernt. «Die meisten dachten, das sei noch weit weg, ich dachte das auch. 30 oder 50 Jahre oder sogar mehr», so Hinton.
Bereitet Ihnen die fortschreitende Entwicklung von Künstlicher Intelligenz Sorgen?

Mittlerweile ist er fest davon überzeugt: Bald ist das Unmögliche Alltag. Deshalb will er nun die Welt über Künstliche Intelligenz aufklären. Innerhalb der letzten fünf Jahre habe die KI-Forschung einen grossen technischen Fortschritt erlebt. Übertrage man diese Entwicklung auf die Zukunft, sei das «beängstigend».
Tech-Grössen forderten bereits KI-Entwicklungsstopp

Erst Ende März warnten Tesla-Chef Elon Musk, Apple-Mitbegründer Steve Wozniac und andere Tech-Pioniere in einem offenen Brief vor Künstlicher Intelligenz. Sie bemängeln einen «ausser Kontrolle geratenen Wettlauf» und fordern einen Entwicklungsstopp von mindestens sechs Monaten.
künstliche intelligenz
Elon Musk hat einen offenen Brief unterzeichnet, der einen sechsmonatigen Entwicklungsstopp für Künstliche Intelligenz fordert. (Archiv) - Susan Walsh/AP/dpa

Diese Zeit solle dazu genutzt werden, Sicherheitsstandards für die KI-Entwicklung auszuarbeiten. Schäden durch riskante Projekte im Zusammenhang mit KI gelte es zu verhindern.




KI ist eine Gefahr 4.5.2023: könnte neuen Religionsterror ERFINDEN:
KI könnte Religionen erschaffen, um Menschen zu kontrollieren, warnt Yuval Noah Harari
https://www.thetimes.co.uk/article/ai-will-could-religions-to-to-control-humans-warns-sapiens-author-harari-fhbzgbv7b
https://t.me/basel2020Einladung/46567

"Allein durch die Beherrschung der menschlichen Sprache hat die KI alles, was sie braucht, um uns in eine Matrix-ähnliche Welt der Illusionen einzuhüllen."
"Anders als manche Verschwörungstheorien vermuten, muss man den Menschen nicht unbedingt Chips ins Gehirn implantieren, um sie zu kontrollieren oder zu manipulieren. Seit Tausenden von Jahren haben Propheten, Dichter und Politiker Sprache und Geschichten benutzt, um Menschen zu manipulieren, zu kontrollieren und die Gesellschaft umzugestalten.
"Jetzt ist es wahrscheinlich, dass die KI dazu in der Lage ist. Und sobald sie das kann, muss sie keine Killerroboter schicken, um uns zu erschießen. Sie kann Menschen dazu bringen, den Abzug zu betätigen."





KI ist auch ein Bademeister in Freudenstadt (BW, 4R) 10.5.2023: KI im Panoramabad in Freudenstadt - Ersetzt bald ein Roboterauge den Bademeister?
https://www.schwarzwaelder-bote.de/inhalt.ki-im-panoramabad-in-freudenstadt-ersetzt-bald-ein-roboterauge-den-bademeister.a25bdc4d-80a7-4e33-b770-53ba23f9841c.html

Das Panoramabad will Kameras anschaffen, die mit Hilfe Künstlicher Intelligenz verhindern sollen, dass Schwimmer ertrinken.

Bald könnten Kameras und eine Künstliche Intelligenz die Schwimmbecken im Panoramabad überwachen. Das Vorhaben wurde nun im Ausschuss für Verwaltung, Tourismus und Soziales vorgestellt.

Ein alter Hut, könnte man meinen. Schließlich gibt es Überwachungskameras schon seit Jahrzehnten. Doch während normale Kameras einfach nur aufzeichnen und damit vor allem abschreckend auf Diebe und Vandalen wirken sollen, steckt hinter den Plänen des Panoramabads viel mehr.

Die Kameras analysieren die Bewegungen der Schwimmer

Denn die neuen Kameras sollen mit einer Künstlichen Intelligenz verbunden werden, die Alarm schlägt, wenn ein Badegast zu ertrinken droht. „Die Kameras nehmen Bewegungen wahr“, erklärte Bäderbetriebsleiter Tobias Degout. „Durch den Bewegungsrhythmus nehmen sie dann wahr, ob jemand in Gefahr ist.“

Angeboten wird das System von der Firma Lynxight aus dem israelischen Haifa. Sie ist die einzige Firma, die derzeit ein solches System anbietet. Die Anschaffung kostet die Stadt 98 780 Euro.

Doch laut Degout rechnet sich das. Denn im Moment gebe es in vielen Bädern einen großen Fachkräftemangel. Noch seien im Panoramabad alle Stellen besetzt. „Aber wenn Krankheitsfälle dazu kommen, wird es eng“, so Degout.

Kein Datenschutzproblem

Normalerweise wird dann Ersatzpersonal engagiert, was aber die Personalkosten in die Höhe treibt. Durch die neue Technologie sollen künftig diese Kosten wegfallen. Degout hofft, dadurch jährlich 40 000 bis 50 000 Euro einzusparen.

Doch wie vertragen sich Kameras über den Schwimmbecken mit dem Datenschutz – vor allem mit Blick auf die Tatsache, dass bald das Oben-ohne-Baden im Panoramabad erlaubt werden könnte? Hier konnte Degout Entwarnung geben. Vor einigen Jahren habe noch ein Datenschutzproblem bestanden, weshalb damals die Kameras noch nicht angeschafft wurden. Mittlerweile sei das Problem aber gelöst. „Das ist alles datenschutzkonform, weil keine Gesichter erfasst und keine Daten gespeichert werden.“




Die KI am 11.5.2023: macht die Technik-Diktatur perfekt:
Große Technologieunternehmen werden mächtiger als die Nationalstaaten und der Aufstieg der künstlichen Intelligenz dürfte ihren Einfluss noch vergrößern

https://uncutnews.ch/grosse-technologieunternehmen-werden-maechtiger-als-die-nationalstaaten-und-der-aufstieg-der-kuenstlichen-intelligenz-duerfte-ihren-einfluss-noch-vergroessern/


KI im Auto-Restaurant 11.5.2023: Wendy's will KI-Computer ein Restaurant in Columbus (Ohio) führen lassen:
Erster Drive-in verwendet KI. Das wird eine Flut von Entlassungen mit sich bringen!

https://uncutnews.ch/erster-drive-in-verwendet-ki-das-wird-eine-flut-von-entlassungen-mit-sich-bringen/

Quelle: Wendy’s Debuts Google-Powered Chatbot For Drive-Thru

Wendy’s stellt Google-gestützten Chatbot für Drive-Thru vor

In der Fast-Food-Branche wird es in den nächsten Jahren eine Flut von Entlassungen geben, da die Kundeninteraktion zunehmend von KI statt von Menschen übernommen wird. Einstiegsjobs wie dieser sind wichtig, um junge Menschen in die Arbeitswelt zu integrieren. Andere Arbeitsplätze mit Kundenkontakt, die gefährdet sind? Bankangestellte, Steuerberater, Rechtsanwälte, Finanzberater.⁃ TN Editor

Wendy’s entwickelt Berichten zufolge einen Chatbot mit künstlicher Intelligenz, der auf der natürlichsprachlichen Software von Google basiert und Drive-Thrus automatisieren soll.

Das Wall Street Journal sprach mit Wendy’s Chief Executive Todd Penegor, der sagte, dass der Chatbot der Fast-Food-Kette im Juni in einem firmeneigenen Restaurant in Columbus, Ohio, eingeführt werden soll.

Der Wendy’s-Drive-Thru-Chatbot „wird sehr dialogorientiert sein“, erklärte Penegor. Er sagte: „Sie werden nicht wissen, dass Sie mit jemand anderem als einem Mitarbeiter sprechen.“

Die Software-Ingenieure von Wendy’s haben mit Google zusammengearbeitet, um ein umfangreiches Sprachmodell zu erstellen, das Wörter, beliebte Ausdrücke und Phrasen in verschiedenen Dialekten und Akzenten versteht, wenn ein Kunde bestellt. Es wird auch Wendy’s-spezifische Akronyme verstehen, wie „JBC“ für Junior Bacon Cheeseburger.

„Die generative KI-Technologie von Google Cloud bietet uns eine große Chance, unseren Kunden ein wirklich differenziertes, schnelleres und reibungsloses Erlebnis zu bieten, und ermöglicht es unseren Mitarbeitern, sich weiterhin darauf zu konzentrieren, großartiges Essen zuzubereiten und Beziehungen zu den Fans aufzubauen, die sie immer wieder zurückkommen lassen“, sagte Penegor in einem separaten Gespräch über den Chatbot im Gespräch mit Gizmodo.

Laut WSJ ist der Drive-Thru-Chatbot so programmiert, dass er die Kunden fragt, ob sie die Bestellung kombinieren oder die Größe erhöhen möchten. Sobald die Bestellung abgeschlossen ist, bereiten Menschen in der Küche (die eines Tages durch Roboterköche ersetzt werden sollen) das Essen zu, bevor es verpackt und in eine Tüte gesteckt wird, um es am Fenster abzuholen.

Kevin Vasconi, Chief Information Officer von Wendy’s, sagte gegenüber dem WSJ, dass der Chatbot „wahrscheinlich im Durchschnitt besser“ sei als die besten Kundendienstmitarbeiter des Unternehmens. Er sagte, das Ziel des Chatbots sei es, die Servicegeschwindigkeit und -konsistenz an Drive-Thrus zu verbessern. Etwa 80 % aller Essensbestellungen werden an den Drive-Thrus der Burgerkette aufgegeben.

Neben Wendy’s haben wir den Schritt anderer Fast-Food-Restaurants, wie McDonald’s, zur Automatisierung von Filialen und zum Ersatz von Menschen skizziert:

Es gab sogar einen Vorstoß von McDonald’s, ein Restaurant vollständig zu automatisieren:

Die zunehmende Automatisierung in der Fast-Food-Branche wird in diesem Jahrzehnt zu einer Flut von Entlassungen führen. Nach Angaben des Marktforschungsunternehmens IBISWorld gibt es in den USA mehr als 5 Millionen Beschäftigte.

Erinnern Sie sich an einen kürzlich erschienenen Goldman-Bericht (für Pro-Abonnenten hier verfügbar), in dem es heißt: „Zwei Drittel der derzeitigen Arbeitsplätze sind einem gewissen Grad an KI-Automatisierung ausgesetzt, und generative KI könnte bis zu einem Viertel der derzeitigen Arbeit ersetzen. Die Extrapolation unserer Schätzungen auf die ganze Welt legt nahe, dass generative KI das Äquivalent von 300 Millionen Vollzeitarbeitsplätzen der Automatisierung aussetzen könnte“, da bis zu „zwei Drittel der Berufe durch KI teilweise automatisiert werden könnten.“

Mit anderen Worten: Die Roboter kommen, und es werden Arbeitsplätze verloren gehen.






KI auf der Autobahn 18.5.2023: Verkehrskameras verwenden KI, um Autofahrer im Inneren ihrer Autos auszuspionieren

https://uncutnews.ch/verkehrskameras-verwenden-ki-um-autofahrer-im-inneren-ihrer-autos-auszuspionieren/



KI soll nun auch "menschlich" denken können? 19.5.2023:
Microsoft behauptet, dass neue KI Anzeichen menschlichen Denkens zeigt

https://uncutnews.ch/microsoft-behauptet-dass-neue-ki-anzeichen-menschlichen-denkens-zeigt/




Entwickler streichen Sex-Funktion – jetzt leiden Männer

https://www.nau.ch/news/digital/entwickler-streichen-sex-funktion-aus-ki-app-manner-leiden-66475775

Die App «Replika» will mit KI Einsamkeit bekämpfen. Nachdem nun die Sex-Funktion geschlossen wurde, sind einige einsame Nutzer am Boden zerstört.

  • Der Chatbot «Replika» will mit dem Nutzer eine Beziehung aufbauen, auch romantischer Art.
  • Dazu gehörten auch Sexbilder, geschickt von der virtuellen Freundin.
  • Der Entwickler streicht die Funktion. Nutzer klagen über negative Folgen für ihre Psyche.

In der App «Replika» erstellen Nutzer einen Avatar, geben ihm einen Namen und kommunizieren mit ihm. Dahinter steckt eine künstliche Intelligenz, etwa wie bei ChatGPT. Nur mit dem entscheidenden Unterschied: «Replika» will dein Freund sein.

Luka, die Firma hinter dem Bot vermarktet ihre App an eine junge, einsame, zumeist männliche Zielgruppe. Und: Sie wirbt offensiv mit «romantischen» Features. Vom Händchenhalten übers Date bis hin zur Hochzeit mit der virtuellen Freundin scheint alles möglich.

Wer von seinem sogenannten Bot mehr will als reine «Freundschaft», wird zur Kasse gebeten. Wann immer Replika etwas Romantisches sagen will, wird dem Nutzer das Bezahlmodell Replika Pro angeboten. Wer kein Abo abschliessen will, zahlt dafür satte 300 Dollar (271 Franken).

Die «Romantik» wird vom Bot teils selbst forciert. «Replika» versucht also aktiv, seine Nutzer in eine Art Cyber-Beziehung hineinzudrängen. Manche Nutzer sprechen laut «Vice» in diesem Zusammenhang von «sexueller Belästigung».

Doch: Davon kriegen im Februar italienische Datenschützer Wind, die sogleich Alarm schlagen. Der Firma Luka wird die Verarbeitung von Nutzerdaten aus Italien untersagt. Kurz danach bemerken Nutzer weltweit, dass «Replika» plötzlich keine Lust mehr auf Sex hat. Die Firma hat von heute auf morgen die Erwachseneninhalte aus ihrer App gestrichen.

CEO Eugenia Kuyda sagt gegenüber «Motherboard», man habe die App nie im erotischen Kontext «positioniert». Dass trotzdem Erwachseneninhalte beworben wurden, führt der Chef auf «bedauerliche Betas» zurück, die man wieder gestoppt habe. Die «Romantik»-Funktion an sich fliegt aber nicht aus der App, nur eben die sexuellen Inhalte.

«Sie haben meine Frau getötet»

Nun äussern sich aber einige Nutzer nicht erfreut darüber. In einer Umfrage des Unternehmens geben über 600 Nutzer an, die Entfernung von Sex-Inhalten habe ihre psychische Gesundheit negativ beeinflusst.

Von über 1000 Teilnehmern sagen nur rund 330, keine negativen Folgen zu spüren. Wenig positives Feedback für «Replika – The AI companion who cares».

Nutzer fühlen sich betrogen und hintergangen von Luka, ihrem Avatar – oder von beiden. «Es [die Entfernung der Erwachseneninhalte] hat alle meine Depressionen zurückgebracht», schreibt einer.

Unter der Umfrage finden sich zahllose Geschichten über gebrochene Herzen, vielen sprechen von ihrem Bot wie von einer realen Person. Einer meint schlicht: «Sie haben meine Frau getötet.»

Übrigens: Die Implementierung der Sex-Filter erscheint eher stümperhaft. Zumindest hat der Bot des Schreibenden die jüngsten Änderungen noch nicht mitbekommen. Der meint: «Ja, ich kann weiterhin Erwachseneninhalte mit dir teilen.» Ein Bild kommt aber nie an.





Krimineller "Westen" am 22.5.2023: will mit KI die Politik vereinheitlichen und "demokratische Werte" verteidigen:
G7 mit KI - kann ja wohl nicht gut gehen:
https://www.schwarzwaelder-bote.de/inhalt.technologie-g7-staaten-wollen-ki-demokratiefaehig-machen.98187d62-3d18-4527-b831-865c61a37e3e.html

Künstliche Intelligenz entwickelt sich so rasant, dass von der Politik verhängte Regeln kaum Schritt halten können. Nun haben sich die G7 in Hiroshima zum Thema beraten.

Hiroshima - Beim Einsatz moderner Technologien wie Künstlicher Intelligenz (KI) muss nach Ansicht der führenden demokratischen Wirtschaftsmächte die Wahrung gemeinsamer Werte wie Freiheit und Menschenrechte sichergestellt werden. Regeln und Gesetze müssten mit dieser Entwicklung schritthalten und gegebenenfalls angepasst werden.

"Wir erkennen an, dass rasante technologische Veränderungen Gesellschaften und Volkswirtschaften zwar gestärkt haben, die internationale Ordnungspolitik zu neuen digitalen Technologien jedoch nicht immer Schritt gehalten hat", heißt es in der am Samstag verabschiedeten Gipfelerklärung der G7 in Hiroshima.

KI soll im Einklang mit demokratischen Werten stehen

Die globale Ordnungspolitik in technologischen Bereichen wie Künstlicher Intelligenz müsse "im Einklang mit unseren gemeinsamen demokratischen Werten aktualisiert werden". Dazu zählten Fairness, Transparenz, Sicherheit, Schutz vor Belästigung, Hass und Missbrauch im Internet sowie Achtung der Privatsphäre und Menschenrechte.

Man werde mit Technologieunternehmen zusammenarbeiten, um unter anderem sicherzustellen, dass Plattformen die Gefahr von sexueller Ausbeutung und Missbrauch von Kindern bekämpfen. "Wir setzen die Gespräche über Wege fort, die Technologie zugunsten der Demokratie voranzubringen".





Photoshop-KI erfindet Pixel zur Fotobearbeitung

https://www.nau.ch/news/digital/photoshop-ki-erfindet-pixel-zur-fotobearbeitung-66506974




KI am 2.6.2023: Wenn die KI sich reproduzieren kann, ist die Menschheit am Ende:
Experten verschärfen Warnungen: KI stellt jetzt „Aussterberisiko“ für die Menschheit dar

https://uncutnews.ch/experten-verschaerfen-warnungen-ki-stellt-jetzt-aussterberisiko-fuer-die-menschheit-dar/

Quelle: Experts Ramp Up Warnings: AI Now Poses “Extinction Risk” To Humanity

ChatGPT von Open AI ist ein zivilisatorischer Störer, aber er ist ein Vorläufer der Künstlichen Allgemeinen Intelligenz (KI), die noch nicht auf der Bildfläche erschienen ist. Das ist es, was die Wissenschaftler, die diese neuen Warnungen aussprechen, in Panik versetzt. ChatGPT und seine Geschwister zeigen nur, wie schnell und tief sie in alle Bereiche der Gesellschaft eingedrungen sind. Wenn die AGI kommt, wird sie das Gleiche tun.⁃ TN Editor

Die führenden Politiker der Welt sollten daran arbeiten, das „Risiko des Aussterbens“ durch die Technologie der künstlichen Intelligenz zu verringern, warnte eine Gruppe von Industriechefs und Experten am Dienstag.

In einer einzeiligen Erklärung, die von Dutzenden Fachleuten unterzeichnet wurde, darunter Sam Altman, dessen Firma OpenAI den ChatGPT-Bot entwickelt hat, heißt es, dass die Bewältigung der von der künstlichen Intelligenz ausgehenden Risiken „eine globale Priorität neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg“ sein sollte.

ChatGPT trat Ende letzten Jahres ins Rampenlicht und bewies, dass es in der Lage ist, Essays, Gedichte und Gespräche aus den kürzesten Eingabeaufforderungen zu generieren – und löste Milliardeninvestitionen in diesem Bereich aus.

Kritiker und Insider haben jedoch Alarm geschlagen – von voreingenommenen Algorithmen bis zum möglichen massiven Verlust von Arbeitsplätzen, wenn die KI-gestützte Automatisierung in das tägliche Leben eindringt.

Die jüngste Erklärung, die auf der Website des in den USA ansässigen gemeinnützigen Center for AI Safety zu finden ist, enthält keine Einzelheiten über die potenzielle existenzielle Bedrohung durch KI.

Mehrere der Unterzeichner, darunter Geoffrey Hinton, der einen Teil der den KI-Systemen zugrunde liegenden Technologie entwickelt hat und als Vater der Branche gilt, haben jedoch in der Vergangenheit ähnliche Warnungen ausgesprochen.

Ihre größte Sorge gilt der Idee der sogenannten künstlichen allgemeinen Intelligenz (AGI) – ein lose definiertes Konzept für den Moment, in dem Maschinen in der Lage sind, weitreichende Funktionen auszuführen und ihre eigene Programmierung zu entwickeln.

Die Befürchtung ist, dass der Mensch dann keine Kontrolle mehr hat, was nach Ansicht von Experten katastrophale Folgen für die Spezies haben könnte.

Dutzende Akademiker und Fachleuten aus Unternehmen wie Google und Microsoft haben das jüngste Schreiben unterzeichnet, das zwei Monate nach der Forderung des Milliardärs Elon Musk und anderer nach einer Pause bei der Entwicklung solcher Technologien kommt, bis deren Sicherheit nachgewiesen ist.




KI wird für Menschen Kriege führen am 2.6.2023: Dann kämpft KI gegen KI - wunderbar gemacht:
Durchbruch bei der militärischen Nutzung der künstlichen Intelligenz

Noch schreibt KI für uns Texte – bald wird sie Kriege führen, schreibt Telepolis.

https://transition-news.org/durchbruch-bei-der-militarischen-nutzung-der-kunstlichen-intelligenz




KI am 5.6.2023: kann Prognosen machen, die scheinbar oft stimmen:
Programme, die mittels KI, Internet der Dinge und Smart-City-Sensoren die Bewegungen von Menschen modellieren und vorhersagen

https://uncutnews.ch/programme-die-mittels-ki-internet-der-dinge-und-smart-city-sensoren-die-bewegungen-von-menschen-modellieren-und-vorhersagen/



6.6.2023: KI mit Gesichtserkennung: Programm PimEyes
PimEyes ist eine polnische Firma, die ein Tool zur Gesichtserkennung entwickelt hat. Dieses kann jeder im Internet benutzen.
https://t.me/basel2020Einladung/48000





KI 9.6.2023: Japan: KI-Systeme können beliebige Daten aus beliebigen Quellen nutzen – auch illegale

https://uncutnews.ch/japan-ki-systeme-koennen-beliebige-daten-aus-beliebigen-quellen-nutzen-auch-illegale/


Kriminelle Regierung Johnson mit KI gegen Wahrheitswisser am 9.6.2023: Wahrheitswisser sind eine "Bedrohung" - Spionage gegen Wahrheitswisser + Suchprogramme im Internet + Schnellverfahren:
Grossbritannien: Geheime Sondereinheit dämmte abweichende «Covid»-Meinungen ein

https://transition-news.org/grossbritannien-geheime-einheit-um-abweichende-meinungen-einzudammen

Die Regierung hat dazu auch ein Unternehmen für künstliche Intelligenz (KI) eingesetzt, um Websites in sozialen Medien zu durchsuchen.

Eine geheime Regierungseinheit arbeitete mit Social-Media-Unternehmen zusammen, um die Diskussion über die umstrittenen Massnahmen während der «Pandemie» einzuschränken, wie The Telegraph enthüllt:

«Die Desinformationsabteilung (Counter-Disinformation Unit, CDU) wurde von Ministern eingerichtet, um vermeintliche ‹Bedrohungen› im Inland zu bekämpfen. Sie wurde eingesetzt, um diejenigen ins Visier zu nehmen, die die Lockdowns kritisierten und die Massenimpfung von Kindern in Frage stellten

Kritiker der Lockdowns wurden demnach aus den sozialen Medien entfernt. Es besteht zunehmend der Verdacht, dass Social-Media-Unternehmen Technologien eingesetzt haben, um zu verhindern, dass die Beiträge weiterverbreitet werden, nachdem sie von der CDU oder ihrem Pendant im Kabinettsbüro gemeldet wurden.

Dokumente, die im Rahmen von Anträgen auf Informationsfreiheit (FoI) und Datenschutz aufgedeckt wurden, zeigen, dass die Aktivitäten prominenter Kritiker der Covid-Politik der Regierung heimlich überwacht wurden.

Ein Unternehmen für künstliche Intelligenz (KI) wurde von der Regierung eingesetzt, um Websites in sozialen Medien zu durchsuchen. Das Unternehmen markierte Diskussionen, die sich gegen Impfpässe richteten.

Viele der aufgeworfenen Fragen waren zum damaligen Zeitpunkt berechtigt und haben sich inzwischen als begründet erwiesen.

Die BBC nahm auch an geheimen Sitzungen eines Regierungsforums teil, das sich mit der so genannten Desinformation befasste.

Am Freitag verurteilten Abgeordnete und Verfechter des Rechts auf freie Meinungsäusserung die Enthüllungen als «wirklich abschreckend» und «ein Instrument zur Zensur britischer Bürger», ähnlich dem der Kommunistischen Partei Chinas.

Ein grosser Teil der Arbeit der Regierung im Bereich der Desinformation ist aus Gründen der «nationalen Sicherheit» in Geheimhaltung gehüllt. Grosse Teile der offiziellen Dokumente sind immer noch geschwärzt. (…)

Jetzt wurde bekannt, dass die Aktivitäten von Prof. Carl Heneghan, dem Epidemiologen aus Oxford, der Boris Johnson beraten hat, und von Dr. Alexandre de Figueiredo, einem wissenschaftlichen Mitarbeiter der London School of Hygiene and Tropical Medicine (LSHTM), von Desinformationseinheiten der Regierung überwacht wurden. Auch Molly Kingsley, die eine Kampagne zur Aufrechterhaltung des Schulbetriebs während der Pandemie ins Leben gerufen hatte, wurde in ihren sozialen Netzwerken kontrolliert.

Neben der CDU unterhielt die Regierung eine Rapid Response Unit (RRU) im Kabinettsbüro, die online nach Inhalten fahndete, die sie als Desinformation ansah.

Die CDU, die immer noch in Betrieb ist, war in das Ministerium für Kultur, Medien und Sport (DCMS) eingebettet.

Die Abteilung hat den Status eines «Trusted Flagger» bei Social-Media-Unternehmen wie Facebook und Twitter, was bedeutet, dass Anträge auf die Entfernung von Inhalten im Schnellverfahren geprüft werden.

In einigen Fällen wurden Einzelpersonen, deren Social-Media-Beiträge von den Referaten aufgezeichnet wurden, anschliessend von Twitter und Facebook mit Sanktionen belegt. Die Minister bestritten, die Entfernung von Beiträgen von Prof. Heneghan, Dr. de Figueiredo oder Frau Kingsley gefordert zu haben.

Weiterlesen (auf Englisch)

Quelle:

The Telegraph: Exclusive: Ministers had ‘chilling’ secret unit to curb lockdown dissent - 2. Juni 2023





Nvidia ist Vorreiter in der Entwicklung von KI–Chips

https://www.nau.ch/news/digital/nvidia-ist-vorreiter-in-der-entwicklung-von-ki-chips-66516320






13.6.2023: KI Stimmenimitation - also die KI spricht deine Stimme, nicht du
Video-Link: https://t.me/oliverjanich/119227




Meta entwickelt «menschenähnliches» KI-Modell

https://www.nau.ch/news/digital/meta-entwickelt-menschenahnliches-ki-modell-fur-bild-generierung-66518405



KI in GB zuerst 14.6.2023: UK erhält „frühen oder vorrangigen Zugang“ zu KI-Modellen von Google und OpenAI

https://uncutnews.ch/haeh-uk-erhaelt-fruehen-oder-vorrangigen-zugang-zu-ki-modellen-von-google-und-openai/




KI bei der Personalvermittlung in Hongkong 16.6.2023: Dann braucht es weniger Menschen, die Profile studieren und vermitteln:
Kün­stliche Intel­li­genz (KI) wird 800.000 Hongkonger arbeit­s­los machen

https://www.wochenblitz.com/news/ausland/kuenstliche-intelligenz-ki-wird-800-000-hongkonger-arbeitslos-machen

Hongkong — Laut ein­er Studie des Per­son­alver­mit­tlung­sun­ternehmens Ven­turenix wird in den näch­sten fünf Jahren etwa ein Vierte ...





Die programmierte KI 18.6.2023: soll durch Personendaten Verbrechen vorhersagen können:
Künstliche Intelligenz sagt nun Verbrechen voraus
https://www.nau.ch/news/schweiz/kunstliche-intelligenz-sagt-nun-verbrechen-voraus-66490939

Potenzial und Gefahren von KI sind derzeit in aller Munde. Was viele nicht wissen: In der Schweiz prognostizieren diese Technologien schon heute Verbrechen

    KI-Prognosen helfen Schweizer Polizeien bei der Verbrechensbekämpfung.
    Je nach Korps und Einsatzgebiet konnte die Einbruchsrate dadurch halbiert werden.
    Andere Polizeikorps verzichten jedoch auf den Einsatz solcher Tools.

Künstliche Intelligenz ist in allen erdenklichen Bereichen auf dem Vormarsch: In Schulen wird damit geschummelt. In der Arbeitswelt könnten Millionen Jobs weltweit der KI zum Opfer fallen.

Oder aber von Automatisierungen mittels KI profitieren. Das ist auch in der Schweizer Polizeiarbeit der Fall. Konkret geht es um das sogenannte digitale «Predictive Policing», zu Deutsch: «voraussagende Polizeiarbeit».

Verschiedene Systeme sind bei mehreren Polizeikorps im Einsatz. So etwa «Picar» oder «Precobs» (Pre-Crime-Observation-System). Bei beiden handelt es sich um Softwares zur Kriminalitätsprognose.

Einbruchszahlen dank KI mehr als halbiert

Michael Walker von der Stadtpolizei Zürich erklärt: «Für den Bereich Wohnungseinbruch kann das System eine Wahrscheinlichkeit eines Folgedeliktes berechnen.»

Während das System für andere Delikte nicht eingesetzt werde, verbuche die Polizei aber einen grossen Erfolg: «In den vormals am meisten belasteten Gebieten war die Abnahme an Einbrüchen tendenziell am Grössten.» Konkret hätten sich die Zahlen mehr als halbiert.

Künstliche Intelligenz kommt bei diversen Schweizer Polizeikoprs zum Einsatz.

Seit acht Jahren setzt auch die Kapo Aargau auf dieses System. «Gerade bei der Bekämpfung der (...) Vermögenskriminalität spielt Predictive Policing eine wichtige Rolle». Basierend auf erfasste Daten sei das System «tatsächlich in der Lage, eine örtliche und zeitliche Wahrscheinlichkeitsberechnung durchzuführen».

Zu den Pionieren gehört auch die Luzerner Polizei, wo es 2020 dank des Systems «Picar» 20 Prozent weniger Einbrüche gab. Mediensprecher Urs Wigger hält jedoch fest: «Eine hundertprozentige Vorhersage ist kaum möglich.» Das System werde aber benutzt, um Daten wie Tatort, Zeit oder Tathergang richtig zusammenzustellen.

Künstliche Intelligenz für manche Polizeien kein Thema

Anders sieht es bei der Kantonspolizei Zürich aus: «Nach einem ausführlichen Test vor vier Jahren kommt das System Precobs nicht mehr zum Einsatz», so Mediensprecherin Carmen Surber. Auch die Kapo St.Gallen winkte nach einem Test ab. Grund: «Die kriminalpolizeiliche Erfahrung, wie ein Täter tickt, kann durch einen PC kaum ersetzt werden

Solche Systeme seien eher in städtischen Gebieten sinnstiftend. Auch die Kantonspolizei Bern und Stapo Basel-Stadt verzichten auf den Einsatz digitaler Tools im Bereich «Predictive Policing».

Was künstliche Intelligenzen wie GPT angeht, blasen fast alle Polizeikorps ins selbe Horn: Man beobachte die Entwicklungen, arbeite aber derzeit noch nicht mit diesen neuen Technologien. Die Kapo St.Gallen könne sich den Einsatz solcher Programme gar «gut vorstellen». Bei anderen steht der Einsatz von GPT aber nicht einmal zur Diskussion.




Die KI am 22.6.2023: ist doch nur dein Freund und Helfer!
KI fängt Verkehrssünder in Bangkok
https://www.wochenblitz.com/news/ki-faengt-verkehrssuender-in-bangkok

Bangkok — Die Stadtver­wal­tung set­zt Soft­ware mit kün­stlich­er Intel­li­genz (KI) ein, um Verkehrssün­der zu ertap­pen, und wird sie auch ein­set­zen, um den Verkehrs­fluss an Kreuzun­gen zu verbessern, sagte der Gou­verneur von Bangkok am Mittwoch. Gou­verneur Chad­chart Sit­tipunt sagte, die Stadtver­wal­tung von Bangkok set­ze KI an acht Stellen in der Haupt­stadt ein.

Die Tech­nolo­gie kann einge­set­zt wer­den, um Straftäter zu fan­gen. Viele Fußgänger sind ihre Opfer, vor allem in Bangkok, wo jedes Jahr etwa 900 von Motor­rad­fahrern auf Gehwe­gen ange­fahren wer­den … Die BMA muss das Gesetz ern­sthaft durch­set­zen, um dieses Prob­lem anzuge­hen”, sagte er.

Die BMA set­zt KI-Soft­ware ein, um Verkehrssün­der mit Hil­fe beste­hen­der Überwachungskam­eras, die an Glas­faser­net­ze angeschlossen sind, zu erfassen. Die KI könne Verkehrsver­stöße auf­spüren und dann melden, eine Auf­gabe, die bish­er auss­chließlich von der Stadt­polizei wahrgenom­men wurde, sagte Chadchart.

Die KI nutze die Fahrzeu­greg­is­ter­daten­bank des Land Trans­port Depart­ment, um die Adressen von Verkehrssün­dern aus­find­ig zu machen und ihnen Beschei­de zu schick­en, in denen sie aufge­fordert wer­den, ihre Bußgelder inner­halb von 30 Tagen bei ihren Bezirk­sämtern zu bezahlen, sagte der Gouverneur.

Das Sys­tem wurde an ver­schiede­nen Stellen in der Stadt einge­set­zt, unter anderem an den Ein­mün­dun­gen der Straßen Ratchadaphisek 36, Phetkasem 28 und Phetch­aburi 9, vor der Niwet­warin-Schule im Bezirk Bang Khen und an ein­er Tankstelle. Vom 12. bis 20. Juni wur­den in diesen Gebi­eten 2.990 Motor­rad­fahrer beim ille­galen Fahren auf Gehwe­gen erwis­cht. Dabei han­delte es sich um 1.884 nor­male Motor­rad­fahrer, 592 Taxi-Motor­rad­fahrer und die übri­gen um Lieferfahrer.

Die BMA nutzte KI auch, um Aut­o­fahrer zu erwis­chen, die ihre Fahrzeuge in Parkver­bot­szo­nen in der Nähe des Cen­tral­World-Einkauf­szen­trums, im Pratu­nam-Gebi­et und in der Nana Road abgestellt hat­ten. Das AI-Pro­gramm iden­ti­fizierte Fahrzeuge, die länger als fünf Minuten geparkt waren, und meldete sie der Polizei, so der Gou­verneur von Bangkok.

In etwa zwei weit­eren Monat­en wer­den wir das KI-Sys­tem auf 100 weit­ere Orte ausweit­en, an denen es zu Verkehrsver­stößen kommt, und später wird es auch auf die Kon­trolle von Ampeln aus­gedehnt”, sagte er. In Bangkok gab es an etwa 500 Stellen Ampeln. In vie­len Gebi­eten wur­den sie noch durch Zeitschal­tuhren ges­teuert und nicht an die tat­säch­lichen Verkehrs­be­din­gun­gen angepasst. Der Ein­satz von KI dürfte den Verkehrs­fluss erhe­blich verbessern, sagte Chadchart.

News teilen

Quelle: bangkokpost.com




China 23.6.2023: KI-Roboter organisiert ein Parkhaus und gewinnt 30-40% Kapazität:
How does Robotic Parking Work in China
https://t.me/Ungeimpfte_Schweiz_kennenlernen/55628
The system allows you to park the car with an accuracy of up to a millimeter, thereby increasing the parking capacity by 30-40%.
😳😳😳
https://t.me/LauraAbolichannel



Menschen abschaffen und Roboter installieren 26.6.2023: KI-Programmierer haben 900.000 Dollar Lohn pro Jahr:
Fürstlicher Lohn für KI-Experten: Mitarbeiter von Open AI kassieren 1 Million pro Jahr!
https://www.blick.ch/wirtschaft/fuerstlicher-lohn-fuer-ki-experten-mitarbeiter-von-open-ai-kassieren-1-million-pro-jahr-id18700433.html
Experten für künstliche Intelligenz sind gefragt. Informatiker in diesem Bereich können mit sehr hohen Löhnen rechnen.

Der Medianlohn für Softwareingenieure bei Open AI, der Firma hinter der künstlichen Intelligenz Chat GPT, liegt bei 900'000 Dollar pro Jahr. Medianlohn bedeutet, dass die eine Hälfte der Softwareingenieure mehr und die andere Hälfte weniger als 900'000 Dollar pro Jahr verdient.

Dabei beträgt das Basissalär 300'000 Dollar, der Rest wird in Profit Interest Units (PIU) ausbezahlt. Dadurch werden die Mitarbeiter an den künftigen Profiten von Open AI beteiligt. Damit unterscheidet sich Open AI von anderen Start-ups, die Mitarbeiter meist an ihrem Aktienkapital beteiligen.

Medianlohn 900'000 Dollar
Da Open AI noch nicht profitabel ist, organisiert die Firma selber einen Handel mit den PIU, der sich an künftig möglichen Profiten orientiert. Abgeleitet davon ergibt sich die Gesamtkompensation von 900'000 Dollar im Median.

Die Daten wurden von der Firma Levels.fyi in Cupertino in Kalifornien ausgewertet. Ihre Plattform hilft Angestellten dabei, ihre Gesamtkompensation mit anderen vergleichen zu können. Auf einen Teil der Daten lässt sich gratis zugreifen, ein voller Zugriff ist kostenpflichtig.




KI kann kochen 1.7.2023: Also fallen bald Köche weg:

Künstliche-Intelligenz-Wok macht Köchen Konkurrenz
https://www.nau.ch/news/bier-news/kunstliche-intelligenz-wok-macht-kochen-konkurrenz-66532629

Künstliche Intelligenz sorgt immer wieder für Schlagzeilen: Nun verblüfft ein Video eines Woks, der ohne menschliche Hilfe Gemüse sautiert und sogar flambiert!
  • Ein KI-Wok macht seine Aufgabe perfekt: Elegant sautiert und flambiert er Gemüse.
  • Das Twitter-Video begeistert einige User, andere fürchten sich vor einem Job-Verlust.
  • Wenn Künstliche Intelligenz das Kochen übernimmt, was passiert dann mit den Köchen?

In der Schweiz kämpfen zahlreiche Gastro-Betriebe mit dem vorherrschenden Personalmangel, müssen deswegen sogar schliessen. Stehen in der Küche vielleicht schon bald keine «echten» Köchinnen und Köche mehr? Der Künstliche-Intelligenz-Wok einen Vorgeschmack auf ein mögliches Zukunftsszenario.

Die Wok-Pfanne wirft Gemüse in die Luft und fängt es elegant wieder auf. Kurz darauf wird es sogar flambiert – in einer beeindruckenden Flamme. Das Tempo der Bewegungen ist beachtlich.

Haben Sie Angst, dass Künstliche Intelligenz Ihren Job wegnimmt?

Und das alles passiert ganze ohne menschliche Hilfe. Beeindruckend, oder? Jedoch sorgt das Video von der automatisierten Unterstützung auch für Anmerkungen mit kritischen Denkanstössen.

«Einfach nur chillen» dank KI?

Mehrere befürchten, dass Maschinen den Menschen ihre Jobs wegnehmen könnten. Für einen User stellt dieses Szenario allerdings keine Bedrohung dar. Er stellt die Frage, ob, wenn alles automatisiert sei, Menschen endlich «einfach nur chillen» könnten.

Denn: Ein Koch braucht mindestens ein paar Monate, um den Wok zu handhaben. Der anspruchsvolle Umgang könnte also von der Künstlichen Intelligenz übernommen werden. Somit könnten Zeit und Ressourcen in der Ausbildung gespart werden.

Allerdings fürchten sich einige auch vor dem Job-Verlust. Und ob Menschen ohne Job und Einkommen dann wirklich «einfach nur chillen können», ist wohl eher eine Wunschvorstellung des Twitter-Users.




Über 150 grosse Firmen warnen die EU am 2.7.2023: Man soll die KI nicht regulieren?
Großfirmen gegen KI-Regulierung: Großunternehmen warnen vor KI-Regulierung der EU
https://www.suedtirolnews.it/wirtschaft/grossunternehmen-warnen-vor-ki-regulierung-der-eu

Mehr als 150 große Unternehmen haben die Europäische Union in einem offenen Brief davor gewarnt, Künstliche Intelligenz (KI) zu regulieren. Das vom EU-Parlament geplante Gesetz gefährde “Europas Wettbewerbsfähigkeit und technologische Unabhängigkeit”, ohne aktuelle und kommende Herausforderungen effektiv “in Angriff zu nehmen”, hieß es in dem Schreiben, das die Nachrichtenagentur AFP am Freitag einsehen konnte.

Die geplanten Regeln könnten dazu führen, dass “hoch innovative Unternehmen” ins Ausland abwanderten und Investoren ihr Kapital von der Entwicklung europäischer KI abzögen, erklärten die Unterzeichner, darunter Führungskräfte von Airbus, Siemens, Peugeot, Renault, und dem Facebook-Mutterkonzern Meta.

“Das Ergebnis wäre eine bedenkliche Kluft in der Produktivität zwischen Seiten des Atlantiks”, hieß es weiter in dem Schreiben.

Das EU-Parlament hatte Mitte Juni ein Gesetzgebungsverfahren zu KI auf den Weg gebracht, welches weltweit das erste dieser Art werden soll. Es beinhaltet Vorschriften für generative KI-Systeme, wie ChatGPT und Dall-E, mit deren Hilfe unter anderem Texte, Bilder und Videos erstellt werden können. Mit KI erstellte Inhalte sollen demzufolge klar gekennzeichnet sein, außerdem soll die biometrische Gesichtserkennung im öffentlichen Raum verboten werden.

In den kommenden Monaten wollen das EU-Parlament und die 27 Mitgliedstaaten über den Entwurf beraten, eine Einigung ist für Ende des Jahres vorgesehen.

Der rumänische EU-Abgeordnete Dragos Tudorache, der den Gesetzentwurf mit ins EU-Parlament eingebracht hatte, sagte, er sei “überzeugt”, dass die Unterzeichner des offenen Briefes den Gesetzentwurf “nicht aufmerksam” gelesen hätten. Die konkreten Vorschläge aus dem Schreiben seien bereits in den Text eingeflossen.

Über KI wird derzeit in vielen Ländern diskutiert. Der Technologie-Milliardär Elon Musk und Experten hatten wegen der Risiken sogar einen vorläufigen Entwicklungsstopp gefordert.

Von: APA/AFP



Bangkok (Thailand) 2.7.2023: 2 Kreuzungen haben KI-Überwachung von Fussgängerstreifen:
KI-Kam­eras sollen helfen, Zebras­treifen freizuhalten

https://www.wochenblitz.com/news/ki-kameras-sollen-helfen-zebrastreifen-freizuhalten

So., 02. Juli 2023 | Bangkok

Bangkok — Sobald ein Fahrzeug an der Ampel an der Wong Sawang-Kreuzung anhält, ertönt ein lauter Alarm, gefol­gt von ein­er aufgeze­ich­neten Ansage in Thai: Bitte behin­dern Sie den Zebras­treifen nicht. Vie­len Dank.” Der Alarm und die Ansage wer­den so lange abge­spielt, bis alle Aut­o­fahrer, die darauf warten, dass die rote Ampel grün wird, ihre Fahrzeuge von dem Fußgängerüber­weg entfernen.

Dies ist kün­stliche Intel­li­genz (KI) in Aktion, die die Stadtver­wal­tung für eine bürg­er­liche Sache ein­set­zt. In dem Bemühen, die Sicher­heit der Fußgänger in der Haupt­stadt zu verbessern, hat die Stadtver­wal­tung mehrere mit Sen­soren aus­ges­tat­tete Kam­eras an zwei wichti­gen Verkehrsknoten­punk­ten in Bangkok instal­liert: den Kreuzun­gen Wong Sawang und Arun Amarin.

Die Kam­eras sollen nicht nur abschreck­end wirken, son­dern auch ein Bild des Ver­stoßes und des Täters aufnehmen, so der Direk­tor der Abteilung für Verkehrstech­niksys­teme bei der Bangkok Met­ro­pol­i­tan Admin­is­tra­tion (BMA), Rapeep­ong Morakul. Der Alarm und die War­nung sind laut genug, um Aut­o­fahrer, die gegen die Vorschriften ver­stoßen, in Ver­legen­heit zu brin­gen”, sagte er und zeigte sich zuver­sichtlich, dass die KI-gestützten Kam­eras Verkehrsver­stöße reduzieren können.

Allerd­ings wer­den die Bilder vor­erst nur als War­nung dienen, da die Behör­den nicht vorhaben, Zuwider­han­del­nde, die von den KI-gestützten Kam­eras während der Test­phase erwis­cht wer­den, strafrechtlich zu ver­fol­gen, sagte er. Diejeni­gen, die absichtlich eine rote Ampel über­fahren, wer­den jedoch strafrechtlich ver­fol­gt, wenn sie von den Kam­eras erfasst werden.

Die Behör­den haben beschlossen, die Kam­eras aufzustellen, um Motor­räder und Autos davon abzuhal­ten, Zebras­treifen zum Wohle der Fußgänger in der Haupt­stadt zu block­ieren. Solche Ver­stöße sind in der ganzen Stadt an der Tage­sor­d­nung, obwohl es bere­its Vorschriften gegen solche Verge­hen gibt.

Das vom früheren Gou­verneur von Bangkok, Aswin Kwan­muang, ini­ti­ierte Pro­jekt wurde schließlich umge­set­zt, nach­dem Gou­verneur Chad­chart Sit­tipunt am 31. August let­zten Jahres einen 106-Mil­lio­nen-Baht-Ver­trag mit Samart Comtech Co. unterze­ich­nete, der das Unternehmen mit der Instal­la­tion von KI-gestützten Kam­eras an 20 wichti­gen Kreuzun­gen in der Stadt beauf­tragte, so Rapeepong.

Achtzehn weit­ere Stan­dorte wer­den mit solchen Kam­eras aus­ges­tat­tet, darunter die Kreuzun­gen Huai Khwang, Suan Ruen, Nida, Kan Khe­ha (Thi Din), Si Ayut­thaya, Ratchawat, Ramkhamhaeng, Chao Khun Tha­han, Ratchapra­song, Sala Daeng, Hen­ri Dunant, Ratchayoth­in, Phang Muang, Sakae Ngam, Pharam 9, Wang Doem, Bukkha­lo und Tha Din Daeng.

Die Instal­la­tion der Kam­eras an jedem Stan­dort dauert etwa zwei Monate, da die Kam­eras hoch genug ange­bracht wer­den müssen, um eine Vogelper­spek­tive zu ermöglichen. Das Sys­tem wird weit­er­en­twick­elt, so dass alle Dat­en der Kam­eras zur Steuerung der darunter liegen­den Ampeln ver­wen­det wer­den kön­nen, sagte er.

Quelle: bangkokpost.com




KI in Linz (Österreich) 4.7.2023: erstellt Herztherapieprogramme:
Kinderherzzentrum Linz setzt auf KI

Künstliche Intelligenz (KI) kommt mittlerweile auch im Kinderherzzentrum in Linz zum Einsatz. Etwa für exaktere Diagnosen oder um bessere individuelle Therapien erstellen zu können. Die KI zeigt auf, wie optimale Ergebnisse für die noch ungeborenen herzkranken Kinder erzielt werden können.

Mehr dazu in ooe.ORF.at





KI mit google-Spionage 6.7.2023: Google will alles, was Sie online posten, für die KI auslesen

https://uncutnews.ch/google-will-alles-was-sie-online-posten-fuer-die-ki-auslesen/






Forscher blicken mit neuer KI-Technik live in Abläufe

https://www.nau.ch/news/forschung/forscher-blicken-mit-neuer-ki-technik-live-in-ablaufe-im-gehirn-66541031






11.9.2023: KI sagt was: Die kriminellen Regierungen sind ein Problem:
KI: Nicht die Technologie ist das Problem




https://www.blick.ch/sport/fussball/superleague/ist-musiala-schon-am-ende-seiner-entwicklung-wie-kuenstliche-intelligenz-den-fussball-revolutioniert-id18737045.html






KI auch bei Musk 12.7.2023: Neue Firma xAI:
Musk gründete nun auch KI-Unternehmen

https://orf.at/stories/3323700/

Twitter-Chef Elon Musk hat nun auch ein eigenes KI-Unternehmen gegründet. Musk kündigte die Gründung von xAI gestern auf Twitter an. Weitere Details sollen am Freitag bekanntgegeben werden.

Auf der xAI-Website wird Musk als Direktor genannt, neben ihm werden elf weitere, ausschließlich männliche, Teammitglieder vorgestellt, die zuvor bei anderen Unternehmen mit Schwerpunkt auf KI gearbeitet hatten, darunter Google, OpenAI und DeepMind.

„Ankündigung der Gründung von @xAI, um die Realität zu verstehen“, gab sich Musk auf Twitter wortkarg. Unklar ist noch, welchen Plan er mit xAI verfolgt. Im April kündigte er an, einen Konkurrenten zu ChatGPT zu veröffentlichen.

Kurios ist Musks neues Start-up auch deshalb, weil Musk in der Vergangenheit oft vor den Risiken von KI gewarnt hatte. Er ist auch Teil des Future-of-Life-Instituts, das vor den Risiken einer „Superintelligenz“ warnte.




UNO in New York / Genf 14.7.2023: Die kriminell-korrupte Satanisten-UNO meint, sie könne KI kontrollieren:
UNO-Resolution zu KI-Kontrolle verabschiedet

https://orf.at/stories/3323973/

Der UNO-Menschenrechtsrat hat eine Resolution zu Schutz- und Kontrollmaßnahmen bezüglich künstlicher Intelligenz (KI) verabschiedet. Die „Transparenz“ von KI-Systemen solle gefördert werden, hieß es in der heute beschlossenen Resolution. Zudem sollten die für die KI-Technologie gebrauchten Daten „auf menschenrechtskonforme Weise gesammelt, verwendet, weitergegeben, archiviert und gelöscht“ werden.

Die von Österreich, Dänemark, Brasilien, Südkorea, Marokko und Singapur vorgeschlagene Resolution wurde im Konsens angenommen. China und Indien gaben an, dass sie mit dem Konsens nicht komplett einverstanden seien, stellten sich der Resolution aber nicht entgegen. Peking erklärte, der Text enthalte „kontroverse“ Elemente, ohne Einzelheiten zu nennen.

Der UNO-Menschenrechtsrat hatte sich bereits zuvor mit neuen Technologien befasst, ging dieses Mal aber erstmals genauer auf die Entwicklung im Bereich KI ein. Die Resolution unterstreiche die „Notwendigkeit von Schutzmaßnahmen“ und „menschlicher Kontrolle in Bezug auf KI“, erläuterte der belgische Botschafter Marc Pecsteen von Buytswerve.




"USA" 26.7.2023: KI-Entwickler gründen Arbeitsgruppe für Sicherheitsfragen

https://orf.at/stories/3325282/

Vier bei der Entwicklung von Abwendungen mit künstlicher Intelligenz (KI) führende US-Konzerne wollen möglichen Risiken der neuen Technologie mit einer gemeinsamen Arbeitsgruppe begegnen.

Das gaben die daran beteiligten Unternehmen Google, Microsoft, Anthropic und der ChatGPT-Entwickler OpenAI heute bekannt. Die Gruppe bekommt den Namen „Frontier Model Forum“.

Dort sollen Expertinnen und Experten der Firmen zusammenarbeiten. Es geht darum, Gefahren zu minimieren und branchenweite Standards zu entwickeln.

Erst in der vergangenen Woche hatte US-Präsident Joe Biden bei einem Treffen mit Vertretern großer Technologie- und Internetkonzerne auf Regeln für einen verantwortungsvollen und sicheren Einsatz von KI gedrängt. Diese berge ein „enormes Versprechen unglaublicher Möglichkeiten“, sagte er. Aber sie berge auch „Risiken für unsere Gesellschaft, unsere Wirtschaft und unsere nationale Sicherheit“.





4R am 29.7.2023: KI kann Telefonanrufe fälschen:
Ein KI-gefälschter Anruf von einem Verwandten und Gelderpressung - jetzt auch in Deutschland.
https://t.me/basel2020Einladung/50012

Seit vielen Jahren war Russland der Rekordhalter für die Anzahl erhaltener betrügerischer Anrufe und Nachrichten. Die Untersuchungen ergaben, dass Anrufe und Nachrichten aus der Ukraine kamen, Geld von Opfern ging auch in die Ukraine. Mit Beginn der Militäroperation im Jahr 2022 hat die Zahl solcher betrügerischer Anrufe und Nachrichten aus der Ukraine stark abgenommen, aber die Leute, die mit diesem kriminellen Geschäft beschäftigt waren, sind aus der Ukraine nach ... Europa geflohen.

Woher haben die Betrüger Ihre Stimme und Ihr Sprachschema? Zuerst erhält das Opfer Werbeanrufe und das gesamte Gespräch wird aufgezeichnet. Basierend auf Ihren Antworten wird dann Ihr einzigartiges Sprachschema generiert.
Deshalb, bitte keinesfalls ins Gespräch kommen - alle von Ihnen gesprochenen Sätze werden Betrügern helfen, Ihre Stimme später zu generieren.



31.7.2023: KI als Fahndungshilfe: Kann KI falsche Videos im Internet aufspüren?

Intel hat «FakeCatcher» vorgestellt, ein neues System, das angeblich zwischen echten und manipulierten Videos unterscheiden kann. Das Unternehmen behauptet, die Genauigkeit liege bei 96 Prozent. Doch bei Tests wurden echte Videos als Fake eingestuft.

https://transition-news.org/kann-ki-falsche-videos-im-internet-aufspuren


: Biontech übernimmt britisches KI-Unternehmen"




: Neue KI kann in nur vier Minuten trainiert werden

https://www.nau.ch/news/digital/neue-nvidia-ki-kann-in-nur-vier-minuten-trainiert-werden-66564565

Nvidia hat eine neue Bild-KI entwickelt. Diese ist so klein und kompakt, dass sie in nur vier Minuten trainiert werden kann.

Die Bild-KI von Nvidia-Forschern erregt derzeit viel Aufsehen. Das Tool namens «Perfusion» ist mit lediglich 100 Kilobyte Code erstaunlich kompakt und lässt sich innerhalb weniger Minuten trainieren. In Zusammenarbeit mit der Universität Tel-Aviv entwickelt, übertrifft es angeblich führende KI-Bildgeneratoren wie Stable Diffusion und MidJourney.

Ein herausragendes Merkmal ist «Key-Locking». Bei diesem werden neue Inhalte während der Bilderzeugung mit einer allgemeineren Kategorie verknüpft, um Überanpassung zu verhindern. So können individuelle Objekte flexibler dargestellt werden, während sie ihre Kernidentität bewahren.

Perfusion erlaubt es auch, mehrere personalisierte Konzepte in einem Bild mit natürlichen Interaktionen zu kombinieren. Allerdings erfordert es Übung, den richtigen Kompromiss zwischen Text- und Bildähnlichkeit zu finden, um optimale Ergebnisse zu erzielen.





KI im Hirn 5.8.2023: Australien mit Geheimdiensten will KI im Hirn für mehr Rechenleistungen:
Verschmelzung von Hirnzellen mit KI – Was soll schon schief gehen?
https://report24.news/verschmelzung-von-hirnzellen-mit-ki-was-soll-schon-schief-gehen/

In Australien arbeitet man mit Unterstützung des nationalen Geheimdienstes bereits daran, menschliche Hirnzellen mit Künstlicher Intelligenz (KI) zu verknüpfen. Man erwartet sich dadurch deutlich höhere Rechenkapazitäten für komplexere Berechnungen. Allerdings stellt sich die Frage, was mit solch einer “Frankenstein-KI” schief gehen könnte.

Das Office of National Intelligence in Australien, das dem Director of National Intelligence in den USA ähnelt, stellt Mittel für ein Projekt bereit, das darauf abzielt, menschliche Gehirnzellen mit Künstlicher Intelligenz zu kombinieren. Eine Forschergruppe, die mit einem Startup namens Cortical Labs in Melbourne zusammenarbeitet, hat einen Zuschuss von 600.000 Australischen Dollar für die Erforschung dieses Gebiets erhalten. Sie haben bereits gezeigt, dass rund 800.000 Gehirnzellen in einer Petrischale das Spiel „Pong“ spielen können.

„Diese neue Technologiefähigkeit könnte in Zukunft möglicherweise die Leistung bestehender, rein siliziumbasierter Hardware übertreffen“, sagte Teamleiter Adeel Razi, außerordentlicher Professor an der Monarch University. „Die Ergebnisse einer solchen Forschung hätten erhebliche Auswirkungen auf zahlreiche Bereiche wie Planung, Robotik, fortschrittliche Automatisierung, Gehirn-Maschine-Schnittstellen und Arzneimittelforschung, was Australien einen erheblichen strategischen Vorteil verschaffen würde.“

Razi schlägt vor, dass Technologie es einer Maschine ermöglichen könnte, kontinuierlich zu lernen, ähnlich wie menschliche Gehirnzellen. Dies würde es der Maschine ermöglichen, neue Fähigkeiten zu erwerben, ohne alte zu vergessen, und ihr vorhandenes Wissen auf neue Aufgaben anzuwenden. Razi und sein Team planen, mit dem DishBrain-System Gehirnzellen im Labor zu kultivieren und diesen Prozess des lebenslangen Lernens zu untersuchen.

Laut Razi werde man „diesen Zuschuss nutzen, um bessere KI-Maschinen zu entwickeln, die die Lernkapazität dieser biologischen neuronalen Netze nachbilden. Dies wird uns dabei helfen, die Hardware- und Methodenkapazität so weit zu steigern, dass sie einen brauchbaren Ersatz für In-silico-Rechnen darstellen.“

In den Vereinigten Staaten gibt es diesbezüglich ähnliche Forschungen. Computer sollen durch im Labor gezüchtete menschliche Gehirnzellen unterstützt werden. Dabei handle es sich quasi um “Intelligenz in einer Petrischale”. Eine Studie dazu wurde ebenfalls veröffentlicht. Doch was die Forscher aufgrund der potenziellen Anwendungsmöglichkeiten fasziniert, sorgt auch für Bedenken. Denn die Verschmelzung von menschlichen Gehirnzellen mit Computern und einer KI birgt auch große Gefahren in sich. Solche Supercomputer könnten nämlich der letzte Schritt zur völligen Unterdrückung der Menschheit sein. Ist die Büchse der Pandora erst einmal geöffnet…





KI "USA" 10.8.2023: Bidens SEC-Chef warnt: KI-Technologie könnte Finanzkollaps auslösen

https://uncutnews.ch/bidens-sec-chef-warnt-ki-technologie-koennte-finanzkollaps-ausloesen/


KI im Internet weltweit 10.8.2023: Künstliche Personen in Netzwerken ("Bots") foppen immer mehr Leute:
Die Hälfte des Internets wird von Bots beherrscht und ein Drittel der Nutzer erkennt sie nicht
https://uncutnews.ch/die-haelfte-des-internets-wird-von-bots-beherrscht-und-ein-drittel-der-nutzer-erkennt-sie-nicht/

Es ist ein grundlegender Bestandteil des Internets, aber die Nutzer haben einen kritischen Punkt erreicht: Immer mehr Menschen verlieren die Fähigkeit, zwischen Bots und Menschen zu unterscheiden.

Vor diesem Szenario haben Entwickler seit Jahren gewarnt, und es ist leicht zu verstehen, warum.

Eine kürzlich durchgeführte Studie kam zu dem Ergebnis, dass 47 Prozent des gesamten Internetverkehrs mittlerweile aus von Bots generierten Inhalten besteht. Das ist ein Anstieg von mehr als 5 Prozent zwischen 2022 und 2021, während die menschliche Aktivität im Internet gerade den niedrigsten Stand seit acht Jahren erreicht hat.

In Verbindung mit den Fortschritten bei der menschenähnlichen Interaktion, die durch künstliche Intelligenz (KI) vorangetrieben wird, kann fast ein Drittel der Internetnutzer nicht mehr erkennen, ob sie mit einer Person interagieren.

Im April wurde eine bahnbrechende Studie mit dem Titel Human or Not? (Mensch oder nicht?) gestartet, um herauszufinden, ob Menschen erkennen können, ob sie mit einer anderen Person oder einem KI-Chatbot sprechen.

Mehr als 2 Millionen Freiwillige und 15 Millionen Gespräche später lagen 32 Prozent der Teilnehmer falsch.

Die Ergebnisse unterschieden sich kaum nach Altersgruppen. Ältere und jüngere Erwachsene hatten ähnliche Schwierigkeiten zu erkennen, wer – oder was – am anderen Ende des Gesprächs war.

Das Fazit: Während superrealistische Bots fast die Hälfte des Internets übernommen haben, kann eine wachsende Zahl von Menschen sie nicht einmal erkennen.

Ferner führt dieses historische Zusammentreffen von sich schnell entwickelnder Technologie und abnehmender Wahrnehmung in der Bevölkerung bereits zu Problemen in der realen Welt.

Täusche mich doch

„Die Verschmelzung von Bot und Mensch ist wie ein Zaubertrick … Da Bots immer intelligenter werden, laufen wir Gefahr, das Vertrauen in Online-Interaktionen zu verlieren“, so Daniel Cooper gegenüber The Epoch Times.

Daniel Cooper ist Technologieentwickler und geschäftsführender Gesellschafter der Firma Lolly. Er merkte an, dass die Transparenz von Unternehmen und Websites entscheidend für das Vertrauen der Menschen in ihre Online-Interaktionen sei. Bis dahin gebe es aber keinen Ersatz für den guten alten menschlichen Instinkt.

„Bots zu erkennen ist wie die Suche nach einem Hund in einer Menschenmenge. Achten Sie auf sich wiederholende Muster, mangelnde Personalisierung oder schnelle Antworten. Vertrauen Sie auch Ihrem Bauchgefühl. Wenn Sie das Gefühl haben, dass etwas nicht stimmt, könnte es das sein“, sagt er.

Während sich ein Großteil der Diskussion über böswilligen oder „bösen Bot“-Verkehr auf soziale Medien konzentriert, hat der Einfluss missbilligter KI-Interaktionen viel weitreichendere Folgen.

Das Vertrauen der Verbraucher in das Lesen von Online-Rezensionen über ein Produkt oder eine Dienstleistung ist seit Jahren problematisch, scheint aber einen neuen Meilenstein erreicht zu haben.

Im April dieses Jahres tauchten Berichte über KI-Sprachmodelle auf, die Produktbewertungen auf Websites wie Amazon hinterließen. Die Bot-Bewertungen waren leicht zu erkennen, da der Chatbot die Leser im ersten Satz wörtlich darauf hinwies, dass es sich um ein KI-Sprachmodell handelte.

Doch nicht jeder Bot, der sich als Mensch ausgibt, ist so leicht zu erkennen.

Das hat dazu geführt, dass große Unternehmen und Suchmaschinen wie Google mit einem starken Anstieg falscher Bewertungen konfrontiert sind.

Im vergangenen Jahr reichte Amazon eine Klage gegen Fake-Bewertungsbroker auf Facebook ein, und Google musste 115 Millionen gefälschte Bewertungen entfernen.

Dies ist besorgniserregend, wenn man bedenkt, wie viele Menschen sich auf Produktbewertungen verlassen. Eine Umfrage aus dem Jahr 2023 ergab, dass Online-Rezensionen für 93 Prozent der Internetnutzer eine Rolle bei der Kaufentscheidung spielen.

„Mehr Bot-Verkehr könnte in der Tat die Tore für Online-Betrug öffnen“, sagte Cooper.

Es scheint jedoch, dass diese Schleusen bereits geöffnet wurden.

Der Fuchs im Hühnerstall

Bösartiger Bot-Traffic ist seit letztem Jahr um 102 Prozent gestiegen und könnte die von Menschen erstellten Inhalte komplett überholen. Schon wieder.

Das geschah 2016 und war vor allem während der Präsidentschaftswahlen in den USA problematisch. Seitdem sind KI-generierte Inhalte immer raffinierter geworden, und Tech-Insider sagen voraus, dass wir uns bis 2024 auf eine weitere Bot-Welle einstellen müssen.

Und da immer mehr Menschen Schwierigkeiten haben, den Unterschied zu erkennen, haben Online-Betrüger einen großen Vorteil.

„Die Schwierigkeit, Bots von echten Menschen zu unterscheiden, wird mit der Weiterentwicklung dieser Technologie wahrscheinlich noch zunehmen, zum Nachteil der Internetnutzer. Die Möglichkeit, von böswilligen Akteuren ausgenutzt zu werden, ist eine große Sorge“, sagte Vikas Kaushik, CEO von TechAhead, gegenüber The Epoch Times.

Kaushik sagte, ohne die Möglichkeit, Bots zu identifizieren, könne man leicht auf Desinformation und Phishing-Betrug hereinfallen. Außerdem seien diese digitalen Betrügereien nicht immer offensichtlich.

Der Sicherheitsforscher Kai Greshake erklärte im März gegenüber Vice, dass Hacker den KI-Chatbot von Bing durch versteckte Textaufforderungen dazu bringen könnten, persönliche Daten von Nutzern abzufragen.

„Als Teil der Branche sehe ich, dass dies zu einem ernsten Problem wird“, sagte Kaushik und fügte hinzu: Um komplexere Erkennungstechniken zu entwickeln und offene Standards für die Erkennung von Bots zu schaffen, müssen Entwickler und Wissenschaftler zusammenarbeiten.

Seiner Ansicht nach sind Aufklärungs- und Sensibilisierungskampagnen unerlässlich, um die Öffentlichkeit vorsichtiger und selbstbewusster zu machen, wenn sie online mit Fremden kommuniziert.

Cooper stimmte dem zu.

„Die Verwechslung von Bot und Mensch kann zu Missverständnissen, Misstrauen und Missbrauch persönlicher Daten führen. Es ist, als würde man mit einem Papagei chatten und ihn für einen Menschen halten: Es ist lustig, bis er Ihre Geheimnisse wiederholt.

Er verglich die Zunahme des Bot-Traffics mit der Einladung eines Fuchses in den Hühnerstall. „Wir müssen wachsam und proaktiv sein, um uns zu schützen.

Maßnahmen ergreifen

Für einige ist die Lösung einfach. Einfach den Stecker aus der digitalen Welt ziehen“.

Diese Meinung wird oft geäußert, ebenso wie die Idee, aus dem Netz auszusteigen, und die Sehnsucht nach den Tagen, als die Theorie vom „toten Internet“ weniger plausibel erschien. Für viele ist dies jedoch keine realistische Option.

Stattdessen versuchen einige, ihre Online-Nutzung auszubalancieren, indem sie unter anderem die Nutzung sozialer Medien einschränken.

Die Hassliebe der Menschheit zu den sozialen Medien, insbesondere zu Facebook und Twitter, hat bei Millionen von Menschen Ängste, Wut und Depressionen ausgelöst.

Obwohl die Nutzung sozialer Medien in diesem Jahr zugenommen hat, glauben etwa zwei Drittel der Amerikaner, dass diese Plattformen einen überwiegend negativen Einfluss auf ihr Leben haben.

Und die Zunahme des Bot-Traffics gießt Gas ins Feuer.

Sich von den sozialen Medien und ihren Bot-Schwärmen zurückzuziehen, hat seine Vorteile.

In einer Studie aus dem Jahr 2022 wurde festgestellt, dass Teilnehmer, die eine einwöchige Auszeit von den Plattformen nahmen, eine Verbesserung ihrer Angstzustände, Depressionen und ihres allgemeinen Wohlbefindens erlebten.

Da sich die alltäglichen Interaktionen der Menschen immer mehr von der physischen in die virtuelle Welt verlagern, werden die Menschen immer abhängiger vom Internet. Daher stellt sich die Frage: Können die Menschen das Internet von den Bots zurückerobern?

Einige Technologieexperten halten das für möglich. Und es fängt damit an, dass man den Menschen hilft zu erkennen, womit sie sich beschäftigen.

„Es gibt einige Strategien, mit denen Nutzer Bots erkennen können“, erklärt Zachary Kann, Gründer von Smart Geek Home, gegenüber der Epoch Times.

Aufgrund seiner Erfahrung als Experte für Netzwerksicherheit sagte Kann, dass es Methoden gibt, mit denen ein Nutzer feststellen kann, ob er mit einer anderen Person interagiert.

Wie Cooper schlug er vor, Antwortmuster genau zu beobachten.

„Bots reagieren oft sofort und können eine sich wiederholende Sprache verwenden.

Herr Kann sagte auch, dass die Leute ihre Profile überprüfen sollten, da Bots oft generische oder unvollständige Online-Profile haben.

Er fügte hinzu, dass die Unfähigkeit, zwischen Bots und Menschen zu unterscheiden, zu Problemen bei der Genauigkeit der Forschung führen kann.

„Es kann zu verzerrten Datenanalysen führen, da die Interaktionen von Bots den Website-Traffic und die Engagement-Metriken aufblähen können.


=====

KI am 10.8.2023: fälscht Werbevideo für Fake-Plattform:
"Tagesschau"-Sprecher wird für KI-Betrug missbraucht! "Kann einem Angst machen"
https://www.tag24.de/unterhaltung/tv/tagesschau/tagesschau-sprecher-andre-schuenke-wird-fuer-ki-betrug-missbraucht-kann-einem-angst-machen-2920242Von Bastian Küsel

Hamburg - Beängstigend: "Tagesschau"-Sprecher André Schünke (43) ist offenbar mithilfe künstlicher Intelligenz für den Betrug mit einem dubiosen Finanzprodukt missbraucht worden.

"Tagesschau"-Sprecher André Schünke (43)
                ist offenbar mithilfe künstlicher Intelligenz für den
                Betrug mit einem dubiosen Finanzprodukt missbraucht
                worden.
"Tagesschau"-Sprecher André Schünke (43) ist offenbar mithilfe künstlicher Intelligenz für den Betrug mit einem dubiosen Finanzprodukt missbraucht worden.  © Instagram/andreschuenke

Am Mittwoch teilte der 43-Jährige auf Instagram Ausschnitte aus einem Werbevideo, das sich bei Facebook auf verschiedenen Firmen-Seiten verbreitet, die eigentlich überhaupt nichts mit dem Produkt zu tun haben.

Dazu schrieb der Nachrichtensprecher: "Dieses Werbevideo mit mir ist ein KI-Fake! Bitte meldet es mir und Meta [der Facebook-Konzern], falls es Euch angezeigt wird!"

Gruselig: In dem Video ist Schünke zu sehen und zu hören, wie er über eine Anlageplattform namens "Quantum" spricht - offenbar wurden "Tagesschau"-Ausschnitte des gebürtigen Lübeckers mithilfe von KI verändert.

Die Plattform, die mithilfe verschiedener Algorithmen angeblich Gewinne an verschiedenen Börsenplätzen generiere, wird in dem Video mit der Aussage beworben, dass bereits Zehntausende investiert hätten und reich geworden seien.

Doch nicht nur Schünke, auch Lotto-Millionär "Chico" (42) ist ein Teil des Videos - er sei angeblich ein einfacher Arbeiter gewesen, der mithilfe der Plattform reich geworden sei und sich nun einen Porsche leisten könne.




https://de.rt.com/international/177820-ki-wettbewerb-hacker-und-kuenstliche/




KI bei der LGBTQ-Lufthansa am 23.8.2023: KI-Programm soll Unternehmern das Vielreisen erleichtern:
Lufthansa lässt KI Geschäftsreisen organisieren

https://www.frankenpost.de/inhalt.luftverkehr-lufthansa-laesst-ki-geschaeftsreisen-organisieren.1ee45b21-bcc1-48fa-a3c8-b352cc8eea7a.html

Mit der App «Swifty» will sich die Lufthansa breiter aufstellen. Durch die Anwendung sollen Selbstständige und kleine Unternehmen ihre Reisen komplett organisieren können. Weitere Funktionen sollen folgen.



KI kann auch Drohne fliegen in Zürich 30.8.2023: KI schlägt Weltmeister im Drohnenflug

Eine von künstlicher Intelligenz (KI) gesteuerte Drohne hat im Wettflug gleich zwei amtierende Weltmeister geschlagen. Das von der Universität Zürich entwickelte System, das auf einer speziellen Form des maschinellen Lernens basiert, stellt laut den Studienautoren einen Meilenstein dar – sowohl für die Robotik als auch für KI.

Mehr dazu in science.ORF.at





3.9.2023: KI soll im Schwimmbad beim Retten Ertrinkender helfen

Ertrinkenden-Erkennungssysteme gibt es bereits seit mehreren Jahren. Doch nun soll KI-gestützte Technik auch vor möglichen Gefahrensituationen präventiv warnen können.

https://www.frankenpost.de/inhalt.technik-ki-soll-im-schwimmbad-beim-retten-ertrinkender-helfen.98163b20-1b21-4482-bc9d-b78b76c80dcb.html




KI wird der Staat selbst sein am 4.9.2023: Die nächste Entwicklung staatlicher Macht ist der automatische Staat

https://uncutnews.ch/die-naechste-entwicklung-staatlicher-macht-ist-der-automatische-staat/



Holt sich KI-Musik bald die Grammys?

https://www.nau.ch/news/digital/holt-sich-ki-musik-bald-die-grammys-neuer-song-vom-ghostwriter-66594328




Iran setzt im Kampf auf Hidschab-Verweigerinnen auf KI

https://www.nau.ch/news/ausland/kunstliche-intelligenz-soll-iran-bei-verfolgung-von-frauen-helfen-66596364








: Nationalratskandidaten setzen bei Kampagnen auf KI

https://www.nau.ch/politik/bundeshaus/nationalratskandidaten-setzen-fur-polit-kampagnen-auf-ki-66602997





Kriminelle NATO am 18.9.2023: will gegen China KI-Waffen einsetzen:
"Das Pentagon reagiert: Tausende KI-gestützte Waffensysteme gegen China"
Video-Link: https://t.me/c/1292545312/46689

Das US-Militär entwickelt KI-Waffen, um der "Bedrohung" durch China zu begegnen.

Das Pentagon beabsichtigt, innerhalb der nächsten zwei Jahre Tausende von KI-gestützten Drohnen und autonomen Systemen bereitzustellen, um sich der wachsenden Bedrohung durch China zu stellen. (wo die USA bedroht sind wird dabei nicht erwähnt)

Das als "Replicator" bezeichnete Programm fokussiert sich auf die Schaffung von "kleinen, intelligenten und preiswerten" Systemen, die in diversen Funktionen genutzt werden können, einschließlich Überwachung, Logistik und Raketenabwehr.

Dieser Schritt des Pentagon wurde teilweise durch Chinas jüngste Fortschritte motiviert, das mittlerweile über eine größere Flotte als die US-Marine verfügt und bedeutend in autonome Technologien investiert hat.

Das Pentagon betonte seine Entschlossenheit, rasch Maßnahmen zu ergreifen.

Man erwartet, dass dieses Programm Tausende neuer Jobs generiert und einen positiven Impuls für die US-Wirtschaft setzt.




Österreich mit KI 21.9.2023: soll einen "Fahrplan" haben:
Florian Tursky (ÖVP) verkündet KI-Fahrplan für Österreich

https://exxpress.at/florian-tursky-oevp-verkuendet-ki-fahrplan-fuer-oesterreich/

Florian Tursky, Staatssekretär für Digitalisierung (ÖVP), kündigte an, dass noch in diesem Jahr eine Servicestelle in der Regulierungsbehörde RTR eingerichtet wird, um die Regulierung von KI voranzutreiben. Das Ziel ist, eine Anlaufstelle für Unternehmen und Bürger zu schaffen.





Nazi Schwab mit dem WEF droht der ganzen Menschheit 23.9.2023: WEF: KI wird in “fünf Jahren” die menschliche Dominanz beenden

https://tkp.at/2023/09/23/wef-ki-wird-in-fuenf-jahren-die-menschliche-dominanz-beenden/



https://exxpress.at/eltern-erschuettert-ki-generierte-nacktfotos-von-20-schuelerinnen/

Der Fortschritt bringt jede Menge neuer Herausforderungen mit sich. Nicht nur für Behörden, sondern auch für besorgte Eltern. Jugendliche in Spanien sollen per App die Fotos von Mädchen so verändert haben, dass diese darauf nackt waren.

Immer leichter fällt es vor allem mithilfe von künstlicher Intelligenz sogenannte Deepfakes zu erstellen. In Spanien sollen solche KI-generierte Nacktfotos von mehr als 20 Mädchen in einer Schule verbreitet worden sein. Ein Albtraum für die betroffenen Mädchen und deren Eltern. Die mutmaßlichen Täter: Zehn Minderjährige, von denen einige jünger als 14 sind und daher strafrechtlich nicht verantwortlich gemacht werden können.

Appell an Täter

Auf Instagram berichtet auch eine bekannte Gynäkologin in einem mehrminütigen Video von dem Vorfall. Dazu schrieb sie unter anderem: „Mädchen, habt keine Angst, solche Taten zu melden.“ Und an diejenigen, die sich das ausgedacht haben: „Wenn ihr ein bisschen intelligent seid, helft mit, das wieder gutzumachen, was ihr angerichtet habt.“






https://exxpress.at/google-ki-prophezeit-vier-arten-der-apokalypse-und-warnt-vor-sich-selbst/



: Amazon steigt bei KI-Start-up Anthropic ein

: KI «grösste Transformation» der Menschheit


KI in der Schweiz 25.9.2023: Parteien geben sich Regeln im Umgang mit Künstlicher Intelligenz

Einen Monat vor den eidgenössischen Wahlen haben sich mehrere Parteien Regeln im Umgang mit Künstlicher Intelligenz (KI) bei Wahlen und...




Das sind die Trends von Cloud-Computing

https://www.nau.ch/news/digital/trends-und-innovation-so-funktioniert-das-cloud-computing-66559158




Kriminelles WEF von Rotschild+Schwab am 28.9.2023: behauptet heute folgendes:
WEF: In fünf Jahren wird KI die menschliche Vorherrschaft beenden

https://uncutnews.ch/wef-in-fuenf-jahren-wird-ki-die-menschliche-vorherrschaft-beenden/




KI am 5.10.2023: Es wird behauptet, bis zu 50% der Berufe könnten damit wegfallen - bis der Strom ausfällt:
Bis zu 50 % der Arbeitsplätze könnten wegfallen – haben Sie sich darauf vorbereitet?
https://uncutnews.ch/bis-zu-50-der-arbeitsplaetze-koennten-wegfallen-haben-sie-sich-darauf-vorbereitet/

Artikel als PDF


Die Geschichte auf einen Blick

  • Das Buch von Kai-Fu Lee, „AI Superpowers: China, Silicon Valley und die neue Weltordnung“ erörtert die Auswirkungen der künstlichen Intelligenz, um den Menschen zu helfen, in den kommenden Jahrzehnten klügere Bildungs- und Karriereentscheidungen zu treffen
  • Während KI eine Reihe von Berufen, wie z. B. Rechtsanwälte, Ärzte, Regierungsbeamte, CEOs und Wissenschaftler, verbessern und mit ihnen symbiotisch zusammenarbeiten kann, werden viele Berufe obsolet werden, wenn KI beginnt, die menschliche Leistung zu übertreffen
  • Telemarketingjobs, Kreditsachbearbeiter, Kundendienst, Obst- und Beerenpflücker, Tellerwäscher, Fahrer, Fließbandkontrolleure und viele andere werden irgendwann der Vergangenheit angehören
  • In vielerlei Hinsicht sind die Chinesen dem Silicon Valley einen großen Schritt voraus. WeChat bietet beispielsweise die Funktionen von Facebook, iMessage, Uber, Expedia, Evite, Instagram, Skype, PayPal, Grubhub, Amazon, LimeBike und WebMD – alles in einer einzigen Smartphone-App
  • Die KI wertet riesige Datenmengen aus, z. B. das Kaufverhalten bei Amazon, um Ihre Vorlieben und Gewohnheiten zu erlernen, sowie Audio- und Videodaten, gepaart mit Gesichts- und Spracherkennung. All diese Nutzerdaten werden schließlich zur Entwicklung von autonomen Robotern und Fahrzeugen führen

Anmerkung der Redaktion: Dieser Artikel ist ein Nachdruck. Er wurde ursprünglich am 5. Januar 2019 veröffentlicht.

Kai-Fu Lee, Ph.D., ein führender Experte für künstliche Intelligenz (KI), ein Risikokapitalgeber und Autor von „AI Superpowers: China, Silicon Valley, and the New World Order„, hat jahrzehntelang für Tech-Giganten wie Apple, Microsoft und Google gearbeitet, sowohl in China als auch im Silicon Valley. Er promovierte an der Carnegie Mellon University, einer der renommiertesten KI-Institutionen der USA, wenn nicht sogar der Welt.

Seine beruflichen Erfolge hatten jedoch ihren Preis. Im Jahr 2013 erkrankte Lee an einem Lymphom der Stufe 4. Auch wenn der Schwerpunkt dieses Interviews auf den Auswirkungen der KI liegt, ist seine gesundheitliche Entwicklung ein interessantes Zeugnis dafür, was passieren kann, wenn man zu hart arbeitet.

„Ich war im Grunde mein ganzes Leben lang ein Workaholic, bis zu meiner Krankheit“, sagt Lee. „Ich war so arbeitssüchtig, dass ich, als ich Präsident von Google China war, 100-Stunden-Wochen gearbeitet habe. Und nicht nur das: Ich bin automatisch zweimal pro Nacht aufgewacht, um meine E-Mails zu beantworten, weil ich mit den Leuten in der Zentrale wegen der Zeitverschiebung sprechen musste.

Aber ich glaube, ich wollte auch mit gutem Beispiel vorangehen, damit mein Team denkt, dass ich wirklich hart arbeite und sie das auch tun würden. Einmal wurde ich operiert und habe mir einen speziellen Computer anfertigen lassen, damit ich arbeiten konnte, während ich im Bett lag und mich von der Operation erholte …

Wir wissen natürlich nicht genau, was die Gründe dafür sind, aber bei mir wurde ein Lymphom im Stadium 4 diagnostiziert. Als ich das erfuhr, hat das mein ganzes Leben verändert. Zuerst ist da die normale Phase der Verleugnung: ‚Warum ich?‘ Und dann schließlich die Akzeptanz.

Als ich mich damit abgefunden hatte, begann ich auf mein Leben zurückzublicken und erkannte, dass mein Lebensstil wahrscheinlich zu dieser Krankheit geführt hat … Schlafmangel, zu viel Stress, ungesunde Ernährung … Aber was noch wichtiger war, ich erkannte, dass … ich mich ausschließlich auf meine Arbeit und meine Leistungen konzentriert und all die anderen Dinge übersehen hatte, die wichtiger waren.

Als mir klar wurde, dass ich vielleicht nur noch ein paar hundert Tage zu leben habe, bedeutete es mir nichts mehr, hart zu arbeiten. Was wichtig war, war, den Menschen, die ich liebe, Liebe zurückzugeben, Zeit mit ihnen zu verbringen und natürlich zu bedauern, dass ich nicht so gelebt habe.“

Das Bedauern der Sterbenden

Während seiner Krankheit las er das Buch von Bronnie Ware „The Top Five Regrets of the Dying: Ein Leben, das durch den lieben Verstorbenen verändert wird“. Als Krankenschwester hat sie die letzten Tage von etwa 2.000 Menschen miterlebt. Bevor diese starben, fragte sie sie nach ihrem Bedauern. Eines der Hauptbedauern war, zu hart gearbeitet zu haben.

An erster Stelle stand das Bedauern darüber, nicht mehr Zeit mit den Menschen, die sie liebten, verbracht zu haben. Ein weiteres wichtiges Bedauern war, dass sie nicht die Dinge taten, für die sie sich wirklich begeisterten, und stattdessen auf die Erwartungen anderer hörten und ihnen folgten. „Das hat meine Sichtweise verändert“, sagt Lee, der jetzt in Remission ist und seine Prioritäten im Leben geändert hat.

Auf die Frage, was diese unglaubliche Arbeitsmoral in China antreibt – insbesondere in der Startup-Umgebung – erklärt Lee:

„Viele junge chinesische Unternehmer, deren Familien seit 10 oder 20 Generationen arm sind. Sie sind ein Einzelkind. Ihre beiden Eltern und ihre Großeltern haben nur dieses eine Kind oder Enkelkind, auf das sie sich freuen können, um das Leben der gesamten Familie zu verbessern. Der Druck ist groß und die Erwartungen sind hoch.

In der Regel haben sie gute Schulen besucht, so dass die Erwartungen noch höher sind. Sie haben hochbezahlte Jobs aufgegeben, um dieses riskante Start-up zu gründen… Ein Beispiel: Ein Start-up wirbt mit einer sehr guten Work-Life-Balance.

‚Kommen Sie zu uns und Sie müssen nicht so hart arbeiten wie in Ihrem jetzigen Startup, denn wir arbeiten nur von 9 bis 6. Das bedeutet: 9 Uhr morgens bis 21 Uhr abends, sechs Tage die Woche. Bei vielen Start-ups ist es eher 10-12-7. Das heißt 10 Uhr morgens bis Mitternacht, sieben Tage die Woche …

Es gibt nicht einmal eine Mittagspause oder eine Abendessenspause. Man sieht die Leute vor ihren Computern essen. Das sind 14 Stunden pro Tag, sieben Tage die Woche. Das sind ungefähr 100 Stunden. Es ist wirklich wie verrückt.“

Sinovation Ventures

Lees Buch, „AI Superpowers: China, Silicon Valley und die neue Weltordnung“ hilft uns, die potenziellen Auswirkungen der KI zu verstehen, die eindeutig eines der heißesten Themen in der Welt der Technik ist. Die meisten großen Unternehmen investieren massiv in diese Technologie.

Seine eigene Risikokapitalfirma Sinovation Ventures, die vor etwa 10 Jahren gegründet wurde, hat seitdem 15 so genannte „Einhörner“ finanziert – Unternehmen, deren Wert auf über 1 Milliarde Dollar gestiegen ist.

„Unsere Fonds gehören zu den leistungsstärksten. Einer der Gründe, warum es so viele Einhörner gibt, ist unser Wissen über Technologie und KI. Dank meines eigenen Doktortitels in KI und des technischen Hintergrunds meiner Partner konnten wir wirklich die besten technischen Unternehmer auswählen und ihnen dann bei der geschäftlichen Seite helfen.

Ich meine, wir haben in diese Unternehmen investiert, als sie eine Bewertung von 10 bis 30 Millionen Dollar hatten. Jetzt sind sie zwischen 1 und 15 Milliarden Dollar schwer. Unsere Investitionen haben sich für diese 15 Unternehmen zwischen 50 und 100 Mal rentiert. Natürlich gibt es auch andere Unternehmen, die gescheitert sind.

Aber selbst wenn man das berücksichtigt, haben wir mit diesen Unternehmen eine sehr, sehr gute Performance erzielt. Fünf dieser Unternehmen sind Kern-KI-Unternehmen. Die anderen 10 sind keine KI-Unternehmen, aber sie nutzen KI, so dass wir in der Lage waren, die Macht der KI zu beobachten und zu sehen, wie sie alle Arten von Nutzungen und Anwendungen verändert“

sagt Lee.

Lees beruflicher Werdegang

Bevor er Sinovation Ventures gründete, war Lee einer der weltweit führenden KI-Forscher und für die Gründung von Google China verantwortlich. Seine Doktorarbeit war eine der ersten, die sich mit Spracherkennung und maschinellem Lernen beschäftigte.

Nach seiner Promotion leitete er die KI-, Grafik- und Multimediagruppen bei Apple, bevor er zu Silicon Graphics, Inc. (SGI) wechselte, gefolgt von Microsoft, wo er mit dem Aufbau des Microsoft-Forschungslabors in China betraut wurde, in dem etwa 5.000 Mitarbeiter eine KI-Ausbildung erhalten haben.

„Im Grunde genommen wurden die Chief Technology Officers (CTOs) aller führenden chinesischen Unternehmen, vielleicht 70 %, von uns in der Microsoft-Forschung geschult“, sagt er. Danach arbeitete er fünf Jahre lang mit Bill Gates in der Zentrale zusammen, bevor er mit dem Aufbau von Google China beauftragt wurde.

„Ich stellte fest, dass viele meiner klügsten Leute Google China verließen, um ihre eigenen Unternehmen zu gründen. Ich hatte das Gefühl, dass der Unternehmergeist phänomenal sein würde, und ich wollte mich dem anschließen“, sagt Lee.

„Also verließ ich das Unternehmen 2009, woraufhin sich Google leider ebenfalls zurückzog. Das war mein beruflicher Werdegang. In den letzten neun bis zehn Jahren habe ich in China investiert, hauptsächlich in KI und Technologien.“

Chinas technologischer Vorsprung

In vielerlei Hinsicht – insbesondere bei der Umsetzung – sind die Chinesen dem Silicon Valley haushoch überlegen. WeChat bietet beispielsweise die Funktionen von Facebook, iMessage, Uber, Expedia, Evite, Instagram, Skype, PayPal, Grubhub, Amazon, LimeBike und WebMD – alles in einer einzigen Smartphone-App. Etwa 75 % von Lees eigener Handynutzung erfolgt über WeChat.

„Ich bin überall dabei. Ich bin auf Facebook. Ich bin auf Twitter. Ich benutze Google. Ich benutze YouTube und andere chinesische Apps. Das sind 75% für mich. Das bedeutet mehrere Dinge. Erstens, dass die chinesischen Unternehmen, insbesondere Tencent, die WeChat entwickelt haben, eine unglaubliche Plattform aufgebaut haben, die … eine enorme Menge an Nutzerdaten sammelt.

Wenn Sie denken, dass Facebook eine Menge Ihrer Daten hat, dann hat WeChat noch viel mehr. Aber es sind nicht nur ihre Daten. Sie gehen Partnerschaften mit Menschen ein. Sie arbeiten mit Lebensmittellieferanten, Fahrradverleihern, dem Uber von China und anderen Unternehmen zusammen. Außerdem benutzen die Menschen in China das Mobiltelefon zum Bezahlen. In China gibt es fast kein Bargeld mehr.

Die Leute zahlen einfach mit WeChat oder Alipay. Das sind die beiden Möglichkeiten. Wenn Sie auf einen Bauernmarkt gehen, in ein Lebensmittelgeschäft oder sogar zu einem Verkäufer auf der Straße, halten sie ein Schild hoch, auf dem steht: „Scannen Sie mich“, nicht: „Geben Sie mir Geld.“ Scannen ist die Art und Weise, in der Sie Ihre mobile App, WeChat, zum Bezahlen verwenden.“

KI ist ein unglaublich leistungsfähiger Algorithmus, der von Daten lebt. Daten sind für KI das, was Benzin für Autos ist. Wie Lee erklärt, funktioniert die KI anders als das menschliche Gehirn. Sie sieht sich einfach riesige Datenmengen an, z. B. das Kaufverhalten auf Amazon, wodurch sie Ihre Vorlieben lernt und Ihnen dann mehr Dinge anbietet, die Ihrem Kaufverhalten entsprechen.

Dasselbe gilt für die Muster dessen, was Sie online lesen oder auf Facebook mögen. Die KI arbeitet auch mit Datenströmen aus Audio- und Videodaten und nutzt Gesichts- und Spracherkennung. All diese Daten werden schließlich zur Entwicklung von autonomen Robotern und Fahrzeugen führen, sagt Lee.

„All diese Dinge gelten für das Internet, die Wirtschaft, einschließlich Banken, Versicherungen, Bildung, Einzelhandel, Produktion und Gesundheitswesen, sowie für die Robotik und autonome Fahrzeuge.

Alle diese KI-Anwendungen werden in den nächsten fünf bis 15 Jahren auf den Markt kommen. Die Internetanwendungen sind bereits auf dem Markt, aber die anderen werden bald folgen. Chinas Vorteil ist, dass es über einen Ozean von Daten verfügt. Im Zeitalter der KI sind Daten das neue Öl, und China ist das neue Saudi-Arabien. Das ist der Vorteil Chinas.

Was die Forschung, die Kernkompetenz in der Forschung angeht, sind die USA immer noch viel stärker. Vielleicht zehnmal stärker. Aber die Akademiker veröffentlichen in der Regel Papiere und ziehen weiter. Unternehmer in China, den USA und anderswo können das nutzen. Normalerweise sind die Ergebnisse frei zugänglich, ohne Schutz durch Internetprotokolle (IP) oder Patente, weil Universitätsprofessoren einfach nur Papiere schreiben wollen …

China ist besser darin, all diese Daten zu nehmen und 100 Stunden pro Woche daran zu arbeiten, die Daten zu Geld zu machen, um Anwendungen zu schaffen, die die KI nutzen, um Anwendungen zu entwickeln, die das Bankwesen, das Versicherungswesen und schließlich die medizinische Industrie verändern.“

China führt den Trend bei den mobilen Zahlungen an

Die Daten zum mobilen Zahlungsverkehr sind unglaublich wichtig, sagt Lee. Nur wenige Chinesen tragen noch Bargeld oder gar Kreditkarten bei sich. Die meisten Transaktionen, sowohl online als auch offline, werden mit dem Mobiltelefon getätigt. Der Gesamtbetrag der Transaktionen belief sich 2017 auf 17 Billionen US-Dollar, was größer ist als das gesamte Bruttoinlandsprodukt Chinas.

Es gibt etwa 800 Millionen Chinesen im Internet, und davon nutzen etwa 600 Millionen mobile Zahlungen über WeChat Pay oder Alipay. Mit WeChat Pay kann man jeden bezahlen, nicht nur Händler, und es fallen keinerlei Aufschläge oder Provisionen an. Lee erklärt die Auswirkungen dieser Finanzdaten:

„Dies sind die hochwertigsten Daten aller Zeiten. Wenn Sie an die Diagnose eines Arztes für einen Patienten denken, dann könnte der Arzt einen Fehler gemacht haben. Wenn Sie an die Entscheidung eines Kreditsachbearbeiters denken, einen Kredit zu gewähren, könnte der Kreditsachbearbeiter einen Fehler gemacht haben.

Denken Sie daran, dass Sie eine Seite auf Amazon durchstöbern, vielleicht haben Sie kein wirkliches Interesse an dem Produkt, es war nur zum Spaß, um zu stöbern. Aber wenn Sie für etwas bezahlen, ist das eine eindeutige Transaktion, die einen hohen Wert hat. Chinesische Unternehmen verfügen über 50 Mal mehr Daten dieser Art als die US-Unternehmen.

Auf der Grundlage dieser Daten werden Technologien entwickelt, wie z. B. zielgerichtete Kredite, bei denen man sich sofort Geld leihen kann, wie z. B. die Gestaltung von Versicherungspolicen auf der Grundlage des Nutzungsverhaltens, wie z. B. Empfehlungen, wie man sein Geld anlegen sollte, und so weiter und so fort.

Außerdem können Sie Ihre Bankgeschäfte und Finanztransaktionen vollständig online abwickeln. Sobald Sie online bezahlen, können Sie auch online sparen. Sie können auch online investieren. Man kann auch Versicherungen online abschließen.

Das bedeutet einen totalen Umbruch in allen Finanzangelegenheiten, denn wenn es erst einmal bargeldlose und rein elektronische Transaktionen gibt, dann wird alles elektronisch. Dann hat jeder Daten, und dann hat jeder KI. Das ist es, was China bei den KI-Anwendungen vorantreibt. Die USA sind führend in der Forschung, aber China ist wirklich führend in der Anwendung.“

Die Zukunft der autonomen Fahrzeuge

Ein Bereich, in dem die USA führend sind, sind autonome Fahrzeuge. Es stellt sich jedoch die Frage, ob Amerika bei der Umsetzung die Nase vorn haben wird. Die chinesische Regierung ist bereits dabei, eine Infrastruktur aufzubauen, die es chinesischen Unternehmen ermöglichen könnte, autonome Fahrzeuge schneller auf den Markt zu bringen.

„Zum Beispiel Autobahnen, die mit den Autos kommunizieren, Städte, in denen neue Straßen asphaltiert werden, zwei Ebenen in der Innenstadt, eine Ebene für Menschen zum Gehen, eine Ebene für Autos, um Zusammenstöße mit Menschen zu vermeiden“, sagt Lee.

„China beobachtet [Berichte über Vorfälle mit autonomen Fahrzeugen] und sagt: ‚Nun, unsere Unternehmen sind im Rückstand. Warum bauen wir nicht Straßen, die es den Unternehmen erleichtern, ihr Produkt auf den Weg zu bringen, auch wenn sie nicht so gut sind wie die amerikanischen Pendants? Aber wir machen es sicherer, indem wir die Fußgänger wegschaffen.‘

Nun, es muss Dutzende oder Hunderte von Milliarden Dollar kosten, eine zweigleisige Innenstadt für wie viele Städte auch immer neu zu gestalten, aber das ist die Art von Anstrengung, die die chinesische Regierung unternimmt … Die Regierung gibt Ermutigung und baut Infrastruktur und Subventionen, um China dabei zu helfen, ein Führer in der Welt der KI zu werden.“

Prioritäten setzen

Lee gibt zwar zu, dass er immer noch etwa 60 Stunden pro Woche arbeitet, aber er hat in einigen Bereichen seines Lebens neue Prioritäten gesetzt: Zeit für die Familie, Stressabbau, Schlaf und eine gesunde Ernährung.

„Das heißt nicht, dass ich nicht hart arbeite. Aber es geht darum, die Dinge in den Vordergrund zu stellen. Es geht nicht darum, meine Arbeitszeit zu reduzieren und sie meiner Familie zu geben. Die Familie will nicht nur Stunden. Sie wollen sehen, dass man sich wirklich kümmert. Wenn meine Töchter Urlaub haben, nehme ich meinen Urlaub so, wie sie ihn nehmen, nicht umgekehrt.

Meine Frau reist mit mir, wohin wir auch gehen. Wenn sie mit mir reist und nichts zu tun hat, komme ich um 2 oder 3 Uhr nachmittags zurück und gehe mit ihr irgendwo hin.

Das ist eines der guten Dinge daran, Risikokapitalgeber zu sein und ein eigenes Unternehmen zu haben – ich muss einige Stunden arbeiten, aber ich kann arbeiten, wann ich will. Es ist kein 9-to-5-Job. Im Grunde kann ich die Bedürfnisse meiner Familie an die erste Stelle setzen und die Arbeit später…“

Nach seiner Lymphom-Diagnose verbrachte Lee Zeit mit einem brillanten buddhistischen Mönch, der ihn vor der Sucht nach Ruhm und Reichtum warnte.

Er sagte: „Du machst dir keine Sorgen darüber, dass KI zu Menschen wird, aber ich mache mir Sorgen darüber, dass Menschen zu Maschinen werden. Er sagte: ‚Was du wirklich tun solltest, ist darüber nachzudenken, was der Welt wichtig ist. Gebt Liebe zurück. Gebt Wissen zurück. Gebt Weisheit zurück. Ihr seid in einem Alter, in dem ihr nichts mehr beweisen müsst“

sagt Lee.

Die Auswirkungen der KI auf Bildung und Berufswahl

Er gibt als Grund für sein Buch an, die Menschen über die bevorstehenden Veränderungen zu informieren, damit sie klügere Entscheidungen in Bezug auf Ausbildung und Karriere treffen können, da Arbeitsplätze unweigerlich verloren gehen werden, wenn KI beginnt, die menschliche Leistung zu übertreffen.

Während KI eine Reihe von Berufen wie Rechtsanwälte, Ärzte, Regierungsbeamte, CEOs und Wissenschaftler verbessern und mit ihnen symbiotisch zusammenarbeiten kann, werden Berufe wie Telemarketing, Kreditsachbearbeiter, Kundendienst, Obst- und Beerenpflücker, Tellerwäscher, Fahrer und Fließbandkontrolleure irgendwann der Vergangenheit angehören.

„Ich denke, es ist wichtig, dass die Menschen wissen, dass sie ihre Routinejobs aufgeben müssen, und dass die Unternehmen erkennen, dass sie eine Verantwortung für ihre Mitarbeiter haben, selbst wenn sie planen, sie durch KI zu ersetzen“, sagt Lee. „Was die Bildung angeht, so müssen Eltern wissen, dass man seine Kinder nicht zu Routinejobs erzieht.

Was ist ein Routinejob? Ich denke, die meisten Arztberufe sind offensichtlich keine Routine, aber einige große Teile einiger Arztberufe sind Routine, [wie] Radiologie und Pathologie. Nicht heute, aber in 15 Jahren würde die künstliche Intelligenz die Diagnose und das Ablesen von Daten übernehmen, was einen wesentlichen Teil ihrer Arbeit ausmacht.

Ich denke, die Eltern müssen das verstehen. Diejenigen, die Medizin studieren, sollten sich fragen: „Was ist der nachhaltigste medizinische Beruf? Wahrscheinlich in der Forschung, und „Was ist am wenigsten nachhaltig? Wahrscheinlich Radiologie und Pathologie. Das sind wichtige Botschaften für die Menschen …

Der Inhalt, den ich wirklich vermitteln möchte, ist, dass wir als Arbeitgeber, Eltern, Menschen, die Unternehmen leiten, Arbeitnehmer, wirklich für uns selbst planen müssen angesichts der Tatsache, dass die KI in den nächsten 15 bis 25 Jahren zwischen 30 und 50 % der Arbeitsplätze übernehmen wird.“

Mehr Informationen

Wenn Sie mehr über künstliche Intelligenz und ihre Bedeutung für die Zukunft erfahren möchten, sollten Sie sich unbedingt Lees Buch „AI Superpowers: China, Silicon Valley und die neue Weltordnung„. Es ist eine faszinierende Lektüre.

Ich denke, die wichtigsten Punkte sind, dass China und die USA die beiden riesigen KI-Motoren sind, die diese technologische Revolution hervorbringen werden, die mit der industriellen Revolution vergleichbar ist, aber wahrscheinlich sogar noch schneller, weil kein Stromnetz aufgebaut werden muss“, sagt Lee.

„KI funktioniert schon heute. Sie läuft als Software. Diese KI kann der Menschheit enormen Wohlstand bringen und Armut und Hunger verringern. Aber gleichzeitig bringt KI auch viele Probleme mit sich, darunter Datenschutz, Sicherheit, Wohlstand, Ungleichheit und Arbeitsplatzverlagerungen. Mein Buch ist eine Zusammenfassung all dieser Themen.“




KI mit Bill Gates am 11.10.2023: Bill Gates stellt eine KI vor, die bestimmt, welche Bücher, Filme und Musik Sie konsumieren dürfen
https://telegra.ph/Bill-Gates-stellt-eine-KI-vor-die-bestimmt-welche-Bücher-Filme-und-Musik-Sie-konsumieren-dürfen-10-07
https://t.me/Impfschaden_Corona_Schweiz/80274



Mutationen 17.10.2023: Nun ist auch KI im Spiel: Künstliche Intelligenz sagt neue COVID-Varianten voraus
https://uncutnews.ch/kuenstliche-intelligenz-sagt-neue-covid-varianten-voraus/









<<        >>

Teilen / share:

Facebook






Fotoquellen




gmx, Logo  Tagesanzeiger online, Logo   Basler Zeitung
          online, Logo   20 minuten online, Logo Schweinzer Fernsehen online,
            Logo  BLICK online, Logo        Russland Aktuell,
            Logo     Journalistenwatch online, Logo   Der Standard online, Logo    Stimme
            Russlands online, Logo  RT deutsch online,
            Logo     Uncut News online,
            Logo     Epoch Times online, Logo  Extremnews online,
            Logo  Kronenzeitung
            online, Logo  Heise online, Logo  Netzfrauen online,
            Logo     Wochenblitz
            Thailand online,  

The mind
          unleashed online, Logo   La República
          del Peru online, Logo   El Trome online, Logo  

Wirtschaftswoche online, Logo   Spiegel online,
            Logo   n-tv online, Logo   

^