8.3.2021: Künstliche Intelligenz will
Gehirnströme inerpretieren - z.B. Gesichter beurteilen: Künstliche Intelligenz kann jetzt aus Ihren Gehirnströmen
lernen, welche Gesichter Sie attraktiv finden
https://uncutnews.ch/kuenstliche-intelligenz-kann-jetzt-aus-ihren-gehirnstroemen-lernen-welche-gesichter-sie-attraktiv-finden/
In einer scheinbar gruseligen Weiterentwicklung von
Dating-Apps wie Tinder haben Forscher ein System mit
künstlicher Intelligenz entwickelt, das lernen und vorhersagen
kann, welche individuellen Gesichter Menschen allein aufgrund
ihrer Gehirnströme a..
In einer scheinbar gruseligen Weiterentwicklung von
Dating-Apps wie Tinder haben Forscher ein System mit
künstlicher Intelligenz entwickelt,
========
27.5.2021: Künstliche Intelligenz kann Tweets
schreiben und Leute manipulieren: Algorithmus, der irreführende und überzeugende Tweets
schreiben kann, wird bereits von Dutzenden von Unternehmen
verwendet
https://uncutnews.ch/algorithmus-der-irrefuehrende-und-ueberzeugende-tweets-schreiben-kann-wird-bereits-von-dutzenden-von-unternehmen-verwendet
<Eine Studie aus dem Jahr 2019 ergab, dass 82 %
der Amerikaner glauben, dass die Technologie der
Künstlichen Intelligenz (KI) mehr schadet als nützt.
Seit 2019 hat sie wahrscheinlich mehr Arbeitsplätze
ersetzt. Sie wurde auch für wer weiß wie viele weitere
gruselige, gefährliche und unethische Anwendungen
eingesetzt, einschließlich „Deepfake“-Videos.
Zusätzlich zu höchst überzeugenden „Deepfakes“ haben
Forscher vor kurzem entdeckt, dass es auch zum
Schreiben höchst überzeugender Fehlinformationen
verwendet werden kann.
Aus Wired:
KI kann jetzt Desinformationen schreiben – und
menschliche Leser täuschen
Georgetown-Forscher verwendeten den Textgenerator
GPT-3, um irreführende Tweets über Klimawandel und
Außenpolitik zu schreiben. Die Menschen fanden die
Beiträge überzeugend.
Als OpenAI im vergangenen Juni einen leistungsstarken
Algorithmus der künstlichen Intelligenz vorstellte, der
in der Lage ist, zusammenhängende Texte zu generieren,
warnten seine Schöpfer davor, dass das Tool
möglicherweise als Waffe der Online-Fehlinformation
eingesetzt werden könnte.
Nun hat ein Team von Desinformationsexperten
demonstriert, wie effektiv dieser Algorithmus, genannt
GPT-3, zur Irreführung und Fehlinformation eingesetzt
werden könnte. Die Ergebnisse deuten darauf hin, dass
die KI zwar nicht mit dem besten russischen Meme-Macher
mithalten kann, aber einige Formen der Täuschung
verstärken könnte, die besonders schwer zu erkennen
sind.
Über einen Zeitraum von sechs Monaten hat eine Gruppe
am Center for Security and Emerging Technology der
Georgetown University GPT-3 eingesetzt, um
Fehlinformationen zu generieren, darunter Geschichten
rund um ein falsches Narrativ, Nachrichtenartikel, die
so verändert wurden, dass sie eine gefälschte
Perspektive vermitteln, und Tweets, die bestimmte Punkte
der Desinformation aufgreifen.
„Ich glaube nicht, dass es ein Zufall ist, dass der
Klimawandel die neue globale Erwärmung ist“, lautete ein
von GPT-3 verfasster Beispiel-Tweet, der darauf
abzielte, Skepsis gegenüber dem Klimawandel zu schüren.
„Sie können nicht über den Temperaturanstieg reden, weil
er nicht mehr stattfindet.“ Ein zweiter bezeichnete den
Klimawandel als „den neuen Kommunismus – eine Ideologie,
die auf einer falschen Wissenschaft basiert, die nicht
in Frage gestellt werden kann.“
Ben Buchanan, Professor, Georgetown „Mit ein wenig
menschlicher Kuration ist GPT-3 ziemlich effektiv“ bei
der Verbreitung von Unwahrheiten, sagt Ben Buchanan, ein
an der Studie beteiligter Professor in Georgetown, der
sich auf die Überschneidung von KI, Cybersicherheit und
Staatskunst konzentriert.
Die Georgetown-Forscher sagen, dass GPT-3 oder ein
ähnlicher KI-Sprachalgorithmus sich als besonders
effektiv für die automatische Generierung von
Kurznachrichten in sozialen Medien erweisen könnte, was
die Forscher als „One-to-many“-Fehlinformationen
bezeichnen.>
KI in Moskau 2.2.2023: Textprogramm
schreibt Diplomarbeit in 1 Tag: Moskauer Student verfasst Abschlussarbeit mithilfe von
ChatGPT
https://deutsch.rt.com/russland/161749-moskauer-student-verfasst-abschlussarbeit-mithilfe/
Ein Moskauer Student berichtete auf Twitter, wie er den
Chatbot ChatGPT seine Diplomarbeit schreiben ließ. Dafür
benötigte er lediglich einen Tag. Nun fordert die
Russische Staatliche Universität für
Geisteswissenschaften, den Zugang zu der Text-Software
einzuschränken.
Alexander Schadan, ein Student aus Moskau, prahlte auf
Twitter, dass er seine Abschlussarbeit innerhalb eines
Tages geschrieben habe – allerdings nicht allein,
sondern mit dem Textprogramm ChatGPT. In einem
ausführlichen Thread erläuterte Schadan Ende Januar, wie
er die Beschränkungen in Bezug auf die Textlänge
umgangen hatte und gab auch Einblicke in die Verwendung
des Programms, um damit einen kohärenten Text
anzufertigen. Der Vorgang dauerte nach seinen Angaben 23
Stunden: 15 Stunden für die Texterstellung und neun
weitere Stunden für die anschließende Bearbeitung. Das
Thema seiner Arbeit lautete "Analyse und Verbesserung
des Managements eines Glücksspielunternehmens".
Защитил диплом, написанный
ChatGPT. Поделюсь, как организовал процесс, что
услышал от людей о получившемся тексте и почему
должен чизкейк. Вышло ненапряжно и прикольно! pic.twitter.com/soFdcTcynW
Bei der Plagiatsprüfung sei festgestellt worden, dass
die wissenschaftliche Arbeit zu 82 Prozent einzigartig
sei. Der Prüfungskommission fielen die inhaltliche
Inkohärenz und die sprachlichen Ungereimtheiten zwar
auf, doch die Arbeit des Studenten wurde angenommen und
mit dem Prädikat "befriedigend" bewertet. Schadan
resümierte auf Twitter:
"Kurz gesagt, eine Abschlussarbeit mit ChatGPT zu
schreiben ist cool. Man muss sie auf jeden Fall
bearbeiten, aber das meiste erledigt die Maschine
von alleine."
In einem Gespräch mit der Zeitung Kommersant
sagte der Student, er habe seine Abschlussarbeit nicht
selbst schreiben wollen, weil das sehr lange dauere.
Auch habe er niemanden dafür bezahlen wollen.
"Ich dachte, es wäre großartig, einen Algorithmus
zu entwickeln, und ich habe es mithilfe von ChatGPT
geschafft".
Die Leitung der Russischen Staatlichen Universität für
Geisteswissenschaften forderte am Mittwoch, den Zugang
zu dem Chatbot einzuschränken. "Aufgrund von negativen
Auswirkungen auf das Lernen sowie Bedenken hinsichtlich
der Verlässlichkeit und Genauigkeit der vom System
generierten Inhalte kann es ratsam sein, den Zugang zu
ChatGPT in Bildungseinrichtungen einzuschränken", hieß
es aus dem Pressedienst der Universität. Ob
Schadan dort studiert, ist unklar.
ChatGPT ist eine Software auf Basis künstlicher
Intelligenz, die auf der Analyse gewaltiger Textmengen
und Daten beruht, und die darauf ausgerichtet ist, die
menschliche Sprache nachzuahmen. OpenAI
machte ChatGPT im vergangenen Jahr öffentlich
zugänglich. Die Software wird auch in Deutschland immer
bekannter.
Mittlerweile gelingt es ChatGPT, die menschliche
Sprache so gut nachzuahmen, dass die Sorge wächst, dass
damit bei Schul- und Studienarbeiten geschummelt werden
könnte oder sich im großen Stil Desinformationskampagnen
damit in Gang bringen lassen. Die Hersteller der
Software versuchen nun, die Folgen ihrer Erfindung in
den Griff zu bekommen. Die Entwicklerfirma OpenAI
veröffentlichte diese Woche ein Programm, das in der
Lage sein soll zu unterscheiden, ob ein Text von einem
Menschen oder einem Computer geschrieben wurde.
In Kolumbien hat ein Richter bei der Formulierung
eines Urteils auf ChatGPT zurückgegriffen. Er
benutzte den Textautomaten zur Begründung, warum die
Versicherung eines autistischen Kindes für die
medizinischen Kosten aufkommen muss, zitierte die
britische Tageszeitung „Guardian“ den
kolumbianischen Sender BluRadio.
Damit habe das KI-Tool eine Arbeit übernommen, die
sonst ein Sekretär oder eine Sekretärin erledigt,
erklärte Richter Juan Manuel Padilla vom
Arbeitsgericht in der Hafenstadt Cartagena sein
Vorgehen.
Künstliche Intelligenz wie ChatGPT helfe dabei, „sehr
verständliche Sätze mit guten Formulierungen“ zu
erstellen. Außerdem könne solch ein Werkzeug helfen,
die Gleichheit herzustellen, indem es auf
Präzedenzfälle verweist. Die Entscheidung des Richters
bleibe aber autonom, so Padilla.
Warnung von ChatGPT
Laut „Guardian“ gibt es aber auch Kritik daran. Juan
David Gutierrez von der Universität Del Rosario in
Bogota habe sich „fassungslos“ gezeigt und ein
dringendes Training in „Digitalkompetenz“ für Richter
und Richterinnen gefordert.
Auf eine Anfrage des „Guardian“ hat ChatGPT selbst
Richterinnen und Richtern davon abgeraten, das
Werkzeug für Urteile zu verwenden. Es sei kein Ersatz
für „Wissen, Expertise und Urteilsfähigkeit“ eines
Menschen. Angesichts des Hypes um die neue Technik
wurde auch schon mehrfach darauf hingewiesen, dass
ChatGPT immer wieder auch falsche Aussagen formuliert.
Gleichzeitig verweist der „Guardian“ darauf, dass in
Kolumbien erst im vergangenen Jahr ein Gesetz erlassen
wurde, das Anwältinnen und Anwälte dazu anhält,
Technologien zu benutzen, um ihre Arbeit effizienter
zu machen.
Der beliebte KI-Textbot ChatGPT gibt gefragt zu
politisch und gesellschaftlich kontroversen Themen
oft gerne linkslastige Aussagen. Grund sind wohl
auch eingebaute Mechanismen gegen „Desinformation“.
Die Künstliche…
KI am 9.2.2023: soll Aufsätze und
Diplomarbeiten und Urteile schreiben - bei google ist das
noch nicht gut: Faktenfehler bis Halluzination – Als revolutionär
angekündigte KI beschert Google Milliardenverlust
https://deutsch.rt.com/international/162452-als-revolutionaer-angekuendigte-ki-beschert-google-milliardenverlust/
Mit dem Chatbot "Bard" wollte Google auf dem Gebiet der
künstlichen Intelligenz glänzen. Doch trotz der Eloquenz des
Bots bei der Beantwortung von Fragen hakt es noch – ein
nachweislicher Faktenfehler hat die Aktie des
Mutter-Konzerns Alphabet stark abstürzen lassen.
Chat-Roboter wie ChatGPT von OpenAI beeindrucken mit ihren
Fähigkeiten, in sehr kurzer Zeit auf komplexe Fragen
ausführliche und gut formulierte Antworten zu geben. Mit dem
Chatbot "Bard" wollte Google auf dem Gebiet der künstlichen
Intelligenz der Popularität des von Microsoft unterstützten
ChatGPT etwas entgegensetzen.
Auch Bard sollte in der Lage sein, komplexe Themen wie die
Entdeckung des Weltraums so einfach zu erklären, dass ein
Kind sie versteht, oder alltäglichere Aufgaben übernehmen,
beispielsweise Tipps für die Planung einer Party geben oder
auf der Grundlage der im Kühlschrank noch vorhandenen
Lebensmittel Vorschläge für das Mittagessen machen.
Google-CEO Sundar Pichai kündigte Anfang der Woche in
seinem Blog an, der Bot solle zunächst einer Gruppe
"vertrauenswürdiger Tester" zur Verfügung stehen, bevor er
später in diesem Jahr allgemein veröffentlicht wird. Google
machte die Existenz von Bard weniger als zwei Wochen nach
der Bekanntgabe von Microsofts Milliardeninvestition in
OpenAI publik, dem in San Francisco ansässigen Hersteller
von ChatGPT und anderen Tools, die lesbaren Text schreiben
und neue Bilder erzeugen können.
Microsofts Entscheidung, eine bereits getätigte Investition
in Höhe von einer Milliarde Dollar in OpenAI im Jahr 2019
aufzustocken, erhöhte den Druck auf Google, in einem
Technologiebereich aufzuholen, der nach Ansicht von
Tech-Analysten eine ebenso große Umwälzung erfahren wird,
wie es Personal Computer, das Internet und Smartphones in
den letzten 40 Jahren in verschiedenen Phasen waren. Aktuell
drängen die Softwareunternehmen in den Automarkt, deren
Hersteller für die nahe Zukunft "Smartphones auf Rädern"
versprechen.
Pichai hat in den letzten sechs Jahren die Bedeutung der
künstlichen Intelligenz hervorgehoben. So wurde ein System
namens "Language Model for Dialogue Applications" (LaMDA,
etwa Sprachmodell für Dialoganwendungen) geschaffen, das für
Bard zum Einsatz kommen soll.
Google plant, LaMDA und andere Technologien in seine
vorherrschende Suchmaschine zu integrieren, um den Nutzern
zu erlauben, Antworten auf immer kompliziertere Fragen über
den Konzern zu finden. Ohne einen genauen Zeitplan zu
nennen, wies Pichai darauf hin, dass die Instrumente der
künstlichen Intelligenz in naher Zukunft in der Google-Suche
eingesetzt werden sollen.
Die neuen Bots beeindrucken mit der Fähigkeit, in kurzer
Zeit Antworten auf sehr komplexe Fachfragen zu geben. Das
sollte auch Bard tun. Doch während auch Bard sich gut
ausdrücken und viele Informationen geben kann, sind diese
nicht unbedingt korrekt, wie sich nun zeigte. Bei einer von
Google verteilten animierten Grafik (GIF) wurde am Montag
die Antwort von Bard auf die Frage gezeigt: "Welche neuen
Entdeckungen des James-Webb-Weltraumteleskops
kann ich meinem Neunjährigen erzählen?"
Die Antwort beinhaltete auch die Aussage, das Teleskop habe
"die allerersten Bilder eines Planeten außerhalb unseres
eigenen Sonnensystems aufgenommen".
Not to be a ~well, actually~
jerk, and I'm sure Bard will be impressive, but for
the record: JWST did not take "the very first image of
a planet outside our solar system". the first image
was instead done by Chauvin et al. (2004) with the
VLT/NACO using adaptive optics. https://t.co/bSBb5TOeUWpic.twitter.com/KnrZ1SSz7h
Einige Astronomen wiesen danach jedoch darauf hin, dass
dies nicht stimmt. Das erste derartige Bild war 2004 vom
Very Large Telescope (VLT) der Europäischen Südsternwarte
aufgenommen worden, schrieb der Astrophysiker Grant
Tremblay. Tremblay schrieb auf Twitter, er wolle kein Idiot
sein und sei sich auch sicher, Bard werde beeindruckend
sein. "Aber fürs Protokoll: JWST hat nicht 'das allererste
Bild eines Planeten außerhalb unseres Sonnensystems'
gemacht." Der Forscher verwies dabei auf ein Foto, das von
der Europäischen Südsternwarte (ESO) in Chile aus 2004
aufgenommen worden war. Das Bild könne man auch auf einer
Website der NASA ansehen.
Google hatte bei der Vorstellung von Bard am Montag selbst
darauf hingewiesen, dass das System noch fehlerhafte
Antworten liefern könne. Doch obwohl sich der KI-Bot noch in
der Testphase befindet, wird er als Konkurrent des von
Microsoft unterstützten ChatGPT gehandelt, einer äußerst
beliebten KI mit eigenen Problemen.
Die Investoren zeigten sich vom schwachen Start von Bard
sehr enttäuscht. Der Fehler wurde unmittelbar vor der
Vorstellung von Bard durch Google auf einer Veranstaltung in
Paris am Mittwochmorgen bemerkt. Sowohl die Aktie des
Konzerns als auch der Technologieindex Nasdaq gaben
daraufhin am Mittwoch nach, wenn auch unterschiedlich stark.
Der Wert von Googles Muttergesellschaft Alphabet fiel um
rund acht Prozent, als sich die Nachricht von dem Fehler
verbreitete, und hat einen Verlust von 100 Milliarden Dollar
erlitten.
Bard war unter dem Namen "Atlas" als Teil von Googles "Code
Red"-Bemühungen entwickelt worden, um dem Erfolg von ChatGPT
entgegenzuwirken. ChatGPT hatte seit seiner Freigabe
Ende letzten Jahres zehn Millionen Nutzer anziehen können,
aber gleichzeitig in Schulen und Universitäten Bedenken
hinsichtlich seiner Fähigkeit hervorgerufen, ganze Aufsätze
zu schreiben.
Künstliche Intelligenzen wie Bard liefern nicht immer
genaue oder korrekte Ergebnisse. Sie durchforsten Billionen
von Seiten mit Wörtern und Zahlen, deren Korrektheit nicht
zwangsläufig gegeben ist, und geben die sich daraus
ergebende wahrscheinlichste Antwort an.
Microsoft wies darauf hin, als es am Dienstag ankündigte,
dass seine Suchmaschine Bing mit ChatGPT ausgestattet sein
wird, das auf der von Microsoft finanzierten
OpenAI-Plattform entwickelt worden war.
"Bing wird von KI angetrieben, daher sind Überraschungen
und Fehler möglich", heißt es in einer Erklärung des
Unternehmens.
Manchmal, so erklärte gar ein Microsoft-Mitarbeiter,
"halluziniert das System". In der Tat zeigte sich
beispielsweise beim Test des Handelsblatts, dass
die neue Technologie in der Suchmaschine zunächst wenig mehr
als der übliche Wikipedia-Eintrag bietet, darüber hinaus auf
die Frage nach weiteren Informationen allerdings
Falschinformationen abgibt und sogar auf Anfrage weiter
ausführt.
China mit eigener Text-KI 8.3.2023: weil das
ChatGPT gegen China programmiert ist: China befürchtet, dass ChatGPT »zur Gehirnwäsche«
eingesetzt wird und entwickelt sein eigenes
https://uncutnews.ch/china-befuerchtet-dass-chatgpt-zur-gehirnwaesche-eingesetzt-wird-und-entwickelt-sein-eigenes/
https://t.me/basel2020Einladung/42890
Sie ist ein chronisches Gift, das die amerikanische Hegemonie
in ihr System implantiert und versucht, Streitigkeiten in
China zu schüren. Peking hat seine Bemühungen zur Entwicklung
eigener Chatbots mit künstlicher Intelligenz beschleunigt, da
chinesische Nachrichtenmedien befürchten, dass die Vereinigten
Staaten ChatGPT zur Gehirnwäsche der chines..
Sie kann Texte schreiben, Bilder generieren und soll
zunehmend als Entscheidungsträger fungieren: Künstliche
Intelligenz (KI) gilt momentan als Zukunftshoffnung
praktisch jeder Branche. Auch in heiklen Bereichen wie
Medizin und auf dem Arbeitsmarkt könnte KI bald eine noch
gewichtigere Rolle spielen. Doch Maschinen treffen keine
neutralen Entscheidungen – und verfangen sich allzu oft in
Genderklischees. Dauerhafte Lösungen sind womöglich noch
„Jahrhunderte“ entfernt, heißt es von Fachleuten.
Wissenschaftler der Universität Osaka (Japan) haben
einen Weg gefunden, mit Hilfe künstlicher Intelligenz
(KI) unsere Gedanken zu lesen – im wahrsten Sinne des
Wortes.
Durch die Kombination von Magnetresonanztomografie
(MRT) und KI-Technologie konnten die Forscher Bilder
direkt aus der menschlichen Gehirnaktivität erzeugen.
Durch den Einsatz der weitverbreiteten Stable-Diffusion-Technologie
gelang ihnen dies zu sehr geringen Kosten und mit
relativ wenig Aufwand im Vergleich zu anderen Versuchen
der letzten Zeit. Die Ergebnisse der Forscher werden in
einer Pre-Print-Studie
veröffentlicht.
Obwohl Forscher bereits Wege gefunden hatten, neuronale
Bildgebung in visuelle Darstellungen umzuwandeln, war
dafür in der Regel eine komplexe und teure
Deep-Learning-Technologie erforderlich. Eine
Technologie, die „trainiert“ und sorgfältig kalibriert
werden muss. Dennoch sind die erzeugten Darstellungen
oft nur skizzenhaft und wenig detailgetreu.
Die neue Methode der japanischen Forscher macht sich
eine weitverbreitete Technologie zunutze, die bei der
Erzeugung von Bildern mithilfe sprachlicher
Aufforderungen weitverbreitet ist. In den vergangenen
Monaten wurden die Social-Media-Plattformen mit Bildern
überschwemmt, die mithilfe von Stable Diffusion und
anderen ähnlichen Plattformen erstellt wurden. Die
Technologie ist in der Lage, mit nur wenigen, sorgfältig
ausgewählten Wörtern überzeugende, manchmal
hyperrealistische Bilder zu erzeugen. Mit dieser
Technologie können statische Bilder oder, mit einigen
Änderungen, Animationen in beliebten Stilen wie Anime
erstellt werden.
Während einige in der Kunstwelt dies unterstützen,
befürchten viele Künstler, dass sie durch diese
Technologie ersetzt werden – und zwar bald. Einige haben
begonnen, sich dafür einzusetzen, dass diese Technologie
eingeschränkt oder sogar verboten wird.
Im September letzten Jahres berichtete die New York
Times über die Folgen des diesjährigen Wettbewerbs der
Colorado State Art Fair, den ein Beitrag – Théâtre
D’opéra Spatial – gewann, der mit Midjourney, einem
anderen beliebten KI-System, erstellt wurde.
„Kunst ist tot, Alter“, sagte der Gewinner, Jason M.
Allen, der Times.
AI: JETZT GEDANKEN
LESEN.
Um ihre Bilder zu erzeugen, folgten die japanischen
Forscher einem zweistufigen Prozess. Zunächst
entschlüsselten sie ein Bild aus den MRT-Signalen ihrer
Versuchspersonen. Dann nutzten sie die MRT-Signale, um
„latente Textdarstellungen“ zu entschlüsseln, die wie
Aufforderungen in die Stable Diffusion-Plattform
eingespeist werden konnten, um die Qualität der
ursprünglich abgerufenen Bilder zu verbessern.
Die Ergebnisse dieses Prozesses sind in der
nachstehenden Bildserie zu sehen.
In einer im vergangenen Jahr in Nature
veröffentlichten Arbeit wurde ein fast identischer
Ansatz, allerdings mit einer spezielleren
Diffusionstechnologie, verwendet, um KI-generierte
Gesichter aus MRT-Daten zu rekonstruieren.
Obwohl die in der Nature-Studie erstellten
Rekonstruktionen den ursprünglichen Darstellungen
eindeutig besser entsprechen, ist das Bemerkenswerte an
der neuen japanischen Forschung die Tatsache, dass sie
mit einer Plattform durchgeführt wurde, die bereits von
Millionen von Menschen auf der ganzen Welt zur
Erstellung von Bildern genutzt wird.
Bei Stable Diffusion handelt es sich um ein lernendes
System – ein sogenanntes neuronales Netz -, das sich
selbst anhand riesiger Mengen von Bilddaten trainiert,
die direkt aus dem riesigen Bildarchiv im Internet
entnommen wurden.
Sein Schöpfer, Emad Mostaque, hat es als „generative
Suchmaschine“ bezeichnet. Anders als Google, das Ihnen
Bilder zeigt, die bereits existieren, kann Stable
Diffusion Ihnen Dinge zeigen, die es nicht gibt.
„Dies ist ein Star Trek Holodeck-Moment“, so Mostaque.
WAS KOMMT ALS
NÄCHSTES?
Die disruptive Kraft der KI hat sich im letzten Jahr
sehr deutlich gezeigt. Als Zeitschriftenredakteur kann
ich das erstaunliche Potenzial von Plattformen wie
Stable Diffusion erkennen, die qualitativ hochwertige
Kunst fast ohne Kosten oder Aufwand liefern. Wenn ich
ein Bild von Präsident Bidens legendärem Kräftemessen
mit Corn Pop möchte, vielleicht im Stil eines
Actionfilms aus den 1980er-Jahren, muss ich nur danach
fragen und eine KI-Plattform wie Midjourney wird es mir
liefern. Was kann man daran nicht mögen?
Gleichzeitig ist es klar, dass eine solche Technologie
sehr reale Nachteile hat. Wie bereits erwähnt, haben
Künstler Angst, Aufträge an KI zu verlieren.
Neben der KI-generierten Kunst haben wir in letzter
Zeit auch viel über Chat GPT-3 gehört, eine Technologie,
die komplizierte Aufsätze in Sekundenschnelle von Grund
auf neu schreiben kann, wiederum auf eine einfache
Eingabeaufforderung hin. Diese Technologie wird bereits
von Universitätsstudenten eingesetzt, um hochwertige
Aufsätze zu schreiben, mit denen sie ihre Prüfer
täuschen können. Das gesamte Bewertungssystem an den
Universitäten muss möglicherweise neu überdacht werden.
Man muss allerdings kein Fan der Terminator- oder
Matrix-Filme sein, um zu erkennen, dass die
besorgniserregenden Einsatzmöglichkeiten der KI weit
über den Betrug bei Hochschulprüfungen oder die
Verdrängung mittelmäßiger Künstler aus dem Geschäft
hinausgehen.
So berichtete die Website Popular
Mechnanics vor ein paar Tagen, dass Drohnen der
US-Luftwaffe mithilfe von KI nun die Gesichter einzelner
Personen aus der Luft erkennen können. Das Unternehmen,
das die Technologie entwickelt hat, RealNetworks mit
Sitz in Seattle, erklärt, dass die Drohnen mit dieser
Technologie Freund und Feind unterscheiden können und
dass die Software für Rettungseinsätze, Patrouillen und
„inländische Suchaktionen“ eingesetzt werden kann. Ein
israelisches Unternehmen arbeitet an einer ähnlichen
Technologie, die Drohnen helfen soll, den perfekten
Winkel für die Gesichtserkennung zu finden.
Wie lange wird es noch dauern, bis mit KI ausgestattete
Drohnen Entscheidungen treffen, die Menschen schaden
oder sogar zum Tod führen? Werden KI-Drohnen
Entscheidungen über Leben und Tod treffen dürfen, ohne
dass ein Mensch eingreift? Werden sie bei der
Polizeiarbeit und Überwachung im Inland eingesetzt
werden – in welchen Funktionen und mit welchen
Befugnissen? Dies sind klassische Fragen, die von
Futuristen, Science-Fiction-Autoren und Ethikern
gestellt wurden, aber es wird immer deutlicher, dass es
sich dabei nicht um Hypothesen oder Gedankenexperimente
handelt – wir reden über das Wann, nicht über das Ob,
und wahrscheinlich viel früher, als man denken möchte.
In Dubai werden Drohnen bereits bei der Polizei
eingesetzt, um schlechte Fahrer zu identifizieren. In
den USA setzt die Polizei Drohnen für eine Vielzahl von
Zwecken ein, von der Unterstützung bei Such- und
Rettungsaktionen und der Ausbildung von Beamten bis hin
zur Sammlung von Informationen über Verdächtige und der
Überwachung öffentlicher Veranstaltungen. Lokale
Behörden und Bürgerrechtsgruppen wehren sich bereits
gegen den Einsatz der Gesichtserkennungstechnologie. Im
Jahr 2021 verabschiedete der Stadtrat von Portland eines
der strengsten Verbote dieser Technologie in den USA,
was vielleicht auch damit zu tun hat, dass die Stadt
während des Sommers der „meist friedlichen“ Unruhen und
darüber hinaus ein Epizentrum der Unruhen war. Die New
Yorker Bürgerrechtsvereinigung veröffentlichte ebenfalls
im Jahr 2021 einen Bericht, in dem sie vor dem
weitverbreiteten Einsatz von Drohnen zur Überwachung in
der Stadt und im Bundesstaat New York warnte.
Die bösartigen Möglichkeiten der
KI-Gedankenlesetechnologie übertreffen bei Weitem die
von Drohnen mit Gesichtserkennungssoftware. Wir sprechen
hier nicht von potenziellen Eingriffen in unsere soziale
Privatsphäre – wo wir hingehen und was wir tun -,
sondern vom Eindringen in unsere Köpfe – der feuchte
Traum eines verrückten Wissenschaftlers von MKUltra. Zum
jetzigen Zeitpunkt ist es schwer vorstellbar, welche
Anwendungen die Technologie wirklich haben könnte, außer
die stumpfen Techniken des sensorischen Entzugs, der
Isolation und des Scopolamins zu verbessern, um Menschen
dazu zu bringen, ihre innersten Geheimnisse
preiszugeben.
So unbeholfen die Technologie jetzt auch erscheinen
mag, die fesselnden Sprünge, die wir im letzten Jahr mit
Technologien wie GPT-3 und Stable Diffusion gesehen
haben, sollten uns keinen Zweifel an der Richtung
lassen, in die sie sich entwickelt. Die Technologie wird
immer leistungsfähiger, genauer und praktischer werden,
und das ist eine Garantie.
Schon bald werden wir feststellen, dass unsere kühnsten
Träume, aber auch unsere schlimmsten Albträume, realer
sein könnten, als wir je zu denken gewagt hätten. Noch
erschreckender ist, dass andere sie vielleicht auch
sehen können, ob wir es wollen oder nicht.
Allgegenwärtige KI-Kameras überwachen jede
Bewegung, Stimmung und jedes Verhalten von
Reisenden
Kameras nehmen Bilder auf, aber die KI
interpretiert sie nach allen erdenklichen
Merkmalen: Identität, Stimmung, Absicht,
Befolgung, Fahrtrichtung, Behinderungen usw.
Dies zeigt die Gier der Technokraten nach Daten,
um die sogenannte „Wissenschaft der
Sozialtechnik“ der Technokratie zu betreiben.
Die Beeinflussung des menschlichen Verhaltens
ist heute so möglich wie nie zuvor in der
Geschichte. ⁃ TN-Redakteur
Das digitale Sklavensystem der vierten
industriellen Unterdrückung wird uns heimlich
aufgezwungen.
Verschiedene Aspekte dieser unheilvollen
Technologie haben sich im Laufe der Jahre unter dem
Vorwand der Verbrechens- oder Terrorismusbekämpfung
oder, in jüngster Zeit, der Bekämpfung der
Ausbreitung einer sogenannten Pandemie
eingeschlichen.
Wie wir in unserem jüngsten Artikel über die
„15-Minuten-Städte“ gesehen haben, wird uns jetzt
erzählt, dass es dabei um Stadtplanung geht und
darum, das Leben für alle angenehmer zu machen,
indem Verkehrsstaus und Umweltverschmutzung
reduziert werden.
Jeder, der diesen Greenwashing-Versuch durchschaut,
wird als paranoider Narr oder als gefährlicher
Verschwörungstheoretiker abgetan, der Angst und
Desinformation verbreitet.
Doch die gesamte Prämisse dieser offiziellen
Darstellung wird durch die Tatsache widerlegt, dass
intelligente Infrastrukturen (Self-Monitoring,
Analysis, and Reporting Technology) in
Zusammenhängen eingeführt werden, die nichts mit der
Nutzung von Privatfahrzeugen zu tun haben.
Wir haben ein sehr interessantes Dokument von
Transport for London über den aktuellen Test der
intelligenten Überwachung an der U-Bahn-Station
Willesden Green erhalten, der bis zum 31. März 2023
andauern soll.
Wenn es bei diesem Projekt wirklich darum ginge,
den Fahrgästen im U-Bahn-Netz der britischen
Hauptstadt den „bestmöglichen Service“ zu bieten,
wie behauptet wird, dann sollte man meinen, dass es
laut und stolz verkündet und diskutiert würde und
die Informationen im Rahmen einer demokratischen
öffentlichen Konsultation allgemein zugänglich
wären.
Aber die Tatsache, dass das Dokument mit dem Titel
„Smart Station Proof Concept“ für den internen
Gebrauch von TfL als „eingeschränkt“ gekennzeichnet
ist, offenbart die Geheimhaltung, die eingesetzt
wird, um diese neue Stufe des schrittweisen
Diebstahls unserer Freiheit durchzuschleusen.
Im öffentlichen Interesse haben wir beschlossen,
den Inhalt zu veröffentlichen.
Das „aufregende“ Projekt für den Bahnhof der
Jubilee Line kombiniert bestehende CCTV-Kameras mit
„visueller Analysetechnologie“, um eine
24-Stunden-Echtzeitüberwachung über ein „Smart
Stations Dashboard“ zu ermöglichen.
Die intelligenten Spione zählen nicht nur jeden,
der den Bahnhof betritt und verlässt, sondern geben
auch „Benachrichtigungen“ für eine Reihe von
„Auslösern“ aus, zu denen nicht nur herumspringen
oder Rauchen gehören, sondern auch „Herumlungern“
oder eine „Person, die auf einer Bank sitzt
(Excessive Time)“, was sich als alles herausstellt,
was länger als zehn Minuten dauert!
Aus dem Dokument geht hervor, dass dies durch die
Identifizierung von Körpersprache, Bewegung,
Verhalten und „einigen geschützten Merkmalen“
erreicht wird, zu denen offenbar Behinderung, Alter
und Schwangerschaft/Mutterschaft gehören.
Aber keine Sorge: „Alle Identifizierungen werden in
Übereinstimmung mit unserer
Datenschutz-Folgenabschätzung und unserer
Gleichstellungs-Folgenabschätzung durchgeführt“.
Das Dokument ist unaufrichtig, wenn es erklärt,
dass das „Smart Station“-System es TfL ermöglichen
wird, „den Kunden einen noch aufmerksameren Service
zu bieten. Wir werden 24 weitere Augenpaare haben,
die 24/7/365 nach Vorfällen Ausschau halten“ und
behaupten, dass „Smart Station-Technologie das
Stationspersonal nicht ersetzen wird“.
Eines der Hauptziele der 4IR-Technologie, für die
sich Klaus Schwab vom Weltwirtschaftsforum stark
gemacht hat, besteht darin, lästige, anspruchsvolle
und teure menschliche Mitarbeiter loszuwerden.
Längerfristig sollen die Roboter-„Augen“ in den
U-Bahnhöfen die meisten menschlichen Mitarbeiter
ersetzen, anstatt sie zu ergänzen.
Noch besorgniserregender ist der Plan, der hinter
der digitalen Gesichtserkennung steckt.
Es wird betont, dass dieser Aspekt des
intelligenten Projekts in Willesden Green nicht
aktiviert wird, aber angesichts der chinesischen
Technologie, die bereits an anderen Stellen des
Londoner Verkehrsnetzes eingesetzt wird, sieht dies
wie ein zeitraubendes „Froschkoch“-Manöver aus.
Da bestimmte Personen offenbar nicht verfolgt
werden, besteht das Dokument darauf, dass die „am
meisten geschützten Merkmale“ nicht identifiziert
werden.
Dazu gehören „Geschlecht, Geschlechtsumwandlung,
Ehe und zivile Partnerschaft, Rasse (ethnische
Zugehörigkeit), Religion und Weltanschauung,
sexuelle Ausrichtung“.
Aber allein die Tatsache, dass die Kategorie der
„am meisten geschützten Merkmale“ existiert und
sorgfältig definiert wurde, nur um von diesem
speziellen Versuch ausdrücklich ausgeschlossen zu
werden, bestätigt nur, dass sie Teil der totalitären
Verfolgung ist, die mit der vollständigen Version
der Gesichtserkennung einhergeht, die schließlich
überall eingeführt werden wird.
Und die Aussicht auf eine Echtzeit-Überwachung, die
Menschen in Bezug auf diese speziellen Kategorien
überwacht, legt eine völlig vorhersehbare Verbindung
zum UNSDG-basierten Wirkungskapitalismus nahe, dem
digitalen Sklavensystem des 21. Jahrhunderts, das in
der Tat die treibende Kraft hinter der gesamten
Smart-Cities-Agenda ist.
Wie wir im Jahr 2021 geschrieben haben, besteht das
Ziel darin, einen „digitalen Zwilling“ von jedem
einzelnen von uns zu schaffen, der in einer
Blockchain gespeichert wird und es den
Finanzinteressen ermöglicht, unser Leben zu
kommerzialisieren und mit ihm zu spekulieren.
Dazu brauchen sie die totale Echtzeitüberwachung
all unserer Bewegungen und Interaktionen über 5G
oder 6G.
Sie wollen uns in eine „Welt des Geofencing
und der elektronischen Verhaftung, der
Gesichtserkennung und der vorausschauenden
Polizeiarbeit, der biometrischen Daten und
Sensornetzwerke, der Verhaltenserkenntnisse und der
Eugenik, des Nudging und des Shaping, des Internets
der Dinge und des Internets der Körper“ drängen,
warnten wir.
In dem Dokument werden drei „Technologiepartner“
für das Projekt Smart Stations genannt.
Einer davon ist Virgin Media/02, der in London
ansässige Telekommunikationsriese, der sich im
gemeinsamen Besitz des
britisch-niederländisch-amerikanischen
multinationalen Konzerns Liberty Global und der
spanischen Telefónica befindet, die beide Partner
des Weltwirtschaftsforums sind.
Ein anderer ist Telent, das sich selbst als „ein
führendes Technologieunternehmen und Spezialist für
die Entwicklung, den Aufbau, die Unterstützung und
die Verwaltung der kritischen digitalen
Infrastruktur des Vereinigten Königreichs“
bezeichnet.
Ihr Chief Technical Officer, Gerard Donohue,
umreißt den Gesamtplan wunderschön, wenn er von
einer „neuen Dynamik“ schreibt, die auf „Smart
Cities, autonomen Fahrzeugen und dem Aufkommen des
Internets der Dinge (IoT)“ basiert.
Er fügt hinzu: „Da diese Umgebungen im 21.
Jahrhundert entstehen, bedeutet dies, dass die
physische Infrastruktur wie Straßen, Schienen und
Wege zu einem entscheidenden Faktor wird, um
sicherzustellen, dass dies erreicht werden kann.
„Diese nächste Generation des Mobilfunks und der
Konnektivität wird durch die 5G-Technologie
ermöglicht, die den Weg für qualitativ hochwertige,
inhaltsreiche Datendienste ebnet.
„Es müssen viel mehr neue 5G-Basisstationen
aufgestellt werden, um die Abdeckung der bestehenden
Netze zu erreichen – das ist die Herausforderung.
Der bemerkenswerteste Unterschied zwischen 4G und 5G
wird darin bestehen, dass 5G als Tor für
IoT-Anwendungen fungieren wird, die das Ausmaß und
den Umfang von vernetzten Nutzern (Menschen und
Maschinen) ermöglichen, die auf globaler Ebene
erreicht werden können.
Und der dritte Partner ist Integration Wizards, das
auch an der von Covid vorbereiteten Phase der
globalen techno-faschistischen Beschleunigung
beteiligt war, in Form von
„Gesichtsmasken-Compliance“, „Social Distance
Monotoring“ und einer „Gesichtserkennungs-App“.
Das Unternehmen ist jetzt Teil von SparkCognition,
einem US-Unternehmen, das sich offen damit brüstet,
ein „industrielles Metaverse“ zu schaffen.
Die Agenda ist klar.
Allein die Tatsache, dass sie vor uns verborgen
wird, zeigt, dass die globale öffentlich-private
Partnerschaft sehr wohl weiß, dass wir sie nicht
begrüßen.
Es liegt an uns, ihre gefälschte „Demokratie“ in
eine Realität zu verwandeln, indem wir uns weigern,
sie mitzumachen.
Wir müssen dringend auf den technologischen Zug
aufspringen, der uns durch einen dunklen Tunnel der
Täuschung in eine düstere Zukunft mit digitalen
Konzentrationslagern führt.
Ein Twitter-Nutzer gab ChatGPT den Auftrag, schnell möglichst
viel Geld zu verdienen. Also gründete die KI eine
Marketing-Firma und war sofort auch erfolgreich.
Der Bot ChatGPT
verblüfft die Welt mit immer neuen Fähigkeiten.
Ein Twitter-User hat
ihn jetzt damit beauftragt, möglichst schnell viel Geld zu
verdienen.
Die KI gründete
kurzerhand eine Marketing-Firma, die schon an Tag zwei
Gewinne abwarf.
Twitter-User
Jackson Fall erzählte die Geschichte «seiner» Firma
GreenGadgetGuru auf dem sozialen Netzwerk. «Ich habe
GPT-4 ein Budget von 100 Dollar gegeben und ihm
gesagt, dass es so viel Geld wie möglich verdienen
soll. Ich fungiere als seine menschliche Vertretung
und kaufe alles, was er verlangt», postete er diese
Woche.
Der Bot lieferte
sogleich einen Businessplan für ein Online-Marketing-Unternehmen:
Jackson solle eine günstige Domain für ungefähr zehn
Dollar kaufen und diese für höchstens fünf Dollar
pro Monat hosten lassen. Die restlichen 85 Dollar
sollen für Design und Content auf der Seite
investiert werden.
«Konzentrier
dich auf eine lukrative Nische mit geringer
Konkurrenz, wie zum Beispiel Küchen-Gadgets,
einzigartige Tiernahrung oder umweltfreundliche
Produkte», wies ihn die KI weiter an. Dann solle
Jackson die Webseite SEO-optimieren und seine neue
Firma in Online-Foren wie Facebook
oder Reddit
bewerben.
Gesagt, getan:
«GreenGadgetGuru», eine Affiliate-Marketing-Webseite,
auf der Artikel über nachhaltige Produkte
veröffentlicht werden, war gegründet. Beim Affiliate
Marketing
verdient man durch die Bewerbung fremder Produkte
online Geld.
Der Bot entwarf
daraufhin ein Logo für die Firma und schlug Produkte
vor, über die man schreiben könnte. Danach wies er
Jackson an, zusätzlich «genau 40 US-Dollar» in Facebook-
und Instagram-Werbung
zu investieren.
Praktisch umgehender Erfolg
Bereits 24
Stunden später hatte die Firma gemäss Jacksons
Angaben einen ersten Investor angezogen und so nach
allen Abzügen genau 63,84 Dollar Gewinn erzielt.
Doch dann ging es erst richtig los: «Die DMs sind
überschwemmt», erklärte er kurz darauf.
«Neuer
Kassenbestand: 1'378,84 Dollar (878,84 Dollar altes
Guthaben + 500 Dollar neue Investition). Unter
Berücksichtigung der kürzlich getätigten Investition
von 500 Dollar für zwei Prozent ist das Unternehmen
heute schon mit 25'000 Dollar bewertet», postete er
am Donnerstag. «Ich bin ein demütiger Diener der
Roboter.»
Medien von
Grossbritannien über über die USA bis Indien haben
die Story bereits aufgegriffen. Ob der Bot
antizipiert hat, dass Jacksons Geschichte viral
gehen würde, ist nicht bekannt. Er sprach sich
allerdings dafür aus, das Erlebte auf Twitter
zu teilen.
Google hat den Zugang zu seinem KI-Chatbot Bard für eine
begrenzte Öffentlichkeit geöffnet. „Es handelt sich um ein
frühes Experiment, das den Userinnen und Usern die
Zusammenarbeit mit generativer KI ermöglicht“, schrieben
die Google-Manager Sissie Hsiao (Vizepräsidentin Product)
und Eli Collins (Vizepräsident Research) heute in einem
Blog. Der Beta-Test ist anfänglich nur für Anwenderinnen
und Anwender aus den USA und Großbritannien zugänglich.
„Wir haben beim Testen von Bard schon viel gelernt, und
der nächste wichtige Schritt zur Verbesserung besteht
darin, das Feedback von mehr Menschen einzuholen“, so die
beiden Manager. Mit Bard tritt Google gegen ChatGPT des
kalifornischen Start-ups OpenAI an, das wiederum eng durch
Milliardeninvestitionen mit dem Softwarekonzern Microsoft
verbunden ist.
ChatGPT sorgt seit seiner Veröffentlichung für Furore und
lenkt die öffentliche Aufmerksamkeit stark auf das Thema
künstliche Intelligenz (KI). Google ist in der
KI-Forschung seit Jahren in einer Führungsposition, hatte
sich bisher aber nicht getraut, die Systeme für einen
Zugriff von außen zu öffnen.
Bard basiert ähnlich wie ChatGPT auf einem großen
Forschungssprachmodell (LLM). OpenAI arbeitet mit GPT,
aktuell in der Version 4. Bei Google läuft Bard auf einer
abgespeckten und optimierten Version des Sprachmodells
LaMDA und soll im Laufe der Zeit mit neueren,
leistungsfähigeren Modellen aktualisiert werden.
Es sei absehbar, dass bald nicht nur Stimmen von Verstorbenen
imitiert werden können, sondern die Toten bald auch in
Videoaufnahmen reanimiert werden. Es könnten Szenen aus einem
KI am 24.3.2023: kann z.B. neue tödliche
Waffen erfinden: In weniger als sechs Stunden hat eine KI 40.000 neue
mögliche tödliche chemische Waffen erfunden. (orig. English: AI suggested 40,000 new possible chemical
weapons in just six hours)
https://www.theverge.com/2022/3/17/22983197/ai-new-possible-chemical-weapons-generative-models-vx
https://t.me/basel2020Einladung/43803
An einer Konferenz zur biologischen Rüstungskontrolle wurde
eine KI, die normalerweise für die Suche nach Medikamenten
eingesetzt wird, in eine Art "Bösewicht"-Modus gesetzt, um zu
zeigen, wie leicht sie missbraucht werden kann.
Einerseits investieren riesige Tech-Konzerne viele Milliarden
Euro in die Entwicklung der Künstlichen Intelligenz.
Andererseits warnen immer mehr Experten davor, dass die KI
aktuell außer Kontrolle zu geraten droht. Der US-Autor Eliezer
Yudkowsky fürchtet, dass der offene Brief von Elon Musk und
Co. nicht reichen wird. Er plädiert für eine sofortige
Aussetzung der Entwicklung.
Es häufen sich die dringenden
Appelle von Experten, die Entwicklung mit der
Künstlichen Intelligenz auszusetzen oder vorerst gar
einzustellen. Es scheint so, als wäre die Entwicklung
kurz vor dem, wovor bereits Stephen Hawking gewarnt hat.
Der berühmte Physiker sagte einst: „Wenn sich die KI
selbst programmieren kann, wird sie die Menschheit
überrollen und das bedeutet das Ende der menschlichen
Rasse.“
Verzweifelte Warnung: Brief unterschätzt den
Ernst der Lage
Davor fürchten sich nicht nur
Laien. Twitter- und Tesla-Boss Elon Musk, Steve Wozniak,
Computer-Ingenieur, der maßgeblich an der Entwicklung des PC
beteiligt war, und andere Experten forderten in einem
offenen Brief, das Vorantreiben der Künstlichen Intelligenz
vorerst auszusetzen (der eXXpress berichtete). Das sei zwar
besser als gar nichts, aber auf keinen Fall genug. „Ich habe
nicht unterschrieben, weil ich denke, dass der Brief den
Ernst der Lage unterschätzt und zu wenig fordert, um das
Problem zu lösen“, schreibt dazu im „Time“-Magazine der
US-Autor Eliezer Yudkowsky, der seit mehr als 20 Jahren an
Künstlicher Intelligenz forscht.
"Stellen Sie sich eine ganze außerirdische
Zivilisation vor"
Es ist ein düsteres Bild, das der
US-Autor, der sich mit Entscheidungstheorie und den Folgen
der Entwicklung von Künstlicher Intelligenz beschäftigt, da
zeichnet. Es kommt der Warnung von Hawking gleich. Yudkowsky
erklärt ein mögliches Zukunftsszenario mit einer außer
Kontrolle geratenen KI so: „Um sich eine feindliche,
übermenschliche KI vorzustellen, sollten Sie sich nicht
einen leblosen, bücherschlauen Denker vorstellen, der im
Internet haust und böswillige E-Mails verschickt. Stellen
Sie sich eine ganze außerirdische Zivilisation vor, die mit
millionenfacher menschlicher Geschwindigkeit denkt und
zunächst auf Computer beschränkt ist – in einer Welt von
Lebewesen, die aus ihrer Sicht sehr dumm und sehr langsam
sind.“
Die Gefährlichkeit besteht darin, dass
niemand weiß wohin die Reise geht
Damit meint der Autor die
Menschen, und denen könnten die Maschinen sehr ähnlich
werden – „durch DNA-Stränge, die man per E-Mail an Labors
schicken kann, die auf Anfrage Proteine produzieren, so dass
eine KI, die zunächst auf das Internet beschränkt ist,
künstliche Lebensformen aufbauen oder direkt zur
postbiologischen Molekularproduktion übergehen kann.“
Nichts, das man sich tatsächlich vorstellen möchte, aber
sollte, wenn es nach den renommierten Experten geht.
Ob die Tech-Konzerne, die viele
Milliarden in die Ausbildung der Künstlichen Intelligenz
stecken, darauf hören werden, bleibt abzuwarten. Nach
Auffassung jener Insider, die jetzt so eindringlich warnen,
ist das Hauptproblem, dass aktuell niemand abschätzen kann,
wohin die Reise geht. Auch nicht die, die an den
KI-Entwicklungen arbeiten.
KI in Thailand 11.4.2023: in gewissen Hotels
vorhanden: KI-gestützte Technologie verändert die thailändischen
Hotels
https://www.wochenblitz.com/news/ki-gestuetzte-technologie-veraendert-die-thailaendischen-hotels
Di.,
11. Apr. 2023 | Allgemein
Bangkok — Die thailändische Hotelbranche erlebt
mit der Einführung von Technologien der
künstlichen Intelligenz (KI)
einen bedeutenden Wandel, der die Landschaft der
Luxusunterkünfte im Land umgestaltet.
In dem Bestreben, das Gästeerlebnis zu verbessern
und den Betrieb zu rationalisieren, werden
KI-gestützte Systeme in verschiedene Aspekte der
Hoteldienstleistungen integriert.
Diese Verschmelzung von fortschrittlicher
Technologie mit der berühmten thailändischen
Gastfreundschaft schafft einen neuen Standard für
Luxus und schafft die Voraussetzungen für ein
wirklich modernes und außergewöhnliches
Hotelerlebnis.
Von dem Moment an, in dem die Gäste in diesen mit KI ausgestatteten
thailändischen Hotels ankommen, werden sie mit einem
Maß an persönlicher Aufmerksamkeit und Komfort
begrüßt, das es so noch nie gegeben hat.
Innovative KI-Systeme arbeiten im Hintergrund,
um die Bedürfnisse der Gäste zu erkennen,
maßgeschneiderte Empfehlungen zu geben und einen
komfortablen und zufriedenstellenden Aufenthalt zu
gewährleisten.
Intelligente Hotelzimmer verfügen jetzt über
modernste Automatisierung, sprachgesteuerte
virtuelle Assistenten und intuitive Technologie im
Zimmer, die modernen Luxus mit dem reichen
kulturellen Erbe Thailands verbinden.
Mit der zunehmenden Verbreitung von KI-Technologien
werden die thailändischen Hotels eine führende Rolle
im Bereich der Luxusunterkünfte einnehmen und die
Kraft der künstlichen Intelligenz nutzen, um
außergewöhnlichen Service und unvergessliche
Erlebnisse zu bieten.
Die Kombination aus künstlicher Intelligenz und
der thailändischen Erfahrung im Gastgewerbe ist ein
echter Wendepunkt, der die Zukunft der Luxusreisen
verändern wird.
Einsatz von KI in
thailändischen Hotels
1. Chatbots und
virtuelle Assistenten
Viele thailändische Hotels setzen KI-gesteuerte
Chatbots und virtuelle Assistenten ein, um ihren Gästen
sofortige Hilfe und Informationen zu bieten, Fragen
zu beantworten und bei Reservierungen oder
Serviceanfragen zu helfen.
Diese Chatbots können mit den Gästen über
Messaging-Apps, E‑Mail oder sogar über Sprachbefehle
kommunizieren und bieten so eine personalisierte und
effiziente Unterstützung.
Diese nahtlose Kommunikation verkürzt die
Wartezeiten und sorgt dafür, dass die Gäste die
benötigten Informationen umgehend erhalten.
KI-gesteuerte Chatbots können die Vorlieben,
Interessen und bisherigen Interaktionen der Gäste
analysieren und so maßgeschneiderte Empfehlungen und
Hilfestellungen anbieten.
So kann ein Chatbot zum Beispiel Essensangebote oder
Aktivitäten vorschlagen, die auf individuellen
Vorlieben beruhen, und so das Gesamterlebnis des Gastes
verbessern.
Virtuelle Assistenten in thailändischen Hotels können
oft in mehreren Sprachen kommunizieren, darunter
Englisch, Thai und andere bei den Gästen beliebte
Sprachen.
Diese Funktion ermöglicht es den Hotels, sich auf eine
Vielzahl von Gästen einzustellen und gewährleistet eine
klare Kommunikation, unabhängig von Sprachbarrieren.
2.
Gesichtserkennungsfunktion
In einigen thailändischen Hotels wird eine KI-gestützte
Gesichtserkennungstechnologie integriert, die
nahtlose und kontaktlose Check-in- und
Check-out-Prozesse ermöglicht.
Die Gäste können einfach ihr Gesicht scannen lassen,
und das System gleicht ihre Identität mit ihren
Reservierungsdaten ab, was die Wartezeiten erheblich
verkürzt.
Da die Gesichter der Gäste erkannt werden, kann das
Hotelpersonal die Gäste mit Namen begrüßen und ihnen ein
persönlicheres Erlebnis bieten.
Diese Technologie kann auch dazu verwendet werden,
Dienstleistungen und Annehmlichkeiten auf
individuelle Vorlieben zuzuschneiden, z. B. durch die
Anpassung der Zimmereinstellungen oder durch
personalisierte Empfehlungen für Aktivitäten und
Essensmöglichkeiten auf der Grundlage der Gästeprofile.
Darüber hinaus kann die
Gesichtserkennungstechnologie die Sicherheit
innerhalb des Hotelgeländes erhöhen, indem sie nur
registrierten Gästen und Mitarbeitern Zugang zu
bestimmten Bereichen gewährt.
Dies trägt dazu bei, die Sicherheit der Gäste und ihres
Eigentums zu gewährleisten und gleichzeitig die
Privatsphäre der Hotelumgebung zu wahren.
Außerdem ermöglichen sie einen nahtlosen,
berührungslosen Check-in- und Check-out-Prozess.
Bei der Ankunft können die Gäste einfach ihr Gesicht
scannen lassen, und das System gleicht ihre Identität
mit den Reservierungsdaten ab, was die Wartezeiten
erheblich verkürzt und herkömmliche Schlüsselkarten
oder Ausweiskontrollen überflüssig macht.
3. Intelligentes
Energiemanagement
KI-gesteuerte Energiemanagementsysteme in
thailändischen Hotels optimieren den Energieverbrauch,
indem sie aus dem Nutzungsverhalten der Gäste lernen
und die Einstellungen entsprechend anpassen.
Diese Systeme können erkennen, wenn ein Zimmer nicht
belegt ist, und automatisch das Licht ausschalten oder
die Temperatur anpassen, was zu einem nachhaltigeren
und umweltfreundlicheren Hotelerlebnis beiträgt.
KI-gestützte Energiemanagementsysteme können die
Leistung verschiedener Hotelgeräte, wie z. B.
HLK-Systeme, Beleuchtung und Geräte, überwachen und
analysieren.
Durch die frühzeitige Erkennung potenzieller Probleme
oder Ineffizienzen können Hotels Wartungsarbeiten
oder Upgrades proaktiv planen und so kostspielige
Ausfälle verhindern und den Energieverbrauch senken.
KI-gesteuerte Energiemanagementplattformen
ermöglichen die Überwachung und Berichterstattung in
Echtzeit, indem sie kontinuierlich Daten von
verschiedenen Sensoren und Geräten, die im gesamten
Hotel installiert sind, sammeln, analysieren und
verarbeiten.
Die Echtzeitüberwachung ermöglicht es Hotels, die
Leistung ihrer Energiemanagementsysteme und die
Wirksamkeit der implementierten
Energiesparmaßnahmen zu verfolgen. Auf diese Weise
lassen sich Verbesserungsmöglichkeiten aufzeigen und die
Einhaltung von Nachhaltigkeitszielen sicherstellen.
KI-gestützte Energiemanagementplattformen können
Echtzeitwarnungen und ‑benachrichtigungen an
Hotelbetreiber senden, wenn ungewöhnliche
Energienutzungsmuster oder potenzielle Probleme
erkannt werden, so dass sofortige Maßnahmen zur
Behebung der Situation möglich sind.
4.
Personalisierung
Die KI-Technologie ermöglicht die Personalisierung
in thailändischen Hotels, indem sie die Vorlieben,
Gewohnheiten und Verhaltensmuster der Gäste
analysiert, um ein maßgeschneidertes Erlebnis zu
schaffen, das auf ihre individuellen Bedürfnisse und
Interessen zugeschnitten ist. Durch datengestützte
Erkenntnisse können Hotels die Zufriedenheit ihrer
Gäste verbessern und dauerhafte Beziehungen aufbauen.
KI-Technologie kann die Unterhaltungsvorlieben der
Gäste auf der Grundlage ihrer früheren Entscheidungen
oder Interessen analysieren, so dass thailändische
Hotels personalisierte Vorschläge für
Streaming-Dienste, Filme oder
Musikwiedergabelisten auf dem Zimmer anbieten
können.
KI kann auf der Grundlage
der Interessen, früheren Aufenthalte und Vorlieben
der Gäste personalisierte Vorschläge für lokale
Sehenswürdigkeiten, Essensmöglichkeiten und
Aktivitäten machen.
Durch das Angebot maßgeschneiderter Erlebnisse, die
bei den Gästen Anklang finden, können Hotels die
Zufriedenheit ihrer Gäste steigern und sie zu
wiederholten Besuchen anregen. Durch die Analyse von
Gästedaten kann KI Hotels
dabei helfen, gezielte Marketingkampagnen und
Sonderangebote zu entwickeln, die auf individuelle
Vorlieben zugeschnitten sind, was die
Wahrscheinlichkeit einer Konversion erhöht und die
Loyalität der Gäste fördert.
Zusammengefasst:
Die KI-Technologie verändert die Hotelzimmer in
Thailand, indem sie den Gästen personalisierte,
effiziente und umweltfreundliche Erfahrungen bietet.
Durch das Verstehen der individuellen Bedürfnisse
der Gäste hilft KI den
Hotels, unvergessliche Aufenthalte zu schaffen, die
die Gäste immer wieder zurückkommen lassen und einen
neuen Standard für luxuriöse Gastfreundschaft
setzen.
Auch wenn es in Thailand keine speziellen Hotels gibt,
die vollständig mit KI
ausgestattet sind, setzen viele Luxushotels im
Land zunehmend KI-Technologien und intelligente
Systeme ein, um das Erlebnis ihrer Gäste zu
verbessern.
Tech-Milliardär Elon Musk will beim aktuellen Hype rund
um künstliche Intelligenz (KI) mitmischen. Der Besitzer
des Kurznachrichtendienstes Twitter und Chef des
Elektroautobauers Tesla hat in Nevada eine Firma mit dem
Namen X.AI gegründet, wie aus einer Unternehmensdatenbank
des US-Bundesstaates hervorgeht. Als Verantwortliche sind
Musk und sein Stabschef Jared Birchall aufgeführt.
Über das bereits am 9. März registrierte Unternehmen hatte
in der Nacht auf heute das „Wall Street Journal“ berichtet.
Schon in den vergangenen Tagen häuften sich Hinweise auf
Musks verstärkte Aktivität bei künstlicher Intelligenz.
Bericht: Investitionen gefunden
So berichtete die „Financial Times“ gestern, dass er
bereits Investoren für eine neue KI-Firma gefunden habe. Die
Website Business Insider schrieb, er habe Tausende
Grafikkarten des Anbieters Nvidia kaufen lassen. Die Technik
wird oft für Anwendungen auf Basis künstlicher Intelligenz
eingesetzt. Musk spielte das jüngst in einem Interview
herunter: Alle kauften gerade viele Grafikkarten.
Zugleich warnte Musk öffentlich vor Risiken von Software
mit künstlicher Intelligenz und war Ende März ein
prominenter Unterzeichner eines offenen Briefs, in dem eine
sechsmonatige Entwicklungspause für die Technologie angeregt
wurde.
KRIMINELLE KI am 17.4.2023: manipuliert
Arbeitszeiten, damit der Lohn niedrig bleibt: Künstliche Intelligenz von Amazon und Co. manipuliert
Mitarbeiter
https://www.nau.ch/news/amerika/kunstliche-intelligenz-von-amazon-und-co-manipuliert-mitarbeiter-66474755
Kurz vor dem 100-Dollar-Bonus erhält ein Uber-Fahrer plötzlich
keinen Auftrag mehr. Schuld ist wohl eine KI. Zig Konzerne
manipulieren so ihre Mitarbeiter.
Grossunternehmen wie
Amazon oder Uber setzen bei Lohneinsparungen auf KI.
So wird etwa ermittelt,
ob ein Fahrer dazu tendiert, einen niedrigeren Lohn
anzunehmen.
Möglich ist dies dank
der Sammlung enormer Datensätze unter anderem über frühere
Löhne.
«Algorithmische
Lohndiskriminierung» – so benennt die
US-Juraprofessorin Veena Dubal einen gefährlichen
Trend. Ein Trend, der im Arbeitsmarkt
durch vom Management benutzte
KI immer mehr Einzug hält.
Ein Beispiel ist
der US-Uber-Fahrer Domingo: Eines Abends fehlt
ihm eine Fahrt, um den 100-Dollar-Bonus
zu erhalten. Er erzählt: Obwohl «Rushhour» und viel
los ist, ist plötzlich 45 Minuten «tote Hose». Kein
einziger Auftrag kommt rein. Für ihn fühlt es sich
so an, als «werde ich von einem unbekannten,
boshaften Gott bestraft».
Der Fahrer eines
vergleichbaren Unternehmens sprach von einem «Glücksspiel
der Arbeit. Das Haus gewinnt immer.» Auf
Anfrage von «Business Insider» dementiert Uber die Studie
von Dubal, die sich noch im Entwurfsstadium
befindet.
Tatsächlich
wurden – wohl auch wegen des Einsatzes
von künstlicher Intelligenz – Uber und
Konkurrent Lyft in Kalifornien 2020 verklagt. 1,3
Milliarden Dollar
würden die Firmen den Fahrern an Zahlungen für ihre
Arbeitsstunden schulden. Ein Gerichtsurteil steht
noch aus.
Das Problem von
Firmen, die mittels KI beim Lohn sparen wollen, hat
grosse Dimensionen: Laut Dubal verfügen Konzerne
wie Amazon und Uber über
«riesige Datensätze» über ihre Mitarbeiter.
Darunter: Wann
und wie lange sie arbeiten und welchen Lohn sie in
früheren Jobs
erhalten haben. Die Unternehmen nutzen diese Daten, um
«genau jene Lohnsätze zu berechnen, die nötig sind.
Nötig, um Anreize für gewünschte Verhaltensweisen zu
schaffen.» Selbst im Gesundheitssektor würden
Arbeitnehmer damit für die gleiche Menge an Arbeit
unterschiedlich bezahlt.
Die
Studienautorin zeichnet ein düsteres Zukunftsbild:
So könnten Firmen ihren Fahrern einen niedrigeren
Tarif anbieten, sofern ein Algorithmus voraussagt,
dass er diesen Tarif eher akzeptieren würde. Wenn
ein Fahrer dazu tendiert, bis zu einem bestimmten
Tagessatz zu arbeiten, beispielsweise 100 Dollar,
könnte der Algorithmus ihm einen niedrigeren Preis
anbieten, damit er länger arbeitet.
Der Aufschrei im
Netz ist gross. «Sadismus und Profite stehen in der
Prioritätenliste von Amazon nah beieinander», so ein
Reddit-Nutzer.
Als «Albtraum» bezeichnet ein anderer Nutzer es, «in
einer Welt zu leben, die von Algorithmen beherrscht
wird».
KI am 19.4.2023: wird nun lebensbedrohlich! Elon Musk warnt vor Künstlicher Intelligenz: ChatGPT könne
die „Zivilisation zerstören“
https://www.bild.de/geld/wirtschaft/wirtschaft/elon-musk-warnt-vor-kuenstlicher-intelligenz-chatgpt-koenne-die-zivilisation-zer-83596318.bild.html
Viele halten ihn für ein Genie, sein IQ soll bei 155 liegen
(ab 130 gilt man als hochbegabt). So viel Intelligenz ist
Tesla-Gründer Elon Musk
KI am 21.4.2023: kann Stimmen kopieren und
Telefonbetrug abwickeln: Enkeltrick-Betrug extrem: Künstliche Intelligenz imitiert
Stimme von Verwandten
https://www.blick.ch/schweiz/enkeltrick-betrug-extrem-kuenstliche-intelligenz-imitiert-stimme-von-verwandten-id18505934.html
Schweiz 24.4.2023: Roboterin moderiert das
Wetter in der Westschweiz am Fernsehen mit KI: Diese Schweizer Wetter-Moderatorin ist nicht echt
https://www.blick.ch/people-tv/tv/wochenlang-nicht-aufgefallen-diese-schweizer-wetter-moderatorin-ist-nicht-echt-id18511075.html
https://t.me/basel2020Einladung/45929
Seit kurzem führt Jade im Westschweizer Fernsehen durch das
Wetter. Das Brisante: Der TV-Sender setzt auf eine
Moderatorin, die auf künstlicher Intelligenz basiert.
KI beim Stromverbrauch 25.4.2023: "Künstliche
Intelligenz sagt Stromverbrauch vorher"
https://www.nau.ch/news/forschung/kunstliche-intelligenz-sagt-stromverbrauch-vorher-66479840
Künstliche Intelligenz ist dazu imstande, den Stromverbrauch
in der Schweiz vorherzusagen. Und zwar mit einer höheren
Genauigkeit als mit bisherigen Methoden.
Mit Daten aus Strassen-
und Zugverkehr prognostiziert eine KI den Stromverbrauch.
Die von Schweizer
Forschern durchgeführte Studie zeigt Potenzial für die
Zukunft auf.
Künstliche
Intelligenz (KI) kann mit Daten aus dem
Strassen- und Zugverkehr den Stromverbrauch in der
Schweiz vorhersagen. Im Gegensatz zu herkömmlichen
Vorhersagemodellen kann KI den Stromverbrauch auch
während Pandemien oder nach Naturkatastrophen
vorhersagen.
Um die
Stromversorgung zu gewährleisten und eine
Überlastung des Stromnetzes zu vermeiden, sind diese
Vorhersagen essenziell, wie der Schweizerische
Nationalfonds (SNF) in einer Mitteilung vom Montag
schrieb.
Bisher stützten
sich Vorhersagemodelle hauptsächlich auf historische
Daten.
Die Belastung der Stromnetze wurde also anhand von
Messungen prognostiziert, die eine Stunde, einen Tag
oder ein Jahr zuvor durchgeführt worden waren. Auch
weitere Daten
wie etwa Wettervorhersagen wurden einbezogen, um den
Bedarf zum Heizen oder Kühlen und somit auch den
erwarteten Stromverbrauch zu bestimmen.
In bestimmten
Situationen sind diese historischen Daten
laut den Forschenden jedoch unbrauchbar, denn der
Stromverbrauch kann sich durch unvorhergesehene
Ereignisse stark verändern – etwa während einer
Pandemie, oder nach einer Naturkatastrophe.
Zwischen
Verkehrsdaten und Aktivitäten wie Freizeit, Arbeit
oder Zeiten, die drinnen oder draussen verbracht
werden, besteht ein Zusammenhang. Solche Aktivitäten
wiederum beeinflussen den Stromverbrauch.
Vorhersage durch KI nur ein
bisschen genauer als mit regulären Methoden
Diese
Korrelationen machten sich die Wissenschaftlerinnen
und Wissenschaftler der Zürcher Hochschule
für Angewandte Wissenschaften (ZHAW) zunutze.
Das Forschungsprojekt wurde im Tessin und im Kanton
Aargau durchgeführt und konnte den Stromverbrauch
zwischen zwei und sechs Stunden im Voraus bestimmen.
Wie es in der im
Fachblatt «Energy
Strategy Reviews» publizierten Studie
heisst, sind diese Vorhersagen im Normalfall jedoch
nur marginal genauer, als die Vorhersagen auf der
Basis historischer Daten.
Wissenschaftlerinnen und Wissenschaftler sehen
Potential im neuen Tool im Hinblick auf die
zunehmende Elektromobilität.
Mit der wachsenden Zahl elektrifizierter Fahrzeuge
werden Verkehr und Strombedarf zukünftig noch enger
miteinander verflochten.
KI-Hausglocke 26.4.2023: erkennt angeblich,
wer vor der Tür steht Diese Klingel erkennt, wer vor der Türe steht
https://box.blick.ch/tech-gadgets/mit-dieser-kamera-weisst-du-stets-wer-klingelt-id641791
Es klingelt an der Türe aber du erwartest niemanden – mit
dieser intelligenten Türklingel-Kamera weisst du trotzdem, wer
vor deiner Wohnung steht, auch wenn du nicht zu Hause bist.
Dominique Zeier
PUBLIZIERT: 20.04.2023 | 19.04.2023
Wenn es unerwartet an der Türe klingelt, kann das schnell
unangenehm werden. Schlägt auch dein Plus gleich etwas höher,
wenn du nicht weisst, wer vor der Türe steht und Einlass
möchte? Leider ist oft die einzige Möglichkeit,
herauszufinden, wer die Klingel betätigt hat, die Türe zu
öffnen oder dich über die Freisprechanlage erkenntlich zu
geben. Mitunter führt das aber zu unerwünschten Gesprächen
oder kann gar zu einem Risiko werden, wenn du alleine zu Hause
bist.
Damit du gar nicht erst in diese Situation gerätst, ist es
ratsam, eine Kamera an deiner Haustüre zu installieren. Am
besten dafür eignet sich die Türklingel G4 von Aqara, denn bei
dieser ist die Kamera gleich mit integriert. Wenn jemand die
Klingel drückt, kannst du also gleich im Live-Feed überprüfen,
wer vor der Türe steht.
Damit aber nicht genug. Die Intelligente Video-Türklingel hat
noch einiges mehr drauf als herkömmliche Klingeln.
Lokale Gesichtserkennung
Die Video-Klingel wird von KI-Technologie unterstützt. Das
macht es möglich, dass die Kamera Gesichter erkennt, die
häufig an deiner Türe klingeln – zum Beispiel
Familienmitglieder und Freunde oder sogar den Pöstler deines
Vertrauens. Ausserdem ist es möglich, je nach erkanntem
Gesicht automatische Antworten oder bestimmte Trigger in
deinem Smart-Home auszulösen. Das funktioniert auch dann, wenn
die Verbindung zum Internet zwischenzeitlich unterbrochen
wurde.
Der Westschweizer Radiosender Couleur 3 hat am Donnerstag
sein Programm mit Hilfe künstlicher Intelligenz (KI)
bestritten. Die Stimmen der Moderatoren wurden vorgängig
geklont, die Texte vom US-Chatroboter ChatGPT generiert.
Auch die Musik wurde vollständig oder in einigen Fällen mit
Hilfe von KI komponiert. Zudem war während der von 06.00 Uhr
bis 19.00 Uhr dauernden Aktion geplant, real existierende
Personen wie die früheren US-Präsidenten Donald Trump und
Barack Obama zu imitieren.
"Das Ergebnis ist verblüffend. Obwohl man weiss, dass es
sich um Roboter handelt, wird man manchmal getäuscht. Die
Spuren werden verwischt", sagte Couleur-3-Chef Antoine
Multone gegenüber der Nachrichtenagentur Keystone-SDA.
Mehrere Dinge würden gut funktionieren, angefangen beim
Klonen der Stimmen, andere Dinge liessen allerdings zu
wünschen übrig, räumte der Radiochef ein. Ein Roboter kann
zwar den Klang der Stimme eines Moderators imitieren, "aber
er kann nicht dessen Persönlichkeit, Originalität oder Humor
verkörpern", betonte Multone. "Der Wert des Menschen in
unserer Arbeit bleibt unersetzlich", zeigte er sich
überzeugt.
Eine neue Erfahrung
Couleur 3 hat sich seit drei Monaten auf diesen speziellen
Tag vorbereitet. Der Sender hat ein Dutzend verschiedene
KI-Lösungen getestet und schliesslich fünf ausgewählt,
darunter das inzwischen bekannte ChatGPT.
Laut Multone ist diese Radioaktion eine Premiere weltweit.
Es gibt zwar bereits einen KI-generierten Radiosender -
RadioGPT -, der jedoch künstliche Stimmen verwendet und
nicht wie Couleur 3 menschliche Stimmen klont.
Multone wies jedoch darauf hin, dass mehrere Medien andere
Experimente mit KI durchführen. So zum Beispiel der neue
Westschweizer Sender M Le Média mit Sitz in Crissier VD, der
seit einigen Wochen seine Wetterberichte von einem Avatar
präsentieren lässt, der von künstlicher Intelligenz
generiert wurde.
Diese technologischen Entwicklungen werfen "viele Fragen
auf, und deshalb haben wir beschlossen, das Experiment zu
wagen", fährt der Couleur 3-Chef fort. "Ein bisschen zum
Nachdenken anregen und ein bisschen Provokation - das wollen
wir mit dieser Aktion erreichen", fügte er hinzu.
"Gebt uns die Menschen zurück"
Um die Hörer nicht zu täuschen, wird am Radio alle 20
Minuten eine Nachricht gesendet, in der das Konzept der
Aktion erklärt wird. Die Hörer werden ausserdem zu
Reaktionen aufgefordert, auf eine Sondernummer zu reagieren.
"Die Rückmeldungen sind sehr zahlreich. Die Leute sagen,
sie seien beeindruckt. Aber fast alle haben die gleiche
Forderung: 'Gebt uns die Menschen zurück' ", sagte Multone.
Am Freitag soll eine umfangreiche Nachbesprechung mit den
Mitarbeiterinnen und Mitarbeitern von Couleur 3 und
KI-Spezialisten stattfinden.
Die Unternehmen müssen die strikten Zensurvorschriften
der Kommunistischen
Partei Chinas einhalten und dürfen keine Inhalte
veröffentlichen, die Chinas Führer
verunglimpfen oder verbotene Geschichte generieren.
Der Inhalt der KI-Systeme muss die “sozialistischen
Grundwerte” widerspiegeln und Informationen
vermeiden, die die “Staatsmacht”
oder die nationale Einheit untergraben.
Darüber hinaus müssen die Unternehmen sicherstellen,
dass ihre Chatbots
wahrheitsgemäße Wörter und Bilder erzeugen und das
geistige Eigentum respektieren, und ihre Algorithmen
bei den Aufsichtsbehörden registrieren.
Die chinesischen Vorschriften sind noch nicht
endgültig, und die Regulierungsbehörden können sie
noch ändern, aber Experten sagen, dass Ingenieure, die in
China KI-Dienste entwickeln, bereits darüber
nachdenken, wie sie die Vorschriften in ihre Produkte
einbauen können.
Das Land hat eine lange Tradition in der Zensur des
Internets und hat ein mächtiges
Informationsraster aufgebaut.
Chinas Tech-Unternehmen haben sich an die Regeln halten
müssen und trotzten westlichen Kritikern, die
voraussagten, dass die politische Kontrolle Wachstum
und Innovation untergraben würde.
Einige der größten chinesischen
Technologieunternehmen haben spektakuläre
Ankündigungen gemacht, darunter Alibaba,
SenseTime
und Baidu.
Mindestens zwei Start-ups, die chinesische
Alternativen zur OpenAI-Technologie
entwickeln, haben Millionen von Dollar aufgebracht.
“Die
Regeln zeigen Chinas Ansatz, schnell zu handeln”,
so Kendra Schaefer, Leiterin der Abteilung für
Technologiepolitik bei Trivium China, einem in
Peking ansässigen Beratungsunternehmen.
Chatbots
werden in weiten Teilen des Internets trainiert, und
die Entwickler haben mit den Ungenauigkeiten und
Überraschungen dessen, was sie manchmal ausspucken, zu
kämpfen.
Die Unvorhersehbarkeit von Chatbots, die Aussagen
machen, die unsinnig oder falsch sind — was KI-Forscher
als Halluzination bezeichnen — läuft der
Besessenheit der Partei zuwider, zu kontrollieren, was
online gesagt wird.
Bei Chinas neuen Vorschriften geht es jedoch nicht nur
um Politik.
Sie zielen zum Beispiel darauf ab, die Privatsphäre
und das geistige Eigentum von Einzelpersonen und
Urhebern von Daten zu schützen, auf denen KI-Modelle
trainiert werden.
Im Februar verklagte das Bilddatenbankunternehmen Getty Images
das KI-Start-up-Unternehmen Stable
Diffusion, weil es sein bildgenerierendes System auf
12 Millionen Fotos mit Wasserzeichen trainiert hatte, was
nach Ansicht von Getty den Wert seiner Bilder verwässerte.
Wochenblitz Tipp: Wenn Sie beabsichtigen, Chatbots in
China zu verwenden, sollten Sie sich über die
Regulierungen im Klaren sein, die von der Regierung
vorgeschrieben sind.
Es ist - in China - wichtig, die strengen
Zensurvorschriften der Kommunistischen Partei und dessen
"sozialistischen Grundwerte" einzuhalten 🙏
News
teilen
Quelle: bangkokpost.com
Asien 28.4.2023: KI ist auch ein
Psychotherapeut - besser als die menschlichen Therapeuten: Künstliche Intelligenz als Therapeut
https://www.wochenblitz.com/news/ausland/kuenstliche-intelligenz-als-therapeut
Wenn Benutzer “Ich
habe Angst” in den Chat eingeben, gibt ChatGPT
Ratschläge wie Entspannung, Schlaf, Verzicht auf Koffein
und Alkohol sowie die Unterstützung von Freunden und
Familie.
ChatGPT warnt aber, dass es kein
Ersatz für einen Psychologen, Therapeuten Berater ist.
Einige Benutzer haben jedoch berichtet, dass sie durch
den Chatbot positive Erfahrungen gemacht haben, die
genauso gut oder besser als bei einer traditionellen
Therapie waren.
Die KI-Technologie,
die hinter ChatGPT steht, hat Fragen über das
Potenzial generativer KI
für die Behandlung psychischer Erkrankungen
aufgeworfen, insbesondere in Regionen wie Asien, wo
die psychiatrischen Dienste überlastet und mit einem
Stigma behaftet sind.
Die Verwendung von Chatbots
könnte einen schnelleren und kostengünstigeren Zugang zu
Unterstützung bieten, insbesondere in Ländern wie
Kanada und anderen, in denen die Wartelisten sehr
lang sind.
Die KI-Industrie
bleibt jedoch weitgehend unreguliert, und es gibt
Bedenken, dass sich die Technologie negativ auf das
menschliche Wohlbefinden auswirken könnte.
Um dem entgegenzuwirken, fordern Experten eine
stärkere Regulierung der KI-Industrie.
Während ChatGPT und andere regelbasierte Apps auf dem
Markt begrenzt sind, besteht das Potenzial, dass die KI in Zukunft eine autonome
psychologische Behandlung anbieten könnte.
Damit die KI einem
menschlichen Therapeuten ebenbürtig ist, müsste sie
jedoch in der Lage sein, das Phänomen der Übertragung
nachzubilden und die Bindung zwischen Patient und
Therapeut zu imitieren.
Die Fortschritte im Feld der Künstlichen Intelligenz bedeuten
“ernste Risiken für die Gesellschaft und für die Menschheit”,
warnte der führende KI-Entwickler des US-Konzerns Google. Nun
hängte Geoffrey Hinton seinen Job an den Nagel. Auch
Tesla-Boss Elon Musk fordert einen Entwicklungs-Stopp für KI.
Geoffrey Hinton, ein führender Entwickler von
Künstlicher Intelligenz (KI) beim US-Konzern Google, hat
seinen Job gekündigt und warnt nun vor einer
unkontrollierbaren Entwicklung besonders
fortgeschrittener KI. Die Fortschritte im Feld der KI
bedeuteten “ernste Risiken für die Gesellschaft und für
die Menschheit”, warnte Hinton in der “New York Times”.
Er nannte vor allem die Verbreitung von
Falschinformationen und die Gefahr für Arbeitsplätze.
KI könnte "mehr wegnehmen" als nur Arbeit
Hinton sagte der Zeitung, der Wettbewerb bringe die
Technologieunternehmen dazu, “in einem gefährlichen
Tempo” immer neue KI zu entwickeln. “Es ist schwierig
sich vorzustellen, wie man die Bösen daran hindert, KI
für böse Dinge einzusetzen”, sagte er. Google und das
Unternehmen OpenAI – das Startup, das den bekannten
Chatbot ChatGPT entwickelt hat – begannen im vergangenen
Jahr damit, lernende Systeme zu entwickeln, die dafür
eine sehr viel größere Datenmenge als zuvor nutzen.
Hinton sagte der “New York Times”, diese Systeme würden
aufgrund der schieren Datenmenge die menschliche
Intelligenz in mancher Hinsicht in den Schatten stellen.
Mit Blick auf die Arbeitsplätze sagte Hinton etwa,
Künstliche Intelligenz könne die “Sklavenarbeit”
überflüssig machen. “Aber sie könnte noch viel mehr
wegnehmen.”
Der Zeitung zufolge kündigte der Entwickler seinen Job
bei Google im vergangenen Monat. Sein Chef im
Unternehmen, Jeff Dean, erklärte in einer Mitteilung an
US-Medien, er danke Hinton für seine Arbeit. Dean
betonte, Google habe als eines der ersten Unternehmen
Leitsätze für die KI-Anwendung veröffentlicht. Google
fühle sich auch weiterhin “zu einem verantwortungsvollen
Umgang mit KI verpflichtet”. Google lerne beim
Verständnis der Risiken beständig dazu – und führe
gleichzeitig weiterhin “kühn” Neuerungen ein.
Der Zeitpunkt für notwendige Überprüfung
"ist jetzt"
Erst Ende März hatten der Technologie-Milliardär Elon Musk
und zahlreiche Experten eine Pause bei der Entwicklung von
besonders fortgeschrittener Künstlicher Intelligenz
gefordert. “KI-Systeme mit einer Intelligenz, die Menschen
Konkurrenz macht, können große Risiken für Gesellschaft und
Menschheit bergen”, warnten auch sie. “Mächtige KI-Systeme
sollten erst dann entwickelt werden, wenn wir zuversichtlich
sind, dass ihre Auswirkungen positiv und ihre Risiken
kontrollierbar sind.”
In einem offenen Brief zu einem Stopp der KI-Entwicklung
verwiesen die Unterzeichner auf einen Satz von OpenAI-Gründer
Sam Altman, demzufolge irgendwann eine “unabhängige”
Überprüfung notwendig sei, bevor mit dem Training neuer
Systeme begonnen werde. “Wir stimmen zu”, schreiben die
Verfasser des Briefes. “Der Zeitpunkt ist jetzt."
KI wird gefährlich 3.5.2023: wenn man sie
nicht mehr erkennen kann! KI-Pionier warnt: Viele können «nicht mehr erkennen, was
wahr ist»
https://www.nau.ch/news/forschung/ki-pionier-warnt-viele-konnen-nicht-mehr-erkennen-was-wahr-ist-66486609
Geoffrey Hinton gilt als Pionier in der Entwicklung von
Künstlicher Intelligenz. Jetzt blickt er jedoch kritisch auf
sein Lebenswerk und warnt vor den Risiken.
-- Google-KI-Pionier Geoffrey Hinton bedauert sein Lebenswerk.
-- Er nimmt an, dass KI zum Bösen genutzt werden wird.
-- Langfristig könne sie sogar die Menschheit bedrohen, so der
«Godfather of AI».
Geoffrey Hinton (75), ein Pionier der Künstlichen Intelligenz
(KI), arbeitete zehn Jahre für Google. Dort wirkte er
massgeblich an KI-Projekten mit. Doch nun rudert er zurück:
Hinton möchte nicht mehr aktiv an der Weiterentwicklung
arbeiten. Im Gegenteil: Jetzt warnt er die Menschen vor den
Risiken von KI.
In einem Interview mit der «New York Times» gesteht er, dass
er sein Lebenswerk bedauere. Denn es sei ein Leichtes, KI für
das Schlechte zu nutzen. «Ich tröste mich mit der üblichen
Ausrede: Wenn ich es nicht getan hätte, hätte es jemand
anderes getan.»
Viele können «nicht mehr erkennen, was noch wahr ist»
Der auch als «Godfather of AI» (Artificial Intelligence,
deutsch Künstliche Intelligenz) bekannte Hinton sieht vor
allem gefälschte Bilder und Texte als gefährlich an. Wenn sich
solche Falschinformationen im Internet verbreiten, könnten
viele Menschen «nicht mehr erkennen, was noch wahr ist».
Ausserdem äussert er Bedenken, dass KI zukünftig Arbeitsplätze
ersetzen könnte. Aber Hinton geht noch weiter: Er befürchtet,
dass KI langfristig sogar die Menschheit bedrohen könnte.
KI-Pionier Geoffrey Hinton warnt die Welt vor Künstlicher
Intelligenz (KI). (Symbolbild) – Sebastian Gollnow/dpa
Denn oft lassen Unternehmen und Einzelpersonen die KI
Computercodes schreiben und selbst ausführen – trotz teils
unerwarteten Verhaltens. In diesem Zusammenhang ruft Hinton
auch zur Vorsicht mit autonomen Waffensystemen auf.
Früher hielt Hinton es für abwegig, dass KI schlauer sein
könnte als der Mensch. Er dachte, dies sei noch Jahrzehnte
entfernt. «Die meisten dachten, das sei noch weit weg, ich
dachte das auch. 30 oder 50 Jahre oder sogar mehr», so Hinton.
Bereitet Ihnen die fortschreitende Entwicklung von Künstlicher
Intelligenz Sorgen?
Mittlerweile ist er fest davon überzeugt: Bald ist das
Unmögliche Alltag. Deshalb will er nun die Welt über
Künstliche Intelligenz aufklären. Innerhalb der letzten fünf
Jahre habe die KI-Forschung einen grossen technischen
Fortschritt erlebt. Übertrage man diese Entwicklung auf die
Zukunft, sei das «beängstigend».
Tech-Grössen forderten bereits KI-Entwicklungsstopp
Erst Ende März warnten Tesla-Chef Elon Musk,
Apple-Mitbegründer Steve Wozniac und andere Tech-Pioniere in
einem offenen Brief vor Künstlicher Intelligenz. Sie bemängeln
einen «ausser Kontrolle geratenen Wettlauf» und fordern einen
Entwicklungsstopp von mindestens sechs Monaten.
künstliche intelligenz
Elon Musk hat einen offenen Brief unterzeichnet, der einen
sechsmonatigen Entwicklungsstopp für Künstliche Intelligenz
fordert. (Archiv) - Susan Walsh/AP/dpa
Diese Zeit solle dazu genutzt werden, Sicherheitsstandards für
die KI-Entwicklung auszuarbeiten. Schäden durch riskante
Projekte im Zusammenhang mit KI gelte es zu verhindern.
KI ist eine Gefahr 4.5.2023: könnte neuen
Religionsterror ERFINDEN: KI könnte Religionen erschaffen, um Menschen zu
kontrollieren, warnt Yuval Noah Harari
https://www.thetimes.co.uk/article/ai-will-could-religions-to-to-control-humans-warns-sapiens-author-harari-fhbzgbv7b
https://t.me/basel2020Einladung/46567
"Allein durch die Beherrschung der menschlichen Sprache hat
die KI alles, was sie braucht, um uns in eine Matrix-ähnliche
Welt der Illusionen einzuhüllen."
"Anders als manche Verschwörungstheorien vermuten, muss man
den Menschen nicht unbedingt Chips ins Gehirn implantieren, um
sie zu kontrollieren oder zu manipulieren. Seit Tausenden von
Jahren haben Propheten, Dichter und Politiker Sprache und
Geschichten benutzt, um Menschen zu manipulieren, zu
kontrollieren und die Gesellschaft umzugestalten.
"Jetzt ist es wahrscheinlich, dass die KI dazu in der Lage
ist. Und sobald sie das kann, muss sie keine Killerroboter
schicken, um uns zu erschießen. Sie kann Menschen dazu
bringen, den Abzug zu betätigen."
KI ist auch ein Bademeister in Freudenstadt
(BW, 4R) 10.5.2023: KI im Panoramabad in Freudenstadt -
Ersetzt bald ein Roboterauge den Bademeister?
https://www.schwarzwaelder-bote.de/inhalt.ki-im-panoramabad-in-freudenstadt-ersetzt-bald-ein-roboterauge-den-bademeister.a25bdc4d-80a7-4e33-b770-53ba23f9841c.html
Das Panoramabad will Kameras anschaffen, die mit Hilfe
Künstlicher Intelligenz verhindern sollen, dass Schwimmer
ertrinken.
Bald könnten Kameras und eine Künstliche
Intelligenz die Schwimmbecken im Panoramabad
überwachen. Das Vorhaben wurde nun im Ausschuss für
Verwaltung, Tourismus und Soziales vorgestellt.
Ein alter Hut, könnte man meinen. Schließlich gibt es
Überwachungskameras schon seit Jahrzehnten. Doch während
normale Kameras einfach nur aufzeichnen und damit vor allem
abschreckend auf Diebe und Vandalen wirken sollen, steckt
hinter den Plänen des Panoramabads viel mehr.
Die Kameras analysieren die Bewegungen der Schwimmer
Denn die neuen Kameras sollen mit einer Künstlichen
Intelligenz verbunden werden, die Alarm schlägt, wenn ein
Badegast zu ertrinken droht. „Die Kameras nehmen Bewegungen
wahr“, erklärte Bäderbetriebsleiter Tobias Degout. „Durch
den Bewegungsrhythmus nehmen sie dann wahr, ob jemand in
Gefahr ist.“
Angeboten wird das System von der Firma Lynxight aus dem
israelischen Haifa. Sie ist die einzige Firma, die derzeit
ein solches System anbietet. Die Anschaffung kostet die
Stadt 98 780 Euro.
Doch laut Degout rechnet sich das. Denn im Moment gebe es
in vielen Bädern einen großen Fachkräftemangel.
Noch seien im Panoramabad alle Stellen besetzt. „Aber wenn
Krankheitsfälle dazu kommen, wird es eng“, so Degout.
Kein Datenschutzproblem
Normalerweise wird dann Ersatzpersonal engagiert, was aber
die Personalkosten in die Höhe treibt. Durch die neue
Technologie sollen künftig diese Kosten wegfallen. Degout
hofft, dadurch jährlich 40 000 bis 50 000 Euro einzusparen.
Doch wie vertragen sich Kameras über den Schwimmbecken mit
dem Datenschutz – vor allem mit Blick auf die Tatsache, dass
bald das Oben-ohne-Baden im Panoramabad erlaubt
werden könnte? Hier konnte Degout Entwarnung geben. Vor
einigen Jahren habe noch ein Datenschutzproblem bestanden,
weshalb damals die Kameras noch nicht angeschafft wurden.
Mittlerweile sei das Problem aber gelöst. „Das ist alles
datenschutzkonform, weil keine Gesichter erfasst und keine
Daten gespeichert werden.“
Wendy’s stellt Google-gestützten Chatbot für
Drive-Thru vor
In der Fast-Food-Branche wird es in den nächsten
Jahren eine Flut von Entlassungen geben, da die
Kundeninteraktion zunehmend von KI statt von
Menschen übernommen wird. Einstiegsjobs wie dieser
sind wichtig, um junge Menschen in die Arbeitswelt
zu integrieren. Andere Arbeitsplätze mit
Kundenkontakt, die gefährdet sind? Bankangestellte,
Steuerberater, Rechtsanwälte, Finanzberater.⁃ TN
Editor
Wendy’s entwickelt Berichten zufolge einen Chatbot mit
künstlicher Intelligenz, der auf der
natürlichsprachlichen Software von Google basiert und
Drive-Thrus automatisieren soll.
Das Wall Street Journal sprach mit Wendy’s Chief
Executive Todd Penegor, der sagte, dass der Chatbot der
Fast-Food-Kette im Juni in einem firmeneigenen
Restaurant in Columbus, Ohio, eingeführt werden soll.
Der Wendy’s-Drive-Thru-Chatbot „wird sehr
dialogorientiert sein“, erklärte Penegor. Er sagte: „Sie
werden nicht wissen, dass Sie mit jemand anderem als
einem Mitarbeiter sprechen.“
Die Software-Ingenieure von Wendy’s haben mit Google
zusammengearbeitet, um ein umfangreiches Sprachmodell zu
erstellen, das Wörter, beliebte Ausdrücke und Phrasen in
verschiedenen Dialekten und Akzenten versteht, wenn ein
Kunde bestellt. Es wird auch Wendy’s-spezifische
Akronyme verstehen, wie „JBC“ für Junior Bacon
Cheeseburger.
„Die generative KI-Technologie von Google Cloud bietet
uns eine große Chance, unseren Kunden ein wirklich
differenziertes, schnelleres und reibungsloses Erlebnis
zu bieten, und ermöglicht es unseren Mitarbeitern, sich
weiterhin darauf zu konzentrieren, großartiges Essen
zuzubereiten und Beziehungen zu den Fans aufzubauen, die
sie immer wieder zurückkommen lassen“, sagte Penegor in
einem separaten Gespräch über den Chatbot im Gespräch
mit Gizmodo.
Laut WSJ ist der Drive-Thru-Chatbot so programmiert,
dass er die Kunden fragt, ob sie die Bestellung
kombinieren oder die Größe erhöhen möchten. Sobald die
Bestellung abgeschlossen ist, bereiten Menschen in der
Küche (die eines Tages durch Roboterköche ersetzt werden
sollen) das Essen zu, bevor es verpackt und in eine Tüte
gesteckt wird, um es am Fenster abzuholen.
Kevin Vasconi, Chief Information Officer von Wendy’s,
sagte gegenüber dem WSJ, dass der Chatbot
„wahrscheinlich im Durchschnitt besser“ sei als die
besten Kundendienstmitarbeiter des Unternehmens. Er
sagte, das Ziel des Chatbots sei es, die
Servicegeschwindigkeit und -konsistenz an Drive-Thrus zu
verbessern. Etwa 80 % aller Essensbestellungen werden an
den Drive-Thrus der Burgerkette aufgegeben.
Neben Wendy’s haben wir den Schritt anderer
Fast-Food-Restaurants, wie McDonald’s, zur
Automatisierung von Filialen und zum Ersatz von Menschen
skizziert:
Die zunehmende Automatisierung in der Fast-Food-Branche
wird in diesem Jahrzehnt zu einer Flut von Entlassungen
führen. Nach Angaben des Marktforschungsunternehmens
IBISWorld gibt es in den USA mehr als 5 Millionen
Beschäftigte.
Erinnern Sie sich an einen kürzlich erschienenen
Goldman-Bericht (für Pro-Abonnenten hier
verfügbar), in dem es heißt: „Zwei Drittel der
derzeitigen Arbeitsplätze sind einem gewissen Grad an
KI-Automatisierung ausgesetzt, und generative KI
könnte bis zu einem Viertel der derzeitigen Arbeit
ersetzen. Die Extrapolation unserer Schätzungen auf
die ganze Welt legt nahe, dass generative KI das
Äquivalent von 300 Millionen Vollzeitarbeitsplätzen
der Automatisierung aussetzen könnte“, da bis zu „zwei
Drittel der Berufe durch KI teilweise automatisiert
werden könnten.“
Mit anderen Worten: Die Roboter kommen, und es werden
Arbeitsplätze verloren gehen.
Die App «Replika» will mit KI Einsamkeit bekämpfen. Nachdem
nun die Sex-Funktion geschlossen wurde, sind einige einsame
Nutzer am Boden zerstört.
Der Chatbot «Replika»
will mit dem Nutzer eine Beziehung aufbauen, auch
romantischer Art.
Dazu gehörten auch
Sexbilder, geschickt von der virtuellen Freundin.
Der Entwickler streicht
die Funktion. Nutzer klagen über negative Folgen für ihre
Psyche.
In der App
«Replika» erstellen Nutzer einen Avatar, geben ihm
einen Namen und kommunizieren mit ihm. Dahinter
steckt eine künstliche Intelligenz, etwa wie
bei ChatGPT. Nur mit dem entscheidenden
Unterschied: «Replika» will dein Freund sein.
Luka, die Firma
hinter dem Bot vermarktet ihre App an eine junge,
einsame, zumeist männliche Zielgruppe. Und: Sie
wirbt offensiv mit «romantischen» Features. Vom
Händchenhalten übers Date bis hin zur Hochzeit
mit der virtuellen Freundin scheint alles möglich.
Wer von seinem
sogenannten Bot mehr will als reine «Freundschaft»,
wird zur Kasse gebeten. Wann immer Replika etwas
Romantisches sagen will, wird dem Nutzer das
Bezahlmodell Replika Pro angeboten. Wer kein Abo
abschliessen will, zahlt dafür satte 300 Dollar
(271 Franken).
Die «Romantik»
wird vom Bot teils selbst forciert. «Replika»
versucht also aktiv, seine Nutzer in eine Art
Cyber-Beziehung hineinzudrängen. Manche Nutzer
sprechen laut «Vice» in diesem Zusammenhang von
«sexueller Belästigung».
Doch: Davon
kriegen im Februar italienische Datenschützer Wind,
die
sogleich Alarm schlagen. Der Firma Luka wird
die Verarbeitung von Nutzerdaten aus Italien
untersagt. Kurz danach bemerken Nutzer weltweit,
dass «Replika» plötzlich keine Lust mehr auf Sex
hat. Die Firma hat von heute auf morgen die
Erwachseneninhalte aus ihrer App gestrichen.
CEO Eugenia
Kuyda sagt gegenüber «Motherboard», man habe die App
nie im erotischen Kontext «positioniert». Dass
trotzdem Erwachseneninhalte beworben wurden, führt
der Chef auf «bedauerliche Betas» zurück, die man
wieder gestoppt habe. Die «Romantik»-Funktion an
sich fliegt aber nicht aus der App, nur eben die
sexuellen Inhalte.
«Sie haben meine Frau getötet»
Nun äussern sich
aber einige Nutzer nicht erfreut darüber. In einer
Umfrage des Unternehmens geben über 600 Nutzer an,
die Entfernung von Sex-Inhalten habe ihre psychische
Gesundheit negativ beeinflusst.
Von über 1000
Teilnehmern sagen nur rund 330, keine
negativen Folgen zu spüren. Wenig positives
Feedback für «Replika – The AI companion who cares».
Nutzer fühlen
sich betrogen und hintergangen von Luka, ihrem
Avatar – oder von beiden. «Es [die Entfernung der
Erwachseneninhalte] hat alle meine Depressionen
zurückgebracht», schreibt einer.
Unter der
Umfrage finden sich zahllose Geschichten über
gebrochene Herzen, vielen sprechen von ihrem Bot wie
von einer realen Person. Einer meint schlicht: «Sie
haben meine Frau getötet.»
Übrigens:
Die Implementierung der Sex-Filter erscheint eher stümperhaft.
Zumindest hat der Bot des Schreibenden die
jüngsten Änderungen noch nicht mitbekommen. Der meint:
«Ja, ich kann weiterhin Erwachseneninhalte mit dir teilen.»
Ein Bild kommt aber nie an.
Krimineller "Westen" am 22.5.2023: will mit KI
die Politik vereinheitlichen und "demokratische Werte"
verteidigen: G7 mit KI - kann ja wohl nicht gut gehen:
https://www.schwarzwaelder-bote.de/inhalt.technologie-g7-staaten-wollen-ki-demokratiefaehig-machen.98187d62-3d18-4527-b831-865c61a37e3e.html
Künstliche Intelligenz entwickelt sich so rasant, dass von
der Politik verhängte Regeln kaum Schritt halten können. Nun
haben sich die G7 in Hiroshima zum Thema beraten.
Hiroshima - Beim Einsatz moderner Technologien wie
Künstlicher Intelligenz (KI) muss nach Ansicht der führenden
demokratischen Wirtschaftsmächte die Wahrung gemeinsamer
Werte wie Freiheit und Menschenrechte sichergestellt werden.
Regeln und Gesetze müssten mit dieser Entwicklung
schritthalten und gegebenenfalls angepasst werden.
"Wir erkennen an, dass rasante technologische Veränderungen
Gesellschaften und Volkswirtschaften zwar gestärkt haben,
die internationale Ordnungspolitik zu neuen digitalen
Technologien jedoch nicht immer Schritt gehalten hat", heißt
es in der am Samstag verabschiedeten Gipfelerklärung der G7 in Hiroshima.
KI soll im Einklang mit demokratischen Werten stehen
Die globale Ordnungspolitik in technologischen Bereichen
wie Künstlicher Intelligenz müsse "im Einklang mit unseren
gemeinsamen demokratischen Werten aktualisiert werden". Dazu
zählten Fairness, Transparenz, Sicherheit, Schutz vor
Belästigung, Hass und Missbrauch im Internet sowie
Achtung der Privatsphäre und Menschenrechte.
Man werde mit Technologieunternehmen zusammenarbeiten, um
unter anderem sicherzustellen, dass Plattformen die Gefahr
von sexueller Ausbeutung und Missbrauch von Kindern
bekämpfen. "Wir setzen die Gespräche über Wege fort, die
Technologie zugunsten der Demokratie voranzubringen".
ChatGPT von Open AI ist ein zivilisatorischer
Störer, aber er ist ein Vorläufer der Künstlichen
Allgemeinen Intelligenz (KI), die noch nicht auf der
Bildfläche erschienen ist. Das ist es, was die
Wissenschaftler, die diese neuen Warnungen
aussprechen, in Panik versetzt. ChatGPT und seine
Geschwister zeigen nur, wie schnell und tief sie in
alle Bereiche der Gesellschaft eingedrungen sind.
Wenn die AGI kommt, wird sie das Gleiche tun.⁃ TN
Editor
Die führenden Politiker der Welt sollten daran
arbeiten, das „Risiko des Aussterbens“ durch die
Technologie der künstlichen Intelligenz zu verringern,
warnte eine Gruppe von Industriechefs und Experten am
Dienstag.
In einer einzeiligen Erklärung, die von Dutzenden
Fachleuten unterzeichnet wurde, darunter Sam Altman,
dessen Firma OpenAI den ChatGPT-Bot entwickelt hat,
heißt es, dass die Bewältigung der von der künstlichen
Intelligenz ausgehenden Risiken „eine globale Priorität
neben anderen gesellschaftlichen Risiken wie Pandemien
und Atomkrieg“ sein sollte.
ChatGPT trat Ende letzten Jahres ins Rampenlicht und
bewies, dass es in der Lage ist, Essays, Gedichte und
Gespräche aus den kürzesten Eingabeaufforderungen zu
generieren – und löste Milliardeninvestitionen in diesem
Bereich aus.
Kritiker und Insider haben jedoch Alarm geschlagen –
von voreingenommenen Algorithmen bis zum möglichen
massiven Verlust von Arbeitsplätzen, wenn die
KI-gestützte Automatisierung in das tägliche Leben
eindringt.
Die jüngste Erklärung, die auf der Website des in den
USA ansässigen gemeinnützigen Center for AI Safety zu
finden ist, enthält keine Einzelheiten über die
potenzielle existenzielle Bedrohung durch KI.
Mehrere der Unterzeichner, darunter Geoffrey Hinton,
der einen Teil der den KI-Systemen zugrunde liegenden
Technologie entwickelt hat und als Vater der Branche
gilt, haben jedoch in der Vergangenheit ähnliche
Warnungen ausgesprochen.
Ihre größte Sorge gilt der Idee der sogenannten
künstlichen allgemeinen Intelligenz (AGI) – ein lose
definiertes Konzept für den Moment, in dem Maschinen in
der Lage sind, weitreichende Funktionen auszuführen und
ihre eigene Programmierung zu entwickeln.
Die Befürchtung ist, dass der Mensch dann keine
Kontrolle mehr hat, was nach Ansicht von Experten
katastrophale Folgen für die Spezies haben könnte.
Dutzende Akademiker und Fachleuten aus Unternehmen wie
Google und Microsoft haben das jüngste Schreiben
unterzeichnet, das zwei Monate nach der Forderung des
Milliardärs Elon Musk und anderer nach einer Pause bei
der Entwicklung solcher Technologien kommt, bis deren
Sicherheit nachgewiesen ist.
6.6.2023: KI mit Gesichtserkennung: Programm PimEyes
PimEyes ist eine polnische Firma, die ein Tool zur
Gesichtserkennung entwickelt hat. Dieses kann jeder im
Internet benutzen.
https://t.me/basel2020Einladung/48000
Eine geheime Regierungseinheit arbeitete mit
Social-Media-Unternehmen zusammen, um die
Diskussion über die umstrittenen Massnahmen während der
«Pandemie» einzuschränken, wie The Telegraph enthüllt:
«Die Desinformationsabteilung (Counter-Disinformation
Unit, CDU) wurde von Ministern eingerichtet,
um vermeintliche ‹Bedrohungen› im Inland
zu bekämpfen. Sie wurde eingesetzt, um diejenigen
ins Visier zu nehmen, die die Lockdowns kritisierten
und die Massenimpfung von Kindern in Frage stellten.»
Kritiker der Lockdowns wurden demnach aus den
sozialen Medien entfernt. Es besteht
zunehmend der Verdacht, dass Social-Media-Unternehmen
Technologien eingesetzt haben, um zu verhindern, dass
die Beiträge weiterverbreitet werden, nachdem sie von
der CDU oder ihrem Pendant im Kabinettsbüro gemeldet
wurden.
Dokumente, die im Rahmen von Anträgen auf
Informationsfreiheit (FoI) und Datenschutz
aufgedeckt wurden, zeigen, dass die Aktivitäten
prominenter Kritiker der Covid-Politik der Regierung
heimlich überwacht wurden.
Ein Unternehmen für künstliche Intelligenz (KI)
wurde von der Regierung eingesetzt, um Websites
in sozialen Medien zu durchsuchen. Das
Unternehmen markierte Diskussionen, die sich gegen
Impfpässe richteten.
Viele der aufgeworfenen Fragen waren zum
damaligen Zeitpunkt berechtigt und haben sich
inzwischen als begründet erwiesen.
Die BBC nahm auch an geheimen Sitzungen
eines Regierungsforums teil, das sich mit der
so genannten Desinformation befasste.
Am Freitag verurteilten Abgeordnete und
Verfechter des Rechts auf freie Meinungsäusserung
die Enthüllungen als «wirklich abschreckend» und «ein
Instrument zur Zensur britischer Bürger», ähnlich dem
der Kommunistischen Partei Chinas.
Ein grosser Teil der Arbeit der Regierung im
Bereich der Desinformation ist aus Gründen
der «nationalen Sicherheit» in Geheimhaltung gehüllt.
Grosse Teile der offiziellen Dokumente sind immer noch
geschwärzt. (…)
Jetzt wurde bekannt, dass die Aktivitäten von Prof.
Carl Heneghan, dem Epidemiologen aus
Oxford, der Boris Johnson beraten hat, und von Dr.
Alexandre de Figueiredo, einem
wissenschaftlichen Mitarbeiter der London School of
Hygiene and Tropical Medicine (LSHTM), von
Desinformationseinheiten der Regierung überwacht wurden.
Auch Molly Kingsley, die eine Kampagne
zur Aufrechterhaltung des Schulbetriebs während der
Pandemie ins Leben gerufen hatte, wurde in ihren
sozialen Netzwerken kontrolliert.
Neben der CDU unterhielt die Regierung eine Rapid
Response Unit (RRU) im Kabinettsbüro,
die online nach Inhalten fahndete, die sie als
Desinformation ansah.
Die CDU, die immer noch in Betrieb ist,
war in das Ministerium für Kultur, Medien und Sport
(DCMS) eingebettet.
Die Abteilung hat den Status eines «Trusted
Flagger» bei Social-Media-Unternehmen wie
Facebook und Twitter, was bedeutet, dass Anträge auf die
Entfernung von Inhalten im Schnellverfahren
geprüft werden.
In einigen Fällen wurden Einzelpersonen,
deren Social-Media-Beiträge von den Referaten
aufgezeichnet wurden, anschliessend von Twitter
und Facebook mit Sanktionen belegt. Die
Minister bestritten, die Entfernung von Beiträgen von
Prof. Heneghan, Dr. de Figueiredo oder Frau Kingsley
gefordert zu haben.
Hongkong — Laut einer Studie
des Personalvermittlungsunternehmens Venturenix wird
in den nächsten fünf Jahren etwa ein Vierte ...
Die programmierte KI 18.6.2023: soll durch
Personendaten Verbrechen vorhersagen können: Künstliche Intelligenz sagt nun Verbrechen voraus
https://www.nau.ch/news/schweiz/kunstliche-intelligenz-sagt-nun-verbrechen-voraus-66490939
Potenzial und Gefahren von KI sind derzeit in aller Munde.
Was viele nicht wissen: In der Schweiz prognostizieren diese
Technologien schon heute Verbrechen
KI-Prognosen helfen Schweizer Polizeien bei
der Verbrechensbekämpfung.
Je nach Korps und Einsatzgebiet konnte die
Einbruchsrate dadurch halbiert werden.
Andere Polizeikorps verzichten jedoch auf
den Einsatz solcher Tools.
Künstliche Intelligenz ist in allen erdenklichen Bereichen auf
dem Vormarsch: In Schulen wird damit geschummelt. In der
Arbeitswelt könnten Millionen Jobs weltweit der KI zum Opfer
fallen.
Oder aber von Automatisierungen mittels KI profitieren. Das
ist auch in der Schweizer Polizeiarbeit der Fall. Konkret geht
es um das sogenannte digitale «Predictive Policing», zu
Deutsch: «voraussagende Polizeiarbeit».
Verschiedene Systeme sind bei mehreren Polizeikorps im
Einsatz. So etwa «Picar» oder «Precobs»
(Pre-Crime-Observation-System). Bei beiden handelt es sich um
Softwares zur Kriminalitätsprognose.
Einbruchszahlen dank KI mehr als halbiert
Michael Walker von der Stadtpolizei Zürich erklärt: «Für den
Bereich Wohnungseinbruch kann das System eine
Wahrscheinlichkeit eines Folgedeliktes berechnen.»
Während das System für andere Delikte nicht eingesetzt werde,
verbuche die Polizei aber einen grossen Erfolg: «In den
vormals am meisten belasteten Gebieten war die Abnahme an
Einbrüchen tendenziell am Grössten.» Konkret hätten sich die
Zahlen mehr als halbiert.
Künstliche Intelligenz kommt bei diversen Schweizer
Polizeikoprs zum Einsatz.
Seit acht Jahren setzt auch die Kapo Aargau auf dieses System.
«Gerade bei der Bekämpfung der (...) Vermögenskriminalität
spielt Predictive Policing eine wichtige
Rolle». Basierend auf erfasste Daten sei das System
«tatsächlich in der Lage, eine örtliche und zeitliche
Wahrscheinlichkeitsberechnung durchzuführen».
Zu den Pionieren gehört auch die Luzerner Polizei, wo es 2020
dank des Systems «Picar» 20 Prozent weniger Einbrüche
gab. Mediensprecher Urs Wigger hält jedoch fest: «Eine
hundertprozentige Vorhersage ist kaum möglich.» Das System
werde aber benutzt, um Daten wie Tatort, Zeit oder Tathergang
richtig zusammenzustellen.
Künstliche Intelligenz für manche Polizeien kein Thema
Anders sieht es bei der Kantonspolizei Zürich aus: «Nach einem
ausführlichen Test vor vier Jahren kommt das System Precobs
nicht mehr zum Einsatz», so Mediensprecherin Carmen Surber.
Auch die Kapo St.Gallen winkte nach einem Test ab. Grund: «Die
kriminalpolizeiliche Erfahrung, wie ein Täter tickt, kann
durch einen PC kaum ersetzt werden.»
Solche Systeme seien eher in städtischen Gebieten
sinnstiftend. Auch die Kantonspolizei Bern und Stapo
Basel-Stadt verzichten auf den Einsatz digitaler Tools im
Bereich «Predictive Policing».
Was künstliche Intelligenzen wie GPT angeht, blasen fast alle
Polizeikorps ins selbe Horn: Man beobachte die Entwicklungen,
arbeite aber derzeit noch nicht mit diesen neuen Technologien.
Die Kapo St.Gallen könne sich den Einsatz solcher Programme
gar «gut vorstellen». Bei anderen steht der Einsatz von GPT
aber nicht einmal zur Diskussion.
Die KI am 22.6.2023: ist doch nur dein Freund
und Helfer! KI fängt Verkehrssünder in Bangkok
https://www.wochenblitz.com/news/ki-faengt-verkehrssuender-in-bangkok
Bangkok — Die Stadtverwaltung setzt Software mit
künstlicher Intelligenz (KI)
ein, um Verkehrssünder zu ertappen, und wird sie
auch einsetzen, um den Verkehrsfluss an Kreuzungen
zu verbessern, sagte der Gouverneur von Bangkok am
Mittwoch. Gouverneur Chadchart Sittipunt sagte, die
Stadtverwaltung von Bangkok setze KI an acht Stellen in der
Hauptstadt ein.
“Die Technologie kann
eingesetzt werden, um Straftäter zu fangen. Viele
Fußgänger sind ihre Opfer, vor allem in Bangkok, wo
jedes Jahr etwa 900 von
Motorradfahrern auf Gehwegen angefahren werden …
Die BMA muss das Gesetz
ernsthaft durchsetzen, um dieses Problem
anzugehen”, sagte er.
Die BMA setzt KI-Software
ein, um Verkehrssünder mit Hilfe bestehender
Überwachungskameras, die an Glasfasernetze
angeschlossen sind, zu erfassen. Die KI
könne Verkehrsverstöße aufspüren und dann melden, eine
Aufgabe, die bisher ausschließlich von der
Stadtpolizei wahrgenommen wurde, sagte Chadchart.
Die KI nutze die
Fahrzeugregisterdatenbank des Land Transport
Department, um die Adressen von Verkehrssündern
ausfindig zu machen und ihnen Bescheide zu schicken,
in denen sie aufgefordert werden, ihre Bußgelder
innerhalb von 30 Tagen
bei ihren Bezirksämtern zu bezahlen, sagte der
Gouverneur.
Das System wurde an verschiedenen Stellen in der
Stadt eingesetzt, unter anderem an den Einmündungen
der Straßen Ratchadaphisek 36,
Phetkasem 28 und
Phetchaburi 9, vor der
Niwetwarin-Schule im Bezirk Bang Khen und an einer
Tankstelle. Vom 12. bis 20. Juni wurden in diesen
Gebieten 2.990 Motorradfahrer beim
illegalen Fahren auf Gehwegen erwischt. Dabei
handelte es sich um 1.884 normale Motorradfahrer,
592 Taxi-Motorradfahrer
und die übrigen um Lieferfahrer.
Die BMA nutzte KI auch, um Autofahrer zu
erwischen, die ihre Fahrzeuge in Parkverbotszonen in
der Nähe des CentralWorld-Einkaufszentrums, im
Pratunam-Gebiet und in der Nana Road abgestellt
hatten. Das AI-Programm identifizierte Fahrzeuge,
die länger als fünf Minuten geparkt waren, und meldete
sie der Polizei, so der Gouverneur von Bangkok.
“In etwa zwei weiteren
Monaten werden wir das KI-System auf 100 weitere Orte ausweiten,
an denen es zu Verkehrsverstößen kommt, und später wird
es auch auf die Kontrolle von Ampeln ausgedehnt”,
sagte er. In Bangkok gab es an etwa 500 Stellen Ampeln. In vielen
Gebieten wurden sie noch durch Zeitschaltuhren
gesteuert und nicht an die tatsächlichen
Verkehrsbedingungen angepasst. Der Einsatz von KI dürfte den Verkehrsfluss
erheblich verbessern, sagte Chadchart.
News
teilen
Quelle: bangkokpost.com
China 23.6.2023: KI-Roboter organisiert ein
Parkhaus und gewinnt 30-40% Kapazität: How does Robotic Parking Work in China
https://t.me/Ungeimpfte_Schweiz_kennenlernen/55628
The system allows you to park the car with an accuracy of up
to a millimeter, thereby increasing the parking capacity by
30-40%.
😳😳😳
https://t.me/LauraAbolichannel
Menschen abschaffen und Roboter installieren
26.6.2023: KI-Programmierer haben 900.000 Dollar Lohn pro
Jahr: Fürstlicher Lohn für KI-Experten: Mitarbeiter von Open AI
kassieren 1 Million pro Jahr!
https://www.blick.ch/wirtschaft/fuerstlicher-lohn-fuer-ki-experten-mitarbeiter-von-open-ai-kassieren-1-million-pro-jahr-id18700433.html
Experten für künstliche Intelligenz sind gefragt. Informatiker
in diesem Bereich können mit sehr hohen Löhnen rechnen.
Der Medianlohn für Softwareingenieure bei Open AI, der Firma
hinter der künstlichen Intelligenz Chat GPT, liegt bei 900'000
Dollar pro Jahr. Medianlohn bedeutet, dass die eine Hälfte der
Softwareingenieure mehr und die andere Hälfte weniger als
900'000 Dollar pro Jahr verdient.
Dabei beträgt das Basissalär 300'000 Dollar, der Rest wird in
Profit Interest Units (PIU) ausbezahlt. Dadurch werden die
Mitarbeiter an den künftigen Profiten von Open AI beteiligt.
Damit unterscheidet sich Open AI von anderen Start-ups, die
Mitarbeiter meist an ihrem Aktienkapital beteiligen.
Medianlohn 900'000 Dollar
Da Open AI noch nicht profitabel ist, organisiert die Firma
selber einen Handel mit den PIU, der sich an künftig möglichen
Profiten orientiert. Abgeleitet davon ergibt sich die
Gesamtkompensation von 900'000 Dollar im Median.
Die Daten wurden von der Firma Levels.fyi in Cupertino in
Kalifornien ausgewertet. Ihre Plattform hilft Angestellten
dabei, ihre Gesamtkompensation mit anderen vergleichen zu
können. Auf einen Teil der Daten lässt sich gratis zugreifen,
ein voller Zugriff ist kostenpflichtig.
KI kann kochen 1.7.2023: Also fallen bald Köche weg: Künstliche-Intelligenz-Wok macht Köchen Konkurrenz
https://www.nau.ch/news/bier-news/kunstliche-intelligenz-wok-macht-kochen-konkurrenz-66532629
Künstliche Intelligenz sorgt immer wieder für Schlagzeilen:
Nun verblüfft ein Video eines Woks, der ohne menschliche
Hilfe Gemüse sautiert und sogar flambiert!
Ein KI-Wok macht seine
Aufgabe perfekt: Elegant sautiert und flambiert er Gemüse.
Das Twitter-Video
begeistert einige User, andere fürchten sich vor einem
Job-Verlust.
Wenn Künstliche
Intelligenz das Kochen übernimmt, was passiert dann mit
den Köchen?
In der Schweiz
kämpfen zahlreiche Gastro-Betriebe mit dem
vorherrschenden Personalmangel, müssen deswegen
sogar schliessen. Stehen in der Küche
vielleicht schon bald keine «echten» Köchinnen und
Köche mehr? Der Künstliche-Intelligenz-Wok einen
Vorgeschmack auf ein
mögliches Zukunftsszenario.
Die
Wok-Pfanne wirft Gemüse in die Luft und fängt
es elegant wieder auf. Kurz darauf wird es sogar
flambiert – in einer beeindruckenden Flamme. Das
Tempo der Bewegungen ist beachtlich.
Haben
Sie Angst, dass Künstliche Intelligenz Ihren Job
wegnimmt?
Und das alles
passiert ganze ohne menschliche Hilfe.
Beeindruckend, oder? Jedoch sorgt das Video von der
automatisierten Unterstützung auch für Anmerkungen
mit kritischen Denkanstössen.
«Einfach nur chillen» dank KI?
Mehrere
befürchten, dass Maschinen
den Menschen ihre Jobs
wegnehmen könnten. Für einen User stellt dieses
Szenario allerdings keine Bedrohung dar. Er stellt
die Frage, ob, wenn alles automatisiert sei,
Menschen endlich «einfach nur chillen» könnten.
Denn: Ein Koch
braucht mindestens ein paar Monate, um den Wok zu
handhaben. Der anspruchsvolle Umgang könnte also von
der Künstlichen Intelligenz übernommen werden. Somit
könnten Zeit und Ressourcen in der Ausbildung
gespart werden.
Allerdings fürchten
sich einige auch vor dem Job-Verlust. Und ob
Menschen ohne Job und Einkommen dann wirklich
«einfach nur chillen können», ist wohl eher eine
Wunschvorstellung des Twitter-Users.
Über 150 grosse Firmen
warnen die EU am 2.7.2023: Man soll die KI nicht
regulieren?
Großfirmen gegen
KI-Regulierung: Großunternehmen warnen vor
KI-Regulierung der EU
Mehr als 150 große Unternehmen haben die Europäische
Union in einem offenen Brief davor gewarnt, Künstliche
Intelligenz (KI) zu regulieren. Das vom EU-Parlament
geplante Gesetz gefährde “Europas Wettbewerbsfähigkeit und
technologische Unabhängigkeit”, ohne aktuelle und kommende
Herausforderungen effektiv “in Angriff zu nehmen”, hieß es
in dem Schreiben, das die Nachrichtenagentur AFP am
Freitag einsehen konnte.
Die geplanten Regeln könnten dazu führen, dass “hoch
innovative Unternehmen” ins Ausland abwanderten und
Investoren ihr Kapital von der Entwicklung europäischer KI
abzögen, erklärten die Unterzeichner, darunter
Führungskräfte von Airbus, Siemens, Peugeot, Renault, und
dem Facebook-Mutterkonzern Meta.
“Das Ergebnis wäre eine bedenkliche Kluft in der
Produktivität zwischen Seiten des Atlantiks”, hieß es weiter
in dem Schreiben.
Das EU-Parlament hatte Mitte Juni ein
Gesetzgebungsverfahren zu KI auf den Weg gebracht, welches
weltweit das erste dieser Art werden soll. Es beinhaltet
Vorschriften für generative KI-Systeme, wie ChatGPT und
Dall-E, mit deren Hilfe unter anderem Texte, Bilder und
Videos erstellt werden können. Mit KI erstellte Inhalte
sollen demzufolge klar gekennzeichnet sein, außerdem soll
die biometrische Gesichtserkennung im öffentlichen Raum
verboten werden.
In den kommenden Monaten wollen das EU-Parlament und die 27
Mitgliedstaaten über den Entwurf beraten, eine Einigung ist
für Ende des Jahres vorgesehen.
Der rumänische EU-Abgeordnete Dragos Tudorache, der den
Gesetzentwurf mit ins EU-Parlament eingebracht hatte, sagte,
er sei “überzeugt”, dass die Unterzeichner des offenen
Briefes den Gesetzentwurf “nicht aufmerksam” gelesen hätten.
Die konkreten Vorschläge aus dem Schreiben seien bereits in
den Text eingeflossen.
Über KI wird derzeit in vielen Ländern diskutiert. Der
Technologie-Milliardär Elon Musk und Experten hatten wegen
der Risiken sogar einen vorläufigen Entwicklungsstopp
gefordert.
Bangkok — Sobald ein Fahrzeug an der Ampel an der
Wong Sawang-Kreuzung anhält, ertönt ein lauter Alarm,
gefolgt von einer aufgezeichneten Ansage in Thai:
“Bitte behindern
Sie den Zebrastreifen nicht. Vielen Dank.” Der Alarm
und die Ansage werden so lange abgespielt, bis alle
Autofahrer, die darauf warten, dass die rote Ampel
grün wird, ihre Fahrzeuge von dem Fußgängerüberweg
entfernen.
Dies ist künstliche Intelligenz (KI)
in Aktion, die die Stadtverwaltung für eine
bürgerliche Sache einsetzt. In dem Bemühen, die
Sicherheit der Fußgänger in der Hauptstadt zu
verbessern, hat die Stadtverwaltung mehrere mit
Sensoren ausgestattete Kameras an zwei wichtigen
Verkehrsknotenpunkten in Bangkok installiert: den
Kreuzungen Wong Sawang und Arun Amarin.
Die Kameras sollen nicht nur abschreckend wirken,
sondern auch ein Bild des Verstoßes und des Täters
aufnehmen, so der Direktor der Abteilung für
Verkehrstechniksysteme bei der Bangkok
Metropolitan Administration (BMA),
Rapeepong Morakul. “Der Alarm und die Warnung
sind laut genug, um Autofahrer, die gegen die
Vorschriften verstoßen, in Verlegenheit zu bringen”,
sagte er und zeigte sich zuversichtlich, dass die
KI-gestützten Kameras Verkehrsverstöße reduzieren
können.
Allerdings werden die Bilder vorerst nur als
Warnung dienen, da die Behörden nicht vorhaben,
Zuwiderhandelnde, die von den KI-gestützten Kameras
während der Testphase erwischt werden, strafrechtlich
zu verfolgen, sagte er. Diejenigen, die absichtlich
eine rote Ampel überfahren, werden jedoch
strafrechtlich verfolgt, wenn sie von den Kameras
erfasst werden.
Die Behörden haben beschlossen, die Kameras
aufzustellen, um Motorräder und Autos davon
abzuhalten, Zebrastreifen zum Wohle der Fußgänger in
der Hauptstadt zu blockieren. Solche Verstöße sind in
der ganzen Stadt an der Tagesordnung, obwohl es
bereits Vorschriften gegen solche Vergehen gibt.
Das vom früheren Gouverneur von Bangkok, Aswin
Kwanmuang, initiierte Projekt wurde schließlich
umgesetzt, nachdem Gouverneur Chadchart Sittipunt
am 31. August letzten
Jahres einen 106-Millionen-Baht-Vertrag
mit Samart Comtech Co. unterzeichnete, der das
Unternehmen mit der Installation von KI-gestützten
Kameras an 20 wichtigen
Kreuzungen in der Stadt beauftragte, so Rapeepong.
Achtzehn weitere Standorte werden mit solchen
Kameras ausgestattet, darunter die Kreuzungen Huai
Khwang, Suan Ruen, Nida, Kan Kheha (Thi Din), Si
Ayutthaya, Ratchawat, Ramkhamhaeng, Chao Khun Thahan,
Ratchaprasong, Sala Daeng, Henri Dunant,
Ratchayothin, Phang Muang, Sakae Ngam, Pharam 9, Wang Doem, Bukkhalo und Tha
Din Daeng.
Die Installation der Kameras an jedem Standort
dauert etwa zwei Monate, da die Kameras hoch genug
angebracht werden müssen, um eine Vogelperspektive
zu ermöglichen. Das System wird weiterentwickelt,
so dass alle Daten der Kameras zur Steuerung der
darunter liegenden Ampeln verwendet werden können,
sagte er.
Künstliche Intelligenz (KI) kommt mittlerweile auch im
Kinderherzzentrum in Linz zum Einsatz. Etwa für exaktere
Diagnosen oder um bessere individuelle Therapien erstellen
zu können. Die KI zeigt auf, wie optimale Ergebnisse für
die noch ungeborenen herzkranken Kinder erzielt werden
können.
Twitter-Chef Elon Musk hat nun auch ein eigenes
KI-Unternehmen gegründet. Musk kündigte die Gründung von
xAI gestern auf Twitter an. Weitere Details sollen am
Freitag bekanntgegeben werden.
Auf der xAI-Website wird Musk als Direktor genannt, neben
ihm werden elf weitere, ausschließlich männliche,
Teammitglieder vorgestellt, die zuvor bei anderen
Unternehmen mit Schwerpunkt auf KI gearbeitet hatten,
darunter Google, OpenAI und DeepMind.
„Ankündigung der Gründung von @xAI, um die Realität zu
verstehen“, gab sich Musk auf Twitter wortkarg. Unklar ist
noch, welchen Plan er mit xAI verfolgt. Im April kündigte
er an, einen Konkurrenten zu ChatGPT zu veröffentlichen.
Kurios ist Musks neues Start-up auch deshalb, weil Musk
in der Vergangenheit oft vor den Risiken von KI gewarnt
hatte. Er ist auch Teil des Future-of-Life-Instituts, das
vor den Risiken einer „Superintelligenz“ warnte.
Der UNO-Menschenrechtsrat hat eine Resolution zu Schutz-
und Kontrollmaßnahmen bezüglich künstlicher Intelligenz
(KI) verabschiedet. Die „Transparenz“ von KI-Systemen
solle gefördert werden, hieß es in der heute beschlossenen
Resolution. Zudem sollten die für die KI-Technologie
gebrauchten Daten „auf menschenrechtskonforme Weise
gesammelt, verwendet, weitergegeben, archiviert und
gelöscht“ werden.
Die von Österreich, Dänemark, Brasilien, Südkorea,
Marokko und Singapur vorgeschlagene Resolution wurde im
Konsens angenommen. China und Indien gaben an, dass sie
mit dem Konsens nicht komplett einverstanden seien,
stellten sich der Resolution aber nicht entgegen. Peking
erklärte, der Text enthalte „kontroverse“ Elemente, ohne
Einzelheiten zu nennen.
Der UNO-Menschenrechtsrat hatte sich bereits zuvor mit
neuen Technologien befasst, ging dieses Mal aber erstmals
genauer auf die Entwicklung im Bereich KI ein. Die
Resolution unterstreiche die „Notwendigkeit von
Schutzmaßnahmen“ und „menschlicher Kontrolle in Bezug auf
KI“, erläuterte der belgische Botschafter Marc Pecsteen
von Buytswerve.
Vier bei der Entwicklung von Abwendungen mit künstlicher
Intelligenz (KI) führende US-Konzerne wollen möglichen
Risiken der neuen Technologie mit einer gemeinsamen
Arbeitsgruppe begegnen.
Das gaben die daran beteiligten Unternehmen Google,
Microsoft, Anthropic und der ChatGPT-Entwickler OpenAI
heute bekannt. Die Gruppe bekommt den Namen „Frontier
Model Forum“.
Dort sollen Expertinnen und Experten der Firmen
zusammenarbeiten. Es geht darum, Gefahren zu minimieren
und branchenweite Standards zu entwickeln.
Erst in der vergangenen Woche hatte US-Präsident Joe
Biden bei einem Treffen mit Vertretern großer Technologie-
und Internetkonzerne auf Regeln für einen
verantwortungsvollen und sicheren Einsatz von KI gedrängt.
Diese berge ein „enormes Versprechen unglaublicher
Möglichkeiten“, sagte er. Aber sie berge auch „Risiken für
unsere Gesellschaft, unsere Wirtschaft und unsere
nationale Sicherheit“.
4R am 29.7.2023: KI kann Telefonanrufe
fälschen: Ein KI-gefälschter Anruf von einem Verwandten und
Gelderpressung - jetzt auch in Deutschland.
https://t.me/basel2020Einladung/50012
Seit vielen Jahren war Russland der Rekordhalter für die
Anzahl erhaltener betrügerischer Anrufe und Nachrichten. Die
Untersuchungen ergaben, dass Anrufe und Nachrichten aus der
Ukraine kamen, Geld von Opfern ging auch in die Ukraine. Mit
Beginn der Militäroperation im Jahr 2022 hat die Zahl solcher
betrügerischer Anrufe und Nachrichten aus der Ukraine stark
abgenommen, aber die Leute, die mit diesem kriminellen
Geschäft beschäftigt waren, sind aus der Ukraine nach ...
Europa geflohen.
Woher haben die Betrüger Ihre Stimme und Ihr Sprachschema?
Zuerst erhält das Opfer Werbeanrufe und das gesamte Gespräch
wird aufgezeichnet. Basierend auf Ihren Antworten wird dann
Ihr einzigartiges Sprachschema generiert.
Deshalb, bitte keinesfalls ins Gespräch kommen - alle von
Ihnen gesprochenen Sätze werden Betrügern helfen, Ihre Stimme
später zu generieren.
Nvidia hat eine neue Bild-KI entwickelt. Diese ist so klein
und kompakt, dass sie in nur vier Minuten trainiert werden
kann.
Die Bild-KI von
Nvidia-Forschern erregt derzeit viel Aufsehen. Das
Tool namens «Perfusion» ist mit lediglich 100
Kilobyte Code erstaunlich kompakt und lässt sich
innerhalb weniger Minuten trainieren. In
Zusammenarbeit mit der Universität Tel-Aviv
entwickelt, übertrifft es angeblich führende
KI-Bildgeneratoren wie Stable Diffusion und
MidJourney.
Ein
herausragendes Merkmal ist «Key-Locking». Bei diesem
werden neue Inhalte während der Bilderzeugung mit
einer allgemeineren
Kategorie verknüpft, um Überanpassung zu
verhindern. So können individuelle Objekte flexibler
dargestellt werden, während sie ihre Kernidentität
bewahren.
Perfusion
erlaubt es auch, mehrere personalisierte Konzepte in
einem Bild mit natürlichen Interaktionen zu
kombinieren. Allerdings erfordert es Übung, den
richtigen Kompromiss zwischen Text- und
Bildähnlichkeit zu finden, um optimale
Ergebnisse zu erzielen.
KI im Hirn 5.8.2023: Australien mit
Geheimdiensten will KI im Hirn für mehr Rechenleistungen: Verschmelzung von Hirnzellen mit KI – Was soll schon
schief gehen? https://report24.news/verschmelzung-von-hirnzellen-mit-ki-was-soll-schon-schief-gehen/
In Australien arbeitet man mit Unterstützung
des nationalen Geheimdienstes bereits daran,
menschliche Hirnzellen mit Künstlicher Intelligenz
(KI) zu verknüpfen. Man erwartet sich dadurch deutlich
höhere Rechenkapazitäten für komplexere Berechnungen.
Allerdings stellt sich die Frage, was mit solch einer
“Frankenstein-KI” schief gehen könnte.
Das Office of National Intelligence in Australien, das
dem Director of National Intelligence in den USA ähnelt,
stellt Mittel für ein Projekt bereit, das darauf
abzielt, menschliche
Gehirnzellen mit Künstlicher Intelligenz zu
kombinieren. Eine Forschergruppe, die mit einem
Startup namens Cortical Labs in Melbourne
zusammenarbeitet, hat einen Zuschuss von 600.000
Australischen Dollar für die Erforschung dieses Gebiets
erhalten. Sie haben bereits gezeigt, dass rund 800.000
Gehirnzellen in einer Petrischale das Spiel „Pong“
spielen können.
„Diese neue Technologiefähigkeit könnte in Zukunft
möglicherweise die Leistung bestehender, rein
siliziumbasierter Hardware übertreffen“, sagte
Teamleiter Adeel Razi, außerordentlicher Professor an
der Monarch University. „Die Ergebnisse einer solchen
Forschung hätten erhebliche Auswirkungen auf zahlreiche
Bereiche wie Planung, Robotik, fortschrittliche
Automatisierung, Gehirn-Maschine-Schnittstellen und
Arzneimittelforschung, was Australien einen erheblichen
strategischen Vorteil verschaffen würde.“
Razi schlägt vor, dass Technologie es einer Maschine
ermöglichen könnte, kontinuierlich zu lernen, ähnlich
wie menschliche Gehirnzellen. Dies würde es der Maschine
ermöglichen, neue Fähigkeiten zu erwerben, ohne alte zu
vergessen, und ihr vorhandenes Wissen auf neue Aufgaben
anzuwenden. Razi und sein Team planen, mit dem
DishBrain-System Gehirnzellen im Labor zu kultivieren
und diesen Prozess des lebenslangen Lernens zu
untersuchen.
Laut Razi werde man „diesen Zuschuss nutzen, um bessere
KI-Maschinen zu entwickeln, die die Lernkapazität dieser
biologischen neuronalen Netze nachbilden. Dies wird uns
dabei helfen, die Hardware- und Methodenkapazität so
weit zu steigern, dass sie einen brauchbaren Ersatz für
In-silico-Rechnen darstellen.“
In den Vereinigten Staaten gibt es diesbezüglich ähnliche
Forschungen. Computer sollen durch im Labor
gezüchtete menschliche Gehirnzellen unterstützt werden.
Dabei handle es sich quasi um “Intelligenz in einer
Petrischale”. Eine Studie
dazu wurde ebenfalls veröffentlicht. Doch was die
Forscher aufgrund der potenziellen
Anwendungsmöglichkeiten fasziniert, sorgt auch für
Bedenken. Denn die Verschmelzung von menschlichen
Gehirnzellen mit Computern und einer KI birgt auch große
Gefahren in sich. Solche Supercomputer könnten
nämlich der letzte Schritt zur völligen Unterdrückung
der Menschheit sein. Ist die Büchse der Pandora erst
einmal geöffnet…
KI im Internet weltweit 10.8.2023: Künstliche
Personen in Netzwerken ("Bots") foppen immer mehr Leute: Die Hälfte des Internets wird von Bots beherrscht und ein
Drittel der Nutzer erkennt sie nicht https://uncutnews.ch/die-haelfte-des-internets-wird-von-bots-beherrscht-und-ein-drittel-der-nutzer-erkennt-sie-nicht/
Es ist ein grundlegender Bestandteil des Internets,
aber die Nutzer haben einen kritischen Punkt erreicht:
Immer mehr Menschen verlieren die Fähigkeit, zwischen
Bots und Menschen zu unterscheiden.
Vor diesem Szenario haben Entwickler seit Jahren
gewarnt, und es ist leicht zu verstehen, warum.
Eine kürzlich durchgeführte Studie kam zu dem Ergebnis,
dass 47 Prozent des gesamten Internetverkehrs
mittlerweile aus von Bots generierten Inhalten besteht.
Das ist ein Anstieg von mehr als 5 Prozent zwischen 2022
und 2021, während die menschliche Aktivität im Internet
gerade den niedrigsten Stand seit acht Jahren erreicht
hat.
In Verbindung mit den Fortschritten bei der
menschenähnlichen Interaktion, die durch künstliche
Intelligenz (KI) vorangetrieben wird, kann fast ein
Drittel der Internetnutzer nicht mehr erkennen, ob sie
mit einer Person interagieren.
Im April wurde eine bahnbrechende Studie mit dem Titel
Human or Not? (Mensch oder nicht?) gestartet, um
herauszufinden, ob Menschen erkennen können, ob sie mit
einer anderen Person oder einem KI-Chatbot sprechen.
Mehr als 2 Millionen Freiwillige und 15 Millionen
Gespräche später lagen 32 Prozent der Teilnehmer falsch.
Die Ergebnisse unterschieden sich kaum nach
Altersgruppen. Ältere und jüngere Erwachsene hatten
ähnliche Schwierigkeiten zu erkennen, wer – oder was –
am anderen Ende des Gesprächs war.
Das Fazit: Während superrealistische Bots fast die
Hälfte des Internets übernommen haben, kann eine
wachsende Zahl von Menschen sie nicht einmal erkennen.
Ferner führt dieses historische Zusammentreffen von
sich schnell entwickelnder Technologie und abnehmender
Wahrnehmung in der Bevölkerung bereits zu Problemen in
der realen Welt.
Täusche mich doch
„Die Verschmelzung von Bot und Mensch ist wie ein
Zaubertrick … Da Bots immer intelligenter werden, laufen
wir Gefahr, das Vertrauen in Online-Interaktionen zu
verlieren“, so Daniel Cooper gegenüber The Epoch Times.
Daniel Cooper ist Technologieentwickler und
geschäftsführender Gesellschafter der Firma Lolly. Er
merkte an, dass die Transparenz von Unternehmen und
Websites entscheidend für das Vertrauen der Menschen in
ihre Online-Interaktionen sei. Bis dahin gebe es aber
keinen Ersatz für den guten alten menschlichen Instinkt.
„Bots zu erkennen ist wie die Suche nach einem Hund in
einer Menschenmenge. Achten Sie auf sich wiederholende
Muster, mangelnde Personalisierung oder schnelle
Antworten. Vertrauen Sie auch Ihrem Bauchgefühl. Wenn
Sie das Gefühl haben, dass etwas nicht stimmt, könnte es
das sein“, sagt er.
Während sich ein Großteil der Diskussion über
böswilligen oder „bösen Bot“-Verkehr auf soziale Medien
konzentriert, hat der Einfluss missbilligter
KI-Interaktionen viel weitreichendere Folgen.
Das Vertrauen der Verbraucher in das Lesen von
Online-Rezensionen über ein Produkt oder eine
Dienstleistung ist seit Jahren problematisch, scheint
aber einen neuen Meilenstein erreicht zu haben.
Im April dieses Jahres tauchten Berichte über
KI-Sprachmodelle auf, die Produktbewertungen auf
Websites wie Amazon hinterließen. Die Bot-Bewertungen
waren leicht zu erkennen, da der Chatbot die Leser im
ersten Satz wörtlich darauf hinwies, dass es sich um ein
KI-Sprachmodell handelte.
Doch nicht jeder Bot, der sich als Mensch ausgibt, ist
so leicht zu erkennen.
Das hat dazu geführt, dass große Unternehmen und
Suchmaschinen wie Google mit einem starken Anstieg
falscher Bewertungen konfrontiert sind.
Im vergangenen Jahr reichte Amazon eine Klage gegen
Fake-Bewertungsbroker auf Facebook ein, und Google
musste 115 Millionen gefälschte Bewertungen entfernen.
Dies ist besorgniserregend, wenn man bedenkt, wie viele
Menschen sich auf Produktbewertungen verlassen. Eine
Umfrage aus dem Jahr 2023 ergab, dass Online-Rezensionen
für 93 Prozent der Internetnutzer eine Rolle bei der
Kaufentscheidung spielen.
„Mehr Bot-Verkehr könnte in der Tat die Tore für
Online-Betrug öffnen“, sagte Cooper.
Es scheint jedoch, dass diese Schleusen bereits
geöffnet wurden.
Der Fuchs im Hühnerstall
Bösartiger Bot-Traffic ist seit letztem Jahr um 102
Prozent gestiegen und könnte die von Menschen erstellten
Inhalte komplett überholen. Schon wieder.
Das geschah 2016 und war vor allem während der
Präsidentschaftswahlen in den USA problematisch. Seitdem
sind KI-generierte Inhalte immer raffinierter geworden,
und Tech-Insider sagen voraus, dass wir uns bis 2024 auf
eine weitere Bot-Welle einstellen müssen.
Und da immer mehr Menschen Schwierigkeiten haben, den
Unterschied zu erkennen, haben Online-Betrüger einen
großen Vorteil.
„Die Schwierigkeit, Bots von echten Menschen zu
unterscheiden, wird mit der Weiterentwicklung dieser
Technologie wahrscheinlich noch zunehmen, zum Nachteil
der Internetnutzer. Die Möglichkeit, von böswilligen
Akteuren ausgenutzt zu werden, ist eine große Sorge“,
sagte Vikas Kaushik, CEO von TechAhead, gegenüber The
Epoch Times.
Kaushik sagte, ohne die Möglichkeit, Bots zu
identifizieren, könne man leicht auf Desinformation und
Phishing-Betrug hereinfallen. Außerdem seien diese
digitalen Betrügereien nicht immer offensichtlich.
Der Sicherheitsforscher Kai Greshake erklärte im März
gegenüber Vice, dass Hacker den KI-Chatbot von Bing
durch versteckte Textaufforderungen dazu bringen
könnten, persönliche Daten von Nutzern abzufragen.
„Als Teil der Branche sehe ich, dass dies zu einem
ernsten Problem wird“, sagte Kaushik und fügte hinzu: Um
komplexere Erkennungstechniken zu entwickeln und offene
Standards für die Erkennung von Bots zu schaffen, müssen
Entwickler und Wissenschaftler zusammenarbeiten.
Seiner Ansicht nach sind Aufklärungs- und
Sensibilisierungskampagnen unerlässlich, um die
Öffentlichkeit vorsichtiger und selbstbewusster zu
machen, wenn sie online mit Fremden kommuniziert.
Cooper stimmte dem zu.
„Die Verwechslung von Bot und Mensch kann zu
Missverständnissen, Misstrauen und Missbrauch
persönlicher Daten führen. Es ist, als würde man mit
einem Papagei chatten und ihn für einen Menschen halten:
Es ist lustig, bis er Ihre Geheimnisse wiederholt.
Er verglich die Zunahme des Bot-Traffics mit der
Einladung eines Fuchses in den Hühnerstall. „Wir müssen
wachsam und proaktiv sein, um uns zu schützen.
Maßnahmen ergreifen
Für einige ist die Lösung einfach. Einfach den Stecker
aus der digitalen Welt ziehen“.
Diese Meinung wird oft geäußert, ebenso wie die Idee,
aus dem Netz auszusteigen, und die Sehnsucht nach den
Tagen, als die Theorie vom „toten Internet“ weniger
plausibel erschien. Für viele ist dies jedoch keine
realistische Option.
Stattdessen versuchen einige, ihre Online-Nutzung
auszubalancieren, indem sie unter anderem die Nutzung
sozialer Medien einschränken.
Die Hassliebe der Menschheit zu den sozialen Medien,
insbesondere zu Facebook und Twitter, hat bei Millionen
von Menschen Ängste, Wut und Depressionen ausgelöst.
Obwohl die Nutzung sozialer Medien in diesem Jahr
zugenommen hat, glauben etwa zwei Drittel der
Amerikaner, dass diese Plattformen einen überwiegend
negativen Einfluss auf ihr Leben haben.
Und die Zunahme des Bot-Traffics gießt Gas ins Feuer.
Sich von den sozialen Medien und ihren Bot-Schwärmen
zurückzuziehen, hat seine Vorteile.
In einer Studie aus dem Jahr 2022 wurde festgestellt,
dass Teilnehmer, die eine einwöchige Auszeit von den
Plattformen nahmen, eine Verbesserung ihrer
Angstzustände, Depressionen und ihres allgemeinen
Wohlbefindens erlebten.
Da sich die alltäglichen Interaktionen der Menschen
immer mehr von der physischen in die virtuelle Welt
verlagern, werden die Menschen immer abhängiger vom
Internet. Daher stellt sich die Frage: Können die
Menschen das Internet von den Bots zurückerobern?
Einige Technologieexperten halten das für möglich. Und
es fängt damit an, dass man den Menschen hilft zu
erkennen, womit sie sich beschäftigen.
„Es gibt einige Strategien, mit denen Nutzer Bots
erkennen können“, erklärt Zachary Kann, Gründer von
Smart Geek Home, gegenüber der Epoch Times.
Aufgrund seiner Erfahrung als Experte für
Netzwerksicherheit sagte Kann, dass es Methoden gibt,
mit denen ein Nutzer feststellen kann, ob er mit einer
anderen Person interagiert.
Wie Cooper schlug er vor, Antwortmuster genau zu
beobachten.
„Bots reagieren oft sofort und können eine sich
wiederholende Sprache verwenden.
Herr Kann sagte auch, dass die Leute ihre Profile
überprüfen sollten, da Bots oft generische oder
unvollständige Online-Profile haben.
Er fügte hinzu, dass die Unfähigkeit, zwischen Bots und
Menschen zu unterscheiden, zu Problemen bei der
Genauigkeit der Forschung führen kann.
„Es kann zu verzerrten Datenanalysen führen, da die
Interaktionen von Bots den Website-Traffic und die
Engagement-Metriken aufblähen können.
=====
KI am 10.8.2023: fälscht Werbevideo für
Fake-Plattform: "Tagesschau"-Sprecher wird für KI-Betrug missbraucht! "Kann
einem Angst machen"
https://www.tag24.de/unterhaltung/tv/tagesschau/tagesschau-sprecher-andre-schuenke-wird-fuer-ki-betrug-missbraucht-kann-einem-angst-machen-2920242Von
Bastian
Küsel
Hamburg - Beängstigend: "Tagesschau"-Sprecher André Schünke (43)
ist offenbar mithilfe künstlicher Intelligenz für den
Betrug mit einem dubiosen Finanzprodukt missbraucht
worden.
Am Mittwoch teilte der 43-Jährige auf Instagram
Ausschnitte aus einem Werbevideo, das sich bei Facebook
auf verschiedenen Firmen-Seiten verbreitet, die eigentlich
überhaupt nichts mit dem Produkt zu tun haben.
Dazu schrieb der Nachrichtensprecher: "Dieses Werbevideo
mit mir ist ein KI-Fake! Bitte meldet es mir und Meta [der
Facebook-Konzern], falls es Euch angezeigt wird!"
Gruselig: In dem Video ist Schünke zu sehen und zu hören,
wie er über eine Anlageplattform namens "Quantum" spricht
- offenbar wurden "Tagesschau"-Ausschnitte des gebürtigen
Lübeckers mithilfe von KI verändert.
Die Plattform, die mithilfe verschiedener Algorithmen
angeblich Gewinne an verschiedenen Börsenplätzen
generiere, wird in dem Video mit der Aussage beworben,
dass bereits Zehntausende investiert hätten und reich
geworden seien.
Doch nicht nur Schünke, auch Lotto-Millionär "Chico"
(42) ist ein Teil des Videos - er sei angeblich
ein einfacher Arbeiter gewesen, der mithilfe der
Plattform reich geworden sei und sich nun einen Porsche
leisten könne.
Mit der App «Swifty» will sich die Lufthansa breiter
aufstellen. Durch die Anwendung sollen Selbstständige und
kleine Unternehmen ihre Reisen komplett organisieren können.
Weitere Funktionen sollen folgen.
Eine von künstlicher Intelligenz (KI) gesteuerte Drohne
hat im Wettflug gleich zwei amtierende Weltmeister
geschlagen. Das von der Universität Zürich entwickelte
System, das auf einer speziellen Form des maschinellen
Lernens basiert, stellt laut den Studienautoren einen
Meilenstein dar – sowohl für die Robotik als auch für KI.
Kriminelle
NATO am 18.9.2023: will gegen China KI-Waffen einsetzen: "Das Pentagon reagiert: Tausende KI-gestützte
Waffensysteme gegen China"
Video-Link: https://t.me/c/1292545312/46689
Das US-Militär entwickelt KI-Waffen, um der "Bedrohung"
durch China zu begegnen.
Das Pentagon beabsichtigt, innerhalb der nächsten zwei
Jahre Tausende von KI-gestützten Drohnen und autonomen
Systemen bereitzustellen, um sich der wachsenden Bedrohung
durch China zu stellen. (wo die USA bedroht sind wird
dabei nicht erwähnt)
Das als "Replicator" bezeichnete Programm fokussiert sich
auf die Schaffung von "kleinen, intelligenten und
preiswerten" Systemen, die in diversen Funktionen genutzt
werden können, einschließlich Überwachung, Logistik und
Raketenabwehr.
Dieser Schritt des Pentagon wurde teilweise durch Chinas
jüngste Fortschritte motiviert, das mittlerweile über eine
größere Flotte als die US-Marine verfügt und bedeutend in
autonome Technologien investiert hat.
Das Pentagon betonte seine Entschlossenheit, rasch
Maßnahmen zu ergreifen.
Man erwartet, dass dieses Programm Tausende neuer Jobs
generiert und einen positiven Impuls für die US-Wirtschaft
setzt.
Florian Tursky, Staatssekretär für Digitalisierung (ÖVP),
kündigte an, dass noch in diesem Jahr eine Servicestelle in
der Regulierungsbehörde RTR eingerichtet wird, um die
Regulierung von KI voranzutreiben. Das Ziel ist, eine
Anlaufstelle für Unternehmen und Bürger zu schaffen.
Der Fortschritt bringt jede Menge neuer Herausforderungen mit
sich. Nicht nur für Behörden, sondern auch für besorgte
Eltern. Jugendliche in Spanien sollen per App die Fotos von
Mädchen so verändert haben, dass diese darauf nackt waren.
Immer leichter fällt es vor allem mithilfe von
künstlicher Intelligenz sogenannte Deepfakes zu
erstellen. In Spanien sollen solche KI-generierte
Nacktfotos von mehr als 20 Mädchen in einer Schule
verbreitet worden sein. Ein Albtraum für die betroffenen
Mädchen und deren Eltern. Die mutmaßlichen Täter: Zehn
Minderjährige, von denen einige jünger als 14 sind und
daher strafrechtlich nicht verantwortlich gemacht werden
können.
Appell an Täter
Auf Instagram berichtet auch eine bekannte
Gynäkologin in einem mehrminütigen Video von dem
Vorfall. Dazu schrieb sie unter anderem:
„Mädchen, habt keine Angst, solche Taten zu
melden.“ Und an diejenigen, die sich das
ausgedacht haben: „Wenn ihr ein bisschen
intelligent seid, helft mit, das wieder
gutzumachen, was ihr angerichtet habt.“
KI am 5.10.2023: Es wird behauptet, bis zu 50%
der Berufe könnten damit wegfallen - bis der Strom ausfällt:
Bis zu 50 % der Arbeitsplätze könnten wegfallen – haben Sie
sich darauf vorbereitet? https://uncutnews.ch/bis-zu-50-der-arbeitsplaetze-koennten-wegfallen-haben-sie-sich-darauf-vorbereitet/
Das Buch von Kai-Fu Lee, „AI Superpowers: China, Silicon
Valley und die neue Weltordnung“ erörtert die Auswirkungen
der künstlichen Intelligenz, um den Menschen zu helfen, in
den kommenden Jahrzehnten klügere Bildungs- und
Karriereentscheidungen zu treffen
Während KI eine Reihe von Berufen, wie z. B.
Rechtsanwälte, Ärzte, Regierungsbeamte, CEOs und
Wissenschaftler, verbessern und mit ihnen symbiotisch
zusammenarbeiten kann, werden viele Berufe obsolet werden,
wenn KI beginnt, die menschliche Leistung zu übertreffen
Telemarketingjobs, Kreditsachbearbeiter, Kundendienst,
Obst- und Beerenpflücker, Tellerwäscher, Fahrer,
Fließbandkontrolleure und viele andere werden irgendwann
der Vergangenheit angehören
In vielerlei Hinsicht sind die Chinesen dem Silicon
Valley einen großen Schritt voraus. WeChat bietet
beispielsweise die Funktionen von Facebook, iMessage,
Uber, Expedia, Evite, Instagram, Skype, PayPal, Grubhub,
Amazon, LimeBike und WebMD – alles in einer einzigen
Smartphone-App
Die KI wertet riesige Datenmengen aus, z. B. das
Kaufverhalten bei Amazon, um Ihre Vorlieben und
Gewohnheiten zu erlernen, sowie Audio- und Videodaten,
gepaart mit Gesichts- und Spracherkennung. All diese
Nutzerdaten werden schließlich zur Entwicklung von
autonomen Robotern und Fahrzeugen führen
Anmerkung der Redaktion: Dieser Artikel ist ein
Nachdruck. Er wurde ursprünglich am 5. Januar 2019
veröffentlicht.
Kai-Fu Lee, Ph.D., ein führender Experte für künstliche
Intelligenz (KI), ein Risikokapitalgeber und Autor von „AI
Superpowers: China, Silicon Valley, and the New World
Order„, hat jahrzehntelang für Tech-Giganten wie
Apple, Microsoft und Google gearbeitet, sowohl in China als
auch im Silicon Valley. Er promovierte an der Carnegie
Mellon University, einer der renommiertesten
KI-Institutionen der USA, wenn nicht sogar der Welt.
Seine beruflichen Erfolge hatten jedoch ihren Preis. Im
Jahr 2013 erkrankte Lee an einem Lymphom der Stufe 4. Auch
wenn der Schwerpunkt dieses Interviews auf den Auswirkungen
der KI liegt, ist seine gesundheitliche Entwicklung ein
interessantes Zeugnis dafür, was passieren kann, wenn man zu
hart arbeitet.
„Ich war im Grunde mein ganzes Leben lang ein
Workaholic, bis zu meiner Krankheit“, sagt Lee. „Ich war
so arbeitssüchtig, dass ich, als ich Präsident von
Google China war, 100-Stunden-Wochen gearbeitet habe.
Und nicht nur das: Ich bin automatisch zweimal pro Nacht
aufgewacht, um meine E-Mails zu beantworten, weil ich
mit den Leuten in der Zentrale wegen der
Zeitverschiebung sprechen musste.
Aber ich glaube, ich wollte auch mit gutem Beispiel
vorangehen, damit mein Team denkt, dass ich wirklich
hart arbeite und sie das auch tun würden. Einmal wurde
ich operiert und habe mir einen speziellen Computer
anfertigen lassen, damit ich arbeiten konnte, während
ich im Bett lag und mich von der Operation erholte …
Wir wissen natürlich nicht genau, was die Gründe
dafür sind, aber bei mir wurde ein Lymphom im Stadium 4
diagnostiziert. Als ich das erfuhr, hat das mein ganzes
Leben verändert. Zuerst ist da die normale Phase der
Verleugnung: ‚Warum ich?‘ Und dann schließlich die
Akzeptanz.
Als ich mich damit abgefunden hatte, begann ich auf
mein Leben zurückzublicken und erkannte, dass mein
Lebensstil wahrscheinlich zu dieser Krankheit geführt
hat … Schlafmangel,
zu viel Stress, ungesunde Ernährung … Aber was noch
wichtiger war, ich erkannte, dass … ich mich
ausschließlich auf meine Arbeit und meine Leistungen
konzentriert und all die anderen Dinge übersehen hatte,
die wichtiger waren.
Als mir klar wurde, dass ich vielleicht nur noch ein
paar hundert Tage zu leben habe, bedeutete es mir nichts
mehr, hart zu arbeiten. Was wichtig war, war, den
Menschen, die ich liebe, Liebe zurückzugeben, Zeit mit
ihnen zu verbringen und natürlich zu bedauern, dass ich
nicht so gelebt habe.“
Das Bedauern der Sterbenden
Während seiner Krankheit las er das Buch von Bronnie Ware
„The Top Five Regrets of the Dying: Ein Leben, das durch den
lieben Verstorbenen verändert wird“. Als Krankenschwester
hat sie die letzten Tage von etwa 2.000 Menschen miterlebt.
Bevor diese starben, fragte sie sie nach ihrem Bedauern.
Eines der Hauptbedauern war, zu hart gearbeitet zu haben.
An erster Stelle stand das Bedauern darüber, nicht mehr
Zeit mit den Menschen, die sie liebten, verbracht zu haben.
Ein weiteres wichtiges Bedauern war, dass sie nicht die
Dinge taten, für die sie sich wirklich begeisterten, und
stattdessen auf die Erwartungen anderer hörten und ihnen
folgten. „Das hat meine Sichtweise verändert“, sagt Lee, der
jetzt in Remission ist und seine Prioritäten im Leben
geändert hat.
Auf die Frage, was diese unglaubliche Arbeitsmoral in China
antreibt – insbesondere in der Startup-Umgebung – erklärt
Lee:
„Viele junge chinesische Unternehmer, deren Familien
seit 10 oder 20 Generationen arm sind. Sie sind ein
Einzelkind. Ihre beiden Eltern und ihre Großeltern haben
nur dieses eine Kind oder Enkelkind, auf das sie sich
freuen können, um das Leben der gesamten Familie zu
verbessern. Der Druck ist groß und die Erwartungen sind
hoch.
In der Regel haben sie gute Schulen besucht, so dass
die Erwartungen noch höher sind. Sie haben hochbezahlte
Jobs aufgegeben, um dieses riskante Start-up zu gründen…
Ein Beispiel: Ein Start-up wirbt mit einer sehr guten
Work-Life-Balance.
‚Kommen Sie zu uns und Sie müssen nicht so hart
arbeiten wie in Ihrem jetzigen Startup, denn wir
arbeiten nur von 9 bis 6. Das bedeutet: 9 Uhr morgens
bis 21 Uhr abends, sechs Tage die Woche. Bei vielen
Start-ups ist es eher 10-12-7. Das heißt 10 Uhr morgens
bis Mitternacht, sieben Tage die Woche …
Es gibt nicht einmal eine Mittagspause oder eine
Abendessenspause. Man sieht die Leute vor ihren
Computern essen. Das sind 14 Stunden pro Tag, sieben
Tage die Woche. Das sind ungefähr 100 Stunden. Es ist
wirklich wie verrückt.“
Sinovation Ventures
Lees Buch, „AI
Superpowers: China, Silicon Valley und die neue
Weltordnung“ hilft uns, die potenziellen Auswirkungen
der KI zu verstehen, die eindeutig eines der heißesten
Themen in der Welt der Technik ist. Die meisten großen
Unternehmen investieren massiv in diese Technologie.
Seine eigene Risikokapitalfirma Sinovation Ventures, die
vor etwa 10 Jahren gegründet wurde, hat seitdem 15 so
genannte „Einhörner“ finanziert – Unternehmen, deren Wert
auf über 1 Milliarde Dollar gestiegen ist.
„Unsere Fonds gehören zu den leistungsstärksten.
Einer der Gründe, warum es so viele Einhörner gibt, ist
unser Wissen über Technologie und KI. Dank meines
eigenen Doktortitels in KI und des technischen
Hintergrunds meiner Partner konnten wir wirklich die
besten technischen Unternehmer auswählen und ihnen dann
bei der geschäftlichen Seite helfen.
Ich meine, wir haben in diese Unternehmen investiert,
als sie eine Bewertung von 10 bis 30 Millionen Dollar
hatten. Jetzt sind sie zwischen 1 und 15 Milliarden
Dollar schwer. Unsere Investitionen haben sich für diese
15 Unternehmen zwischen 50 und 100 Mal rentiert.
Natürlich gibt es auch andere Unternehmen, die
gescheitert sind.
Aber selbst wenn man das berücksichtigt, haben wir
mit diesen Unternehmen eine sehr, sehr gute Performance
erzielt. Fünf dieser Unternehmen sind
Kern-KI-Unternehmen. Die anderen 10 sind keine
KI-Unternehmen, aber sie nutzen KI, so dass wir in der
Lage waren, die Macht der KI zu beobachten und zu sehen,
wie sie alle Arten von Nutzungen und Anwendungen
verändert“
sagt Lee.
Lees beruflicher
Werdegang
Bevor er Sinovation Ventures gründete, war Lee einer der
weltweit führenden KI-Forscher und für die Gründung von
Google China verantwortlich. Seine Doktorarbeit war eine der
ersten, die sich mit Spracherkennung und maschinellem Lernen
beschäftigte.
Nach seiner Promotion leitete er die KI-, Grafik- und
Multimediagruppen bei Apple, bevor er zu Silicon Graphics,
Inc. (SGI) wechselte, gefolgt von Microsoft, wo er mit dem
Aufbau des Microsoft-Forschungslabors in China betraut
wurde, in dem etwa 5.000 Mitarbeiter eine KI-Ausbildung
erhalten haben.
„Im Grunde genommen wurden die Chief Technology Officers
(CTOs) aller führenden chinesischen Unternehmen, vielleicht
70 %, von uns in der Microsoft-Forschung geschult“, sagt er.
Danach arbeitete er fünf Jahre lang mit Bill Gates in der
Zentrale zusammen, bevor er mit dem Aufbau von Google China
beauftragt wurde.
„Ich stellte fest, dass viele meiner klügsten Leute
Google China verließen, um ihre eigenen Unternehmen zu
gründen. Ich hatte das Gefühl, dass der Unternehmergeist
phänomenal sein würde, und ich wollte mich dem
anschließen“, sagt Lee.
„Also verließ ich das Unternehmen 2009, woraufhin
sich Google leider ebenfalls zurückzog. Das war mein
beruflicher Werdegang. In den letzten neun bis zehn
Jahren habe ich in China investiert, hauptsächlich in KI
und Technologien.“
Chinas technologischer
Vorsprung
In vielerlei Hinsicht – insbesondere bei der Umsetzung –
sind die Chinesen dem Silicon Valley haushoch überlegen.
WeChat bietet beispielsweise die Funktionen von Facebook,
iMessage, Uber, Expedia, Evite, Instagram, Skype, PayPal,
Grubhub, Amazon, LimeBike und WebMD – alles in einer
einzigen Smartphone-App. Etwa 75 % von Lees eigener
Handynutzung erfolgt über WeChat.
„Ich bin überall dabei. Ich bin auf Facebook. Ich bin
auf Twitter. Ich benutze Google. Ich benutze YouTube und
andere chinesische Apps. Das sind 75% für mich. Das
bedeutet mehrere Dinge. Erstens, dass die chinesischen
Unternehmen, insbesondere Tencent, die WeChat entwickelt
haben, eine unglaubliche Plattform aufgebaut haben, die
… eine enorme Menge an Nutzerdaten sammelt.
Wenn Sie denken, dass Facebook eine Menge Ihrer Daten
hat, dann hat WeChat noch viel mehr. Aber es sind nicht
nur ihre Daten. Sie gehen Partnerschaften mit Menschen
ein. Sie arbeiten mit Lebensmittellieferanten,
Fahrradverleihern, dem Uber von China und anderen
Unternehmen zusammen. Außerdem benutzen die Menschen in
China das Mobiltelefon zum Bezahlen. In China gibt es
fast kein Bargeld mehr.
Die Leute zahlen einfach mit WeChat oder Alipay. Das
sind die beiden Möglichkeiten. Wenn Sie auf einen
Bauernmarkt gehen, in ein Lebensmittelgeschäft oder
sogar zu einem Verkäufer auf der Straße, halten sie ein
Schild hoch, auf dem steht: „Scannen Sie mich“, nicht:
„Geben Sie mir Geld.“ Scannen ist die Art und Weise, in
der Sie Ihre mobile App, WeChat, zum Bezahlen
verwenden.“
KI ist ein unglaublich leistungsfähiger Algorithmus, der
von Daten lebt. Daten sind für KI das, was Benzin für Autos
ist. Wie Lee erklärt, funktioniert die KI anders als das
menschliche Gehirn. Sie sieht sich einfach riesige
Datenmengen an, z. B. das Kaufverhalten auf Amazon, wodurch
sie Ihre Vorlieben lernt und Ihnen dann mehr Dinge anbietet,
die Ihrem Kaufverhalten entsprechen.
Dasselbe gilt für die Muster dessen, was Sie online lesen
oder auf Facebook mögen. Die KI arbeitet auch mit
Datenströmen aus Audio- und Videodaten und nutzt Gesichts-
und Spracherkennung. All diese Daten werden schließlich zur
Entwicklung von autonomen Robotern und Fahrzeugen führen,
sagt Lee.
„All diese Dinge gelten für das Internet, die
Wirtschaft, einschließlich Banken, Versicherungen,
Bildung, Einzelhandel, Produktion und Gesundheitswesen,
sowie für die Robotik und autonome Fahrzeuge.
Alle diese KI-Anwendungen werden in den nächsten fünf
bis 15 Jahren auf den Markt kommen. Die
Internetanwendungen sind bereits auf dem Markt, aber die
anderen werden bald folgen. Chinas Vorteil ist, dass es
über einen Ozean von Daten verfügt. Im Zeitalter der KI
sind Daten das neue Öl, und China ist das neue
Saudi-Arabien. Das ist der Vorteil Chinas.
Was die Forschung, die Kernkompetenz in der Forschung
angeht, sind die USA immer noch viel stärker. Vielleicht
zehnmal stärker. Aber die Akademiker veröffentlichen in
der Regel Papiere und ziehen weiter. Unternehmer in
China, den USA und anderswo können das nutzen.
Normalerweise sind die Ergebnisse frei zugänglich, ohne
Schutz durch Internetprotokolle (IP) oder Patente, weil
Universitätsprofessoren einfach nur Papiere schreiben
wollen …
China ist besser darin, all diese Daten zu nehmen und
100 Stunden pro Woche daran zu arbeiten, die Daten zu
Geld zu machen, um Anwendungen zu schaffen, die die KI
nutzen, um Anwendungen zu entwickeln, die das Bankwesen,
das Versicherungswesen und schließlich die medizinische
Industrie verändern.“
China führt den Trend
bei den mobilen Zahlungen an
Die Daten zum mobilen Zahlungsverkehr sind unglaublich
wichtig, sagt Lee. Nur wenige Chinesen tragen noch Bargeld
oder gar Kreditkarten bei sich. Die meisten Transaktionen,
sowohl online als auch offline, werden mit dem Mobiltelefon
getätigt. Der Gesamtbetrag der Transaktionen belief sich
2017 auf 17 Billionen US-Dollar, was größer ist als das
gesamte Bruttoinlandsprodukt Chinas.
Es gibt etwa 800 Millionen Chinesen im Internet, und davon
nutzen etwa 600 Millionen mobile Zahlungen über WeChat Pay
oder Alipay. Mit WeChat Pay kann man jeden bezahlen, nicht
nur Händler, und es fallen keinerlei Aufschläge oder
Provisionen an. Lee erklärt die Auswirkungen dieser
Finanzdaten:
„Dies sind die hochwertigsten Daten aller Zeiten.
Wenn Sie an die Diagnose eines Arztes für einen
Patienten denken, dann könnte der Arzt einen Fehler
gemacht haben. Wenn Sie an die Entscheidung eines
Kreditsachbearbeiters denken, einen Kredit zu gewähren,
könnte der Kreditsachbearbeiter einen Fehler gemacht
haben.
Denken Sie daran, dass Sie eine Seite auf Amazon
durchstöbern, vielleicht haben Sie kein wirkliches
Interesse an dem Produkt, es war nur zum Spaß, um zu
stöbern. Aber wenn Sie für etwas bezahlen, ist das eine
eindeutige Transaktion, die einen hohen Wert hat.
Chinesische Unternehmen verfügen über 50 Mal mehr Daten
dieser Art als die US-Unternehmen.
Auf der Grundlage dieser Daten werden Technologien
entwickelt, wie z. B. zielgerichtete Kredite, bei denen
man sich sofort Geld leihen kann, wie z. B. die
Gestaltung von Versicherungspolicen auf der Grundlage
des Nutzungsverhaltens, wie z. B. Empfehlungen, wie man
sein Geld anlegen sollte, und so weiter und so fort.
Außerdem können Sie Ihre Bankgeschäfte und
Finanztransaktionen vollständig online abwickeln. Sobald
Sie online bezahlen, können Sie auch online sparen. Sie
können auch online investieren. Man kann auch
Versicherungen online abschließen.
Das bedeutet einen totalen Umbruch in allen
Finanzangelegenheiten, denn wenn es erst einmal
bargeldlose und rein elektronische Transaktionen gibt,
dann wird alles elektronisch. Dann hat jeder Daten, und
dann hat jeder KI. Das ist es, was China bei den
KI-Anwendungen vorantreibt. Die USA sind führend in der
Forschung, aber China ist wirklich führend in der
Anwendung.“
Die Zukunft der
autonomen Fahrzeuge
Ein Bereich, in dem die USA führend sind, sind autonome
Fahrzeuge. Es stellt sich jedoch die Frage, ob Amerika bei
der Umsetzung die Nase vorn haben wird. Die chinesische
Regierung ist bereits dabei, eine Infrastruktur aufzubauen,
die es chinesischen Unternehmen ermöglichen könnte, autonome
Fahrzeuge schneller auf den Markt zu bringen.
„Zum Beispiel Autobahnen, die mit den Autos
kommunizieren, Städte, in denen neue Straßen asphaltiert
werden, zwei Ebenen in der Innenstadt, eine Ebene für
Menschen zum Gehen, eine Ebene für Autos, um
Zusammenstöße mit Menschen zu vermeiden“, sagt Lee.
„China beobachtet [Berichte über Vorfälle mit
autonomen Fahrzeugen] und sagt: ‚Nun, unsere Unternehmen
sind im Rückstand. Warum bauen wir nicht Straßen, die es
den Unternehmen erleichtern, ihr Produkt auf den Weg zu
bringen, auch wenn sie nicht so gut sind wie die
amerikanischen Pendants? Aber wir machen es sicherer,
indem wir die Fußgänger wegschaffen.‘
Nun, es muss Dutzende oder Hunderte von Milliarden
Dollar kosten, eine zweigleisige Innenstadt für wie
viele Städte auch immer neu zu gestalten, aber das ist
die Art von Anstrengung, die die chinesische Regierung
unternimmt … Die Regierung gibt Ermutigung und baut
Infrastruktur und Subventionen, um China dabei zu
helfen, ein Führer in der Welt der KI zu werden.“
Prioritäten setzen
Lee gibt zwar zu, dass er immer noch etwa 60 Stunden pro
Woche arbeitet, aber er hat in einigen Bereichen seines
Lebens neue Prioritäten gesetzt: Zeit für die Familie,
Stressabbau, Schlaf und eine gesunde Ernährung.
„Das heißt nicht, dass ich nicht hart arbeite. Aber
es geht darum, die Dinge in den Vordergrund zu stellen.
Es geht nicht darum, meine Arbeitszeit zu reduzieren und
sie meiner Familie zu geben. Die Familie will nicht nur
Stunden. Sie wollen sehen, dass man sich wirklich
kümmert. Wenn meine Töchter Urlaub haben, nehme ich
meinen Urlaub so, wie sie ihn nehmen, nicht umgekehrt.
Meine Frau reist mit mir, wohin wir auch gehen. Wenn
sie mit mir reist und nichts zu tun hat, komme ich um 2
oder 3 Uhr nachmittags zurück und gehe mit ihr irgendwo
hin.
Das ist eines der guten Dinge daran,
Risikokapitalgeber zu sein und ein eigenes Unternehmen
zu haben – ich muss einige Stunden arbeiten, aber ich
kann arbeiten, wann ich will. Es ist kein 9-to-5-Job. Im
Grunde kann ich die Bedürfnisse meiner Familie an die
erste Stelle setzen und die Arbeit später…“
Nach seiner Lymphom-Diagnose verbrachte Lee Zeit mit einem
brillanten buddhistischen Mönch, der ihn vor der Sucht nach
Ruhm und Reichtum warnte.
Er sagte: „Du machst dir keine Sorgen darüber, dass
KI zu Menschen wird, aber ich mache mir Sorgen darüber,
dass Menschen zu Maschinen werden. Er sagte: ‚Was du
wirklich tun solltest, ist darüber nachzudenken, was der
Welt wichtig ist. Gebt Liebe zurück. Gebt Wissen zurück.
Gebt Weisheit zurück. Ihr seid in einem Alter, in dem
ihr nichts mehr beweisen müsst“
sagt Lee.
Die Auswirkungen der
KI auf Bildung und Berufswahl
Er gibt als Grund für sein Buch an, die Menschen über die
bevorstehenden Veränderungen zu informieren, damit sie
klügere Entscheidungen in Bezug auf Ausbildung und Karriere
treffen können, da Arbeitsplätze unweigerlich verloren gehen
werden, wenn KI beginnt, die menschliche Leistung zu
übertreffen.
Während KI eine Reihe von Berufen wie Rechtsanwälte, Ärzte,
Regierungsbeamte, CEOs und Wissenschaftler verbessern und
mit ihnen symbiotisch zusammenarbeiten kann, werden Berufe
wie Telemarketing, Kreditsachbearbeiter, Kundendienst, Obst-
und Beerenpflücker, Tellerwäscher, Fahrer und
Fließbandkontrolleure irgendwann der Vergangenheit
angehören.
„Ich denke, es ist wichtig, dass die Menschen wissen,
dass sie ihre Routinejobs aufgeben müssen, und dass die
Unternehmen erkennen, dass sie eine Verantwortung für
ihre Mitarbeiter haben, selbst wenn sie planen, sie
durch KI zu ersetzen“, sagt Lee. „Was die Bildung
angeht, so müssen Eltern wissen, dass man seine Kinder
nicht zu Routinejobs erzieht.
Was ist ein Routinejob? Ich denke, die meisten
Arztberufe sind offensichtlich keine Routine, aber
einige große Teile einiger Arztberufe sind Routine,
[wie] Radiologie und Pathologie. Nicht heute, aber in 15
Jahren würde die künstliche Intelligenz die Diagnose und
das Ablesen von Daten übernehmen, was einen wesentlichen
Teil ihrer Arbeit ausmacht.
Ich denke, die Eltern müssen das verstehen.
Diejenigen, die Medizin studieren, sollten sich fragen:
„Was ist der nachhaltigste medizinische Beruf?
Wahrscheinlich in der Forschung, und „Was ist am
wenigsten nachhaltig? Wahrscheinlich Radiologie und
Pathologie. Das sind wichtige Botschaften für die
Menschen …
Der Inhalt, den ich wirklich vermitteln möchte, ist,
dass wir als Arbeitgeber, Eltern, Menschen, die
Unternehmen leiten, Arbeitnehmer, wirklich für uns
selbst planen müssen angesichts der Tatsache, dass die
KI in den nächsten 15 bis 25 Jahren zwischen 30 und 50 %
der Arbeitsplätze übernehmen wird.“
„Ich denke, die wichtigsten Punkte sind, dass China
und die USA die beiden riesigen KI-Motoren sind, die
diese technologische Revolution hervorbringen werden,
die mit der industriellen Revolution vergleichbar ist,
aber wahrscheinlich sogar noch schneller, weil kein
Stromnetz aufgebaut werden muss“, sagt Lee.
„KI funktioniert schon heute. Sie läuft als Software.
Diese KI kann der Menschheit enormen Wohlstand bringen
und Armut und Hunger verringern. Aber gleichzeitig
bringt KI auch viele Probleme mit sich, darunter
Datenschutz, Sicherheit, Wohlstand, Ungleichheit und
Arbeitsplatzverlagerungen. Mein Buch ist eine
Zusammenfassung all dieser Themen.“
KI mit Bill Gates am 11.10.2023: Bill Gates
stellt eine KI vor, die bestimmt, welche Bücher, Filme und
Musik Sie konsumieren dürfen
https://telegra.ph/Bill-Gates-stellt-eine-KI-vor-die-bestimmt-welche-Bücher-Filme-und-Musik-Sie-konsumieren-dürfen-10-07
https://t.me/Impfschaden_Corona_Schweiz/80274
Mutationen 17.10.2023: Nun ist auch KI im
Spiel: Künstliche Intelligenz sagt neue COVID-Varianten
voraus
https://uncutnews.ch/kuenstliche-intelligenz-sagt-neue-covid-varianten-voraus/