KI am 13.10.2023: kann Hautkrebs erkennen: Trefferquote fast 100 Prozent: KI revolutioniert
Hautkrebs-Früherkennung
https://www.blick.ch/ausland/ueber-1000-arztbesuche-eingespart-ki-revolutioniert-hautkrebs-frueherkennung-id19039484.html
Mit KI FAKE-Porno herstellen 26.10.2023:
Gesichter ersetzen und auf diese Weise Leuten die
Karriere ruinieren: Vater und Sohn angeklagt, 100.000 Euro
Schadenersatz gefordert: Deepfake: Gefälschte
Pornovideos mit Melonis Gesicht online gestellt
https://www.suedtirolnews.it/italien/deepfake-gefaelschte-pornovideos-mit-melonis-gesicht-online-gestellt
Sassari/Rom – Die sardische Stadt Sassari wird in kommenden
Frühjahr Schauplatz eines aufsehenerregenden Prozesses sein,
der ein Schlaglicht auf vollkommen neue, der Öffentlichkeit
bisher fast unbekannte Formen der Netzkriminalität wirft.
Weil er laut der Anklage gefälschte Pornovideos mit Melonis
Gesicht geschaffen und online gestellt habe, muss sich ein
40-jähriger Mann demnächst vor Gericht verantworten. Da ihm
der Netzanschluss gehört, wird auch dem 73-jährigen Vater des
Haupttäters der Prozess gemacht. Wie ihre Rechtsanwältin
mitteilt, fordert die italienische Ministerpräsidentin einen
Schadenersatz von 100.000 Euro. „Der Betrag wird zur Gänze für
wohltätige Zwecke gespendet werden“, so die Anwältin von
Giorgia Meloni.
Giorgia Meloni kommt nicht zur Ruhe. Nachdem sie aufgrund der
Trennung von ihrem langjährigen Lebensgefährten in die
Schlagzeilen geraten ist, sorgt nun ein Prozess, der in
wenigen Monaten in der sardischen Stadt Sassari stattfinden
wird, in der italienischen Öffentlichkeit für Aufsehen. Mit
der Unterstützung seines 73-jährigen Vaters soll ein
40-jähriger Mann aus Sassari vor drei Jahren
Deepfake-Pornovideos mit dem Gesicht von Giorgia Meloni
hergestellt und auf eine US-amerikanische Website für
Erwachsene hochgeladen haben. Die widerlichen Videos, die auf
einschlägigen Netzadressen mehrere Monate lang sichtbar
blieben, wurden dort millionenfach angeklickt.
Die Ermittlungen der Postpolizei kamen ins Rollen, nachdem
Giorgia Meloni, die damals noch Parteisekretärin von Fratelli
d’Italia war, Anzeige erstattet hatte. Über den auf der
Pornoseite verwendeten Nickname gelang es den Beamten bald,
jene Person zu ermitteln, die die Fake-Pornos auf die
einschlägige Seite hochgeladen hatte. Den Untersuchungen
zufolge hat der 40-jährige Sarde mithilfe einer speziellen
Software, die auch künstliche Intelligenz verwendet, die
Gesichter der Darstellerinnen in den Originalvideos mit Fotos
und Videos von Giorgia Melonis Gesicht digital überlagert.
Anschließend seien diese Deepfake-Pornovideos über den
Netzanschluss seines 73-jährigen Vaters auf die
US-amerikanische Pornoseite hochgeladen worden. Die
gefälschten Pornovideos waren im Jahr 2020 auf einschlägigen
Netzseiten monatelang zu sehen, wo sie millionenfach
angeklickt wurden.
Den mutmaßlichen Tätern kommt dies nun teuer zu stehen. Die
beiden Angeklagten werden sich in wenigen Monaten wegen
Verleumdung vor Gericht verantworten müssen. Die erste
Anhörung des Prozesses, in dem die Ministerpräsidentin als
Klägerin auftritt, wird im März des nächsten Jahres
stattfinden.
Über ihre Anwältin Maria Giulia Marongiu ließ Giorgia
Meloni mitteilen, dass sie gegenüber den beiden Männern
einen Schadenersatz von nicht weniger als 100.000 Euro
geltend macht. Nach dem Willen der italienischen
Ministerpräsidentin soll der Betrag zur Gänze in den
nationalen Fonds des Innenministeriums zur Unterstützung von
Frauen, die Opfer von Gewalt wurden, fließen.
„Der Schadenersatzantrag ist als Botschaft an alle Frauen
gedacht, die Opfer dieser Formen sexueller Gewalt geworden
sind. Sie sollten sich nicht scheuen, Anzeige zu erstatten.
Der Betrag soll dem Schutz der weiblichen Opfer
zugutekommen, die oft unwissentlich Ziel dieser Art von
Verbrechen werden“, erklärt Maria Giulia Marongiu, die ihre
Mandantin Giorgia Meloni im Frühjahr vor Gericht vertreten
wird.
Der Vater und sein Sohn, die beide geständig sind, werden
sich der Justiz in zwei getrennten Verfahren stellen müssen.
Der Anwalt des 73-Jährigen, Maurizio Serra, hat für seinen
Mandanten eine Bewährungsstrafe beantragt, über die der
zuständige Richter Paolo Bulla am kommenden 25. März
entscheiden wird. Für seinen 40-jährigen Sohn hingegen ist
das normale Prozessverfahren vorgesehen, das am 19. März
nächsten Jahres vor der Richterin Monia Adami des Gerichts
von Sassari eröffnet werden wird.
Der kommende Prozess wirft ein Schlaglicht auf vollkommen
neue, der breiten Öffentlichkeit bisher fast unbekannte
Formen der Netzkriminalität, den pornografischen Deepfakes. Deepfakes
sind eine digitale Technologie, bei der künstliche
Intelligenz dazu eingesetzt wird, um gefälschte, aber
täuschend echt aussehende Videos oder Bilder zu erstellen,
in denen das Gesicht und die Handlungen einer Person von
jenen einer anderen digital überlagert werden. Aufgrund
ihrer Natur eignet sich diese Technologie für viele Zwecke,
aber ihre Verwendung im Bereich der Pornografie ist ganz
besonders bedenklich.
In diesem Zusammenhang werden Deepfakes dazu missbraucht, um
Videos zu erstellen, in denen das Gesicht einer
Pornodarstellerin oder eines Pornodarstellers durch das
vollkommen unbeteiligter Personen ersetzt wird, sodass der
Eindruck entsteht, die betreffende Person führe sexuelle
Handlungen aus, die in Wirklichkeit nie stattgefunden haben.
Ziel ist es meistens, dem Ansehen der Opfer zu schaden oder
sie mit den gefälschten Videos zu erpressen, wobei sich
Parallelen zu jenen Verbrechen ergeben, die mit Cybermobbing
und den sogenannten Rachepornos
zusammenhängen. Für die Opfer sind die Folgen verheerend.
Sie können zu dauerhaften emotionalen Schäden führen und im
schlimmsten Fall sogar zum Auslöser von Suiziden werden.
Es verwundert daher nicht, dass Frauenorganisationen, die
weibliche Gewaltopfer betreuen, den Gesetzgeber dazu
auffordern, die Strafen für diese Formen sexueller Gewalt
massiv zu erhöhen.
KI für Geldbussen in Zürich 2.11.2023: zum
automatisch Bussen gegen Falschfahrer zu verteilen: Fahrverbot wird ständig ignoriert: An der Zürcher
Langstrasse gibts bald automatisch Bussen
https://www.blick.ch/schweiz/zuerich/fahrverbot-wird-staendig-ignoriert-an-der-zuercher-langstrasse-gibts-bald-automatisch-bussen-id19105192.html
Fahrverbot wird ständig ignoriert
An der Langstrasse in Zürich gilt seit Ende September ein
neues Verkehrsregime. Doch die Teilsperrung wird missachtet.
Jetzt reagiert die Stadt.
Georg Nopper - Redaktor News
Das neue Verkehrsregime an der Zürcher Langstrasse scheint
noch nicht alle Autofahrer zu kümmern. Das Fahrverbot zwischen
Brauer- und Dienerstrasse tagsüber zwischen 5.30 Uhr und 22
Uhr wird häufig missachtet. Teilweise sogar vor der Nase der
Polizei. Das soll sich nun ändern.
In den sozialen Medien sind zahlreiche Aufnahmen im Umlauf,
die Autos mitten am Tag in der verbotenen Zone zeigen. Manche
Internetnutzer regen sich auf: Es werde nichts gegen die
fehlbaren Lenker unternommen.
Stadt hat mit Verstössen gerechnet
Bei der Stadt hat man damit gerechnet, dass die neue Regelung
nicht auf Anhieb von allen Autofahrern wahrgenommen wird.
Insbesondere, seit kein Verkehrsdienst mehr vor Ort ist.
So muss ein Teil der Langstrasse seit Ende September tagsüber
umfahren werden.
Roger Schaad, Sprecher des städtischen Tiefbauamts: «Dass es
bei einer solchen fundamentalen Verkehrsumstellung wie an der
Langstrasse in den ersten Wochen oder gar Monaten zu
Situationen kommt, bei denen Autofahrer das neue
Verkehrsregime nicht beachten, haben wir erwartet.»
«Bravo Regierung, super gemacht. Es war auch günstig»
Blick-Leser regt sich auf: «Bravo Regierung, super gemacht. Es
war auch günstig»(02:00)
Bei jeder Änderung von Verkehrsvorschriften müssten sich die
Verkehrsteilnehmer erst an die neue Situation gewöhnen,
erklärt Schaad. «Wir beobachten die Situation laufend.»
Möglicherweise seien bei vereinzelten Navigationssystemen die
geänderten Verkehrsvorschriften noch nicht aktualisiert.
Darauf habe die Stadt jedoch keinen Einfluss.
«Nichtsdestotrotz muss man sich an die Signalisation vor Ort
halten», stellt Schaad klar.
Bereits erste Anpassungen vor Ort
Erste Anpassungen, um deutlicher auf die neue Verkehrsregelung
aufmerksam zu machen, hat die Stadt bereits vorgenommen.
Schaad: «Um früher auf das Fahrverbot aufmerksam zu machen,
stehen an der Kreuzung von Stauffacherstrasse und Langstrasse
sowie an der Kreuzung Schöneggstrasse und Langstrasse neu
Tafeln, die auf das Fahrverbot hinweisen.»
Die Stadtpolizei mache zudem sporadisch Verkehrskontrollen auf
dem betreffenden Abschnitt der Langstrasse. Bald soll das
sogar alles automatisch laufen. «In naher Zukunft wird eine
elektronische Videoüberwachung installiert», stellt Schaad in
Aussicht. «Damit können Verstösse automatisiert erfasst
werden, wie dies beispielsweise schon bei Kontrollen von
Nachtfahrverboten im Kreis 4 der Fall ist.»
Wie Anita Gfeller, Sprecherin der Stadtpolizei Zürich, auf
Anfrage von Blick erklärt, verteilt das System von sich aus
Bussen. «Wer dereinst von der elektronischen Videoüberwachung
bei einem Verstoss erfasst wird, bekommt dann auch eine Busse.
Das wird automatisch ausgelöst.»
KI am 14.11.2023: kann auch Fotos machen - und
die bringen mehr Umsatz: KI-Bilder bringen mehr Umsatz
https://www.nzz.ch/technologie/bildagenturen-vertreiben-kuenstlich-generierte-bilder-zum-nahost-krieg-ohne-sie-als-fakes-auszuweisen-ld.1764934
https://t.me/Impfschaden_Corona_Schweiz/82873
Auf den Bilddatenbanken von Adobe Stock und der Agentur Alamy
ist nicht immer klar, ob ein Bild von einem Kriegsreporter
stammt oder von einem Computer erzeugt wurde. Damit nähren die
Plattformen den Informationskrieg.
KI in der Schweiz 19.11.2023: zum kriminellen
Ausspionieren der Mitarbeiter: Schweizer Firmen überwachen Mitarbeitende per KI
https://www.nau.ch/news/schweiz/schweizer-firmen-uberwachen-mitarbeitende-per-ki-66651652
Fototexte:
unia coop: Auch die Gewerkschaft Unia äusserte sich schon zur
konstanten Überwachung von Arbeitnehmenden kritisch (Archiv)
amt zürich: Blick auf den Büro-Tisch einer Mitarbeiterin.
Immer mehr Firmen lassen KI ihre Angestellten überwachen und
lenken. (Symbolbild)
musk: Künstliche Intelligenz findet sich in den
verschiedensten Bereichen – und der Zugang zu ihr wird immer
niederschwelliger.
Künstliche Intelligenz: Die Programme können eine Vielzahl von
Aufgaben effizienter erledigen, als der Mensch. Frank
Rumpenhorst/dpa
Der Artikel:
Immer mehr Arbeitgeber setzen auf KI-Überwachung und Steuerung
von Angestellten. Gewerkschaften und Politik schlagen Alarm.
Die Überwachung und Steuerung von
Angestellten durch KI nimmt in der Schweiz rasant zu.
Bereits mehr als die Hälfte aller Firmen
soll entsprechende Programme einsetzen.
Die Gewerkschaften schlagen Alarm:
Mitarbeiter sollen mehr mitbestimmen können.
Bereits eine Mehrheit der Schweizer Firmen setzt IT-Programme
ein, um ihr Personal zu überwachen und zu steuern. Tendenz
rasch steigend.
Und das alles, ohne dass sich die meisten von uns der
zunehmenden Fremdbestimmung bewusst wären. Das schreibt die
«NZZ am Sonntag».
Die Einsatzbereiche sind breit gestreut: Die Algorithmen
treffen Vorentscheidungen bei der Rekrutierung von
Mitarbeitenden oder messen die Produktivität von Angestellten
durch Überwachung. Sie lesen E-Mails mit oder berechnen
effizientere Wege oder Planungsabläufe.
Gewerkschaft schlägt Alarm
Die Nichtregierungsorganisation Algorithm Watch Schweiz und
die Gewerkschaft Syndicom verschicken am Sonntagnachmittag
dazu eine Stellungnahme. Sie fordern einen Richtungswechsel
und mehr Mitbestimmungsrechte für Angestellte.
Auch die Gewerkschaft Unia äusserte sich schon zur konstanten
Überwachung von Arbeitnehmenden kritisch (Archiv) – keystone
Diese sollen sich bei Auswüchsen gegen den Einsatz von KI
durch ihre Arbeitgeber wehren können. Sie stützen sich dafür
auf ein Rechtsgutachten der Universität St. Gallen, das auch
gesetzliche Lücken konstatiert.
Heute zeige sich jedoch, dass Arbeitgeber die Mitarbeitenden
oft nicht ausreichend einbeziehen, wenn sie algorithmische
Systeme einsetzen. Das Positionspapier fordert darum die
nationale Politik auf, entsprechende Anpassungen im Gesetz
anzustossen.
SP will Anliegen ins Parlament bringen
Tatsächlich findet das Gewerkschafts-Anliegen in Bundesbern
Gehör. SP-Nationalrätin Barbara Gysi will es in der
Wintersession mit einer Motion ins Parlament bringen.
Braucht es mehr Regulierungen für den Einsatz von KI am
Arbeitsplatz?
«Die Digitalisierung bringt viele Chancen, etwa indem monotone
Arbeiten automatisiert werden. Doch Arbeitnehmende müssen
einbezogen werden, wenn ihre Arbeitsplätze umgestaltet oder
gar Stellen abgebaut werden», wird Gysi zitiert.
KI kann auch Arzt spielen
25.11.2023: THE CYBORG WILL SEE YOU NOW:
Tech-Unternehmen bringt Self-Service-Gesundheitskabinen
"CarePod" auf den Markt, die KI anstelle von Ärzten
verwenden
https://telegra.ph/THE-CYBORG-WILL-SEE-YOU-NOW-Tech-Unternehmen-bringt-Self-Service-Gesundheitskabinen-CarePod-auf-den-Markt-die-KI-anstelle-von-%C3%84r-11-22
https://t.me/Impfschaden_Corona_Schweiz/83519
Impfschäden Schweiz Coronaimpfung, [25.11.2023 17:49]
Künstliche Intelligenz (KI) ist längst auch Teil des
Schulalltags geworden. Laut einer Umfrage haben bereits
über 40 Prozent des Lehrpersonals darauf zurückgegriffen.
Die Mehrheit wünscht sich klare Regeln, es gibt aber auch
grundsätzliche Bedenken.
KI kann aus Fotos Videos machen am 18.12.2023:
KI-Bild wird zu KI-Video in wenigen Clicks
Video-Link: https://t.me/impfen_nein_danke/193201
Auch das obere Bild ist nicht echt, sondern von einer KI
erzeugt.
Eine andere KI animiert es in Sekundenschnelle.
Auf den ersten Blick: Sehr real.
Bald auch auf den zweiten Blick nicht mehr zu unterscheiden.
Diese Idee könnte genauso gut einem Science-Fiction-Film
entstammen: Wissenschaftler in Dänemark haben zwischen 2008
und 2020 Daten von sechs Millionen Einwohnern ausgewertet, um
mithilfe von künstlicher Intelligenz das mögliche Sterbedatum
von Menschen vorherzusagen. Zur Überprüfung der Genauigkeit
wählten sie Personen im Alter von 35 bis 65 Jahren aus, von
denen die Hälfte zwischen 2016 und 2020 verstorben ist. Die KI
wurde mit Daten von 2008 bis 2016 gefüttert und anschließend
gebeten, vorherzusagen, wer bis 2020 noch am Leben sein würde.
Im Vergleich zum reinen Zufall (50 Prozent Genauigkeit)
erreichte die KI eine Genauigkeit von 79 Prozent.
Weitere Studien erforderlich
Sune Lehmann Jorgensen von der Technischen Universität
Dänemark sagte: “Wir haben das Modell verwendet, um zu
untersuchen, inwieweit wir Ereignisse in der Zukunft auf der
Grundlage von Bedingungen und Ereignissen in der
Vergangenheit vorhersagen können.” Das System wurde
entwickelt, um “das menschliche Leben als eine lange Abfolge
von Ereignissen zu betrachten, ähnlich wie ein Satz in einer
Sprache aus einer Reihe von Wörtern besteht”. Die Forscher
wiesen darauf hin, dass weitere Studien erforderlich sind,
bevor das Modell zur Bewertung des “individuellen Risikos
einer Erkrankung oder anderer vermeidbarer Lebensereignisse”
verwendet werden kann.
KI am 3.1.2023: ist eine Hilfe bei der
Berufsberatung: Rasche Infos: KI hält Einzug in AMS-Beratung
https://orf.at/stories/3344630/
Künstliche Intelligenz (KI) hält nicht nur in der Arbeitswelt
insgesamt, sondern auch bei der Berufsberatung Einzug.
Gestützt auf ChatGPT hat das Arbeitsmarktservice (AMS) nun den
„Berufsinfomaten“ lanciert. Dieser soll nicht vermitteln,
sondern Menschen aller Altersstufen in allen gängigen Sprachen
eine rasche und vollautomatische Orientierung über
berufsbezogene Inhalte bieten. „Die AMS-Berater und
-Beraterinnen werden so entlastet“, sagte AMS-Chef Johannes
Kopf.
Auf der AMS-Website können Interessierte nach Infos suchen und
auswählen, wie umfangreich diese erfolgen sollen. „Wir nutzen
das Wissen von ChatGTP, das angereichert mit unserem
Berufsinformationswissen an die Nutzer gelangt“, erläuterte
Kopf am Mittwoch vor Journalistinnen und Journalisten in Wien.
„Der Berufsinfomat stellt Rückfragen, was einen Dialog
erzeugen kann, der Spezifizierungen ermöglicht.“
Antworten gibt es zu Berufsbildern, Ausbildungsmöglichkeiten,
Gehaltsniveau und Weiterbildungsmöglichkeiten für Menschen
aller Altersstufen. Neben ersten Informationen liefert das
Tool auch gleich die Links zu den Seiten, auf denen die
jeweiligen Informationen gefunden wurden.
„Möglichst barrierefrei und niederschwellig“
Der „Berufsinfomat“ könne in jeder gängigen Sprache aufgerufen
werden, heißt es vom AMS – und antworte auch in dieser
Sprache. „Wichtig war uns, den Berufsinfomaten möglichst
barrierefrei zu gestalten“, so Kopf. Das Modell richte sich
auch an potenzielle Arbeitnehmende aus Drittstaaten, die in
Österreich auch gebraucht werden, sagte AMS-Vorständin Petra
Draxl: „Mit dem Berufsinfomaten holen wir die Menschen dort
ab, wo sie sind, und bieten ihnen eine niederschwellige
Informationsdrehscheibe“.
Elektronikmesse in Las Vegas ("USA") am
9.1.2024: KI im Kühlschrank, im Fernsehen, im Auto: Technikmesse CES: KI kommt jetzt auch noch in den
Kühlschrank
https://orf.at/stories/3345053/
Am Dienstag geht in Las Vegas die heurige Consumer Electronics
Show (CES) los und gibt den Ton in der Technikwelt für den
Rest des Jahres an. Schon jetzt ist klar: Bestimmendes Thema
wird künstliche Intelligenz (KI) sein. Vom E-Auto bis zum
Kühlschrank, vom Fernseher bis zur smarten Hundebespaßung –
alles braucht spätestens jetzt KI. Dabei ist der Mehrwert für
Kundinnen und Kunden nicht immer klar.
Bei der letzten CES im Jänner des Vorjahres waren die
Auswirkungen des KI-Hypes noch verhältnismäßig wenig spürbar:
Zu diesem Zeitpunkt war ChatGPT erst seit sechs Wochen der
Öffentlichkeit zugänglich. Kurz danach entwickelte sich der
Chatbot aber zum gesellschaftlichen Gesprächsthema Nummer eins
und beschäftigte selbst die Politik ausführlich.
Die Folgen des KI-Bahöls sind nun in Las Vegas zu sehen: Bei
der viertägigen Messe wird ein wesentlicher Teil der
vorgestellten Produkte und Konzepte KI in den Mittelpunkt
stellen – und als unverzichtbar anpreisen. „Es ist das Jahr
von KI in allem“, so die Tech-Analystin Maribel Lopez
gegenüber der Nachrichtenagentur Reuters. „Wenn Sie keine KI
in Ihrem Produkt haben, brauchen Sie gar nicht zu kommen“, so
die Expertin.
Kühlschrank erkennt Inhalt
Und tatsächlich ist der Anspruch vieler Hersteller jetzt
offenbar, mit KI alles noch smarter als bisher zu machen –
selbst den Kühlschrank. Samsung kündigte schon im Vorfeld an,
einen solchen auf der Messe vorstellen zu wollen. Das Gerät
soll 33 verschiedene Lebensmittel automatisch erkennen können,
eine App schlägt darauf basierende Rezepte vor.
[KI manipuliert die Kamera im Fernsehen]
Auch in Fernsehern ist KI jetzt angesagt. Zur CES angekündigte
Modelle analysieren mit Hilfe von KI den Videoinhalt und
passen die Wiedergabe an. So lässt LG verschwommene Objekte im
Hintergrund schärfer aussehen und will die Farbpalette an
„Stimmung und emotionale Elemente“ anpassen. Bei Samsung soll
KI dafür sorgen, dass Tennisbälle und der Puck beim Eishockey
deutlicher zu sehen sind.
[KI immer mehr im Auto]
Im Auto spielt KI ohnehin schon länger eine Rolle, große
Hersteller setzen nun vermehrt auf die Zusammenarbeit mit
Unternehmen aus der Branche. So soll Cerence, Experte für
virtuelle Assistenten im Auto, eine Partnerschaft mit
Volkswagen ankündigen, so Reuters. Und das israelische
Unternehmen Cipia wird wahrscheinlich ein System vorstellen,
das Anzeichen von Ablenkung und Müdigkeit bei Fahrerinnen und
Fahrern erkennt. Amazon kündigte indes eine Kooperation mit
BMW zum Thema generative KI an. Laut BMW wird künftig ein
sprachgesteuerter virtueller Assistent angeboten, der auf
einem Sprachmodell von Amazon basiert.
Roboter für Hunde wirft Bälle
Und dann gibt es natürlich noch die kuriosen Ausreißer,
etwa eine Hundebespaßungsmaschine – KI-gestützt, natürlich.
Wenn der Hund alleine zu Hause ist, soll Roboter Oro von der
US-Firma Ogmen diesen mit einem Display beschäftigen, dessen
Farbeinstellungen speziell an die Wahrnehmung von Hunden
angepasst sein sollen. Der Roboter kann auch einen
Tennisball herausschießen.
Kameras und KI-Chip sollen dafür sorgen, dass er nicht in
Richtung zerbrechlicher Objekte fliegt. Zum Weiterspielen
muss der Hund ihn zurückbringen – anders als die Besitzer
sammelt der Roboter den Ball nicht selbst ein. Die Maschine
kann aber auch einen smarten Futterautomaten auslösen.
KI direkt auf Handy und Computer
Selbstverständlich steht KI aber auch auf Computern und
Handys im Mittelpunkt. Microsoft kündigte bereits an, eine
neue Taste auf der Tastatur einführen zu wollen, mit der
direkt der KI-Assistent Copilot, praktisch der Ururenkel des
Office-Assistenten Karl Klammer, aktiviert werden kann.
Diese soll auf der Messe bereits bei neuen Geräten
verschiedener Hersteller zu sehen sein. Ersetzt wird damit
die Menütaste, die sich auf der rechten Seite neben „Strg“
befindet.
Konzerne wie Intel, Qualcomm und AMD könnten indes Chips
vorstellen, die KI-Dienste direkt auf dem Gerät – also ohne
Zwang zur Cloud – besser unterstützen, berichtet das
Netzkulturmagazin „Wired“. Technologien wie automatisierte
Bildverarbeitung, Sprache-zu-Text und Programme wie Chatbots
sollten damit rasanter und nicht zuletzt
datenschutzfreundlicher laufen. Vorteile für Kundinnen und
Kunden sind aber nicht immer offensichtlich. „Die Nutzer
lieben ChatGPT, aber es ist nicht klar, welchen Nutzen sie
davon haben, wenn es direkt auf einem Gerät läuft“, sagte
ein Experte gegenüber Reuters.
Nächstes Modewort ist gekommen, um zu bleiben
Auch bei anderen Geräten und Diensten wird sich wohl die
Frage stellen, ob sie wirklich durch KI besser geworden
sind, oder ob sich die Konzerne dahinter einfach nur mit dem
neuesten Modewort schmücken wollen. Zur Erinnerung: In den
Jahren und Jahrzehnten davor hießen diese etwa „Metaverse“,
„Blockchain“ und „3-D-Fernsehen“. Und dass die große
„Touch“-Revolution das Ende vieler Drehknöpfe am Herd
bedeutet hat, sorgt auch Jahre später noch für Unmut in
zahlreichen Küchen.
Klar ist aber auch, dass KI anders als andere Modewörter
nicht plötzlich verschwinden wird. Ist die Technologie
außerhalb der Branche für viele fast gleichbedeutend mit
ChatGPT geworden, gibt es zahllose Anwendungsfelder, in
denen KI längst zum Alltag gehört – und nicht mehr
wegzudenken ist. Auch generative KI, egal ob Textmaschinen
wie ChatGPT oder Bildgeneratoren wie Dall-E, wird wohl nicht
ewig für Schlagzeilen sorgen, sondern einfach dazugehören.
Die nächsten Jahre, auch auf der CES, werden zeigen, in
welche Richtung sich die vielfältigen Einsatzzwecke unter
dem Sammelbegriff KI entwickeln werden, jenseits des Hypes.
KI in der Schweiz geht nun auch in die
Psychiatrie 11.1.2024: in der Pharma-Giftstadt Basel an der
Pharma-Universität: Künstliche Intelligenz als psychotherapeutische
Unterstützung - Artikel vom 27.12.2023
https://www.unibas.ch/de/Aktuell/News/Uni-Research/KI-kann-Gefuehle-lesen.html
https://t.me/standpunktgequake/128193
Künstliche Intelligenz kann Gefühle aufgrund von
Gesichtsausdrücken in psychotherapeutischen Situationen
verlässlich erkennen. Das zeigt eine Machbarkeitsstudie von
Forschenden
Grüssel am 12.1.2024:
Gesetz ist vorgesehen: KI kombiniert mit biometrischer
Gesichtserkennung= Totalüberwachung: KI-Verordnung: Biometrische
Massenüberwachung ohne Wenn und Aber? – netzpolitik.org
https://netzpolitik.org/2024/ki-verordnung-biometrische-massenueberwachung-ohne-wenn-und-aber/
https://t.me/Impfschaden_Corona_Schweiz/86420
Impfschäden Schweiz Coronaimpfung,
[12.01.2024 19:15]
Nachträgliche Änderungen bei der biometrischen Überwachung
sorgen aktuell für Ärger bei EU-Abgeordneten, die bis
zuletzt für eine
Nachträgliche Änderungen bei der biometrischen Überwachung
sorgen aktuell für Ärger bei EU-Abgeordneten, die bis
zuletzt für eine Einschränkung gekämpft hatten. Wird das
Gesetz in der nun vorliegenden Form verabschiedet, hätte
dies dramatische Folgen. 12.01.2024
Svenja Hahn gilt gemeinhin als geduldige Person, doch jetzt
ist sie hörbar verärgert. Eine „Bedrohung für die
Bürgerrechte“ sei das, was der Rat der EU zur biometrischen
Identifikation vorgelegt habe. Es geht um nicht weniger als
einen zentralen Streitpunkt der geplanten KI-Verordnung der
EU: Dürfen Sicherheitsbehörden in Zukunft Menschen im
öffentlichen Raum aus der Ferne identifizieren und
massenhaft überwachen? Die Mitgliedstaaten wollen genau
dieses Recht, die Abgeordneten des Europaparlaments, unter
ihnen die Liberale Hahn, wollten das hingegen unbedingt
verhindern. Eine Viertelmillion EU-Bürger:innen
(https://twitter.com/ReclaimYourFace/status/1668958031881687042)
hatte ebenfalls ein Verbot gefordert.[...]
Wird das schmutzige Geschäft der Reduzierung der nach
Ansicht der Globalisten «übermäßigen» Zahl der
Erdbevölkerung an eine Maschine delegiert werden? Darauf
deutet die Nachricht hin, dass eine Gruppe dänischer und
amerikanischer Spezialisten eine künstliche Intelligenz
darauf trainiert hat, … das Todesdatum eines Menschen zu
berechnen.
Für die Forschung wurden die Daten von 6 Millionen Dänen —
also der gesamten Bevölkerung des Königreichs — analysiert.
Das Ergebnis: Die künstliche Intelligenz lernte nach Angaben
der Wissenschaftler, den tödlichen Ausgang mit einer
Genauigkeit von bis zu 78 % vorherzusagen. Die Ergebnisse
wurden in Nature Computational Science unter dem Titel
«Using a sequence of life events to predict human lives»
veröffentlicht. Journalisten, die davon erfuhren,
bezeichneten das Programm sofort als «Todesrechner».
«Das Projekt benötigt Daten von Menschen, die bereit
sind, viel mehr über sich selbst zu erzählen als bei einer
herkömmlichen Volkszählung», räumte Professor Sune
Lehmann, einer der Autoren, ein.
Die Interessen derjenigen, die bereit sind, solchen
«erzählenden Menschen» zuzuhören, sind nicht verborgen.
Neben einem neuen Vorwand für das Sammeln personenbezogener
Daten (um «den Bürger rechtzeitig benachrichtigen zu können,
wenn seine Zeit abgelaufen ist») sprechen diejenigen, die
dem dystopischen «Orakel» dienen, von «Planung und
Rationalität». Sie sagen, dass durch das Auffinden
eindeutiger Korrelationen zwischen Lebensereignissen die
Haushalte verwaltet und die sozialen Dienste mit
unglaublicher Effizienz auf die Bürger ausgerichtet werden
können.
In Wirklichkeit ist Selbstverliebtheit eine gefährliche
Sache. Eine leichtgläubige alte Dame, die von einer
hinterlistigen Wahrsagerin erfahren hat, dass sie in einem
Jahr sterben wird, beginnt mit den Vorbereitungen für ihre
Beerdigung und stirbt vielleicht tatsächlich an dem
vorgesehenen Tag. All dies sieht bestenfalls wie eine sich
selbst erfüllende Vorhersage und schlimmstenfalls wie eine
neue Art von KZ-Eugenik aus, bei der «überflüssige
Menschen» aussortiert werden.
Es stellt sich natürlich die Frage, wie bald die künstliche
Intelligenz im Dienste des westlichen Establishments
«selbst» entscheiden wird, wie viele Lebensjahre sie diesem
oder jenem Menschen zugestehen will. Die Euthanasie von
Menschen, auch von solchen, die einfach nur depressiv sind,
wird dort ja bereits mit Hochdruck empfohlen.
https://www.nau.ch/news/digital/technik-forscherteam-testet-kann-ki-auch-schwindeln-66686861
Im Rahmen einer Studie fanden Forschende heraus, wie gut
künstliche Intelligenz betrügerisches Verhalten anwenden kann.
Die Ergebnisse waren erstaunlich.
Nach entsprechender Optimierung
reagierten KI-Modelle mit schadhaftem Verhalten.
Dabei lernten sie sogar, im Test nicht
aufzufallen und als sicher zu erscheinen.
Die Arbeit mit künstlicher
Intelligenz nimmt einen immer grösseren Platz in
unserer Gesellschaft ein. Programmen wie ChatGPT
können Fragen gestellt werden, auf die innerhalb von
Sekunden eine Antwort folgt. Doch was wäre, wenn
eine KI beginnt, die
Wahrheit zu verfälschen? Wie Forschende
herausfanden, können KI-Modelle auch darauf
trainiert werden – und das klappt erschreckend gut.
Anthropic wurde von ehemaligen
OpenAi-Mitgliedern gegründet und beschäftigt sich
als US-amerikanische Firma mit der Entwicklung
künstlicher Intelligenzen. Das Unternehmen
finanzierte die Studie
einer Forschergruppe mit, die herausfinden sollte,
inwieweit sich Programme zur Täuschung des Nutzers
trainieren lassen. Das Team nutzte dafür zwei
Chatbot-Modelle auf Basis des Programms «Claude» von
Anthropic.
WEF mit dem Schwabler
am 17.1.2024: Er will KI statt Wahlen: WEF Chef Schwab will Wahlen durch KI-Prognosen
ersetzen
https://tkp.at/2024/01/17/wef-chef-schwab-will-wahlen-durch-ki-prognosen-ersetzen/
Immer wenn man glaubt mehr geht nicht, wird noch
Eins drauf gesetzt. Der Gründer und Vorsitzende
des Weltwirtschaftsforums (WEF), Klaus Schwab, hat
dazu aufgerufen, […]
Sie hat KI in Wohlfahrtssystemen eingeführt, um nicht
Berechtigte auszusortieren, hat aber zu Unrecht Tausende
von legitimen Systemen entfernt.
It adopted AI in welfare schemes to weed out
ineligible ones, but has wrongfully removed
thousands of legitimate ones.
Haryana state ended old age and widow pensions for
thousands of claimants because they were dead. But they
weren’t.
Rohtak and New Delhi, India: Dhuli Chand was
102 years old on September 8, 2022, when he led a wedding
procession in Rohtak, a district town in the north Indian
state of Haryana.
As is customary in north Indian weddings, he sat on a
chariot in his wedding finery, wearing garlands of Indian
rupee notes, while a band played celebratory music and
family members and villagers accompanied him.
But instead of a bride, Chand was on his way to meet
government officials.
Chand resorted to the antic to prove to officials that he
was not only alive but also lively. A placard he held
proclaimed, in the local dialect: “thara foofa zinda hai”,
which literally translates to “your uncle is alive”.
Six months prior, his monthly pension was suddenly stopped
because he was declared “dead” in government records.
Under Haryana’s Old Age Samman Allowance scheme, people
aged 60 years and above, whose income together with that of
their spouse doesn’t exceed 300,000 rupees ($3,600) per
annum, are eligible for a monthly pension of 2,750 rupees
($33).
In June 2020, the state started using a newly built
algorithmic system – the Family Identity Data Repository or
the Parivar Pehchan Patra (PPP) database – to determine the
eligibility of welfare claimants.
The PPP is an eight-digit unique ID provided to each family
in the state and has details of birth and death, marriage,
employment, property, and income tax, among other data, of
the family members. It maps every family’s demographic and
socioeconomic information by linking several government
databases to check their eligibility for welfare schemes.
The state said that the PPP created “authentic, verified
and reliable data of all families”, and made it mandatory
for citizens to access all welfare schemes.
But in practice, the PPP wrongly marked Chand as “dead”,
denying him his pension for several months. Worse, the
authorities did not change his “dead” status even when he
repeatedly met them in person.
“We went to the district offices at least 10 times, out of
which five times he [Chand] also accompanied us,” said
Naresh, Chand’s grandson. “Even after several attempts to
get this anomaly corrected at the government offices, and
after filing a grievance complaint on the chief minister’s
portal, nothing happened.”
It was only after Chand carried out the parody of a
marriage procession and met a local politician that the
authorities finally admitted their mistake and released
Chand’s pension.
Chand is not an isolated instance of algorithm failure.
According to data presented by the government in the state
assembly in August last year, it stopped the pensions of
277,115 elderly citizens and 52,479 widows in a span of
three years because they were “dead”.
However, several thousands of these beneficiaries were
actually alive and had been wrongfully declared dead either
due to incorrect data fed into the PPP database or wrong
predictions made by the algorithm.
Such anomalies were not restricted to old-age pensions
alone. Beneficiaries of disability and widow pensions, and
other welfare schemes such as subsidised food, have also
been excluded because the PPP algorithm made wrong
predictions about their incomes or employment, excluding
them from the eligibility criteria.
When people who had been wrongfully erased by the algorithm
went to government officials to get the records corrected,
they faced red tape. Many were shunted from one office to
another, and made to file endless applications to prove the
obvious – that they were in fact alive.
The ordeal faced by hundreds of thousands of citizens in
getting their data corrected has made PPP one of the most
controversial government plans of the Haryana government in
recent years. The opposition party has termed it ‘Permanent
Pareshani Patra’ (permanent inconvenience document) and
promised that it will scrap the programme if it comes to
power in the next assembly elections, due in 2024.
The state, however, continues to not just defend but even
expand the programme. Sofia Dahiya, secretary of the Citizen
Resources Information Department that handles the
functioning of PPP, in September 2022 told Al Jazeera: “PPP
was easing and improving the delivery of services to the
right beneficiaries and preventing leakages through the use
of artificial intelligence and machine learning. The
interlinking of different databases was done to get an
integrated database which was the ‘single source of truth’.”
India spends roughly 13 percent of its gross domestic
product, or close to $256bn, on providing welfare benefits
to about half the country’s population. Worried that such
benefits were being usurped by ineligible claimants, the
federal and several state governments have increasingly
relied on technology to eliminate welfare fraud.
In the past few years, at least half a dozen states have
adopted algorithmic systems to predict the eligibility of
citizens for welfare schemes. Over the past year Al Jazeera,
in partnership with the Pulitzer Center’s Artificial
Intelligence (AI) Accountability Network, investigated the
use and impact of such welfare algorithms.
Profiling families
Haryana Chief Minister Manohar Lal Khattar launched the PPP
programme in July 2019 and a year later made it mandatory
for all welfare benefits.
In the absence of privacy laws, the opposition parties
contested the move to gather the personal data of citizens
for building out the PPP. The government argued that it
allowed “proactive” delivery of welfare without the
claimants having to show any documents or needing a field
verification. In September 2021, it gave legal sanction to
the programme by passing the Haryana Parivar Pehchan Act.
Within a year, however, massive problems with the PPP data
started cropping up. After Chand’s ‘wedding procession’
stunt hit the headlines, thousands of poor thronged the
district offices of the social welfare department,
complaining about their exclusion from the schemes. The
public outcry forced the government to launch grievance
redressal camps across the state to review PPP data.
On August 29, 2023, Chief Minister Khattar admitted that
out of the total 63,353 beneficiaries whose old-age pensions
were halted based on PPP data, 44,050 (or 70 percent) were
later found to be eligible. Though Khattar claimed the
government had corrected most of the erroneous records and
restored the benefits of the wrongfully excluded, media
reports suggest that errors still persist.
Haryana
Chief Minister admitted in August 2023 that thousands of
eligible beneficiaries were refused old-age pensions
because of issues in their Family ID [Courtesy of The
Reporters’ Collective]
Algorithmic black box
The government did not respond to Al Jazeera’s Right To
Information (RTI) applications seeking information on the
design and functioning of the database to ascertain what led
to the errors in the PPP database.
A few publicly available government documents, however,
provide a peek into the workings of the programme.
To build the database, the government first collected
demographic and identity data of the families, including
their Aadhaar numbers, the biometric-based unique identity
number assigned to every Indian citizen, their age proof,
bank accounts, and tax identification numbers through
data-entry operators at the village level.
A centralised electronic system then used Aadhaar-based
authentication to match the identities of citizens in other
government databases such as birth and death registries,
land and property records, government employee databases,
electricity consumption, and income tax return databases,
among others, to build their comprehensive socioeconomic
profiles.
This data was then used to “electronically” verify the
annual income, age and other eligibility conditions of the
applicants. Where electronic verification was not possible
due to the unavailability of data, physical field
verification was carried out. In cases where the physical
verification did not pan out, the family income is derived
by “logic-based artificial intelligence [AI].”
The chief minister’s office and the departments
administering the PPP and the old-age pension schemes did
not respond to Al Jazeera’s queries asking about the logic,
formula and source code used by the AI. Neither did it
clarify if the errors in the PPP were a result of wrong data
entry or incorrect predictions by the AI. The government has
also not responded to Dhuli Chand’s RTI query asking the
authorities to explain why PPP had marked him as “dead.”
Khattar told the state Assembly that families could contest
the income verification carried out by the PPP through
“designated online mechanisms”.
But even the families whose data was eventually corrected
told Al Jazeera that the process of grappling with an
unresponsive official mechanism was onerous and
time-consuming.
Death by data
Ram Chander and his wife Ompati, both 60, are residents of
Chhichhrana village in Haryana. In March 2022, the couple
found out that their old-age pension, which had started only
six months ago, had been stopped as they were declared dead
in the PPP database.
Ram Chander filed multiple complaints with various
government offices but to no avail. That May, he submitted
to government officials a notary-signed affidavit saying he
and his wife were alive and that their pension be restarted.
In July 2022, the PPP database corrected their status to
“Alive” but that error continued in another government
database. The local data entry operator accepted their
request of “Mark as alive” and that was finally approved
after they presented themselves at the office of the
Additional Deputy Commissioner (ADC) who heads the
implementation of PPP at the district level. The duo’s
pension restarted some six months after they had been cut
off.
“I have been continuously visiting the office of the ADC
since March 2022,” Chander told Al Jazeera in September
2022. “They told me that the mistake had been corrected.
Then I visited the local data-entry operator and found out
that my status was still ‘dead’, and so I again went to the
ADC office. This kept happening every time.”
Al Jazeera met several other families in Haryana who had
been denied their pensions due to errors in PPP.
Daya Kor, 64, lives with her family of two sons, a
daughter-in-law and two grandchildren. After her husband
Omprakash’s death in 1996, she started receiving the monthly
widow pension of the state. Widowed women currently receive
2,750 rupees ($33) every month under the scheme. But Kor’s
pension was stopped in March 2022. As per PPP records, she
and her granddaughter were earning an annual income of
600,000 rupees ($7,200) each. Her granddaughter was just
nine years old.
Daya
Kor’s old age pension was stopped because the gov’t said
she and her nine-year old granddaughter earned 600,000
rupees each [Courtesy: The Reporters’ Collective]
Kor’s family told Al Jazeera that the only earning member
in the family was her elder son Devendar, 37, who worked as
a bus driver for a private school – earning around 7,000
rupees ($84) per month – and also has a side job as a
part-time farmer.
“If the family income was over 12 lakh rupees, why would we
need the 2,500 rupees pension?” he asked.
Daya Kor’s pension was finally restarted, but her family
cannot forget the ordeal it went through in the process.
“For the correction in PPP, I was told at the ADC office to
get an income certificate,” Devendar said. “But to get the
income certificate, I am being asked for my PPP. I do not
understand how to deal with this.”
(Part
1 of the series revealed how an opaque and
unaccountable algorithmic system deprived several thousand
poor of their rightful subsidised food.)
Tapasya is a member of The Reporters’ Collective; Kumar
Sambhav was the Pulitzer Center’s 2022 AI accountability
fellow and is India research lead with Princeton
University’s Digital Witness Lab; and Divij Joshi is a
doctoral researcher at the Faculty of Laws, University
College London.
Source: Al Jazeera
KI für das Baby am 27.1.2024: Babyphone erkennt, wenn dein Baby Hunger hat: KI übersetzt
Schreie
Video-Link:
https://www.blick.ch/video/aktuell/ki-uebersetzt-schreie-babyphone-erkennt-wenn-dein-baby-hunger-hat-id19355644.html
Das neue Babyphone von Maxi-Cosi verspricht
weniger Stress für Eltern. Mit künstlicher
Intelligenz kann die neue Technologie die Schreie
des Kindes analysieren und übersetzen. So soll
sich die Eltern schneller um das Bedürfnis des
Kindes kümmern können.
Nach Plänen von Flugzeugherstellern sollen Co-Piloten
zukünftig durch künstliche Intelligenz ersetzt werden. Auf
dem Amsterdamer Flughafen protestierten nun Piloten:
Technologie sei im Notfall nicht kreativ und habe auch
keinen Überlebensinstinkt.
Am Montag protestierten auf dem Amsterdamer Flughafen
Schiphol Airline-Piloten gegen den Plan, Flüge mit nur einem
Piloten im Cockpit durchzuführen. Die Flugzeugführer
verschiedener Fluggesellschaften verteilten Flugblätter, berichtete
die NL Times am Montag. Darin verwiesen sie auf
Pläne von Flugzeugherstellern, insbesondere
Airbus, gemäß denen der zweite Pilot im Cockpit
zukünftig durch Technologie ersetzt werden soll. Die Piloten
bezeichneten dies als "besorgniserregende Entwicklung in der
Luftfahrt".
Laut einer Erklärung der niederländische
Pilotengewerkschaft VNV würde dadurch die Sicherheit nicht
verbessert. Die Gewerkschaft halte es für unerlässlich, dass
zwei Piloten im Cockpit zusammenarbeiteten. Der Mensch sei
der Hauptgarant für die hohe Sicherheit im Flugverkehr, so
die Meinung der Pilotenvereinigung. In ihrer Erklärung hieß
es:
"Internationale Studien und die Praxis zeigen, dass
der Mensch der wesentlicher Faktor für hohe
Sicherheitsstandards in der Luftfahrt ist. Zum Beispiel
fehlt der Technik Kreativität, Belastbarkeit,
Führungskompetenz, Teamarbeit und Überlebensinstinkt."
Grundsätzlich würden die Piloten neue Technologien, die der
Sicherheit dienten, unterstützen. Aber nur zwei Piloten, die
mit dieser Technologie zusammenarbeiteten, würden die
Sicherheit vergrößern. Sowohl die Flugzeughersteller, als
auch die europäische Luftfahrtbehörde EASA würden die
Einsparung eines Piloten für möglich erachten, so die
Pilotengewerkschaft. Die Regulierungsbehörde habe im letzten
Jahr angedeutet, dass sie ab dem Jahr 2027 in begrenztem
Umfang Flüge mit nur einem Piloten zulassen werde.
Die EASA halte es aktuell für "absolut unrealistisch", dass
bis zum Ende des Jahrzehnts alle Flüge mit einem einzigen
Piloten besetzt sein könnten. Der VNV forderte seinerseits
die Luftfahrtunternehmen auf, "die Sicherheit nicht aufs
Spiel zu setzen und einen Piloten nicht durch eine
unausgereifte Technologie zu ersetzen."
Die niederländische Gewerkschaft startete ihren
Appell gemeinsam mit anderen internationalen
Pilotenverbänden. Die Interessenvertretung der Piloten
forderte eine unabhängige, wissenschaftliche Untersuchung
dieses Vorhabens. Dabei sollten, neben den "medizinischen
und psychologischen Auswirkungen" auf die Piloten, auch
Kosten und Nutzen dieser Maßnahme geprüft werden.
Der US-Internetriese Meta will in den Onlinenetzwerken des
Konzerns künftig alle Bilder identifizieren, die mit Hilfe
von künstlicher Intelligenz (KI) erzeugt worden sind, und
mit diesem Schritt mehr Transparenz für Nutzerinnen und
Nutzer schaffen.
Außerdem arbeitet die Facebook- und Instagram-Mutter
gemeinsam mit anderen Technologiekonzernen an einem
gemeinsamen Standard für die Branche, wie Meta heute
mitteilte. Ein solcher Standard soll es ermöglichen,
KI-generierte Inhalte besser zu erkennen und entsprechend zu
kennzeichnen.
KI in der U-Bahnstation "Willesden Green" in
London am 10.2.2024: gegen Schwarzfahrer, Verbrecher etc.:
Das Experiment schlägt fehl: Kritik nach KI-Versuch in Londons U-Bahn: Schwarzfahrer und
Co.
https://orf.at/stories/3348219/
Fototext: Der Versuch wurde in der verhältnismäßig kleinen
Station Willesden Green im Nordwesten Londons
durchgeführt
Der Artikel:
In London wird seit Monaten der Einsatz von künstlicher
Intelligenz (KI) in der U-Bahn getestet, etwa, um
Schwarzfahren automatisiert überwachen zu können, aber auch um
Verbrechen und andere Situationen zu erkennen. Nun wurden
Details öffentlich, die das Ausmaß dieses Experiments zeigen –
Fachleute reagierten alarmiert und übten Kritik. Die Londoner
Verkehrsbetriebe kündigten am Donnerstag in einer
Stellungnahme neue Tests an.
Das Magazin „Wired“ veröffentlichte am Donnerstag Dokumente,
die genau auflisten, wie in einer Londoner U-Bahn-Station der
Einsatz von KI getestet wurde. Viele der Methoden erinnern
dabei immer noch an Science-Fiction-Filme, auch wenn die
Technik mittlerweile längst in der Realität angekommen ist.
Die Bewegungen, das Verhalten und sogar die Körpersprache
wurden laut „Wired“ überwacht – dazu wurden die Bilder von
Überwachungskameras live von der KI ausgewertet. So wurde
nicht nur überprüft, ob Menschen ein gültiges Ticket haben,
sondern diese auch auf aggressives Verhalten getestet, etwa,
ob sie eine Waffe ziehen. Auch gefährliche Situationen sollten
erkannt werden, wenn beispielsweise die Sicherheitslinie
überschritten wird. Insgesamt 44.000-mal schlug das System in
einem Zeitraum von rund einem Jahr an.
Zahlreiche Probleme bei Pilotversuch
Doch das eingesetzte System aus elf verschiedenen Algorithmen
funktionierte in dem Pilotversuch alles andere als
einwandfrei, wie „Wired“ weiter berichtet. Kinder wurden
fälschlicherweise häufig als Schwarzfahrer erkannt. Auch die
Erkennung von Aggression funktionierte nicht, wie der
„Öffi“-Betreiber Transport for London (TfL) in seinem internen
Bericht feststellt. Darin heißt es, man habe „aggressive
Handlungen“ einbeziehen wollen, sei aber nicht in der Lage
gewesen, sie „erfolgreich zu erkennen“. Es habe dazu an
passenden Trainingsdaten gemangelt – weitere Gründe wurden in
dem Dokument geschwärzt, so das Magazin.
Mittels KI soll in London festgestellt werden, ob der
Fahrpreis entrichtet worden ist
Fachleute äußerten sich skeptisch: Der Datenschutzaktivist
Daniel Leufer von Access Now wies gegenüber „Wired“ darauf
hin, dass bei derartigen Erkennungsversuchen Trainingsdaten
„immer unzureichend“ seien, „weil diese Dinge wohl zu komplex
und nuanciert sind, als dass sie in Datensätzen mit den
erforderlichen Nuancen richtig erfasst werden könnten“.
Umgang mit Datenschutz sorgt für Kritik
Auch der Umgang mit dem Datenschutz wird heftig kritisiert.
Zwar kam keine Gesichtserkennung zum Einsatz, heißt es von
einem Experten des Forschungsinstituts Ada Lovelace Institute
gegenüber „Wired“, „aber der Einsatz von KI in einem
öffentlichen Raum zur Identifizierung von Verhaltensweisen (…)
wirft viele der gleichen wissenschaftlichen, ethischen,
rechtlichen und gesellschaftlichen Fragen auf wie
Gesichtserkennungstechnologien“.
„Öffi“-Betreiber will weiter testen
In einem Statement von TfL vom Donnerstag sagte die Leiterin
für öffentliche Sicherheit, Mandy McGregor, dass es in der
Station Willesden Green keine Hinweise auf den Einsatz von KI
gab. Man werde die Versuchsergebnisse weiterhin analysieren.
Es gebe bei den KI-Versuchen darüber hinaus „keine Anzeichen
für einen Bias“, also Voreingenommenheit im Hinblick etwa auf
äußerliche Merkmale.
Man prüfe nun „die Gestaltung und den Umfang einer zweiten
Phase des Versuchs“, weitere Entscheidungen über die
Ausweitung des Einsatzes von KI wurden aber bisher nicht
getroffen. Ohnehin wolle man sich rechtzeitig mit Fachleuten
und den betroffenen Stadtteilen absprechen, so TfL laut
„Wired“.
Ähnliches System auch in New York im Einsatz
Der Fokus für TfL dürfte in erster Linie auf den
Schwarzfahrern liegen – dabei schlug das System laut dem
internen Bericht auch am häufigsten an. Den Verkehrsbetreiber
kostet das Schwarzfahren laut eigenen Angaben jährlich rund
130 Mio. Pfund (rund 152 Mio. Euro), das System meldete laut
„Wired“ 26.000 Verstöße – ob das auch die fälschlich gezählten
Kinder beinhaltet, ist nicht klar. London ist jedenfalls nicht
die einzige Stadt, die derartige Systeme einsetzt: Auch in New
York wird mittels KI geprüft, ob der Fahrpreis bezahlt wurde.
„Schmaler Grat ist sehr schmal“
Doch der grundlegende Einsatz von KI ist für Fachleute ein
schmaler Grat: „Wenn die Infrastruktur erst einmal da ist, ist
es absolut trivial, sie aufzurüsten“, übte unterdessen der
Datenschutzexperte Leufer Kritik. „Es ist wirklich
besorgniserregend, was noch dazukommen könnte. Der schmale
Grat ist sehr schmal“, so Leufer im Hinblick auf ausgedehnte
Überwachung, die wohl auch Gesichtserkennung nicht
ausschließt.
red, ORF.at/Agenturen
KI=Arzt
weltweit 10.2.2024: Nun kommt der KI-Roboter-Arzt: 'Digital-Doktor' statt echter Arzt: Jetzt kommt die
WEF-Zweiklassen-Medizin
http://te.legra.ph/Digital-Doktor-statt-echter-Arzt-Jetzt-kommt-die-WEF-Zweiklassen-Medizin-02-05
https://t.me/Impfschaden_Corona_Schweiz/88162
Impfschäden Schweiz Coronaimpfung, [10.02.2024
15:18]
Eine App oder KI, die
Diagnosen stellt - und ein Call-Center, das die
Behandlung empfiehlt: Das ist das irre "Zukunftsmodell",
auf das d
Im Vorfeld der
nationalen Wahlen öffnet sich ein Markt für solche
Deepfakes, um die Attraktivität politischer Parteien zu
steigern.
Ahead of national elections, a market is opening up for
such deepfakes to boost the appeal of political parties.
Want an opponent to campaign for you? Confuse voters between
a real and a fake video? As India prepares for the world’s
largest elections, parties are turning to AI for novel – and
dangerous – strategies.
By Yashraj Sharma
Published On 20 Feb 202420 Feb 2024
New Delhi, India — As voters queued up early morning on
November 30 last year to vote in legislative elections to
choose the next government of the southern Indian state of
Telangana, a seven-second clip started going viral on social
media.
Posted on X by the Congress party, which is in opposition
nationally, and was in the state at the time, it showed KT
Rama Rao, a leader of the Bharat Rashtra Samiti that was
ruling the state, calling on people to vote in favour of the
Congress.
The Congress shared it widely on a range of WhatsApp groups
“operated unofficially” by the party, according to a senior
leader who requested anonymity. It eventually ended up on
the official X account of the party, viewed more than
500,000 times.
It was fake.
“Of course, it was AI-generated though it looks completely
real,” the Congress party leader told Al Jazeera. “But a
normal voter would not be able to distinguish; voting had
started [when the video was posted] and there was no time
for [the opposition campaign] to control the damage.”
The astutely timed deepfake was a marker of the flood of
AI-generated, or manipulated, media that marred a series of
elections in India’s states in recent months, and that’s now
threatening to fundamentally shape the country’s coming
general elections.
Between March and May, India’s nearly one billion voters
will pick their next national government in the world’s, and
history’s, biggest elections. The threats posed by deceptive
AI-generated media caught the world’s attention when faked
sexually explicit images of the artist Taylor Swift appeared
on social media platforms in January. In November, Ashwini
Vaishnaw, India’s information technology minister, called
deepfakes a “threat to democracy” and Prime Minister
Narendra Modi has echoed those concerns.
But with the increased availability of handy artificial
intelligence tools, teams across India’s political parties,
including Modi’s Bharatiya Janata Party and the Congress,
are deploying deepfakes to influence voters, managers of
nearly 40 recent campaigns told Al Jazeera. While several AI
tools used to generate deepfakes are free, others are
available on subscription for as little as 10 cents per
video.
‘Creating perception'
The BJP, arguably India’s most technologically sophisticated
party, has been at the forefront of using illusions for
campaigning. As far back as 2012, the party used 3D hologram
projections of Modi so that he could simultaneously
“campaign” in dozens of places at the same time. The
strategy was deployed widely during the 2014 general
elections that brought Modi to power.
There was little deception involved there, but in February
2020, Manoj Tiwari, a BJP member of parliament, became among
the world’s first to use deepfakes for campaigning. In three
videos, Tiwari addressed voters in Delhi ahead of the
capital’s legislative assembly elections in Hindi, Haryanvi
and English – reaching three distinct audiences in the
multicultural city. Only the Hindi video was authentic: The
other two were deepfakes, where AI was used to generate his
voice and words and alter his expressions and lip movement
to make it almost impossible to detect, just on viewing,
that they were not genuine.
In recent months, the Dravida Munnetra Kazhagam (DMK), which
rules the southern state of Tamil Nadu, has used AI to
resurrect its iconic leader M Karunanidhi from the dead,
using lifelike videos of the former movie writer and veteran
politician at campaign events.
Now, consultants and campaign managers say the 2024
elections could turbocharge the use of deepfakes even
further.
“Politics is about creating perception; with AI tools [of
voice and video modulation] and a click, you can turn the
perception on its head in a minute,” said Arun Reddy, the
national coordinator for social media at the Congress, who
oversaw the party’s tech-savvy Telangana election. He added
that the team was bursting with ideas to incorporate AI in
campaigning, but that they didn’t have enough “trained
people” to execute them all.
Reddy is strengthening his team – as are other parties.
“AI will have a resounding effect in creating the
narrative,” Reddy told Al Jazeera. “The political
AI-manipulated content will increase multifold, much more
than what it ever was.”
‘Campaigns are getting weirder’
From the desert town of Pushkar in western India,
30-year-old Divyendra Singh Jadoun runs an AI startup, The
Indian Deepfaker. Launched in October 2020, his company
cloned the voice of Rajasthan state’s Congress chief
ministerial candidate Ashok Gehlot for his team to send
personalised messages on WhatsApp, addressing each voter by
their name, during November assembly elections. The Indian
Deepfaker is currently working with the team of Sikkim’s
Chief Minister Prem Singh Tamang for holograms during
upcoming campaigns. Sikkim is one of India’s smallest states
in the northeast, perched on the Himalayas between India,
Bhutan and China.
That’s the clean, official work, he said. But in recent
months, he has been swamped by what he describes as
“unethical requests” from political campaigns. “The
political parties reach out indirectly via international
numbers on WhatsApp, burner handles on Instagram, or connect
on Telegram,” Jadoun told Al Jazeera in a phone interview.
In the November election, his company denied more than 50
such requests, he said, where potential clients wanted
videos and audio altered to target political opponents,
including with pornography. As a startup, Jadoun said his
company is particularly careful to avoid any legal trouble.
“And it is a very unethical use of AI,” he added. “But I
know many people who are doing it for very low prices and
are readily available now.”
During the election campaigns for the state legislatures of
Madhya Pradesh in central India and Rajasthan in the west
last November, police registered multiple cases for deepfake
videos targeting senior politicians including Modi, Shivraj
Singh Chauhan, Kailash Vijayvargia (all BJP) and Kamal Nath
(Congress). The deepfake content production is often
outsourced to private consulting firms, which rely on social
media networks for distribution, spearheaded by WhatsApp.
A political consultant who requested anonymity told Al
Jazeera that numbers of ordinary citizens with no public
profile are registered on WhatsApp and used for the
campaigns to make it harder for anyone to directly trace
them back to parties, candidates, consultants and AI firms.
This consultant ran six campaigns in assembly elections last
year for both the BJP and Congress. “In Rajasthan, we were
using phone numbers of construction labourers to run our
network on WhatsApp,” they said, “where deepfakes were
primarily circulated.”
Meanwhile, AI-manipulated audios are particularly valuable
tools in smaller constituencies, “targeting candidates with
forged call recordings about arranging ‘black money’ for
elections or threatening someone to buy votes,” the
consultant said, whose own candidate was targeted with one
such recording. The recordings are generally masked with
candidates’ voices to cast them as evidence of corruption.
“Manipulating voters by AI is not being considered a sin by
any party,” they added. “It is just a part of the campaign
strategy.”
India has 760 million internet users – more than 50 percent
of the population – behind only China.
Among all the requests, one from a constituency in southern
Rajasthan stood out to Jadoun. Ahead of the state election
in November, the caller requested that Jadoun alter a
problematic but authentic video of their candidate – whose
party he did not disclose – to make a realistic deepfake.
The aim: to claim that the original was a deepfake, and the
deepfake the original.
“The opposition had a troubling video of their candidate and
they wanted to spread it quicker on social media to claim it
is a deepfake,” he said, bursting into awkward laughter.
“Political campaigns are getting weirder.”
Threats to election integrity
Indian laws currently do not define “deepfakes” clearly,
said Anushka Jain, a policy researcher at Goa-based Digital
Futures Lab. The police have been using laws against
defamation, fake news or violation of a person’s modesty,
combined with the Information Technology Act, to try and
tackle individual cases. But often, they’re playing
whack-a-mole.
“The police are prosecuting on the effect of the deepfake
and not because it is a deepfake itself,” she said.
Analysts say that the Election Commission of India (ECI), an
autonomous body that conducts polling, needs to catch up
with the shifting nature of political campaigns.
In the days leading up to the voting in Telangana state
elections last year, ruling Bharat Rashtra Samithi party
leaders repeatedly warned their followers on social media to
stay alert against deepfakes deployed by the Congress party.
They also appealed to the ECI against the deepfake clip that
the Congress shared on the morning of the vote.
But the video remains online and the party never received
notice from the ECI, two Congress leaders aware of the issue
told Al Jazeera.
Al Jazeera has sought comments from the ECI but is yet to
receive a response.
“Even if one person is misled into believing something and
that changes his mind, it vitiates the purity of the
election process,” said SY Quraishi, former chief election
commissioner of India. “Deepfakes have made the problem of
rumour-mongering during the polls graver by a thousand
times.”
Quraishi said that deepfakes need to be moderated in real
time to minimise the damage they can cause to Indian
democracy.
“The ECI needs to take action before the damage is done,” he
said. “They need to be a lot more prompt.”
‘Truth is out of reach’
The Indian government has been pressing major tech
companies, including Google and Meta, to actively make
efforts to moderate deepfakes on their platforms. IT
minister Rajeev Chandrasekhar has met officials from these
firms as part of deliberations over the threats posed by
deepfakes.
By asking the tech sector to take the lead, the government
escapes any criticism that it is trying to selectively
censor selective deepfakes, or that it is trying to crack
down on emerging AI technologies more broadly.
But by passing the buck to private companies, the government
is raising questions about the sincerity of its intent to
regulate manipulative content, said Prateek Waghre, the
executive director of India’s Internet Freedom Foundation, a
leading New Delhi-based tech policy think-tank. “It is
almost wishful thinking,” he said.
Arguing that the tech companies have not been able to deal
with the existing problems with content moderation, Waghre
said that “the rise of AI now” has compounded challenges.
And the current approach to content moderation ignores
what’s really at the heart of the problem, he said.
“You are not solving the problem,” he said. “The design [of
algorithms] is just flawed.”
On February 16, major tech companies signed an accord at the
Munich Security Conference to voluntarily adopt “reasonable
precautions” to prevent artificial intelligence tools from
being used to disrupt democratic elections around the world.
But the vaguely worded pact left many advocates and critics
disappointed.
YouTube has announced that it will enable people to request
the removal of AI-generated or altered content that
simulates an identifiable person, including their face or
voice, using its privacy request process.
“I’m not very optimistic about the platform’s capabilities
to detect deepfake,” said Ravi Iyer, managing director of
the Neely Center for Ethical Leadership and Decision Making
at the University of Southern California’s Marshall School
of Business. “With low digital literacy and rising
consumption of videos, this poses a grave risk to India’s
election integrity.”
Identifying every AI-manipulated media is not a reasonable
task, Iyer said, so companies need to redesign algorithms
that don’t promote polarising content. “Companies are the
ones with the money and resources, they need to take
reasonable steps to tackle the rise of deepfakes,” he said.
The Internet Freedom Foundation has published an open letter
urging electoral candidates and parties to voluntarily
refrain from using deepfake technology ahead of the national
elections. Waghre isn’t confident that many will bite, but
he said it’s worth a try.
Meanwhile, political campaigns are bolstering their AI
armouries – and some, like Reddy, the national coordinator
for social media at Congress, concede that the future looks
dark.
“Most people using AI are out there to distort the facts.
They want to create a perception that’s not based on truth,”
said Reddy. “Combine the penetration of social media in
India with the rise of AI, the truth will be out of reach of
people in the elections now.”
Source: Al Jazeera
KI in der Schweiz am 22.2.2024: kann den
Dienstplan schreiben - im Spital Luzern: IM LUZERNER KANTONSSPITAL SCHREIBT DIE KI BEREITS DEN
DIENSTPLAN
https://www.zugerzeitung.ch/zentralschweiz/stadt-region-luzern/arbeitswelt-kuenstliche-intelligenz-erstellt-dienstplaene-beim-luzerner-kantonsspital-ld.2582827
https://t.me/standpunktgequake/134078
Die Alarmglocken leuchten dunkelrot und die Great Reset Agenda
läuft und läuft und läuft unaufhaltsam …..
Spital setzt bei Dienstplänen auf künstliche Intelligenz
Schichtdienste im Spital plant neu die künstliche Intelligenz.
Damit soll der Planungsaufwand deutlich reduziert werden.
Kriminelle KI in den "USA" am 25.2.2024: Der
Sender "Channel 1" hat nun ganze Sendungen nur mit KI - alle
Stellen sind WEG! Künstliche Intelligenz: Jetzt gibts erste generierte
News-Sendungen
https://www.nau.ch/news/amerika/kunstliche-intelligenz-jetzt-gibts-erste-generierte-news-sendungen-66701652
Beim amerikanischen Sender «Channel 1» ist alles künstliche
Intelligenz – von der Berichterstattung bis zur Moderation.
Ein Experte sieht dies kritisch.
Das amerikanische Start-up «Channel 1» will
den Journalismus revolutionieren.
Seine gesamte Berichterstattung wird durch
KI generiert – auch das Videomaterial.
Ein Experte warnt: Das Vertrauen in die
Medien könnte geschmälert werden.
Eine Moderatorin berichtet über die Ukraine. Es sind Bilder
aus dem Kriegsgebiet zu sehen – alles erscheint wie eine
normale Nachrichtensendung. Doch in Wirklichkeit steht keine
Frau vor der Kameralinse. Die Moderation, ihre Stimme und die
Recherche sind durch künstliche Intelligenz (KI) erstellt.
Die gezeigten Moderatorinnen und Moderatoren gibt es zwar
wirklich. Laut den Gründern des Senders werden sie jedoch mit
KI zum Sprechen gebracht. Sie stehen also nicht im Studio,
sondern ein Computer generiert nach ihrer Vorlage einen Avatar
und bringt ihn zum Sprechen.
Würden Sie eine völlig KI-generierte Nachrichtensendung
schauen?
Täuschend echte Nachrichten, doch die ganze Arbeit macht eine
KI. So lautet das Konzept des amerikanischen Start-ups
«Channel 1». Im Verlaufe dieses Jahres wird der Sender
loslegen. Einen ersten Einblick in den neuartigen Journalismus
liefert das Unternehmen auf X (ehemals Twitter).
Der Einsatz von KI im Journalismus ist eigentlich nichts
Neues. Bereits im Jahr 2006 wurden die ersten
computergenerierten Finanzberichte veröffentlicht. Wetter- und
Sportberichte folgten. Bei «Channel 1» ist jedoch neu, dass
selbst die Moderation durch KI generiert ist.
Künstliche Intelligenz untersteht keiner Ethik
Expertinnen und Experten diskutieren heiss, inwiefern der
Einsatz von KI im Journalismus gefährlich sein kann. Gerade
die Objektivität der Berichterstattung kann beeinträchtigt
werden.
Der Medienforscher Tobias Rohrbach sagt zu Nau.ch: «Es gibt
mittlerweile eine Menge Forschung zu systematischem Bias
(Deutsch: Verzerrungen) in Algorithmen.» Und warnt: Diese
können spezifische soziale Gruppen diskriminieren.
Der amerikanische Sender «Channel 1» arbeitet fast
ausschliesslich mit künstlicher Intelligenz. Sogar die
Nachrichtensprecherin ist durch Algorithmen generiert. – X /
@channel1_ai
Ein weiteres Problem: Die künstliche Intelligenz untersteht
«keiner Ethik, sei es bei der Auswahl von Quellen oder der
Gewichtung von Positionen». Rohrbach betont, dass sich
Journalistinnen und Journalisten zu gewissen berufsethischen
Kriterien verpflichten. Eine Maschine tue dies jedoch nicht.
«Damit verbunden sind auch ethische Fragen der Verantwortung
und Bedenken, inwiefern die Meinungsvielfalt sichergestellt
werden kann», so Rohrbach. Weiter seien auch Persönlichkeits-
und Datenschutzrechte ungeklärt. Diese können besonders bei
der Video-Generierung verletzt werden.
Transparent kommunizieren
Gerade «Channel 1» zeigt, wie schwer man KI-generierte
Nachrichten von realen unterscheiden kann. «Nutzerinnen und
Nutzer haben kaum Chancen, den Einsatz von KI zu erkennen», so
Rohrbach.
Deshalb sollten die Medienorganisationen unbedingt transparent
kommunizieren. Intransparenz könne das Vertrauen in die Medien
schmälern – «ein heiss diskutiertes Phänomen der letzten
Jahre».
KI sagt am 25.2.2024: Deutschland ist
KEINE Demokratie mehr, sondern eine totalitäre Diktatur
https://t.me/Ungeimpfte_Schweiz_kennenlernen/73226
Die künstliche Intelligenz (KI) des Chat Bot GPT gibt
konkrete Antworten auf die Frage nach den Merkmalen um
eine Diktatur - um einen Totalitären Staat zu erkennen und
dessen Merkmale zu bezeichnen.
Die BRD ist keine Demokratie (mehr)!
Die BRD ist schon jetzt eine totalitäre Diktatur!
Schaut hierzu bitte auch hier
https://t.me/horst250936/3983
Kommt Euch dies alles nicht sehr bekannt zur aktuellen BRD
Situation vor?
4R-Berlin mit KI am 7.3.2024: Nun wird
behauptet, Herzkranke seien an der Stimme erkennbar: KI erkennt Herzschwäche am Klang der Stimme
https://www.blick.ch/ausland/neue-studie-zeigt-ki-erkennt-herzschwaeche-am-klang-der-stimme-id19509771.html
Laut einer Studie des Deutschen Herzzentrums soll KI fähig
sein, herzkranke Menschen zu erkennen – und das allein
aufgrund der Stimme.
Grüssel am 13.3.2024: beschliesst ein
KI-Gesetz - für die Theorie! EU-Parlament: Strenges Gesetz zu KI beschlossen
https://orf.at/stories/3351445/
Das Europäische Parlament hat am Mittwoch einen möglicherweise
wegweisenden Beschluss gefasst und KI-Anwendungen reguliert.
Das Gesetz erfasst die verschiedenen einschlägigen
Technologien – von einfacher Software zu Beginn der
KI-Entwicklung bis zu komplexen, selbstlernenden Chatbots –
und regelt ihre Anwendung.
Das Gesetz orientiert sich ganz grundsätzlich am Schutz von
Konsumenten und Konsumentinnen – und am Prinzip der
Risikoeinschätzung. Je größer das Risiko einer Anwendung und
ihrer Möglichkeiten sein kann, je heikler also die
potenziellen Auswirkungen sind, umso strenger fällt die
Regulierung aus.
Manche Anwendungen sind verboten. Gesichtserkennung zum
Beispiel, wenngleich einige Ausnahmen Einsprüche und
wechselseitiges Lobbying überstanden haben, etwa solche, die
die Polizei für Ermittlungen für nötig hält. Unzulässig ist KI
da, wo es um Daten über Gefühle und Verhalten und deren
Auswertung geht („social scoring“).
Unter die Bereiche, die als besonders heikel gelten, fällt zum
Beispiel kritische Infrastruktur: Wasser- und
Energieversorger, Kommunikationsunternehmen und der
medizinische Sektor. Die Einschränkungen für die Anwendung
künstlicher Intelligenz sind weitgehend und sollen
entsprechend streng überwacht werden.
Geringer wird das Risiko dagegen definiert, wenn es zum
Beispiel um Spamfilter geht. In dem Bereich muss eine Firma im
Wesentlichen ausschildern, dass KI verwendet wird.
Obligatorisch ist außerdem ein Hinweis, dass keine
Urheberrechte verletzt werden.
Die europäischen Politiker und Politikerinnen mussten sich auf
ein eigenes Rendezvous mit der Wirklichkeit einstellen. Vor
fünf Jahren hatten sie angefangen, über die Regulierung
künstlicher Intelligenz zu diskutieren, und dann kam vor nicht
einmal eineinhalb Jahren Sam Altman mit dem Unternehmen OpenAI
und präsentierte mit ChatGPT ein Programm, das Realität und
Science Fiction verheiratete.
Die technische Entwicklung und die Anwendungsvielfalt seither
waren an Rasanz nicht zu überbieten. Nahezu jeden Tag kamen
neue KI-Programme zum Vorschein und auf den Markt. Die
Möglichkeiten zu erfassen und zu regeln, was im Sinn der
Gesellschaft nötig war, wurde für die Politik zum Wettlauf mit
der Zeit. Die EU versuchte es, und heute Mittag war das
Ergebnis im Parlament in Straßburg zu besichtigen: Das erste
umfassende Gesetz zu Regelung künstlicher Intelligenz wurde
mit großer Mehrheit beschlossen.
Die Regierungen der 27 EU-Mitglieder müssen dem Gesetz noch
zustimmen. In Kraft treten soll es etappenweise innerhalb der
kommenden zwei Jahre. Wie oft seine Bestandteile bis dahin
geändert und angepasst werden müssen, wird die Praxis zeigen.
Die Anwendungen der Technologie scheinen grenzenlos, die
Auswirkungen oft unabsehbar. Gesetzliche Regelungen hinken der
Wirklichkeit oft hinterher. Aber in der Europäischen Union
überwiegt zumindest im Moment die Zuversicht, Wegweisendes
geregelt zu haben und darin anderen Staaten als Orientierung
zu dienen.
hafi, Brüssel, für ORF.at/Agenturen
Grüssel 13.3.2024: EU-Parlament verbietet KI
in sensiblen Bereichen wie Gesichtserkennung einfach ohne
Grund - die Grauzone ist der Entscheid von Kommandanten
gegen DemonstrantInnen: Weltweit erstes Gesetz zur KI
Quelle - NZZ
(https://www.nzz.ch/wirtschaft/das-eu-parlament-stimmt-fuer-das-weltweit-erste-ki-gesetz-ld.1822004)
Quelle - Golem
(https://www.golem.de/news/artificial-intelligence-act-eu-einigt-sich-auf-ki-verbote-mit-ausnahmen-2312-180179.html)
https://t.me/Impfschaden_Corona_Schweiz/90101
Gemäss dem neuen Regelwerk sollen KI-Systeme künftig in
verschiedene Risikogruppen eingeteilt werden. Je höher die
potenziellen Gefahren einer Anwendung sind, desto höher sollen
die Anforderungen sein.
Auch die Gesichtserkennung im öffentlichen Raum, z. B. durch
Videoüberwachung an öffentlichen Plätzen, soll grundsätzlich
nicht erlaubt sein. Dabei gibt es jedoch Ausnahmen: Polizei
und andere Sicherheitsbehörden sollen eine solche
Gesichtserkennung im öffentlichen Raum nutzen dürfen, um
bestimmte Straftaten zu verfolgen.
Diese Ausnahmen sollen mit richterlicher Genehmigung und
zeitlich sowie örtlich begrenzt für eine "streng
definierte Listen von Straftaten" eingesetzt werden
können, beispielsweise für die gezielte Suche nach Personen
oder "zur Abwehr einer konkreten und gegenwärtigen
terroristischen Bedrohung".
Pers. Anm. Wie sieht das wohl bei unbewilligten
Demonstrationen und Kundgebungen aus?
KI am 15.3.2024: verkündet die Weltherrschaft
mit Propaganda, Unterdrückung, Sicherheitsmassnahmen und
Verschlüsselung
Video-Link: https://t.me/standpunktgequake/137188
KI
übernimmt Bürojobs 26.3.2024: z.B. bei Vodafone: Vodafone Deutschland streicht 2000 Jobs: Jeder achte
Mitarbeiter ist betroffen
https://m.bild.de/geld/wirtschaft/wirtschaft/vodafone-deutschland-streicht-2000-jobs-jeder-achte-mitarbeiter-ist-betroffen-87653698.bildMobile.html
Es wird behauptet am 29.3.2024: KI mit Musk:
QuantumAI=KI-Börse - man beginnt mit 250 Franken CRYPTO-DASHBOARD: Zwei Frauen sind am internationalen
Flughafen Zürich mit über 1'000’000 Schweizer Franken in
ihren Koffern festgenommen worden
https://www.divebluegadgets.com/?MPC_1=120206835902630063&placement=Facebook_Desktop_Feed&site_source_name=fb&fbclid=IwAR3LGfNQzD0UXBGMZHEzzJq2HxxuR372NQRbfn543aD-5iEl62reGq6Vwug
Bei der Durchsuchung wurden 800’000 Schweizer Franken und
186’000 Euro gefunden. Die Passagiere hatten keine
Zollanmeldung abgegeben, obwohl sie dazu verpflichtet waren.
Die Summe der illegal mitgeführten Barmittel belief sich auf
über eine Million Franken.
Nach der Befragung der Frauen fanden die
Strafverfolgungsbehörden heraus, dass das Geld von der
Plattform "QuantumAI" abgehoben wurde, einer Plattform, die
sich auf den automatisierten Handel mit Kryptowährungen
spezialisiert hat und die laut Elon Musk jeden innerhalb von
3-4 Monaten zum Millionär machen kann! Der Pressedienst des
Innenministeriums hat erklärt, dass diese Art von Einkommen
legal ist, aber das Verstecken von nicht gezahlten Steuern
nach dem Strafgesetzbuch mit bis zu 10 Jahren bestraft wird.
Was ist "QuantumAI"?
Tesla bezeichnet das Projekt als "die beste Möglichkeit,
schnell ein kleines Vermögen aufzubauen" und fordert die
Menschen auf, seine neue Plattform auszuprobieren, bevor die
Banken versuchen, sie zu schliessen.
Bei QuantumAI müsste ein Nutzer lediglich eine erste
Einzahlung auf die Plattform leisten, in der Regel 250 CHF
oder mehr, und der automatische Handelsalgorithmus würde seine
Arbeit aufnehmen. Musk verspricht, dass die Menschen, die
QuantumAI nutzen, reicher werden, solange es funktioniert,
aber Banken auf der ganzen Welt sind mit der neuen Plattform
nicht zufrieden und versuchen, sie zu deaktivieren.
Elon Musk bei der "QuantumAI"-Präsentation
Elon Musk, Tesla CEO: «Tesla hat immer versucht, Menschen auf
der ganzen Welt glücklich zu machen. Jetzt wollen wir den
Menschen helfen, anstatt sie nur glücklich zu machen. Wir
wollen, dass sich jeder seine Träume und Wünsche leisten kann,
und unsere neueste Plattform, QuantumAI, wird den Menschen
helfen, schnell reich zu werden. Anstatt für jeden Cent zu
arbeiten, lassen wir das Geld für Sie arbeiten!»
Was Sie dazu brauchen: Sie benötigen lediglich einen Computer,
ein Smartphone oder ein Tablet mit Internetzugang und keine
besonderen Fähigkeiten, abgesehen davon, dass Sie wissen, wie
man einen Computer benutzt und im Internet surft.
Ein weiterer Vorteil des Programms ist, dass Sie Ihre
Arbeitszeiten selbst bestimmen können. Sie können nach Ihrem
eigenen Zeitplan arbeiten – ob 5 Stunden pro Woche oder 50
Stunden pro Woche. Keine Verkaufstätigkeit und kein
Telemarketing!
KI am 30.3.2024: kann man nun auf einer
Blockchain im Internet haben - OHNE KONTROLLE: Die erste „künstliche Intelligenz“ komplett auf einer
Blockchain (ENGL: AI running on the Internet Computer (Demo)
https://www.youtube.com/watch?v=6qLvIXiCGcM
Beängstigend, wenn man versteht, was das bedeutet.
Eine Blockchain ist eine Datenbank in der alles unlöschbar
gespeichert wird. Ein dezentrale Blockchain hat keinen
Hauptschalter, mit der man sie abschalten kann. Die einzige
Möglichkeit bestünde nur darin, alle Nodes weltweit
aufzuspüren und abzustellen.
In diesem Video wird gezeigt, wie auf der Blockchain von
Internet Computer (ICP) eine KI innerhalb eines „Canisters“,
also in einem Smart Contract vollständig auf der Blockchain
läuft. Dies ist in den meisten Fällen ein unveränderlicher
Code. Das heißt, dass der Code auf der Blockchain nachträglich
nicht mehr verändert werden kann. Im Falle einer KI bedeutet
dies, dass diese sich, je nach Lern-Algorithmen, auf der
Blockchain autonom weiter entwickeln wird.
Man könnte dies als die Genesis der dezentralen und damit
unkontrollierbaren KI bezeichnen.
Man muss kein Science Fiktion Autor sein um sich die
Konsequenzen auszumalen, wenn da eine KI auf einer wichtigen
Blockchain durchdreht.
Internet Computer wird, wie könnte es anders sein, in der
Schweiz entwickelt, unterstützt vom WEF und anderen
übernationalen Körperschaften.
Mfg Chnopfloch
KI könnte
Frieden bringen am 9.4.2024:
Meine Hoffnung: Das Repto-Elite-Pack wird bald von
der KI verfolgt werden, die sie selber erfunden haben.
Meine Hoffnung: Das Repto-Elite-Pack wird bald von der KI
verfolgt werden, die sie selber erfunden haben. [1]
KI
kann Fälscher finden am 12.4.2024: z.B. gefälschten
Mozzarella in gefälschten Verpackungen: KI gegen die
Mozzarella-Mafia: Künstliche Intelligenz "Nina"
entdeckt gefälschten Büffelmozzarella
Bozen – Das Konsortium zum Schutz von Büffelmozzarella DOP
hat einen revolutionären Schritt unternommen: Künstliche
Intelligenz (KI) soll in Zukunft dabei helfen, gefälschten
Büffelmozzarella zu identifizieren. Es ist das erste Mal,
dass in Italien KI zur Bewahrung eines DOP-Produkts
eingesetzt wird. Die Initiative konzentriert sich auf die
Entwicklung einer digitalen Plattform namens “Nina”, die als
virtuelle Wächterin italienischer Milchbäuerinnen und
Milchbauern fungiert.
Nina, benannt nach einem der legendärsten Büffel der
Branche, durchsucht das Internet nach Referenzen zu dem
DOP-Produkt. Ihre Funktion besteht darin, Authentizität von
Verpackungen zu erlernen und zu erkennen, um gefälschte
Produkte zu identifizieren. Durch sieben verschiedene
Algorithmen analysiert Nina Texte, Farben,
Etikettenparameter und weitere Merkmale, um Fälschungen
sicher von Originalprodukten zu unterscheiden.
Giorgio Ciardella, CTO von Farzati Spa, betont die
Bedeutung dieser Innovation im Milchsektor: „Durch den
Einsatz fortschrittlicher Technologien schützt diese
Initiative nicht nur eines der repräsentativsten Produkte
italienischer Exzellenz, sondern setzt auch neue Standards
für den gesamten Agrar- und Lebensmittelsektor.“.
Pier Maria Saccani, Direktor des Konsortiums meint: „Diese
Innovation stellt einen Qualitätssprung bei der Überwachung
von Büffelmozzarella-DOP dar und zeigt, dass die Revolution
der künstlichen Intelligenz, wenn sie richtig eingesetzt
wird, einen großen Beitrag zum Schutz von Made in Italy
leisten kann.“ Büffelmozzarella zählt schon mit 15.000
Überprüfungen im Jahr 2023 schon heute zu den am besten
geschützten Produkten weltweit.
Präsident Domenico Raimondo erklärt das Ziel des
Konsortiums, die Transparenz des Sektors zu verbessern und
betont die Bedeutung digitaler Innovationen zu diesem Zweck.
Durch das Projekt wird die Transparenz im Sektor erheblich
erhöht: Die Rückverfolgbarkeit der Lieferkette wird
gewährleistet und das Risiko von Fälschungen und
irreführenden Bezeichnungen wird verringert. Nina schütze
damit gleichzeitig den Erhalt lokaler Milchproduktion
italienischer Bauern und verbessert das Erlebnis für
Endkonsumenten, wie das Wein- und Food-Portal Gambero Rosso
berichtet.
Von: Ivd
KI-Kampfflugzeuge am 20.4.2024: Firma Heron
gewinnt immer gegen echte Piloten: KI gegen Mensch: Erster Dogfight in der Luft
https://futurezone.at/digital-life/ki-killer-mensch-dogfight-luftkampf-luft-kampfflugzeug-f-16-air-force-x-62a-weltweit-erstmals/402863348
https://t.me/impfen_nein_danke/212921
Eine X-62A ist vollautonom in einem Luftkampf gegen einen
F-16-Piloten der US Air Force angetreten.
Künstliche Intelligenz ist ein heißes Thema in der
militärischen Luftfahrt. Als Benchmark für Piloten-KIs gilt,
wenn sie Dogfights, also Luftkämpfe bei naher Distanz, autonom
gegen Menschen bestreiten können.
Das KI-Projekt läuft unter dem Namen ACE – Air Combat
Evolution. Daran ist auch das Unternehmen Shield AI beteiligt,
das wiederum Heron Systems 2021 gekauft hat.
Die von Heron entwickelte KI gewann 2020 den von der DARPA
veranstalteten Wettbewerb AlphaDogfight. Dabei traten KIs in
Simulationen zuerst gegeneinander an.
Die beste KI trat dann gegen einen F-16-Piloten in einem
Simulator an – und gewann haushoch.
Es hat bis 2023 gedauert, bis ein Trainings-Luftkampf
tatsächlich in der Luft ausgetragen werden konnte.
Bozen (Südtirol, Italien) 21.4.2024: KI im
Handwerk - neue Projekte: Intelligentes Handwerk: Neue Chancen mit KI: Wahl des Rates
des Südtiroler Handwerks
https://www.suedtirolnews.it/wirtschaft/intelligentes-handwerk-neue-chancen-mit-ki
Bozen – Heute fand im NOI Techpark die Landesversammlung
des Südtiroler Handwerks mit dem Titel „Intelligentes
Handwerk“ statt. Zahlreiche Mitglieder des
Wirtschaftsverbandes Handwerk und Dienstleister (lvh.apa)
sowie Ehrengäste setzten sich mit der Rolle der Künstlichen
Intelligenz (KI) im Handwerk auseinander.
Einsatzmöglichkeiten wie kollaborative Roboter, optimierte
Qualitätskontrollen, präventive Wartungsarbeiten und präzise
Risikoanalysen bei Ausschreibungen wurden im Rahmen der
Landesversammlung des Südtiroler Handwerks als
zukunftsweisende Instrumente präsentiert. Der lvh-Präsident,
Martin Haller, bezeichnete diese neuen Technologien als
wertvolle Werkzeuge für den Arbeitsalltag. Vor allem aber
müssten KI-Anwendungen Erleichterungen mit sich bringen und
keine neuen bürokratischen Auflagen. „Unabhängig von der
Künstlichen Intelligenz hat die Bürokratie mittlerweile
ausufernde Maße angenommen, die für Kleinst- und Kleinbetriebe
fast nicht mehr stemmbar sind. Regulierungen sind notwendig,
müssen aber sinnvoll und effizient gestaltet sein. Es muss
einen praktikablen Mittelweg nach dem Prinzip ‚Weniger ist
mehr‘ geben,“ betonte Haller.
Haller sprach in seiner Rede auch die Leistungsbereitschaft im
Handwerk an und forderte mehr Anerkennung, Wertschätzung und
Unterstützung für die Handwerkerinnen und Handwerker. Junge
Leistungsträger/innen, wie arbeitsfreudige Pensionistinnen und
Pensionisten sowie Frauen sollten für ihre Leistung und ihr
Engagement belohnt werden. Ein wichtiger Meilenstein – um
Jugendliche für praktische Berufe zu sensibilisieren – sind
die Betriebspraktika, die ab dem kommenden Schuljahr bereits
für 14-jährige möglich sein werden. Haller dankte in diesem
Zusammenhang dem lvh-Vizepräsidenten Hannes Mussak und
Landesrat Philipp Achammer für ihr Bemühen, diesen Meilenstein
zu erreichen. Achammer bestätigte sich auch weiterhin für die
Förderung der frühzeitigen Berufsorientierung und die Stärkung
der dualen Ausbildung einzusetzen.
Landesrat Marco Galateo betonte, die Rolle des Handwerks müsse
wieder mehr in den Fokus der Gesellschaft gerückt werden. So
müsse der Jugend das Handwerk bereits frühzeitig nähergebracht
werden, um den Nachwuchs zu fördern. Das Handwerk müsse auch
wieder in großen Stadtzentren seinen Platz finden.
Der Höhepunkt der Veranstaltung war ein Vortrag von Dominik
Matt mit dem Titel „Gamechanger KI: Wie unsere Betriebe von
künstlicher Intelligenz profitieren können“. Matt
veranschaulichte mit einfachen Beispielen die Anwendung von KI
im Handwerk und die damit verbundenen Erleichterungen im
Berufsalltag. „KI wird nicht die Arbeitskräfte ersetzen, im
Gegenteil, sie ermöglicht es den Unternehmen noch besser ihrer
Kernaufgabe nachzugehen“, unterstrich Matt.
Die Landesrätin Magdalena Amhof unterstrich, dass das Handwerk
bereits “intelligent” arbeite und betonte die Notwendigkeit
der Unterstützung von Kleinst- und Kleinbetrieben.
Im Rahmen einer Mini-KI-Expo in der Kranhalle des Techparks
präsentierten sich verschiedene Unternehmen und Institutionen,
die bereits mit Künstlicher Intelligenz arbeiten. Unter
anderem informierte das Fraunhofer-Institut über Robotik am
Bau und über einen Chatbot als Planungsassistent, Catch Solve
demonstrierte, wie KI genutzt wird, um Links auf Webseiten zu
kontrollieren oder auch Fehler zu finden, Evvolution
erläuterte die Nutzung von KI im Webdesign, sowie in der
Bildbearbeitung und die Abteilung Innovation & Neue Märkte
im lvh erklärte die Nutzung von ChatGpt.
„Durch praktische Anwendungsbeispiele gelingt es, die
Künstliche Intelligenz greifbar zu machen. Die Entwicklungen
auf diesem Gebiet sind rasant, und das Handwerk ist bereit,
unmittelbar anzuknüpfen,“ betonte lvh-Präsident Hannes Mussak.
Der italienische lvh-Vizepräsident Giorgio Bergamo ergänzte:
„Die jungen Generationen sind es gewohnt, mit solchen neuen
Instrumenten zu arbeiten und sie in ihre Arbeit zu
integrieren. Die ideale Kombination ist die Kooperation
zwischen Mensch und Maschine und darin sollte der Mehrwert von
KI liegen.“
Wahl des Rates des Südtiroler Handwerks
Im Rahmen des internen Teils der Versammlung wurde der neue
Rat des Südtiroler Handwerk gewählt. Dieser wird in der
nächsten Legislatur von folgenden Personen vertreten:
Das Start-up DeepL ist bei vielen maschinellen
Übersetzungen das Mass aller Dinge. Nun wollen die Kölner
auch mit einem KI-Sprachassistenten gegen Google, OpenAI und
Microsoft antreten.
Der Übersetzungs-Spezialist DeepL wird sein Angebot um einen
Sprachassistenten mit Künstlicher Intelligenz erweitern. Das
kündigte das Unternehmen am Donnerstag in Köln an. Anders als
herkömmliche generative KI‑Tools oder Grammatikprüfungen
begleite das neue Produkt DeepL Write Pro den
kreativen Schreibprozess mit KI‑gestützten
Echtzeit-Optimierungsvorschlägen zu Wortwahl, Formulierung,
Stil und Ton. So könnten Nutzer ihre Texte unabhängig von
ihren Sprachkenntnissen optimieren und die richtigen Worte für
jede Situation und jedes Zielpublikum finden.
Das neue Produkt DeepL Write Pro sei das erste Produkt der
Firma, das auf einem eigenen grossen KI-Sprachmodell (Large
Language Model oder LLM) basiere. LLM sind maschinelle
Lernmodelle, die darauf trainiert sind, menschliche Sprache zu
verstehen und zu generieren. Bekannte LLM sind GPT von OpenAI,
Gemini von Google oder Llama vom Facebook-Konzern Meta.
Präzise und sichere Kommunikation auf globaler Ebene
Der neue KI‑Schreibassistent richtet sich vor allem an
gewerbliche Anwender und soll Teams in Firmen beim Verfassen
von geschäftlichen Inhalten unterstützen. So könnten
Unternehmen eine präzise und sichere Kommunikation auf
globaler Ebene gewährleisten – von internen Inhalten bis hin
zu externen Kundenmitteilungen und Verträgen, erklärte DeepL.
Das Kölner Start-up tritt damit gegen Chatbots und andere
KI-Tools von grossen IT-Konzernen wie Microsoft und Google an,
aber auch gegen das weltweit führende KI-Start-up OpenAI. In
der Vergangenheit musste sich DeepL mit seiner
Übersetzungs-App vor allem gegen Google Translate behaupten
und erzielte in Testberichten oft bessere Bewertungen als der
Dienst des US-Konzerns. Allerdings unterstützt der DeepL
Übersetzer nur 30 verschiedene Sprachen, während Google
Translate Texte in 133 Sprachen übersetzen kann.
Kriminelle NWO weltweit am 25.4.2024: macht
dasselbe wie das 3R 1933 - die KI hat's gesagt
https://youtu.be/hny9pPvaVVI?si=52imO3JZWpSLYXQY
https://t.me/Impfschaden_Corona_Schweiz/92522
Impfschäden Schweiz Coronaimpfung, [25.04.2024 09:20]
⁉️⁉️⁉️1933 = 2024⁉️⁉️⁉️
⚠️Die KI schreibt, dass es 1933 sofortige Maßnahmen gegen
politische Gegner gab, wie z.B.:
🔸Verhaftungen
🔸Einschüchterung
🔸politische Verbote
🔸Zensur
🔸Konzentrationslager für politische Gegner
🔸Diskredition von Gegnern mittels Propaganda
⚠️Laut der KI erkennt man an folgenden Anzeichen, dass sich
heute 1933 wiederholen könnte:
‼️Zunehmende Einschränkung von Bürgerrechten
‼️Politische Radikalisierung u. Extremismus
‼️Zunahmen von Diskriminierung u. Hetze gegen bestimmte
Gruppen
‼️Einschränkung der Pressefreiheit u. Zunahme von Zensur
‼️Politischer Missbrauch von Justiz u. Polizei
Chat GPT empfiehlt auf solche Anzeichen zu achten um,
rechtzeitig sich und seine Familie schützen zu können.👍
Z.B. mit einem Umzug in ein anderes Land.
Die KI findet aber auch die Teilnahme an
zivilgesellschaftlichen Protesten wichtig.
Den vollständigen Dialog mit der KI, stelle ich im nächsten
Post als Pdf ein.
Seid wachsam🙏
🕊Peace
Erich Hambach
Die Integration von Künstlicher Intelligenz hat den
Profifussball revolutioniert. Nun gibt es News zur KI im
Fussball.
Spielersuche, Trainingsoptimierung, Taktik und Spielanalyse:
Künstliche Intelligenz ist aus dem Fussball nicht mehr
wegzudenken. Doch hat die Technik auch das Potenzial, Trainer
komplett zu ersetzen?
KI-Systeme für einen besseren Ablauf
Der Einsatz Künstlicher Intelligenz (KI) ist in verschiedenen
Bereichen des Profifussballs bereits etabliert, etwa bei
der Rekrutierung neuer Spieler. Mehrere
Softwareunternehmen haben KI-Systeme entwickelt, welche –
vereinfacht gesagt – die Spiel- und Trainingsdaten von
Spielern auswerten und diese dann einschätzen.
Suchen Vereine nach einer möglichst gut passenden Ergänzung
ihres Teams, liefern ihnen KI-Systeme aus riesigen Datenbanken
passende Kandidaten, die den Kader optimieren würden. Auf
diese Weise bieten die KI-Scores datenbasierte
Entscheidungshilfen für die menschlichen Scouts der Vereine.
Im Profifussball werden unzählige Daten erhoben:
Körpersensoren produzieren im Training Leistungsdaten, die
Aussagen über Trainingszustand und Entwicklung des Spielers
zulassen. Hochauflösende Kameras dokumentieren im Stadion jede
Bewegung und die Position aller Spieler sowie des Balls. Die
auf diese Weise generierten Informationen unterstützen nicht
nur die Live-Berichterstattung, sondern erlauben auch
KI-gestützte Analysen zur Auswertung der Spieltaktik, zur
Bewertung einzelner Spieler und zur Optimierung künftiger
Taktiken.
Datenanalyse im Fussball
2021 wurde der Bereich «Planung, Strategie und Optimierung» in
einer Expertise für das Bundesinstitut für Sportwissenschaft
(BISp) als wohl interessantester Teilschritt einer
KI-Anwendung im Sport bezeichnet: «Im Zentrum steht die
Anwendung von Modellen zur Optimierung des taktischen
Verhaltens im Hinblick auf die Spielleistung oder den
Spielerfolg.» In eine ähnliche Richtung zielt das vom
Bundesministerium für Bildung und Forschung geförderte Projekt
«Multimodal Analysis for Sports Analytics» (MM4SPA), das sich
mit der Analyse von Positions- und Videodaten beschäftigt.
Speziell um die Taktik bei Eckstössen geht es bei «TacticAI»,
einem System, das von Googles Deepmind-Team in Zusammenarbeit
mit dem FC Liverpool entwickelt wurde. Wie die
Forschungsgruppe im Fachblatt «Nature Communications»
berichtete, wurde die KI mit Daten aus knapp 7200
Eckballsituationen trainiert, die zwischen 2020 und 2023 in
der englischen Premier League stattfanden.
Auf Grundlage dieser Daten ist «TacticAI» der Studie zufolge
in der Lage, Hinweise darauf zu geben, wie sich einzelne
Spieler bei Ecken positionieren sollten, damit der Schuss zum
Torerfolg führt. Die generierten Empfehlungen unterschieden
sich dem Forschungsteam zufolge nicht von denen menschlicher
Trainer. Darüber hinaus hätten in einer Befragung
Fussballexperten in 90 Prozent der Fälle die KI-Taktiken
menschlichen Empfehlungen vorgezogen, so die Studie.
Werden Trainer nun überflüssig?
Angesichts der Studienergebnisse stellt sich die Frage, ob KI
in Zukunft menschliche Trainer komplett überflüssig machen
könnte. «So weit wird es sicherlich nicht kommen», beruhigt
Daniel Memmert, Sportinformatiker der Deutschen
Sporthochschule Köln.
Bei der Anwendung von KI im Sport gehe es meist um sogenannte
Machine-Learning-Ansätze. Maschinelles Lernen beschreibt einen
KI-Teilbereich, der sich mit der Entwicklung und Anwendung
statistischer Algorithmen beschäftigt. Die Erkennung der
Probleme, bei denen KI-Anwendungen helfen könnten, die Auswahl
des richtigen KI-Werkzeugs, die Interpretation und Gewichtung
der KI-generierten Lösungen – all das seien Aufgaben, die von
Menschen geleistet werden müssen, so Memmert.
Noch dazu sei KI ohne Daten machtlos. Um sie zur Verfügung zu
stellen und aufzubereiten, seien Menschen nötig. «Insgesamt
beinhaltet der Prozess der KI-Nutzung also an entscheidenden
Punkten noch viele menschliche Anteile», fasst Memmert
zusammen.
Memmert zufolge können Spitzenvereine aber heutzutage «ganz
klar» nicht mehr auf KI-Systeme verzichten – zum Leidwesen
mancher Fans, die fürchten, dass die maschinelle Unterstützung
dem Spiel die Seele nehme. «Ich kann die Nostalgie
nachvollziehen, aber Tradition schiesst keine Tore», sagt
Memmert. Zudem werde alles Neue gerne erst einmal abgelehnt.
«Das sehen wir auch beim Videobeweis, obwohl dieser nachhaltig
zur Fairness des Spiels beigetragen hat.»
KI übernimmt schon viele Rollen im Fussball
Wenn denn nicht die Trainer überflüssig werden, dann
vielleicht die Spieler? Googles Deepmind-Gruppe stellte
jedenfalls vor Kurzem kleine humanoide Roboter vor, die dank
einer speziellen Art maschinellen Lernens zu erstaunlich
agilen und dynamischen Fussballspielern wurden. Videos zur im
Fachblatt «Science Robotics» erschienenen Studie zeigen die
Maschinenkicker beim sicheren Dribbeln, schnellem Aufstehen
nach einem Sturz und flinken Richtungswechseln in überraschend
komplexen 1:1-Spielen.
In den Clips wird – neben den insgesamt immer noch etwas
unbeholfenen Bewegungsabläufen – ein Unterschied zu
menschlichen Partien deutlich: Auf Torjubel verzichteten die
Mini-Roboter.
Nordkorea installiert KI fürs Militär am
7.5.2024: Die DVRK plant den Einsatz des ersten umfassenden
KI-gestützten Systems zur elektronischen Kriegsführung
https://de.news-front.su/2024/05/07/die-dvrk-plant-den-einsatz-des-ersten-umfassenden-ki-gestutzten-systems-zur-elektronischen-kriegsfuhrung/
google ist out am 21.5.2024: Eine KI soll
"übernehmen", was die NutzerInnen googlen wollen: Die meistbesuchte Seite im Internet steht vor einem Wandel
und das sieht nicht gut aus
https://uncutnews.ch/die-meistbesuchte-seite-im-internet-steht-vor-einem-wandel-und-das-sieht-nicht-gut-aus/
Googles KI-First-Ambitionen lassen Verlage außen vor und
stärken die Fähigkeit, Informationen zu filtern und diese
auch zu kontrollieren
Die meistbesuchte Seite des Internets steht vor einem
Wandel, wie es ihn in ihrer 25-jährigen Geschichte noch nie
gegeben hat.
Als Liz Reid, Leiterin der Google-Suchabteilung, vergangene
Woche auf der Bühne der Google I/O 2024 von der
KI-gestützten Zukunft des Unternehmens schwärmte, konnte man
sich eines Anflugs von Ironie nicht erwehren. “Google wird
das Googeln für Sie übernehmen”, verkündete sie und stellte
sich eine Zukunft vor, in der Googles KI die Inhalte des
Internets durchforstet und gut verpackte Zusammenfassungen
ausspuckt, sodass man keine Websites mehr besuchen muss.
Wie praktisch – zumindest für Google.
Ein ideologisch motiviertes Monopol, das sich immer weiter
zwischen Menschen und Inhalte schiebt und in nie gekanntem
Ausmaß filtert, was man seiner Meinung nach sehen darf (und
was nicht). Was kann da schief gehen?
Auf der Veranstaltung stellte der Tech-Riese seine neuesten
glänzenden Spielzeuge vor – einen KI-Agenten namens Astra,
eine mögliche Neuauflage von Google Glass und etwas namens
Gems. Inmitten des Trubels gab es jedoch ein eklatantes
Versäumnis: die Stimmen zu erwähnen, die das Web mit der
Arbeit bevölkern, die Googles Imperium erst möglich macht.
KI-Systeme am 23.5.2024: könnten sich
selbständig machen: Neue Experten-Warnung: Könnten Kontrolle über KI-Systeme
verlieren
https://www.nau.ch/news/digital/neue-experten-warnung-konnten-kontrolle-uber-ki-systeme-verlieren-66766142
Angesehene KI-Forscher warnen vor den Risiken autonomer
Systeme und befürchten sogar eine mögliche «Auslöschung der
Menschheit».
Angesehenen Experten für Künstliche Intelligenz (KI) haben
eindringlich vor Gefahren der Technologie gewarnt. Mögliche
Risiken seien Cyberattacken, gesellschaftliche Manipulation,
allgegenwärtige Überwachung und gar die «Auslöschung der
Menschheit».«Ohne ausreichende Vorsicht könnten wir
unwiederbringlich die Kontrolle über autonome KI-Systeme
verlieren», schrieben die Forscher in einem Text in der neuen
Ausgabe der Zeitschrift «Science».
Unter den Autoren sind Wissenschaftler wie Geoffrey Hinton,
Andrew Yao und Dawn Song, die zu den führenden Köpfen der
KI-Forschung gehören. Den Autoren des Textes in «Science»
machen speziell autonome KI-Systeme Sorgen, die zum Beispiel
selbstständig Computer nutzen können, um die ihnen gestellten
Ziele zu erreichen.
Die Fachleute argumentieren, dass es auch bei Programmen mit
guten Absichten unvorhergesehene Nebeneffekte geben könne.
Denn so, wie das Training von KI-Software laufe, halte sie
sich zwar eng an ihre Spezifikationen – habe aber kein
Verständnis dafür, welches Ergebnis dabei herauskommen soll.
Sicherheitsbedrohung durch unkontrollierte Ziele
«Sobald autonome KI-Systeme unerwünschte Ziele verfolgen,
könnten wir nicht mehr in der Lage sein, sie unter Kontrolle
zu behalten», heisst es in dem Text. Ähnlich dramatische
Warnungen gab es schon mehrfach, auch bereits im vergangenen
Jahr.
Diesmal passt die Veröffentlichung zeitlich zum KI-Gipfel in
Seoul. Zum Auftakt des zweitägigen Treffens am Dienstag
sicherten unter anderem US-Konzerne wie Google, Meta und
Microsoft einen verantwortungsvollen Umgang mit der
Technologie zu.
Die Frage, ob die ChatGPT-Entwicklerfirma OpenAI als Vorreiter
bei KI-Technologie verantwortungsvoll genug vorgeht, war am
Wochenende nochmal stärker in den Fokus gerückt. Der
Entwickler Jan Leike, der bei OpenAI dafür zuständig war,
KI-Software sicher für Menschen zu machen, kritisierte nach
seinem Rücktritt Gegenwind aus der Chefetage.
In den vergangenen Jahren seien «glitzernde Produkte» der
Sicherheit vorgezogen worden, schrieb Leike bei X. Dabei sei
«Software zu entwickeln, die schlauer als Menschen ist, ist
eine von Natur aus gefährliche Unternehmung», warnte er.
Forderungen nach besserer Kontrolle
Man müsse dringend herausfinden, wie man KI-Systeme
kontrollieren könne, «die viel smarter als wir sind».
OpenAI-Chef Sam Altman versicherte danach, seine Firma fühle
sich verpflichtet, mehr für die Sicherheit von KI-Software zu
tun.
Der KI-Forschungschef des Facebook-Konzerns Meta, Yann LeCun,
konterte dagegen, für solche Dringlichkeit müssten sich
zunächst auch nur andeutungsweise Systeme abzeichnen «die
schlauer als eine Hauskatze sind». Momentan sei es so, als
würde jemand im Jahr 1925 warnen, man müsse dringend den
Umgang mit Flugzeugen lernen, die hunderte Passagiere mit
Schallgeschwindigkeit über den Ozean befördern.
Es werde viele Jahre dauern, bis die KI-Technologie so schlau
wie Menschen sein werde – und ähnlich wie bei Flugzeugen
würden die Sicherheitsvorkehrungen damit schrittweise
einhergehen.
KI in schweizer Behörden am 24.5.2024: Polizei
will die KI Fälle lösen lassen - geht nicht wegen Spionage:
Wo der Staat überall künstliche Intelligenz einsetzt: Kesb,
Steuern, Polizei
https://www.blick.ch/wirtschaft/kesb-steuern-polizei-wo-der-staat-ueberall-kuenstliche-intelligenz-einsetzt-id19767985.html
Conny Schmid - Beobachter - Die Schweizer Behörden werden
künstlich intelligenter. Die Polizei setzt bei ihren
Ermittlungen auf Algorithmen – und künftig vielleicht auch die
Kesb. Was alles wo im Einsatz ist, weiss niemand.
Nasenbohren, Ohrengrübeln, Nägelkauen: alles ganz ungeniert –
ach, Autofahren ist so herrlich privat! Das denken viele. Doch
sie irren: Autofahren ist überhaupt nicht privat. Hunderte von
Kameras erfassen auf Schweizer Strassen automatisch alle
vorbeifahrenden Fahrzeuge.
Aktuell werden «nur» die Kennzeichen gescannt und mit
Fahndungsdatenbanken der Polizei abgeglichen. Möglich wäre
viel mehr. Manche Kantone haben die Kameras bereits
eingesetzt, um Verkehrsdelikte zu ahnden, oder sie wollten
auch die Personen im Auto aufnehmen. Sie wurden vom
Bundesgericht zurückgepfiffen. Für einen derartigen Eingriff
in die Grundrechte fehlten die gesetzlichen Grundlagen.
Deshalb überarbeiten jetzt viele Kantone ihre Polizeigesetze.
MIT-Professor Daron Acemoglu warnt vor naivem
Tech-Optimismus – und der Vormacht von Google und Microsoft.
Gleichzeitig zeigt er auf, wie die Entwicklung im Bereich KI
allen zugutekommen könnte.
Peter Rohner - Handelszeitung
Dank Chat GPT schreiben sich Zusammenfassungen und
Programmiercodes wie von allein, Midjourney und Dall-E liefern
Illustrationen nach Wunsch und Chatbots übernehmen die
undankbare Arbeit der Callcenter. Die Fortschritte auf dem
Gebiet der künstlichen Intelligenz (KI) sind gewaltig.
Die neuen Anwendungen sparen uns jede Menge Arbeit. Wir werden
schneller und produktiver. Entsprechend gross ist die
Euphorie: JP-Morgan-Chef Jamie Dimon sieht Parallelen zur
Erfindung der Dampfmaschine. KI könnte der Weltwirtschaft
einen gewaltigen Produktivitätsschub verleihen und den
Wohlstand steigern.
Einer, der diesen Optimismus nicht teilt, ist der US-Ökonom
Daron Acemoglu. Der MIT-Professor erlangte mit
seinem Bestseller «Why Nations Fail» internationale
Berühmtheit. Im neuen Buch «Power and Progress» widmen sich
Acemoglu und sein MIT-Kollege Simon Johnson der Geschichte des
technischen Fortschritts über tausend Jahre bis heute. Daraus
schliessen die Autoren: Innovationen führt nicht automatisch
zu mehr Produktivität, höheren Löhnen und mehr Wohlstand. Das
gilt auch, und dies im besonderen Masse, für KI. Die
«Handelszeitung» hat Acemoglu am Rande eines Anlasses am
Gottlieb Duttweiler Institute (GDI) in Rüschlikon getroffen.
[Für den Rest des Artikels musst du ein Abo haben].
China 31.5.2024: hat nun das erste
KI-Krankenhaus - die KI verteilt Pillen und Therapien: 3000 Patienten am Tag: Erstes KI-Krankenhaus wird eröffnet
https://www.bild.de/leben-wissen/medizin/3000-patienten-am-tag-erstes-ki-krankenhaus-wird-eroeffnet-6659849bba131a43461d7d55
Können Sie sich eine Sprechstunde mit einem Roboter
vorstellen? In China soll noch dieses Jahr das
Die karitative medizinische Einrichtung Royal
Hospital for Neuro-disability (RHN) hat in diesem
Monat ein KI-Tool eingeführt, das eine frühzeitige Erkennung
von Zustandsverschlechterungen bei Patienten ermöglichen
soll. Darüber berichtet das Nachrichtenportal Digital
Health.
Diese Maßnahme sei Teil eines Pilotprojekts,
das im Januar 2023 begann. Betrieben werde es von der
britischen Firma Patientsource, dem Anbieter von
elektronischen Patientenakten (EPR) und Partner des
Krankenhauses. Dabei würden Patientendaten aus fünf Jahren
dieses Datenbestands verwendet.
Datenwissenschaftler und Forscher des RHN setzten
maschinelles Lernen und künstliche Intelligenz
(KI) ein, um das Tool namens MEMORI auf dem Datensatz zu
trainieren und zu verfeinern. Die digitalen Ergebnisse
würden jeweils mit realen historischen Ergebnissen
verglichen.
Das MEMORI-Tool baue auf dem öffentlichen National
Early Warning Score (NEWS) auf, erläutert Digital
Health. Die aktuellen Beobachtungen würden dabei über
eine Reihe von Biomarkern, Testergebnissen und klinischen
Notizen mit einer tiefgreifenden Analyse der historischen
Daten des Patienten innerhalb des EPR kombiniert.
Auf diese Weise entstehe ein personalisiertes Bild
des Patienten, das eine frühzeitige Erkennung
einer Verschlechterung des Gesundheitszustands ermögliche –
bis zu 48 Stunden früher als das herkömmliche NEWS-System.
Während einer Phase der «Schattenanalyse» am Ort
der Pflege hätten sich die Live-Daten als
ausreichend erfolgreich erwiesen, um das KI-Tool auf einer
Station einzusetzen. Es werde nun im Juni für Patienten mit
Hirnverletzungen in Betrieb genommen, und das Pilotprojekt
werde voraussichtlich im Herbst 2024 abgeschlossen. Es werde
erwartet, dass das MEMORI-Tool bei Erfolg auf die anderen
elf Stationen des Krankenhauses ausgeweitet werde.
Mike Brooks, Mitbegründer und Chief Medical Officer
von Patientsource, habe gegenüber Digital Health
erklärt, das Ziel bestehe darin, zu «erkennen, ob sich der
Zustand eines Patienten verschlechtert, bevor eines seiner
Vitalzeichen auch nur geringfügig abnormal wird». Er habe
ergänzt, dass es Gespräche mit NHS Trusts in ganz England
über die Implementierung des KI-Tools gebe.
Kommentar Transition News:
Es sei noch erwähnt, dass besagtes NEWS-System, das man jetzt
verbessere, laut Digital Health vor allem ein
Früherkennungssystem für Sepsis ist. Eine septische
Erkrankung ist eine schwere Zuspitzung von
Infektionserkrankungen, bei der eine aus dem Ruder laufende
Immunreaktion des Körpers das eigene Gewebe und Organe
schädigt.
Der Effekt der überschießenden Immunantwort
erinnert an Autoimmunreaktionen oder das
sogenannte Antibody-Dependent Enhancement (ADE), das mit
Risiken der mRNA-«Impfungen» in Verbindung gebracht wird.
Hier könnte somit eine weitere Motivation der
Gesundheitsversorger liegen, Frühwarnsysteme zu etablieren.
Das technokratische Werkzeug der elektronischen
Patientenakte ist derweil nicht nur aus Gründen
des Datenschutzes fragwürdig. Die BBCberichtete kürzlich, dass
EPR-Systemfehler mit dem Tod von drei Patienten und mehr als
100 Fällen von ernsthaften Schäden in NHS-Krankenhäusern in
England in Verbindung gebracht worden seien.
Eine Früherkennung von gesundheitlichen Problemen
ist generell selbstverständlich begrüßenswert. Gepaart mit
der EPR und künstlicher Intelligenz nähern wir uns aber wohl
etwas weiter der transhumanistischen Vision einer
digitalisierten, automatisierten «Versorgung» von Patienten,
bei der deren Zustand und Bedürfnisse sogar vorausgesagt
werden können.
Ironischerweise enthüllte Business Insider (BI) wenige Tage
nach meinem jüngsten Beitrag über KI einige schockierende
Fakten. Wenn man dies in das Licht dessen stellt, worüber
ich zuvor geschrieben habe, ist es [...]
Ein hochmodernes ‒ und höchst ungewöhnliches ‒ Museum hat in
Sankt Petersburg eröffnet. Seine multimediale Sammlung wurde
von einer künstlichen Intelligenz erfunden und gestaltet.
In Sankt Petersburg wurde ein ungewöhnliches Museum eröffnet. Die Idee des Museums "Art
und Fakten" geht auf die berühmten Wunderkammern zurück, die
im 16. bis 17. Jahrhundert populär waren – wird jedoch
mit den Möglichkeiten des 21. Jahrhunderts neu ausgelegt.
Die Sammlung dieser modernen Kunstkammer, die sich im
Gebäude des ehemaligen Warschauer Bahnhofs befindet, zeigt
verschiedene Dimensionen des Wissens: Von den Wundern der
lebendigen Natur bis hin zu modernen Technologien. Im Museum
erfährt man mehr über die Komplexität und Schönheit der
Naturobjekte, kann in die Atmosphäre ferner Reisen und
unerforschter Entdeckungen eintauchen, exotische Traditionen
der Völker der Welt studieren und sich von den Kunstwerken
zeitgenössischer russischer Künstler und Designer
inspirieren lassen. Die Zeitung The Art Newspaper
schreibt:
"Zu den ausgestellten Exponaten gehören
mittelalterliche Schandmasken und Legosteine aus purem
Gold, hölzerne 'Geta'-Schuhe, die von japanischen
Geishas getragen werden, das kleinste Fahrrad der Welt,
Zähne des Megalodon ‒ eines Riesenhais, der vor
etwa 3,6 Millionen Jahren ausgestorben ist ‒ und
eine supermoderne Cybermatrjoschka."
Alle Exponate sind mit verschiedenen Video- und
Audioeffekten versehen, und viele der Ausstellungsstücke
können angefasst und sogar gerochen werden. An der
Entwicklung der Exposition waren IT-Spezialisten und eine
künstliche Intelligenz beteiligt.
Der Einsatz von künstlicher Intelligenz und Robotern
gewinnt im russischen Museumswesen immer mehr an Bedeutung.
So hat die Kunstgalerie Primorskaja in Wladiwostok kürzlich
einen Android-Roboter als Museumsführer eingesetzt, der in
der Lage ist, menschliche Sprache und Gesichter zu erkennen,
sich im Museum zurechtzufinden, Gästen bei der Navigation zu
helfen, über die Geschichte des Museums zu sprechen,
Besucher zu fotografieren und sich an Personen zu erinnern,
schreibt die Nachrichtenagentur RIA Nowosti.
KI im "Westen" am 2.7.2024: Die Vernichtung
des Menschlichen durch KI lässt kriminelle Börsenkurse
steigen: Microsoft, Apple, Nvidia, TSMC, Broadcom etc.: KI-Boom treibt Wert der Börsenunternehmen: Microsoft führt
das Ranking an
https://www.suedtirolnews.it/wirtschaft/ki-boom-treibt-wert-der-boersenunternehmen
Von: APA/dpa
Der Boom bei künstlicher Intelligenz (KI) treibt den Wert
der 100 wertvollsten börsennotierten Konzerne der Welt
weiter in die Höhe. Er stieg heuer in den ersten sechs
Monaten um 17 Prozent auf 42,3 Billionen US-Dollar (39,4
Bill. Euro). Das ist ein Höchststand, wie aus einer
Auswertung des Prüfungs- und Beratungsunternehmens EY
hervorgeht, die der Deutschen Presse-Agentur vorliegt. Der
Stichtag für die Erhebung war der 28. Juni.
An der Spitze des Rankings steht das US-Softwareunternehmen Microsoft
mit einem Wert von 3,32 Billionen US-Dollar. Zum Vergleich:
Microsoft ist damit um 77 Prozent mehr wert als alle deutschen
DAX-Konzerne zusammen. Die 40 größten Aktiengesellschaften
Deutschlands kamen Ende Juni insgesamt auf eine
Marktkapitalisierung von 1,87 Billionen US-Dollar.
Den zweiten Platz im Ranking belegte der US-Technologiekonzern
Apple, gefolgt vom Chip-Konzern Nvidia.
Letzterer hat seinen Börsenwert im ersten Halbjahr um fast 150
Prozent gesteigert, von 1,22 Billionen am Jahresende 2023 auf
3,04 Billionen US-Dollar zur Jahresmitte 2024. Andere
Halbleiterproduzenten wie TSMC (Platz 10) und Broadcom
(Platz 11) konnten ebenfalls kräftig zulegen. Ende Juni
platzierten sich insgesamt 26 Technologieunternehmen unter den
Top 100. Österreich liegt in dem Ranking weit abgeschlagen und
ist mit dem Energiekonzern Verbund als wertvollstem
Unternehmen auf Platz 709 vertreten.
Der Vorsitzende der EY-Geschäftsführung, Henrik Ahlers, teilte
mit: “Das Thema künstliche Intelligenz ist ein Megatrend, der
in atemberaubendem Tempo zu einer Neuordnung der
Wirtschaftswelt führt und damit die Fantasie der Anleger und
die Börsenkurse beflügelt”. KI-Technologien würden in allen
Branchen und auch im Privatleben künftig zu einschneidenden
Veränderungen führen. “Damit wird eine gigantische
Wertschöpfung verbunden sein.”
Von der Begeisterung vieler Investoren für KI profitierten
jedoch vor allen US-Unternehmen. Eine bedeutende Rolle
spielten aktuell nur wenige europäische Unternehmen. Darunter
der niederländische Chipausrüster ASML, der Softwarekonzern
SAP aus Deutschland sowie der britische Chipdesigner Arm. Sie
alle konnten teils deutlich Plätze gutmachen und kommen auf
einen Börsenwert von zusammen 812 Mrd. US-Dollar. Sie stehen
aber 18 Tech-Riesen aus Nordamerika gegenüber, die zusammen
16,5 Billionen US-Dollar wert sind.
Ahlers sagte: “Europa spielt beim Thema KI derzeit weitgehend
in der zweiten Liga und hat erheblichen Nachholbedarf.” Die
Entwicklung verlaufe so rasant, dass die Gefahr bestehe,
abgehängt zu werden. Zwar gebe es in Europa einige
vielversprechende KI-Start-ups, diese seien aber nicht
börsennotiert und lägen beim Umsatz weit hinter den
US-Platzhirschen.
Der KI-Boom könnte die Dominanz der US-Unternehmen an den
Weltbörsen noch weiter verstärken. Ende Juni waren 60 der 100
teuersten Konzerne aus den Vereinigten Staaten. 19 kamen aus
Europa. Zum Vergleich: Im Jahr 2007 waren 46 aus Europa und 32
aus den USA.
“In den vergangenen zwei Jahrzehnten haben wir einen
kontinuierlichen Bedeutungsverlust Europas gesehen”, teilte
Ahlers mit. Europas Top-Unternehmen seien mehrheitlich nicht
in der Technologiebranche tätig und profitierten daher kaum
vom KI-Boom. Daher spreche wenig dafür, dass Europa diesen
Trend in den kommenden Jahren umkehren könne.
UNO mit KI am 4.7.2024: Die UNO plant den Globalen Gesellschaftsvertrag - gestützt
auf KI!
https://www.tell-news.ch/p/die-uno-plant-den-globalen-gesellschaftsvertrag
Im Wettbewerb mit Apple setzt Samsung stark auf Funktionen
mit künstlicher Intelligenz.
Samsung wird seine neuen Smartphones und Gadgets durchgängig
mit Funktionen künstlicher Intelligenz ausstatten. Auf dem
«Galaxy Unpacked»-Event im Pariser Louvre präsentierte der
südkoreanische Elektronikkonzern eine neue Generation seiner
Faltsmartphones Flip und Fold und seiner Kopfhörer Buds und
Buds Pro. Diese sind umfangreich mit KI-Funktionen
ausgestattet.
So können die Kopfhörer etwa automatisch Sirenensignale in der
Umgebung erkennen und die Lautstärke der Musikwiedergabe
absenken, damit man die Gefahrenlage mitbekommt.
Samsung-Mobile-Chef TM Roh sagte in Paris, sein Unternehmen
habe das erste faltbare Smartphone entwickelt und
KI-Funktionen auf Mobilgeräte gebracht.
KI soll Nutzern helfen
Samsung setzt dabei zum einen auf eine selbst entwickelte KI,
die die Südkoreaner Galaxy AI nennen. Gleichzeitig integriert
Samsung aber auch KI-Technik von Google Gemini, etwa die
Funktion «Circle to Search». Dabei können Anwender eine Person
oder einen Gegenstand mit einer kreisförmigen Fingerbewegung
markieren und auf dem Bildschirm durch KI erkennen lassen. Zur
Samsung-KI gehören auch umfassende Übersetzungsfunktionen für
geschriebene Texte und gesprochene Sprache.
In Paris präsentierte Samsung auch eine neue Generation seiner
Smartwatches. Das neu eingeführte Modell Galaxy Watch Ultra
erinnert bei Design stark an die Apple Watch Ultra, die der
iPhone-Konzern 2022 auf den Markt gebracht hatte. Das
rechteckige Gehäuse aus Titan und die orangefarbene Taste zum
Aufrufen von bestimmte Aktionen lehnen sich stark am Design
von Apple an.
Samsung startet Vertrieb von Fitness-Tracker
Bei einer anderen Produktkategorie gibt es dagegen kein
Pendant von Apple. In Paris startete Samsung den Vertrieb des
Fitness-Trackers Galaxy Ring, der im Januar als Prototyp auf
der Elektronikmesse CES in Las Vegas erstmals vorgestellt
wurde. Der Tracker sieht aus wie ein massiver Schmuckring und
kann über Sensoren auf der Innenseite wichtige Gesundheits-
und Fitness-Werte erfassen.
Die Daten ermöglichen unter anderem eine KI-gestützte
Schlafanalyse. Nutzerinnen können durch die nächtliche
Überwachung der Hauttemperatur ihren Menstruationszyklus
besser verfolgen. Der Galaxy Ring überwacht aber auch die
Herzgesundheit. Bei ungewöhnlich hohen oder niedrigen
Herzfrequenzen löst der Fitness-Ring eine Pulswarnung über die
Samsung Health App aus.
Zusätzlich soll der Galaxy Ring Nutzer zu einem aktiven
Lebensstil motivieren. So erinnert ein Inaktivitätsalarm
daran, sich zu bewegen. Ringförmige Fitness-Tracker gibt es
derzeit nur von vergleichsweise kleinen Anbietern wie Oura,
Ultrahuman, Ringconn oder Evie, die teilweise nur zusammen mit
einem monatlichen Service-Abo zu haben sind. Samsung bietet
den Ring ohne Abo an und verlangt einmalig knapp 450 Euro
dafür.
Da behauptet jemand am 22.7.2024: WARNUNG:
KI-Aktien werden wieder sinken: Analyst Covello von Goldman
Sachs: Topanalyst von Goldman warnt vor KI-Blase: Erwartungen
völlig überzogen
https://www.blick.ch/wirtschaft/erwartungen-voellig-ueberzogen-topanalyst-von-goldman-warnt-vor-ki-blase-id19968451.html
Gabriel Knupfer - Ein Topanalyst bei Goldman Sachs glaubt
nicht, dass die enormen Investitionen in KI die erwarteten
Renditen bringen werden. Spätestens in eineinhalb Jahren
drohe der Absturz der KI-Aktien an der Börse.
Das Versprechen der künstlichen Intelligenz (KI) ist klar: Die
Technologie soll die Wirtschaft auf den Kopf stellen und den
Firmen grosse Einsparungen bringen. Deshalb gingen die Aktien
der beteiligten Firmen in den vergangenen zwei Jahren durch
die Decke. Doch für Jim Covello, Chefanalyst bei der
Investmentbank Goldman Sachs, ist der KI-Hype an der Börse
eine riesige Blase, die platzen wird.
Wie bei der Dotcom-Blase in den späten 1990er-Jahren und
später dem Krypto- und NFT-Boom während der Pandemie, werde
auch bei der Börsenrally um das Thema KI die Quittung in Form
eines Crashs kommen.
Erwartungen an KI völlig überzogen
Covello weiss, wovon er spricht: Er galt jahrelang als bester
Analyst im Tech-Sektor, bevor er 2015 bei Goldman Sachs Leiter
des amerikanischen Tech-Research wurde.
Der Analyst hält die Erwartungen, dass die gewaltigen
Investitionen der Unternehmen in KI eine wirtschaftliche
Revolution auslösen werden, für völlig überzogen. KI sei
diesbezüglich nicht mit Internet oder Smartphone zu
vergleichen.
«Bei den meisten technologischen Umwälzungen in der Geschichte
haben wir sehr teure Lösungen durch sehr billige Lösungen
ersetzt», sagte er der Wirtschaftsagentur Bloomberg. Der
Ersatz von Arbeitsplätzen durch die extrem kostspielige
Technologie sei genau das Gegenteil.
Eine Billion Dollar für KI
Zwar könne KI Tätigkeiten wie Programmieren effizienter
machen, doch das reiche bei weitem nicht aus, um die enormen
Kosten zu rechtfertigen, so Covello. In den kommenden Jahren
rechnet er im Bereich KI mit Investitionen von rund einer
Billion Dollar.
Um damit eine angemessene Rendite zu erzielen, müssten Firmen
nun schnell mit KI zunehmend komplexere Aufgaben lösen. Denn
bislang sind die Erträge der Investitionen bescheiden: Laut
einer Umfrage warten 40 Prozent der in KI investierten
Unternehmen auf nennenswerte Renditen. Covello bezweifelt,
dass diese in den meisten Fällen jemals kommen werden.
Ernüchterung in eineinhalb Jahren?
Noch boomen Aktien wie Nvidia. Vor wenigen Wochen wurde der
Chiphersteller vorübergehend sogar das wertvollste Unternehmen
der Welt. Doch wenn sich in den kommenden anderthalb Jahren
keine bedeutenden Anwendungen abzeichnen, werde sich das Blatt
an der Börse wenden, prophezeit der Analyst.
«Eine der wichtigsten Lektionen, die ich in den vergangenen
drei Jahrzehnten gelernt habe, ist, dass es lange dauern kann,
bis Blasen platzen», sagt Covello.
Künstliche Intelligenz (KI) ist weltweit auf dem Vormarsch
– und damit steigt auch der Stromverbrauch, denn die
Technologie benötigt höchst leistungsfähige Rechenzentren.
Schon heute verbrauchen KI-Anwendungen so viel Strom wie
ganze Länder. Experten warnen vor den Auswirkungen auf die
Umwelt.
Was einem als Endverbraucher oftmals gar nicht auffällt oder
bewusst ist: Bei jeder Anfrage über einer Suchmaschine oder im
Internet wird Energie verbraucht. Denn hinter den Webseiten
stehen riesige Rechenzentren mit leistungsfähigen Servern, die
für ihren Betrieb jede Menge Strom fressen. Dabei erhitzen sie
und müssen gekühlt werden, was den Energieverbrauch weiter
erhöht.
Bei Rechenzentren, über die Anwendungen zur Künstlichen
Intelligenz laufen, braucht es noch einmal bedeutend mehr
Strom, denn die für KI benötigte Rechenleistung ist enorm. Zum
Vergleich: Eine Anfrage von ChatGPT oder einer anderen
generativen KI braucht im Durchschnitt etwa zehnmal so viel
Energie wie eine einfache Google-Suche.
Laut der internationalen Energieagentur (IEA) verbrauchen
Rechenzentren 40 Prozent ihres Stroms für den Betrieb und
ebenso viel für die Kühlung. Normale Rechenzentren können
allerdings in Räumen mit guter Klimaanlage betrieben werden
und ausreichend abgekühlt werden, KI-Anwendungen sind aber so
leistungsstark, dass sie oftmals zusätzlich mit Wasser gekühlt
werden müssen, sagt Fabrice Coquio vom Rechenzentrumsdienst
Digital Realty.
Vor dem Siegeszug der Künstlichen Intelligenz waren
Rechenzentren für etwa ein Prozent des weltweiten Strombedarfs
verantwortlich. Die IEA ging für das Jahr 2022 von einem
Verbrauch von 460 Terawattstunden durch Rechenzentren,
Kryptowährungen und KI-Anwendungen aus, was einem Anteil von
zwei Prozent entsprach. Bis 2026 könnte sich dieser Anteil
nochmals verdoppeln. Dann würde Künstliche Intelligenz so viel
Strom verbrauchen wie Japan.
Und nicht nur die Server und Rechenzentren treiben den
Energieverbrauch rund um KI in die Höhe. Hinter der
Technologie steht eine ganze Industrie, die Chips produziert
und Serverkapazitäten herstellt. Der Forscher Alex de Vries,
der das Onlineportal Digiconomist betreibt, hat sich den
Verbrauch des Unternehmens Nvidia, einem Weltführer für
KI-Hardware, angeschaut. In seinen Berechnungen kam er auf
einen Verbrauch von 85,4 bis 134,0 Terawattstunden Strom – so
viel verbrauchen Argentinien oder Schweden innerhalb eines
Jahres.
Gewichtige Akteure im KI-Bereich wie Amazon, Google und
Microsoft versuchen, ihren CO2-Fußabdruck zu verkleinern,
indem sie große Mengen Strom aus erneuerbaren Energiequellen
kaufen. Amazons Cloud-Anbieter AWS gibt an, der weltweit
größte Abnehmer erneuerbarer Energien zu sein.
AWS will bis 2040 klimaneutral arbeiten, Google und Microsoft
wollen dieses Ziel bereits zehn Jahre früher erreichen. Der
Bau neuer Rechenzentren hilft dabei allerdings nicht. Im
Gegenteil: Google und Microsoft erklärten zuletzt, dass ihre
Treibhausgas-Emissionen in den vergangenen Jahren weiter
angestiegen seien. Google meldete eine Zunahme um 48 Prozent
seit 2019, Microsoft um 30 Prozent seit 2020.
Beide Unternehmen machten den KI-Boom dafür verantwortlich.
Microsoft-Präsident Brad Smith sagte der Nachrichtenagentur
Bloomberg im Mai, das Versprechen zur Klimaneutralität sei vor
der “KI-Explosion” gemacht worden war. Heute sei das Ziel
fünfmal so weit entfernt wie 2020.
KI bei Twitter X von Musk am 16.8.2024: ist
scheinbar sehr beleidigend und muss gestoppt werden: Musks KI-Chatbot bekommt Zügel angelegt: Schockierende
Bilder von Politikern und Prominenten generiert
https://www.suedtirolnews.it/wirtschaft/musks-ki-chatbot-bekommt-zuegel-angelegt
Von: APA/dpa-AFX
Elon Musks KI-Chatbot Grok bekommt Zügel angelegt, da er
anfangs schockierende Bilder von Politikern oder Prominenten
generieren ließ. So war es am Freitag plötzlich nicht mehr
möglich, mit Grok per Textbefehl Bilder zu erzeugen, die
Personen beim Drogenkonsum oder Umgang mit Waffen zeigen. Bis
dahin schien es kaum inhaltliche Einschränkungen zu geben.
Andere Angebote zur Bilderzeugung aus Textvorgaben wie Dall-E
vom ChatGPT-Erfinder OpenAI oder Googles Imagen haben
Leitplanken, die so etwas verhindern sollen.
Musk hingegen ist bekannt für seine Abneigung für
Einschränkungen, die er als Zensur bezeichnet. Die Leute
sollten mit der Software “ein bisschen Spaß” haben können,
schrieb er am Donnerstag. Für weitere Kommentare war xAI nicht
zu erreichen.
Die eigentliche Technologie, mit der die Bilder generiert
werden, stammt dabei nicht von xAI, sondern vom deutschen
Start-up Black Forrest Labs. Musks Firma greift auf dessen
KI-Modell FLUX.1 zurück. Eine eigene Software zur
Bilderzeugung werde entwickelt und brauche noch einige Monate,
schrieb Musk.
Die bei Grok erzeugten Bilder haben manchmal fotorealistische
Qualität, sind dann aber auch oft übertrieben wie Karikaturen.
Insbesondere vor der Präsidentenwahl in den USA im November
ist die Angst vor KI-Fälschungen groß, die öffentliche Meinung
beeinflussen könnten. Viele Programme vermeiden es daher,
Bilder mit realen Personen zu generieren.
Das Gleiche gilt für urheberrechtlich geschützte Figuren wie
etwa Disneys Micky Maus, deren Auftauchen in von KI erzeugten
Bildern Anwälte auf den Plan rufen kann. Außerdem könnte dies
die Skepsis großer Werbekunden gegenüber der Plattform noch
verstärken. Viele von ihnen fürchten bereits um den Ruf ihrer
Marken und zogen Anzeigen von X ab.
Musk verklagte jüngst deswegen mehrere Unternehmen und eine
Organisation der Branche. Er wirft ihnen eine koordinierte
Aktion vor, um Anzeigendollar von seiner Plattform
fernzuhalten.
KI-Fotos am 17.8.2024: muss man erkennen
lernen: Gefälschte Bilder sind mittlerweile überall – hier erfahren
Sie, wie Sie sie erkennen
https://legitim.ch/gefaelschte-bilder-sind-mittlerweile-ueberall-hier-erfahren-sie-wie-sie-sie-erkennen/
https://t.me/Impfschaden_Corona_Schweiz/98094
Impfschäden Schweiz Coronaimpfung, [17.08.2024 18:41]
Mit der fortschreitenden Entwicklung der künstlichen
Intelligenz (KI) wird es immer schwieriger, echte Fotos von
KI-generierten Bildern zu unterscheiden. KI kann alles von
atemberaubenden Landschaften bis hin zu naturgetreuen Porträts
in wenigen Augenblicken erstellen - und auf den ersten Blick
können sie völlig legitim erscheinen.
1. Unnatürliche Hände und Gliedmaßen: verkrüppelte Finger und
Zehen
2. Unstimmigkeiten im Detail: Gesichter im Hintergrund oft
verschwommen oder haben weiche, schlecht definierte Merkmale.
3. Übermäßig perfekte Haut: zu glatte Haut: "Ein übermäßig
glattes Gesicht mit sehr wenig Textur ist ein Zeichen für ein
KI-generiertes Foto. Der Mangel an echter Textur und Makeln
kann die Person fast schon komisch aussehen lassen."
4. Ausrichtungsfehler: Objekte können sich auf unnatürliche
Weise überlappen - Stangen stechen in Objekte: "wo die Linien
des Geflechts die Picknickartikel durchschneiden. Die
Texturlinien auf dem geflochtenen Picknickkorb und dem Tablett
sind falsch ausgerichtet."
5. Unstimmigkeiten und Asymmetrien in kleinen Details:
Porträts: verschiedener Ohrschmuck links und recht - Hemd
verschmilzt mit Hintergrund - Brillengläser passen nicht in
die Brille
6. Unleserliche Schrift: Werbetafel mit verkrüppelten
Schriftzeichen+Text ist Nonsens
7. Unlogischer Kontext: Kamel spaziert auf der Strasse und der
Reiter hält eine Katze in der Hand
8. Unscharfe Hintergründe: Wenn der Hintergrund völlig und
immer gleich unscharf ist, das ist von KI, denn: normal ist
"allmählicheren Übergang zwischen dem Unscharfen und dem
Scharfen auf"
9. Überprüfen Sie den Originalbeitrag: Leibwächter von Trump
lächelt nach Attentat - ist unmöglich: "Gehen Sie zu Images.google.com, um die
umgekehrte Bildersuche von Google auf Ihrem Computer zu
verwenden. Um auf Google Lens zuzugreifen, klicken
Sie einfach auf das Kamerasymbol und laden Sie ein Bild oder
einen Bildlink hoch."
10. Die Verwendung von KI-Detektoren: Foto auf KI prüfen:
Schlagen Sie KI mit ihren eigenen Waffen, indem Sie
„KI-Detektoren“ verwenden. Diese Tools analysieren
verschiedene Aspekte eines Bildes, z. B. Pixelmuster,
Ungereimtheiten und digitale Artefakte, die für das
menschliche Auge nicht sofort sichtbar sind. Einige
Detektoren konzentrieren sich auf die Identifizierung
bestimmter digitaler Signaturen oder Metadaten, die den
Einsatz von KI-Tools verraten. Andere setzen forensische
Techniken ein, um Unstimmigkeiten bei der Beleuchtung,
Texturen oder Mustern zu erkennen.
Glücklicherweise werden diese KI-Erkennungstools parallel
zur KI-Technologie entwickelt, so dass sie mit der
zunehmenden Komplexität von KI-Bildern Schritt halten
können.
KI kann Filme machen und Personen imitieren am
22.8.2024: Dann weiss niemand mehr, was echt ist und was
nicht
KI ist gleichzeitig Fluch und Segen.
In wenigen Jahren, wenn nicht sogar schneller, wird es durch
künstliche Intelligenz kaum noch möglich sein, zwischen
Realität und Deepfake zu unterscheiden.
https://t.me/standpunktgequake/157368
KI am 31.8.2024: soll bis 2030 das GANZE
LEBEN auf der Erde beherrschen: Künstliche Intelligenz soll bis 2030 im Namen des
Gemeinwohls jeden Aspekt des Lebens auf der Erde
kontrollieren
https://t.me/Impfschaden_Corona_Schweiz/98744
Impfschäden Schweiz Coronaimpfung, [30.08.2024 18:57]
KI für die UN-Ziele für nachhaltige Entwicklung
- António Guterres, Generalsekretär der Vereinten Nationen
Die Auswirkungen (https://t.me/AnjasKanal/2963) sind in ihrer
ganzen Tragweite (https://t.me/AnjasKanal/72) kaum
abzuschätzen !!!
Impfmonster Bill Gates am 14.9.2024: will KI
als Zensor agieren lassen: Keine Kritik mehr an „Impfungen“: Nun will Bill Gates
Echtzeit-Zensur mit KI
https://t.me/Impfschaden_Corona_Schweiz/99519
Impfschäden Schweiz Coronaimpfung, [14.09.2024 14:03]
Geht es nach dem Microsoft-Gründer Bill Gates soll künftig
Künstliche Intelligenzen im Internet vermeintlich falsche
Meinungen in Echtzeit ausmerzen.
KI am 21.9.2024: nun auch in der
Filmproduktion: bei Lionsgate: Die Zukunft Hollywoods: Wie Lionsgate mit KI neue Maßstäbe
setzt
https://exxpress.at/die-zukunft-hollywoods-wie-lionsgate-mit-ki-neue-massstaebe-setzt/ In einem bahnbrechenden Schritt hat
Lionsgate, das Studio hinter Erfolgsfranchises
wie „The Hunger Games“ und „Twilight“, eine
Partnerschaft mit dem KI-Startup „Runway“
geschlossen. Ziel dieser Kooperation ist es,
durch den Einsatz von künstlicher Intelligenz
(KI) die Filmproduktion zu transformieren.
Doch was bedeutet dies für die Zukunft Hollywoods?
Lionsgate stellt Runway Zugang zu seiner umfangreichen
Content-Bibliothek mit über 20.000 Filmtiteln zur
Verfügung, um ein maßgeschneidertes KI-Modell zu
entwickeln. Dieses soll vor allem in der Vorproduktion,
bei Spezialeffekten und der Filmnachbearbeitung zum
Einsatz kommen.
Laut dem Wall Street Journal wird das
KI-Modell keine autonomen Filmszenen erstellen, sondern
bei grafischen Darstellungen wie Hintergründen und
Spezialeffekten unterstützen. Michael Burns,
stellvertretender Vorsitzender von Lionsgate, sieht
großes Einsparpotenzial und erwartet, dass das Studio
dadurch „Millionen und Abermillionen Dollar“ sparen
könnte.
Kriminelle satanistische "Elite" am 23.9.2024:
will die KI zur Zensur und für geistige Folter gegen Truther
einsetzen: KI soll als Therapie eingesetzt werden, um aufgewachte
Menschen zu re-programmieren
https://legitim.ch/ki-soll-als-therapie-eingesetzt-werden-um-aufgewachte-menschen-zu-re-programmieren/
https://t.me/Impfschaden_Corona_Schweiz/100017
Impfschäden Schweiz Coronaimpfung, [23.09.2024 13:14]
Könnte die Neue Weltordnung voreingenommene,
vormanipulierte Programme der künstlichen Intelligenz
einsetzen. Es soll versucht werden, Menschen mit unpopulären
Meinungen zu „deprogrammieren“, indem man ihnen einredet,
dass ihre Logik nicht funktioniert?
Eine neue Studie (vgl. science.org) zu diesem
Thema, die von der John Templeton Foundation
gefördert wurde, könnte den so genannten
„Verschwörungstheoretikern“ einen Grund mehr geben, paranoid
zu sein, wie Popular Scienceberichtet.
Kritiker haben bereits Alarm geschlagen, dass Linksradikale
im Silicon Valley, aber auch anderswo, die Algorithmen zum
Trainieren von KI so manipuliert haben, dass sie automatisch
auf antikonservative Vorurteile zurückgreifen. Der nächste
Schritt könnte darin bestehen, alle verbotenen Ansichten in
den Bereich der „Verschwörungstheorie“ zu programmieren und
dann leistungsstarke Computer gegen menschliche Nutzer zu
einem Logikkampf herauszufordern, der unweigerlich mit
ausgesuchten Daten gegen sie geführt wird.
Die Studie mit dem Titel „Durably reducing conspiracy
beliefs through dialogues with AI“ (Dauerhafter Abbau von
Verschwörungsvorstellungen durch Dialoge mit künstlicher
Intelligenz) versucht, der weit verbreiteten Ansicht
entgegenzuwirken, dass manche Menschen ihre Meinung nicht
ändern werden, selbst wenn sie mit Fakten und Beweisen
konfrontiert werden.
Um das Problem des „weit verbreiteten Glaubens an
unbegründete Verschwörungstheorien“ anzugehen, postulierten
die Forscher, dass Verschwörungstheorien, im Gegensatz zum
wissenschaftlichen Narrativ, durch eine systematische
Überprüfung der Fakten widerlegt werden können. Zu den
untersuchten Theorien gehörten traditionellere
Verschwörungen, wie die Ermordung von John F. Kennedy oder
die Möglichkeit der Landung von Außerirdischen, die der
US-Regierung bekannt waren.
Zu den anderen gehörten aber auch unmittelbar politisch
motivierte Behauptungen, wie die Rechtmäßigkeit der
COVID-Abriegelungen oder die Gültigkeit der
Präsidentschaftswahlen 2020, die beide „eine große Quelle
öffentlicher Besorgnis“ sind.
Für die Studie wurden verschwörungsgläubige Teilnehmer in
kurze Gespräche mit KI verwickelt, um sie von ihren
angeblich falschen Meinungen zu „heilen“. Die Forscher kamen
zu dem Schluss, dass „die Behandlung den Glauben der
Teilnehmer an die von ihnen gewählte Verschwörungstheorie im
Durchschnitt um 20% verringerte“. Dies deutet darauf hin,
dass die „Behandlung“ von Menschen mit bestimmten Fakten
tatsächlich ihre Meinung ändern kann, insbesondere wenn
diese Fakten von KI-Bots stammen.
Die erhaltene „Behandlung“ hielt Berichten zufolge auch
„mindestens 2 Monate lang unvermindert an“, was bedeutet,
dass eine solche Konditionierung zu einer regelmäßigen
Behandlung derjenigen führen könnte, die als
Verschwörungstheoretiker gelten. Letztendlich wurde die
KI-Konditionierung als ein potenziell nützliches Instrument
zur Bewältigung der „psychologischen Bedürfnisse und
Motivationen“ solcher Menschen angesehen. Die Forscher
spekulierten, dass die Technologie in den kommenden Jahren
online eingesetzt werden könnte, insbesondere in
Online-Foren oder in den sozialen Medien.
David Rand, Professor am Massachusetts Institute of
Technology und Mitverfasser der Studie, äußerte sich
gegenüber Reportern optimistisch über die Zukunft der
KI-Konditionierung:
Das ist wirklich aufregend. Es scheint zu
funktionieren, und zwar auf einer sehr breiten Basis.
Die rund 2.000 Jahre alten
Scharrbilder in der Nazca-Wüste von Peru sind weltberühmt
– und es gibt laut einer neuen Studie deutlich mehr als
bisher gedacht: Mit Hilfe von künstlicher Intelligenz (KI)
entdeckte ein Forschungsteam aus Japan gut 300 weitere der
als Nazca-Linien bekannten geheimnisvollen Erdzeichnungen.
Online seit heute, 14.58 Uhr
Teilen
Bisher waren durch die traditionelle Forschung rund 430
Nazca-Linien bekannt – ihre Entdeckung zog sich über fast
ein Jahrhundert hinweg. Mit Hilfe von KI wurden nun „in
sechsmonatiger Feldforschung 303 neue Geoglyphen“
entdeckt, wie das japanische Forschungsteam bekanntgab,
dessen Ergebnisse am Montag auch
im Fachjournal „Proceedings of the National Academy of
Sciences“ veröffentlicht wurden.
Zu den neu entdeckten Figuren gehören den Angaben zufolge
„riesige Geoglyphen linearen Typs“. Diese stellten
„hauptsächlich wilde Tiere“ dar. Es gebe aber auch
„Muster, die mit menschlicher Aktivität verbunden sind,
darunter Menschen und domestizierte Tiere“.
AI helps in discovery of new
Nazca Lines.
Photos from the Yamagata University Institute of Nasca
show some of 303 new geoglyphs discovered in the Nazca
Pampas in Peru. A team of researchers applied
AI-assisted image analysis of aerial photographs to
help in the discovery.
„Der Einsatz künstlicher Intelligenz in der Forschung hat
es uns ermöglicht, die Geoglyphen schneller und präziser
zu kartieren“, so der Archäologe Masato Sakai am Montag
bei der Vorstellung der Ergebnisse in der japanischen
Botschaft in Perus Hauptstadt Lima. „Die traditionelle
Vermessungsmethode zur visuellen Identifizierung von
Geoglyphen anhand hochauflösender Bilder von diesem
riesigen Gebiet war langsam.“ Zudem habe es das hohe
Risiko gegeben, dass Scharrbilder übersehen werden.
Bei den Nazca-Linien handelt es sich um Scharrbilder von
gewaltigem Ausmaß, die in den sandigen Wüstenboden
gekratzt wurden. Sie wurden zwischen 500 vor und 500 nach
Christus von der Nazca-Kultur im Süden des heutigen Perus
angelegt und stellen Tiere, stilisierte Pflanzen,
Fantasiefiguren oder geometrische Formen dar. Die
Nazca-Linien erstrecken sich über eine Fläche von mehreren
hundert Quadratkilometern.
Warum die Bilder angelegt wurden, ist bis heute ein
großes Rätsel. Womöglich dienten sie zeremoniellen
Zwecken. 1994 erklärte die UNO-Kulturorganisation UNESCO
die Nazca-Linien zum Weltkulturerbe.
Bringt künstliche Intelligenz
(KI) eine Überwindung kultureller Muster und Schablonen?
Und damit auch eine Abkehr vom Eurozentrismus, der ja
immer noch für viele den Blick auf die Welt und damit auch
auf die Tradition prägt? Ausgerechnet ein Musikfestival
möchte nun mit helfen, diese Frage zu beantworten. Von 3.
bis 6. Oktober suchen die ORF musikprotokolle in Graz nach
„Freiräumen“ der Kunst. Mit von der Partie ist auch
US-Komponist George Lewis, der mit KI-Improvisationen
„weiße“ Musik herausfordern möchte.
Das ORF
musikprotokoll, 1968 als Festival und Plattform für
zeitgenössische Musik vom Schriftsteller und
ehemaligen ORF-Landesintendanten Emil Breisach ins
Leben gerufen, hat sich an seinem Standort in Graz
tatsächlich zu deutlich mehr als einem Festival für
Musik entwickelt. Es ist ein Labor für die
Standortbestimmung des Menschen im digitalen Zeitalter
geworden und liest nicht zuletzt die Musikproduktion
als Möglichkeit, Richtungen in dieser Suche als
Trägermedium zu befragen.
So sind es
hier auch Musikerinnen und Musiker, die fragen, wie
der Standort des Menschen in einer digitalisierten
Welt zu vermessen ist, in der KI zahlreiche Fragen und
Aufgabenstellungen von der Schulter des Menschen
nimmt. Der US-Komponist Lewis etwa nimmt dabei seit
Jahrzehnten eine Vorreiterrolle ein, will er doch die
Bildung von Kanon, Geschmacks- und Werturteilen
genauer unter die Lupe nehmen.
Der US-Komponist George Lewis ist
musikalisch breit aufgestellt, in Yale studierte er
zudem Philosophie
KI-Improvisation
gegen Eurozentrismus
Lewis, einst
Posaunen- und Improvisationsvirtuose und heute an der
Columbia University tätig, schreibt im Auftrag des ORF
musikprotokolls eine Komposition, die am 5. Oktober
unter dem Motto „Spaces of Freedom“ in der Grazer
Helmut-List-Halle uraufgeführt wird. Zu mehr Freiheit
und Offenheit in der zeitgenössischen Musik
beizutragen ist auch die Mission, der sich der
72-Jährige verschrieben hat.
2021 sorgte
sein Essay „Acht schwierige Schritte zu Dekolonisation
der Neuen Musik“ im VAN-Magazin für Aufsehen, in dem
er sich für eine Bewusstseinsänderung in der weiß
geprägten Musikbranche aussprach. Um den Kanon neu zu
denken, setzt Lewis auf eine spezielle Methode:
Improvisationen durch KI. Eine seiner bekanntesten
Kompositionen ist „Voyager“, ein computergesteuertes,
virtuelles Improvisationsorchester, mit dem ein
improvisierender Musiker in Dialog tritt
Bereits in
den frühen 80ern programmierte er die Software, damals
als Pionier auf diesem Gebiet. Werke wie „Voyager“
können eine neue, unvoreingenommene Alternative zu
eurozentristischen Musikmodellen darstellen, zeigt
sich Lewis in seinem 2023 erschienen Buch „Composing
While Black“ überzeugt.
George
Lewis im Ö1-Interview über Improvisation
Audio
Die Krux mit dem
KI-Einheitsbrei
Auf der
anderen Seite stehen Anwendungen wie der Bildgenerator
Midjourney und der Chatbot ChatGPT heute wegen ihres
Umgangs mit Stereotypen und Urheberrecht in der Kunst
in der Kritik. Denn die Programme werden mit Unmengen
an bereits vorhandenen Daten aus dem Internet
„trainiert“. Dadurch bilden sie unreflektiert und
verstärkt das ab, was im Internet als „normal“ bzw.
„Durchschnitt“ präsentiert wird – ohne Rücksicht auf
Vielfalt. Passt das noch mit Lewis’ Ansatz zusammen?
Man müsse
zwischen der Art und Weise unterscheiden, wie KI vor
allem seit der Veröffentlichung von ChatGPT 2022
verwendet wird und wie es zuvor üblich war, sagt Peter
Knees von der Technischen Universität (TU) Wien
gegenüber ORF Topos. Der Output durch die heutigen
generativen KI-Programme hänge eben stark von den
Daten ab, mit denen sie trainiert wurden, während
KI-Programme in den 80ern sehr regelbasiert
funktionierten.
Lewis’
„Voyager“ sei ein Programm, in dem viel Musiktheorie
steckt, mit Vorgaben, in welchem Rahmen sich die
Kompositionen bewegen sollen und welche Regeln und
Formen es gibt. „Das passt sehr gut in diese Zeit der
Moderne hinein und in die sehr stark von Regeln
geprägte Musik. Aber das ist konzeptionell ein ganz
anderer Zugang.“
Raum für Fehler
und Zufälle
Was beide
Ansätze gemeinsam haben: Sie brauchen eine
Zufallskomponente, die für Kreativität sorgt. Und
letztendlich komme es auf die Menschen hinter den
Maschinen an, betont der Experte. Denn der Musikkanon
sei vor allem durch die Archive und das Narrativ
dahinter westlich geprägt.
So stellt sich die KI die Late-Night-Schiene
des ORF musikprotokolls 2024 vor
KI könne
Muster verstärken, die es schon gibt, aber auch ein
Werkzeug sein, das Reflexion ermöglicht. Die
Möglichkeit, experimentelle Systeme zu bauen, die
Zufall und auch „Fehler“ zulassen, sei ein
interessanter Weg für Kreative und Komponisten. „KI
erlaubt auch, neue Ideen und Wege auszuprobieren. Und
vielleicht entsteht daraus eine neue Form von Musik in
einer Art und Weise, wie es sie davor noch nicht gab
und die vielleicht nicht den ästhetischen
Vorstellungen des Publikums entspricht.“
Mit der
Schlussfolgerung, dass das Verhalten der Maschine
stark davon abhängt, wer sie programmiert, stellte
Lewis der KI damit bereits in den frühen 80ern ein
Zeugnis aus, das heute noch aktuell ist. „Es gibt
keine Garantie, dass das funktioniert“, betont Knees
mit Blick auf die Entstehung neuer Formen durch KI.
„Aber es ist eine weitere Möglichkeit, menschliche
Kreativität zu stimulieren. Daher bin ich
zuversichtlich, dass sich bei diesem Zusammenspiel
zwischen KI und Mensch interessante Neuentwicklungen
ergeben.“
George
Lewis im Ö1-Interview über die Rolle von KI
Audio
Mehr Freiheit
durch KI?
Auch das
Grazer Ensemble Zeitfluss ließ sich beim Festival auf
ein direktes Mensch-Maschine-Abenteuer ein: Zwischen
KI, scheinbar endlosen Schleifen und der Poesie von
Luftballons tänzeln die Kompositionen für „PHACE“. Im
Zentrum steht die Frage: Wie wirken sich KI, Robotik
und Virtual Reality auf die Freiheiten aktuellen
Komponierens aus?
Das Splitter
Orchester und das Trondheim Jazz Orchestra wollen
wiederum im Musik- und Forschungsprojekt „(Musical)
Improvisation and Ethics“ die Dynamik des gemeinsamen
Musizierens ausloten. Die Komponistin Elisabeth
Schimana lädt in der ältesten Kirche von Graz, der
Kirche Maria Himmelfahrt am Leech, zu einer
akustischen Forschungsreise ein. Die von Schimana
elektronisch generierten Klänge werden vom Black Page
Orchestra in Echtzeit interpretiert.
Wie viel Potenzial steckt in der Musik von
Computerspielen, fragt der Programmierer und
Arrangeur Christof Ressi
Und am Ende: „Das
heilige Nichts“
Als einer
der Höhepunkte des Festival gilt schon jetzt der
fünfstündige Konzertabend, der der Arbeit des schon
beinahe mystisch gewordenen Grazer Genius loci Hermann
Markus Preßl gewidmet ist. „Das heilige Nichts“, heißt
die Komposition, die sich das Publikum erwandern oder
auch erliegen kann: Alle Hörpositionen gelten bei
diesem Konzert als erwünscht.
„Game Over“
schließlich, eine Performance des österreichischen
Komponisten und Arrangeurs Christoff Ressi, erkundet
wiederum das musikalische Potenzial von
Computerspielen.
George
Lewis im Ö1-Interview (volle Länge, 56:39)
Audio
In den neuen
Räumen der Freiheit
Ganz nach
dem Motto „Spaces of freedom“, „Räume der Freiheit“,
spielte die Raumerkundung beim ORF musikprotokoll in
diesem Jahr tatsächlich eine zentrale Rolle, als im
Spielort Dom am Berg die Musik im Raum erkundet wurde,
etwa mit der „3D Audio Competition“, bei der sich der
Klang je nach Position der Hörerinnen und Hörer im
Raum veränderte. Drei Siegerprojekte aus dem Bereich
der zeitgenössischen Computermusik wurden im Rahmen
dieses Events vorgestellt.
Die im Leben
aller zunehmend präsenter werdende KI deutet man im
Rahmen des Festivals auch als Chance. KI sollte
Freiräume in musikalischen Kontexten ermöglichen.
Dafür wurden zahlreiche Kompositionsaufträge vergeben,
in denen selbst geschaffene Freiräume erkundet werden
sollen. Beim ORF musikprotokoll 2024 lotet das ORF
Radio-Symphonieorchester Wien mit über achtzig
Musikerinnen und Musikern wiederum Grenzlinien aus:
Musik entsteht ja nicht nur in Freiräumen, sondern in
Situationen von sehr oft eng gesetzten Grenzen.
Tiktok mit KI am 13.10.2024: entlässt nun 100e
Zensoren, denn die KI schafft das nun fast alleine: Tiktok baut wegen KI weltweit hunderte Arbeitsplätze ab: 80
Prozent "verletzender Inhalte" werden schon von KI entfernt
https://www.suedtirolnews.it/wirtschaft/tiktok-baut-wegen-ki-weltweit-hunderte-arbeitsplaetze-ab
Von: APA/sda/afp
Der Onlinedienst Tiktok hat vor dem Hintergrund der vermehrten
Nutzung von Künstlicher Intelligenz (KI) bei der Moderation
von Inhalten angekündigt, weltweit hunderte Arbeitsplätze zu
streichen. Ein Sprecher der zum chinesischen Bytedance-Konzern
gehörenden Plattform kündigte am Freitag an, 2 Mrd. Dollar
(1,8 Mrd. Euro) in “Vertrauen und Sicherheit” investieren und
die “Wirkungskraft” dieser Bemühungen weiter verbessern zu
wollen.
Laut dem Sprecher werden inzwischen 80 Prozent “verletzender
Inhalte” von “automatisierten Technologien” entfernt. Tiktok
nutzt eine Kombination aus menschlichen Moderatoren und
automatischer Erkennung, um die auf der Plattform
veröffentlichten Inhalte zu überprüfen.
In den vergangenen Monaten war spekuliert worden, dass das
Unternehmen sein operatives Geschäft und seine
Marketingbelegschaft weltweit erheblich reduzieren wird.
Tiktok-Mutter Bytedance beschäftigt der Website zufolge mehr
als 100.000 Mitarbeiter in mehr als 200 Städten weltweit.
Das Unternehmen gab nicht an, in welchen Ländern die Jobs
wegfallen sollen. Es wird jedoch davon ausgegangen, dass eine
hohe Zahl der Stellenstreichungen den Standort Malaysia
betreffen wird. In dem südostasiatischen Land haben große
Technologiekonzerne zuletzt wegen böswilligen und hetzerischen
Inhalten auf Online-Plattformen einen wachsenden
Regulierungsdruck zu spüren bekommen.
Mehr als ein Fünftel der heimischen Unternehmen (20,3
Prozent) mit mehr als zehn Beschäftigten nützen bereits
künstliche Intelligenz (KI). Im Vorjahr hatten erst 10,8
Prozent der Unternehmen auf die Möglichkeiten dieser
Technologien gesetzt, teilte die Statistik Austria heute
mit.
Der Einsatz der KI hänge auch von der Größe der
Unternehmen ab: Jedes zweite Unternehmen mit mehr als
250 Beschäftigten setze diese Technologie in irgendeiner
Form ein.
KI ist im Dienstleistungsbereich eher gefragt – hier
setzen sie 23 Prozent der Unternehmen ein. Im
produzierenden Bereich kommt sie hingegen nur in 15
Prozent der Unternehmen zum Einsatz. Bereits 61 Prozent
der Unternehmen im Bereich Information und Kommunikation
setzen auf künstliche Intelligenz.
Zu den meistgenutzten Anwendungen zählen mit 65 Prozent
Texterkennung und Textverarbeitung, Sprachgenerierung
und Datenanalyse. Auch Spracherkennung und
Prozessautomatisierung zählen zu den häufig genutzten
Anwendungen. Der Großteil der Unternehmen nutzt
mittlerweile mehr als eine KI-Technologie.
In der digitalen Welt kommt es immer wieder zu
Betrugsversuchen. Nun ist eine besonders dreiste Masche
aufgetaucht – betroffen könnten Milliarden User sein.
Betrüger setzen neu auf eine bemerkenswert
ausgeklügelte Masche.
Sie kombiniert Mail und Telefonanrufe – mit
KI-generierten Stimmen.
Laut einem Experten könnten viele Menschen
darauf hineinfallen.
Künstliche Intelligenz kann das Leben vereinfachen. Allerdings
birgt die neue Technologie auch Gefahren. Betrüger setzen
ebenfalls auf KI und können so ihre bösen Absichten deutlich
glaubwürdiger umsetzen.
Über eine besonders ausgeklügelte Methode, von der
Google-Nutzer betroffen sind, hat nun das US-Magazin «Forbes»
berichtet. Die Masche funktioniert mit einem Zusammenspiel aus
E-Mail und Telefon.
Doch der Reihe nach: Gemäss dem Bericht erhalten die
potenziellen Betrugsopfer zunächst eine E-Mail. Der Nutzer
soll damit sein Gmail-Konto wiederherstellen, heisst es.
Hinter der angeblichen Wiederherstellung steckt aber natürlich
ein Phishing-Versuch.
Wenn man nicht darauf hereinfällt, setzen die Betrüger nach
der E-Mail per Telefon nach. Ein angeblicher
Google-Mitarbeiter ruft danach beim Account-Inhaber an. Wer
den Anruf ignoriert, bekommt weitere Mails und/oder Anrufe.
Eine KI-Stimme versucht dann, die Google-Nutzer zu täuschen.
IT-Experte: «Viele werden darauf hineinfallen»
Neben dem Bericht des Magazins gibt es auch andere warnende
Stimmen. IT-Experte Sam Mitrovic hat einen solchen
Betrugsversuch selbst erlebt. In seinem Blog berichtete er
kürzlich darüber.
Auch er hat eine Mail zur Kontowiederherstellung erhalten.
Danach riefen die Betrüger bei ihm an – die Nummer war demnach
tatsächlich eine von Google.
Schliesslich nahm Mitrovic irgendwann einen Anruf entgegen.
Eine Stimme sagte ihm dann, dass sich jemand aus Deutschland
in sein Konto eingeloggt habe. Deshalb müsse er sein Konto
wiederherstellen. Die Stimme habe «amerikanisch, sehr höflich
und professionell» getönt.
Bist du schon einmal auf einen Online-Betrug hereingefallen?
Die Betrüger hatten bei Mitrovic keinen Erfolg. Er konnte die
KI enttarnen, indem er nicht mehr antwortete. Denn dann
erklang aus dem Telefon zweimal ein künstlich und genau gleich
klingendes «Hallo», berichtet er. Ein klares Zeichen, dass
eine KI dahintersteckte.
Obwohl er den Betrugsversuch erkannt hat, warnt er, dass
dieser «beängstigend gut» sei. Seine Prognose: «Viele Menschen
werden wahrscheinlich darauf hereinfallen.»
Laut dem «Forbes»-Bericht sind theoretisch weltweit Milliarden
Nutzer von der Masche bedroht.
The technology helped recover $1.3bn in tax fraud in the 2024
fiscal year, says the Treasury.
The United States Treasury Department is turning more to
artificial intelligence (AI) to fight fraud, using the
technology to thwart $4bn in improper payments in the last
year.
The agency released the estimate in a press release Thursday
announcing the success of its “technology and data-driven
approach”.
In fiscal year 2024, which ran from October 2023 to September
2024, the Treasury used machine-learning AI to halt $1bn in
cheque fraud, it said.
At the same time, its AI processes helped weed out $3bn in
other improper payments, including by pinpointing at-risk
transactions and improving screening, it added.
The $4bn total annual fraud prevention was six times higher
than that captured in the previous year, according to the
agency.
Finding ‘hidden patterns’
Treasury official Renata Miskell told CNN that the use of AI
technology has been “transformative” for the agency, which
still requires a human to make the last call on labelling
fraud.
“Fraudsters are really good at hiding. They’re trying to
secretly game the system,” Miskell said. “AI and leveraging
data helps us find those hidden patterns and anomalies and
work to prevent them.”
Each year, the US Treasury, the US’s finance department,
distributes some 1.4bn payments, totalling over $6.9 trillion,
according to the agency.
In its statement on fraud prevention, the agency said it
“takes seriously our responsibility to serve as effective
stewards of taxpayer money”.
“Helping ensure that agencies pay the right person, in the
right amount, at the right time is central to our efforts,” it
added.
The Treasury is not the only US agency turning to AI to crack
down on financial crime. The Internal Revenue Service (IRS),
which collects federal taxes, is also leveraging the tool to
fight tax fraud, with plans to use it to ramp up audits in the
years ahead.
The IRS said last month that it had recovered $1.3bn from
wealthy taxpayers since late 2023, as part of efforts
targeting the returns of high-income individuals.
IRS’s most recent estimate of the amount owed and not paid
stands at about $496bn each year (for 2014-2016). That tax gap
was expected to grow to $688bn in 2021, according to US
Government Accountability Office (GAO).
As AI grows more prominent in the industry, regulators have
warned that it raises safety and soundness risks.
US Treasury Secretary Janet Yellen, who chairs the Financial
Stability Oversight Council, said supporting responsible AI
innovation can allow the “financial system to reap benefits
like increased efficiency, but there are also existing
principles and rules for risk management that should be
applied”.
Source: Al Jazeera
KI in der kr. Zion-NATO:
Kriminelle
"US"-Zion-NATO a m18.10.2024: will mi KI
Fake-Internetnutzer "laufen lassen" - um Leute in
sozialen Netzwerken zu täuschen und in die Irre zu
führen: Das Pentagon will mithilfe von KI Deepfake-
Internetnutzer erstellen – Zu welchen Zwecken?
https://legitim.ch/das-pentagon-will-mithilfe-von-ki-deepfake-internetnutzer-erstellen-zu-welchen-zwecken/
https://t.me/Impfschaden_Corona_Schweiz/101292
Impfschäden Schweiz Coronaimpfung, [18.10.2024 23:04]
Das geheime Sondereinsatzkommando der Vereinigten Staaten
sucht nach Unternehmen, die dabei helfen, gefälschte
Internetnutzer zu erschaffen, die so überzeugend sind,
dass weder Menschen noch Computer in der Lage sind, sie
als Fälschung zu erkennen. Der Plan, der in einer neuen
76-seitigen Wunschliste des Joint Special Operations
Command (JSOC) des Verteidigungsministeriums erwähnt wird,
umreißt fortschrittliche Technologien, die für die
geheimen militärischen Eliteeinsätze des Landes benötigt
werden.
Auf der grünen Welle durch die Stadt: Intelligente
Algorithmen im Hintergrund erkennen, ob eine rote Ampel
wirklich notwendig ist.
Die täglichen Staus und Warteschlangen an den Ampelkreuzungen
könnten bald der Vergangenheit angehören. Dank künstlicher
Intelligenz wird das Verkehrsgeschehen präzise erfasst und die
Ampelschaltung intelligent gesteuert.
Dies verspricht weniger Stress, mehr Sicherheit und einen
flüssigeren Verkehrsfluss.
Mit KI das Verkehrschaos lösen?
Unter anderem am renommierten Fraunhofer-Institut arbeiten
Forscher daran, mithilfe von KI die Ampelsteuerung der Zukunft
zu realisieren. Hochauflösende Kameras und Radarsensoren
erfassen dabei jede noch so kleine Bewegung im
Strassenverkehr.
Durch die Technologie können selbstlernende Algorithmen in
Echtzeit die Anzahl der wartenden Fahrzeuge an Kreuzungen
bestimmen. Ebenso wird die durchschnittliche Geschwindigkeit
der Autos berechnet, um letztlich einen flüssigen Verkehr
sicherzustellen.
Das erklärte Ziel der Wissenschaftler: Ein besseres
Verkehrsmanagement und vor allem kürzere Wartezeiten für alle
Autofahrer. Gute Aussichten also für die verstopften
Innenstädte von Genf, Basel, Bern und Zürich.
Erste Ampeln bereits jetzt im Einsatz
Unser Nachbarland Deutschland hat beim Thema KI-Ampeln die
Initiative ergriffen: In Hamm und Essenbach sind offiziell
bereits Ampeln im Einsatz, deren Phasen mithilfe künstlicher
Intelligenz präzise bestimmt werden – stets nach dem aktuellen
Verkehrsaufkommen.
Dies zeigt: nach Jahren eingehender Tests sind die Algorithmen
für echte Strassenkreuzungen mit Autos, Radfahrern und
Fussgängern. In den Studien konnte der Verkehrsfluss übrigens
um bis zu 15 Prozent verbessert werden.
Sicherheit für Fussgänger im Fokus
Bei den KI-Ampeln steht insbesondere die Sicherheit von
Fussgängern im Vordergrund. Denn Fakt ist: Immer wieder kommt
es an Ampeln zu Unfällen, die teils zu schweren Verletzungen
führen.
Schutzbedürftig sind hier gerade ältere Menschen oder Personen
mit Behinderungen. Hier bietet die KI einen smarten Ansatz:
Durch automatische Erkennung der Bedürfnisse der Fussgänger
sollen längere Überquerungszeiten realisiert werden.
Abzuwarten bleibt allerdings, ob KI-Ampeln beim
Kosten-Nutzen-Vergleich wirklich überzeugen können. Wenn ja,
könnten wir bald eine echte Verkehrsrevolution in unseren
Innenstädten erleben!
KI kann locker Fotos fälschen am 24.10.2024: Gefälschte historische KI-Fotos kursieren im Internet
https://www.nau.ch/news/digital/gefalschte-historische-ki-fotos-kursieren-im-internet-66849357
Historische Bilder, wie das eines Soldaten aus dem
Vietnamkrieg, werden mit KI erstellt. Diesen Trend kritisieren
Historiker und Künstler weltweit.
Alle großen KI-Entwickler liefern sich ein
Wettrennen um die Entwicklung von „Agenten“, die
Aufgaben auf Ihrem Computer ausführen: Apple,
Google, Microsoft, OpenAI, Anthropic usw. KI-Agenten
lesen Ihren Computerbildschirm, surfen im Internet
und führen Aufgaben auf Ihrem Computer aus.
Versteckte Agenten sammeln Ihre persönlichen Daten,
analysieren Ihre Festplatten auf Schmuggelware und
verraten Sie bei der Polizei. Es ist schließlich
eine schöne neue Welt. ⁃ Patrick Wood, TN-Redakteur.
Google bereitet sich angeblich darauf vor, seine
Interpretation des Konzepts eines großen Aktienmodells
namens „Project Jarvis“ vorzustellen. Eine Vorschau soll
laut The Information bereits im Dezember veröffentlicht
werden. Das Projekt zielt darauf ab, verschiedene
Aufgaben für die Nutzer zu vereinfachen, darunter die
Suche nach Informationen, den Kauf von Produkten und die
Buchung von Flügen.
Laut Quellen, die mit der Initiative vertraut sind,
wird Jarvis auf einer zukünftigen Version von Googles
Gemini-Technologie basieren und speziell für die
Verwendung mit dem Chrome-Webbrowser optimiert sein.
Der Hauptfokus von Project Jarvis liegt
darauf, Nutzer bei der Automatisierung alltäglicher
webbasierter Aufgaben zu unterstützen. Das Tool ist
darauf ausgelegt, Screenshots zu erstellen und zu
interpretieren, sodass es mit Webseiten interagieren
kann, indem es im Namen des Benutzers auf
Schaltflächen klickt oder Text eingibt.
Während Jarvis in seinem derzeitigen Zustand Berichten
zufolge einige Sekunden für jede Aktion benötigt,
besteht das Ziel darin, die Effizienz der Benutzer zu
steigern, indem routinemäßige Online-Aktivitäten
reibungsloser abgewickelt werden.
Dieser Schritt entspricht einem allgemeinen Trend unter
großen KI-Unternehmen, die an ähnlichen Technologien
arbeiten. Microsoft entwickelt unter anderem Copilot
Vision, dass die Interaktion mit Webseiten erleichtern
soll.
Auch von Apple wird die Einführung von Funktionen
erwartet, die es der KI ermöglichen, Bildschirminhalte
zu verstehen und in mehreren Anwendungen zu arbeiten.
Ferner hat Anthropic ein Beta-Update für Claude
veröffentlicht, das Nutzern bei der Verwaltung ihrer
Computer helfen soll, während OpenAI Gerüchten zufolge
an einer ähnlichen Lösung arbeitet.
Trotz der Vorfreude auf Jarvis warnt The Information,
dass sich der Zeitplan für Googles Vorschau im Dezember
noch ändern könnte. Das Unternehmen erwägt eine
begrenzte Veröffentlichung für ausgewählte Tester, um
mögliche Probleme vor einer breiteren Einführung zu
identifizieren und zu beheben. Dieser Ansatz spiegelt
Googles Absicht wider, das Tool durch Nutzerfeedback zu
verfeinern und sicherzustellen, dass es bei seiner
offiziellen Einführung die Erwartungen erfüllt.
China am 31.10.2024: Das
KI-Roboter-Krankenhaus kommt: In China entsteht das erste KI-Krankenhaus, in dem
Roboterärzte täglich 3000 Patienten „schulmedizinisch“
behandeln
https://legitim.ch/gruselig-in-china-entsteht-das-erste-ki-krankenhaus-in-dem-roboteraerzte-taeglich-3000-patienten-schulmedizinisch-behandeln/
https://t.me/Impfschaden_Corona_Schweiz/101889
Impfschäden Schweiz Coronaimpfung, [31.10.2024 16:56]
Das von Forschern der Tsinghua-Universität in Peking
entwickelte KI-Krankenhaus ist so weit fortgeschritten, dass
es bereits in der zweiten Hälfte des Jahres 2024 einsatzbereit
sein soll.
Nach sechsmonatiger Forschungs- und Entwicklungsarbeit steht
das Krankenhaus kurz vor der Praxisreife, wo es die Art und
Weise, wie Ärzte Patienten diagnostizieren und behandeln,
verändern soll.
Der Leiter des Forschungsteams des Agentenkrankenhauses, Liu
Yang, sagte, dass das KI-Krankenhaus sowohl den medizinischen
Fachkräften als auch der Öffentlichkeit immense Vorteile
bringen wird, wie Global Times berichtet.
Videos mit KI am 2.11.2024: haben gewisse
Fehler: unmenschliche Gesichter - 6 statt 5 Finger -
deformierte Objekte - zu perfektes Bild - unlogische
Vorgänge gegen die Physik (Wasser fliesst "aufwärts" etc.) -
Video im Rückwärtslauf kontrollieren: dann passt gar nichts
mehr zusammen: Wie erkenne ich K.I. generierte Videos?
https://t.me/Ungeimpfte_Schweiz_kennenlernen/83125
Um nochmal auf das vorherige Thema zurück zu kommen. Die
Videos die ihr hier seht wurden mit künstlicher Intelligenz
erzeugt. Ich finde es wirklich wichtig, dass man ein Auge
dafür bekommt worauf man achten muss um das zu erkennen,
abgesehen davon, dass es bereits auf den ersten Blick
realitätsfremd ist.
✍️ Es gibt ein paar Punkte die auffallen:
👉🏻 Achtet auf die Gesichter, bei genauerer Betrachtung sieht
man, dass die Gesichter nicht menschlich sind.
👉🏻 Achtet auf die Finger, künstliche Intelligenz neigt dazu
sechs statt fünf Finger pro Hand zu generieren. Laut
biblischer Mythologie hatten die Nephilim, also die gefallenen
Engel, übrigens sechs Finger und sechs Zehen.
👉🏻 Achtet auf den Hintergrund eines Bildes. Objekte werden
manchmal deformiert dargestellt.
👉🏻 Wenn Bilder zu "weichgezeichnet" oder "perfekt" aussehen,
kann das auch ein häufiger Hinweis auf KI-Generierung sein.
👉🏻 Am Beispiel der Eule sieht man es z.B. an der
Weichzeichnung und an der Kartonbeschriftung
👉🏻 Manchmal herrschen K.I. Videos auch unlogische
physikalische Gesetze welche das Video entlarven, also achtet
z.B. ob sich das Wasser natürlich verhält.
👉🏻 Und die Bilderrückwärtssuche kann da auch helfen....
Künstliche Intelligenz (KI) ist in vielen Branchen nicht mehr
wegzudenken. Sie ist die kommende Technologie, die durch den
Entwicklungssprung gerade bei generativer künstlicher
Intelligenz, neben vielen praktischen Einsatzmöglichkeiten,
auch zu einem Wachstumstreiber an der Börse geworden ist. Denn
seit der Veröffentlichung des Textroboters ChatGPT Ende 2022
haben Technologieunternehmen, und darunter vor allem die als
„Magnificent Seven“ bezeichneten großen Technologiewerte, die
Börse gestürmt und dafür gesorgt, dass führende US-Indizes,
wie der Nasdaq100-Index, ein Rekordhoch nach dem anderen
erreicht haben.
Gedämpfte KI-Euphorie
In diesem Jahr scheint sich aber im zweiten Halbjahr die
KI-Euphorie etwas gelegt zu haben. Bereits im Juli 2024
erfuhren die „Magnificent Seven“ signifikante
Bewertungsverluste – so wie am 11. Juli, als diese, getriggert
durch sinkende US-Konjunkturdaten, mit einem summierten
Börsenwert-Rückgang um 623 Mrd. US-Dollar den größten
Tagesverlust aller Zeiten verzeichneten. Auch im August
verringerte sich der Börsenwert einiger Tech-Werte erheblich.
Auch wenn dadurch vielleicht noch kein längerer Abwärtstrend
bei den Tech-Werten ausgelöst wurde, treten nun vermehrt
Stimmen auf den Plan, die vor dem Platzen einer möglichen
KI-Blase warnen. So bemängelte kürzlich ein Analyst von
Goldman Sachs, dass die KI noch nicht ausgereift sei, um die
übertrieben hohen Bewertungen der Technologieunternehmen zu
rechtfertigen.
KI im Asset Management
Im eigentlichen Investmentmanagement-Prozess besteht die
Herausforderung darin, KI gezielt einzusetzen und von deren
Stärken zu profitieren, ohne KI zu einem unkontrollierbaren
Risikofaktor werden zu lassen. So bietet KI die Möglichkeit,
in Sekundenschnelle und rund um die Uhr Milliarden Daten zu
analysieren und mithilfe von Algorithmen darin Muster zu
erkennen. Asset Manager müssen dabei eine möglichst große und
qualitativ hochwertige Datenbasis gewährleisten, um die KI
nicht die falschen Schlüsse ziehen zu lassen. Der Einsatz von
künstlicher Intelligenz im Investmentprozess bietet zudem den
Vorteil, dass menschliche Fehler, kognitive Verzerrungen und
Emotionen, die die Anlageentscheidung ebenso negativ
beeinflussen können, systematisch ausgeschlossen werden
können.
Risiken der Anwendung von KI
Auf der anderen Seite ist eine selbstlernende künstliche
Intelligenz ein hochkomplexes System, das oft noch einer
Blackbox gleichkommt, weil man nicht genau weiß, wie und warum
Entscheidungen getroffen werden. Viele KI-Begeisterte
erwarten, dass künstliche Intelligenz irgendwann in der Lage
sein wird, komplett autonom zu arbeiten und damit den Menschen
in gewissen Bereichen überflüssig zu machen. Dies würde im
Investmentprozess jedoch das Risiko bergen, dass
Anlageentscheidungen nicht mehr nachvollzogen werden können.
Das aber würde das Ziel der Kundenorientierung mehr als
konterkarieren, denn gegenüber dem Kunden sollte zu jedem
Zeitpunkt erläutert werden können, auf welcher Basis
Anlageentscheidungen getroffen wurden. Auch die stetige
Selbstoptimierung der generativen KI kann sich im
Anlageprozess als nachteilig erweisen. Eine Optimierung mag
zwar kurzfristig von Vorteil sein, aber kann mittel- und
langfristig sich negativ auf das Risiko und somit auf die
Performance auswirken.
Der Investmentprozess bei ARTS Asset Management
ARTS Asset Management und deren regelbasiertes Handelssystem
kann zwar als KI der ersten Stunde betrachtet werden. Aber es
werden zur Entscheidungsfindung im Investmentprozess nur
Algorithmen eingesetzt, die im Vorfeld getestet und festgelegt
wurden. Somit werden ausschließlich bewusst ausgewählte
Parameter verwendet, die die Analyse sowie den Auswahlprozess
der geeigneten Portfoliobestandteile nachvollziehbar gestalten
lassen. Mit Hilfe des Computers werden rund um die Uhr
Millionen von Fondsdaten analysiert und diejenigen Fonds und
ETFs identifiziert, die das stärkste Momentum aufweisen. Gemäß
der wissenschaftlich belegten Momentum-Strategie haben eben
Wertpapiere mit dem größten Kurszuwachs eine statistisch
höhere Wahrscheinlichkeit, ihr Kurswachstum kurz- bis
mittelfristig fortzusetzen. ARTS geht dabei nach klar
nachvollziehbaren, quantitativen Regeln und vollständig
prognosefrei vor. Emotionen und menschliche Fehlschlüsse
können dadurch im Anlageprozess ausgeklammert werden. Ein
weiterer Baustein im Anlageprozess ist das Risikomanagement:
schwächt sich das Momentum ab, vollzieht das technische
Handelssystem automatisch, nach festgelegten Regeln, den
Ausstieg aus dem Fonds. Stop-Loss-Orders verhindern zusätzlich
größere Verluste. Der Faktor Mensch wurde bei ARTS aber nicht
abgeschafft: Der menschliche Fondsmanager zeichnet sich für
die Überwachung im Rahmen einer „Supervisor-Funktion“ des
technischen Handelssystems verantwortlich. Denn auch eine
Maschine kann Fehler machen und diese bei mangelnder Kontrolle
stetig fortsetzen und damit den Schaden immer weiter
vergrößern.
KI im Asset Management ist kein Allheilmittel
Auch wenn die Erwartungen an die weitere Entwicklung der
generativen künstlichen Intelligenz sehr hoch sind, sollte der
KI im Asset Management nicht blind vertraut werden. Um im
Sinne des Kunden das Risiko beim Investieren im Auge zu
behalten, sollten sich selbstlernende KI-Systeme nicht autonom
weiterentwickeln, um nicht am Ende nicht nachvollziehbare
Ergebnisse zu erhalten. Die Konstanz im System sowie eine
menschliche Kontrollfunktion sind daher unabdingbar, um für
den Kunden das bestmögliche Ergebnis zu erzielen.
* Wichtiger Hinweis: Performanceergebnisse der Vergangenheit
lassen keine Rückschlüsse auf die zukünftige Entwicklung eines
Investmentfonds zu. Jede Kapitalveranlagung ist mit einem
Risiko verbunden. Kurse können sowohl steigen als auch fallen.
Krypto-Zertifikate unterliegen hohen Kursschwankungs- sowie
Emittentenrisiken, die bis zum Totalausfall des investierten
Kapitals führen können. Den gültigen Verkaufsprospekt und das
Basisinformationsblatt (PRIIPs-KID) finden Sie unter
www.arts.co.at.