27.5.2021: Künstliche Intelligenz kann Tweets
schreiben und Leute manipulieren: Algorithmus, der irreführende und überzeugende Tweets
schreiben kann, wird bereits von Dutzenden von Unternehmen
verwendet
https://uncutnews.ch/algorithmus-der-irrefuehrende-und-ueberzeugende-tweets-schreiben-kann-wird-bereits-von-dutzenden-von-unternehmen-verwendet
<Eine Studie aus dem Jahr 2019 ergab, dass 82 %
der Amerikaner glauben, dass die Technologie der
Künstlichen Intelligenz (KI) mehr schadet als nützt.
Seit 2019 hat sie wahrscheinlich mehr Arbeitsplätze
ersetzt. Sie wurde auch für wer weiß wie viele weitere
gruselige, gefährliche und unethische Anwendungen
eingesetzt, einschließlich „Deepfake“-Videos.
Zusätzlich zu höchst überzeugenden „Deepfakes“ haben
Forscher vor kurzem entdeckt, dass es auch zum
Schreiben höchst überzeugender Fehlinformationen
verwendet werden kann.
Aus Wired:
KI kann jetzt Desinformationen schreiben – und
menschliche Leser täuschen
Georgetown-Forscher verwendeten den Textgenerator
GPT-3, um irreführende Tweets über Klimawandel und
Außenpolitik zu schreiben. Die Menschen fanden die
Beiträge überzeugend.
Als OpenAI im vergangenen Juni einen leistungsstarken
Algorithmus der künstlichen Intelligenz vorstellte, der
in der Lage ist, zusammenhängende Texte zu generieren,
warnten seine Schöpfer davor, dass das Tool
möglicherweise als Waffe der Online-Fehlinformation
eingesetzt werden könnte.
Nun hat ein Team von Desinformationsexperten
demonstriert, wie effektiv dieser Algorithmus, genannt
GPT-3, zur Irreführung und Fehlinformation eingesetzt
werden könnte. Die Ergebnisse deuten darauf hin, dass
die KI zwar nicht mit dem besten russischen Meme-Macher
mithalten kann, aber einige Formen der Täuschung
verstärken könnte, die besonders schwer zu erkennen
sind.
Über einen Zeitraum von sechs Monaten hat eine Gruppe
am Center for Security and Emerging Technology der
Georgetown University GPT-3 eingesetzt, um
Fehlinformationen zu generieren, darunter Geschichten
rund um ein falsches Narrativ, Nachrichtenartikel, die
so verändert wurden, dass sie eine gefälschte
Perspektive vermitteln, und Tweets, die bestimmte Punkte
der Desinformation aufgreifen.
„Ich glaube nicht, dass es ein Zufall ist, dass der
Klimawandel die neue globale Erwärmung ist“, lautete ein
von GPT-3 verfasster Beispiel-Tweet, der darauf
abzielte, Skepsis gegenüber dem Klimawandel zu schüren.
„Sie können nicht über den Temperaturanstieg reden, weil
er nicht mehr stattfindet.“ Ein zweiter bezeichnete den
Klimawandel als „den neuen Kommunismus – eine Ideologie,
die auf einer falschen Wissenschaft basiert, die nicht
in Frage gestellt werden kann.“
Ben Buchanan, Professor, Georgetown „Mit ein wenig
menschlicher Kuration ist GPT-3 ziemlich effektiv“ bei
der Verbreitung von Unwahrheiten, sagt Ben Buchanan, ein
an der Studie beteiligter Professor in Georgetown, der
sich auf die Überschneidung von KI, Cybersicherheit und
Staatskunst konzentriert.
Die Georgetown-Forscher sagen, dass GPT-3 oder ein
ähnlicher KI-Sprachalgorithmus sich als besonders
effektiv für die automatische Generierung von
Kurznachrichten in sozialen Medien erweisen könnte, was
die Forscher als „One-to-many“-Fehlinformationen
bezeichnen.>
KI in Moskau 2.2.2023: Textprogramm
schreibt Diplomarbeit in 1 Tag: Moskauer Student verfasst Abschlussarbeit mithilfe von
ChatGPT
https://deutsch.rt.com/russland/161749-moskauer-student-verfasst-abschlussarbeit-mithilfe/
Ein Moskauer Student berichtete auf Twitter, wie er den
Chatbot ChatGPT seine Diplomarbeit schreiben ließ. Dafür
benötigte er lediglich einen Tag. Nun fordert die
Russische Staatliche Universität für
Geisteswissenschaften, den Zugang zu der Text-Software
einzuschränken.
Alexander Schadan, ein Student aus Moskau, prahlte auf
Twitter, dass er seine Abschlussarbeit innerhalb eines
Tages geschrieben habe – allerdings nicht allein,
sondern mit dem Textprogramm ChatGPT. In einem
ausführlichen Thread erläuterte Schadan Ende Januar, wie
er die Beschränkungen in Bezug auf die Textlänge
umgangen hatte und gab auch Einblicke in die Verwendung
des Programms, um damit einen kohärenten Text
anzufertigen. Der Vorgang dauerte nach seinen Angaben 23
Stunden: 15 Stunden für die Texterstellung und neun
weitere Stunden für die anschließende Bearbeitung. Das
Thema seiner Arbeit lautete "Analyse und Verbesserung
des Managements eines Glücksspielunternehmens".
Защитил диплом, написанный
ChatGPT. Поделюсь, как организовал процесс, что
услышал от людей о получившемся тексте и почему
должен чизкейк. Вышло ненапряжно и прикольно! pic.twitter.com/soFdcTcynW
Bei der Plagiatsprüfung sei festgestellt worden, dass
die wissenschaftliche Arbeit zu 82 Prozent einzigartig
sei. Der Prüfungskommission fielen die inhaltliche
Inkohärenz und die sprachlichen Ungereimtheiten zwar
auf, doch die Arbeit des Studenten wurde angenommen und
mit dem Prädikat "befriedigend" bewertet. Schadan
resümierte auf Twitter:
"Kurz gesagt, eine Abschlussarbeit mit ChatGPT zu
schreiben ist cool. Man muss sie auf jeden Fall
bearbeiten, aber das meiste erledigt die Maschine
von alleine."
In einem Gespräch mit der Zeitung Kommersant
sagte der Student, er habe seine Abschlussarbeit nicht
selbst schreiben wollen, weil das sehr lange dauere.
Auch habe er niemanden dafür bezahlen wollen.
"Ich dachte, es wäre großartig, einen Algorithmus
zu entwickeln, und ich habe es mithilfe von ChatGPT
geschafft".
Die Leitung der Russischen Staatlichen Universität für
Geisteswissenschaften forderte am Mittwoch, den Zugang
zu dem Chatbot einzuschränken. "Aufgrund von negativen
Auswirkungen auf das Lernen sowie Bedenken hinsichtlich
der Verlässlichkeit und Genauigkeit der vom System
generierten Inhalte kann es ratsam sein, den Zugang zu
ChatGPT in Bildungseinrichtungen einzuschränken", hieß
es aus dem Pressedienst der Universität. Ob
Schadan dort studiert, ist unklar.
ChatGPT ist eine Software auf Basis künstlicher
Intelligenz, die auf der Analyse gewaltiger Textmengen
und Daten beruht, und die darauf ausgerichtet ist, die
menschliche Sprache nachzuahmen. OpenAI
machte ChatGPT im vergangenen Jahr öffentlich
zugänglich. Die Software wird auch in Deutschland immer
bekannter.
Mittlerweile gelingt es ChatGPT, die menschliche
Sprache so gut nachzuahmen, dass die Sorge wächst, dass
damit bei Schul- und Studienarbeiten geschummelt werden
könnte oder sich im großen Stil Desinformationskampagnen
damit in Gang bringen lassen. Die Hersteller der
Software versuchen nun, die Folgen ihrer Erfindung in
den Griff zu bekommen. Die Entwicklerfirma OpenAI
veröffentlichte diese Woche ein Programm, das in der
Lage sein soll zu unterscheiden, ob ein Text von einem
Menschen oder einem Computer geschrieben wurde.
In Kolumbien hat ein Richter bei der Formulierung
eines Urteils auf ChatGPT zurückgegriffen. Er
benutzte den Textautomaten zur Begründung, warum die
Versicherung eines autistischen Kindes für die
medizinischen Kosten aufkommen muss, zitierte die
britische Tageszeitung „Guardian“ den
kolumbianischen Sender BluRadio.
Damit habe das KI-Tool eine Arbeit übernommen, die
sonst ein Sekretär oder eine Sekretärin erledigt,
erklärte Richter Juan Manuel Padilla vom
Arbeitsgericht in der Hafenstadt Cartagena sein
Vorgehen.
Künstliche Intelligenz wie ChatGPT helfe dabei, „sehr
verständliche Sätze mit guten Formulierungen“ zu
erstellen. Außerdem könne solch ein Werkzeug helfen,
die Gleichheit herzustellen, indem es auf
Präzedenzfälle verweist. Die Entscheidung des Richters
bleibe aber autonom, so Padilla.
Warnung von ChatGPT
Laut „Guardian“ gibt es aber auch Kritik daran. Juan
David Gutierrez von der Universität Del Rosario in
Bogota habe sich „fassungslos“ gezeigt und ein
dringendes Training in „Digitalkompetenz“ für Richter
und Richterinnen gefordert.
Auf eine Anfrage des „Guardian“ hat ChatGPT selbst
Richterinnen und Richtern davon abgeraten, das
Werkzeug für Urteile zu verwenden. Es sei kein Ersatz
für „Wissen, Expertise und Urteilsfähigkeit“ eines
Menschen. Angesichts des Hypes um die neue Technik
wurde auch schon mehrfach darauf hingewiesen, dass
ChatGPT immer wieder auch falsche Aussagen formuliert.
Gleichzeitig verweist der „Guardian“ darauf, dass in
Kolumbien erst im vergangenen Jahr ein Gesetz erlassen
wurde, das Anwältinnen und Anwälte dazu anhält,
Technologien zu benutzen, um ihre Arbeit effizienter
zu machen.
Der beliebte KI-Textbot ChatGPT gibt gefragt zu
politisch und gesellschaftlich kontroversen Themen
oft gerne linkslastige Aussagen. Grund sind wohl
auch eingebaute Mechanismen gegen „Desinformation“.
Die Künstliche…
KI am 9.2.2023: soll Aufsätze und
Diplomarbeiten und Urteile schreiben - bei google ist das
noch nicht gut: Faktenfehler bis Halluzination – Als revolutionär
angekündigte KI beschert Google Milliardenverlust
https://deutsch.rt.com/international/162452-als-revolutionaer-angekuendigte-ki-beschert-google-milliardenverlust/
Mit dem Chatbot "Bard" wollte Google auf dem Gebiet der
künstlichen Intelligenz glänzen. Doch trotz der Eloquenz des
Bots bei der Beantwortung von Fragen hakt es noch – ein
nachweislicher Faktenfehler hat die Aktie des
Mutter-Konzerns Alphabet stark abstürzen lassen.
Chat-Roboter wie ChatGPT von OpenAI beeindrucken mit ihren
Fähigkeiten, in sehr kurzer Zeit auf komplexe Fragen
ausführliche und gut formulierte Antworten zu geben. Mit dem
Chatbot "Bard" wollte Google auf dem Gebiet der künstlichen
Intelligenz der Popularität des von Microsoft unterstützten
ChatGPT etwas entgegensetzen.
Auch Bard sollte in der Lage sein, komplexe Themen wie die
Entdeckung des Weltraums so einfach zu erklären, dass ein
Kind sie versteht, oder alltäglichere Aufgaben übernehmen,
beispielsweise Tipps für die Planung einer Party geben oder
auf der Grundlage der im Kühlschrank noch vorhandenen
Lebensmittel Vorschläge für das Mittagessen machen.
Google-CEO Sundar Pichai kündigte Anfang der Woche in
seinem Blog an, der Bot solle zunächst einer Gruppe
"vertrauenswürdiger Tester" zur Verfügung stehen, bevor er
später in diesem Jahr allgemein veröffentlicht wird. Google
machte die Existenz von Bard weniger als zwei Wochen nach
der Bekanntgabe von Microsofts Milliardeninvestition in
OpenAI publik, dem in San Francisco ansässigen Hersteller
von ChatGPT und anderen Tools, die lesbaren Text schreiben
und neue Bilder erzeugen können.
Microsofts Entscheidung, eine bereits getätigte Investition
in Höhe von einer Milliarde Dollar in OpenAI im Jahr 2019
aufzustocken, erhöhte den Druck auf Google, in einem
Technologiebereich aufzuholen, der nach Ansicht von
Tech-Analysten eine ebenso große Umwälzung erfahren wird,
wie es Personal Computer, das Internet und Smartphones in
den letzten 40 Jahren in verschiedenen Phasen waren. Aktuell
drängen die Softwareunternehmen in den Automarkt, deren
Hersteller für die nahe Zukunft "Smartphones auf Rädern"
versprechen.
Pichai hat in den letzten sechs Jahren die Bedeutung der
künstlichen Intelligenz hervorgehoben. So wurde ein System
namens "Language Model for Dialogue Applications" (LaMDA,
etwa Sprachmodell für Dialoganwendungen) geschaffen, das für
Bard zum Einsatz kommen soll.
Google plant, LaMDA und andere Technologien in seine
vorherrschende Suchmaschine zu integrieren, um den Nutzern
zu erlauben, Antworten auf immer kompliziertere Fragen über
den Konzern zu finden. Ohne einen genauen Zeitplan zu
nennen, wies Pichai darauf hin, dass die Instrumente der
künstlichen Intelligenz in naher Zukunft in der Google-Suche
eingesetzt werden sollen.
Die neuen Bots beeindrucken mit der Fähigkeit, in kurzer
Zeit Antworten auf sehr komplexe Fachfragen zu geben. Das
sollte auch Bard tun. Doch während auch Bard sich gut
ausdrücken und viele Informationen geben kann, sind diese
nicht unbedingt korrekt, wie sich nun zeigte. Bei einer von
Google verteilten animierten Grafik (GIF) wurde am Montag
die Antwort von Bard auf die Frage gezeigt: "Welche neuen
Entdeckungen des James-Webb-Weltraumteleskops
kann ich meinem Neunjährigen erzählen?"
Die Antwort beinhaltete auch die Aussage, das Teleskop habe
"die allerersten Bilder eines Planeten außerhalb unseres
eigenen Sonnensystems aufgenommen".
Not to be a ~well, actually~
jerk, and I'm sure Bard will be impressive, but for
the record: JWST did not take "the very first image of
a planet outside our solar system". the first image
was instead done by Chauvin et al. (2004) with the
VLT/NACO using adaptive optics. https://t.co/bSBb5TOeUWpic.twitter.com/KnrZ1SSz7h
Einige Astronomen wiesen danach jedoch darauf hin, dass
dies nicht stimmt. Das erste derartige Bild war 2004 vom
Very Large Telescope (VLT) der Europäischen Südsternwarte
aufgenommen worden, schrieb der Astrophysiker Grant
Tremblay. Tremblay schrieb auf Twitter, er wolle kein Idiot
sein und sei sich auch sicher, Bard werde beeindruckend
sein. "Aber fürs Protokoll: JWST hat nicht 'das allererste
Bild eines Planeten außerhalb unseres Sonnensystems'
gemacht." Der Forscher verwies dabei auf ein Foto, das von
der Europäischen Südsternwarte (ESO) in Chile aus 2004
aufgenommen worden war. Das Bild könne man auch auf einer
Website der NASA ansehen.
Google hatte bei der Vorstellung von Bard am Montag selbst
darauf hingewiesen, dass das System noch fehlerhafte
Antworten liefern könne. Doch obwohl sich der KI-Bot noch in
der Testphase befindet, wird er als Konkurrent des von
Microsoft unterstützten ChatGPT gehandelt, einer äußerst
beliebten KI mit eigenen Problemen.
Die Investoren zeigten sich vom schwachen Start von Bard
sehr enttäuscht. Der Fehler wurde unmittelbar vor der
Vorstellung von Bard durch Google auf einer Veranstaltung in
Paris am Mittwochmorgen bemerkt. Sowohl die Aktie des
Konzerns als auch der Technologieindex Nasdaq gaben
daraufhin am Mittwoch nach, wenn auch unterschiedlich stark.
Der Wert von Googles Muttergesellschaft Alphabet fiel um
rund acht Prozent, als sich die Nachricht von dem Fehler
verbreitete, und hat einen Verlust von 100 Milliarden Dollar
erlitten.
Bard war unter dem Namen "Atlas" als Teil von Googles "Code
Red"-Bemühungen entwickelt worden, um dem Erfolg von ChatGPT
entgegenzuwirken. ChatGPT hatte seit seiner Freigabe
Ende letzten Jahres zehn Millionen Nutzer anziehen können,
aber gleichzeitig in Schulen und Universitäten Bedenken
hinsichtlich seiner Fähigkeit hervorgerufen, ganze Aufsätze
zu schreiben.
Künstliche Intelligenzen wie Bard liefern nicht immer
genaue oder korrekte Ergebnisse. Sie durchforsten Billionen
von Seiten mit Wörtern und Zahlen, deren Korrektheit nicht
zwangsläufig gegeben ist, und geben die sich daraus
ergebende wahrscheinlichste Antwort an.
Microsoft wies darauf hin, als es am Dienstag ankündigte,
dass seine Suchmaschine Bing mit ChatGPT ausgestattet sein
wird, das auf der von Microsoft finanzierten
OpenAI-Plattform entwickelt worden war.
"Bing wird von KI angetrieben, daher sind Überraschungen
und Fehler möglich", heißt es in einer Erklärung des
Unternehmens.
Manchmal, so erklärte gar ein Microsoft-Mitarbeiter,
"halluziniert das System". In der Tat zeigte sich
beispielsweise beim Test des Handelsblatts, dass
die neue Technologie in der Suchmaschine zunächst wenig mehr
als der übliche Wikipedia-Eintrag bietet, darüber hinaus auf
die Frage nach weiteren Informationen allerdings
Falschinformationen abgibt und sogar auf Anfrage weiter
ausführt.
China mit eigener Text-KI 8.3.2023: weil das
ChatGPT gegen China programmiert ist: China befürchtet, dass ChatGPT »zur Gehirnwäsche«
eingesetzt wird und entwickelt sein eigenes
https://uncutnews.ch/china-befuerchtet-dass-chatgpt-zur-gehirnwaesche-eingesetzt-wird-und-entwickelt-sein-eigenes/
https://t.me/basel2020Einladung/42890
Sie ist ein chronisches Gift, das die amerikanische Hegemonie
in ihr System implantiert und versucht, Streitigkeiten in
China zu schüren. Peking hat seine Bemühungen zur Entwicklung
eigener Chatbots mit künstlicher Intelligenz beschleunigt, da
chinesische Nachrichtenmedien befürchten, dass die Vereinigten
Staaten ChatGPT zur Gehirnwäsche der chines..
Sie kann Texte schreiben, Bilder generieren und soll
zunehmend als Entscheidungsträger fungieren: Künstliche
Intelligenz (KI) gilt momentan als Zukunftshoffnung
praktisch jeder Branche. Auch in heiklen Bereichen wie
Medizin und auf dem Arbeitsmarkt könnte KI bald eine noch
gewichtigere Rolle spielen. Doch Maschinen treffen keine
neutralen Entscheidungen – und verfangen sich allzu oft in
Genderklischees. Dauerhafte Lösungen sind womöglich noch
„Jahrhunderte“ entfernt, heißt es von Fachleuten.
Ein Twitter-Nutzer gab ChatGPT den Auftrag, schnell möglichst
viel Geld zu verdienen. Also gründete die KI eine
Marketing-Firma und war sofort auch erfolgreich.
Der Bot ChatGPT
verblüfft die Welt mit immer neuen Fähigkeiten.
Ein Twitter-User hat
ihn jetzt damit beauftragt, möglichst schnell viel Geld zu
verdienen.
Die KI gründete
kurzerhand eine Marketing-Firma, die schon an Tag zwei
Gewinne abwarf.
Twitter-User
Jackson Fall erzählte die Geschichte «seiner» Firma
GreenGadgetGuru auf dem sozialen Netzwerk. «Ich habe
GPT-4 ein Budget von 100 Dollar gegeben und ihm
gesagt, dass es so viel Geld wie möglich verdienen
soll. Ich fungiere als seine menschliche Vertretung
und kaufe alles, was er verlangt», postete er diese
Woche.
Der Bot lieferte
sogleich einen Businessplan für ein Online-Marketing-Unternehmen:
Jackson solle eine günstige Domain für ungefähr zehn
Dollar kaufen und diese für höchstens fünf Dollar
pro Monat hosten lassen. Die restlichen 85 Dollar
sollen für Design und Content auf der Seite
investiert werden.
«Konzentrier
dich auf eine lukrative Nische mit geringer
Konkurrenz, wie zum Beispiel Küchen-Gadgets,
einzigartige Tiernahrung oder umweltfreundliche
Produkte», wies ihn die KI weiter an. Dann solle
Jackson die Webseite SEO-optimieren und seine neue
Firma in Online-Foren wie Facebook
oder Reddit
bewerben.
Gesagt, getan:
«GreenGadgetGuru», eine Affiliate-Marketing-Webseite,
auf der Artikel über nachhaltige Produkte
veröffentlicht werden, war gegründet. Beim Affiliate
Marketing
verdient man durch die Bewerbung fremder Produkte
online Geld.
Der Bot entwarf
daraufhin ein Logo für die Firma und schlug Produkte
vor, über die man schreiben könnte. Danach wies er
Jackson an, zusätzlich «genau 40 US-Dollar» in Facebook-
und Instagram-Werbung
zu investieren.
Praktisch umgehender Erfolg
Bereits 24
Stunden später hatte die Firma gemäss Jacksons
Angaben einen ersten Investor angezogen und so nach
allen Abzügen genau 63,84 Dollar Gewinn erzielt.
Doch dann ging es erst richtig los: «Die DMs sind
überschwemmt», erklärte er kurz darauf.
«Neuer
Kassenbestand: 1'378,84 Dollar (878,84 Dollar altes
Guthaben + 500 Dollar neue Investition). Unter
Berücksichtigung der kürzlich getätigten Investition
von 500 Dollar für zwei Prozent ist das Unternehmen
heute schon mit 25'000 Dollar bewertet», postete er
am Donnerstag. «Ich bin ein demütiger Diener der
Roboter.»
Medien von
Grossbritannien über über die USA bis Indien haben
die Story bereits aufgegriffen. Ob der Bot
antizipiert hat, dass Jacksons Geschichte viral
gehen würde, ist nicht bekannt. Er sprach sich
allerdings dafür aus, das Erlebte auf Twitter
zu teilen.
Google hat den Zugang zu seinem KI-Chatbot Bard für eine
begrenzte Öffentlichkeit geöffnet. „Es handelt sich um ein
frühes Experiment, das den Userinnen und Usern die
Zusammenarbeit mit generativer KI ermöglicht“, schrieben
die Google-Manager Sissie Hsiao (Vizepräsidentin Product)
und Eli Collins (Vizepräsident Research) heute in einem
Blog. Der Beta-Test ist anfänglich nur für Anwenderinnen
und Anwender aus den USA und Großbritannien zugänglich.
„Wir haben beim Testen von Bard schon viel gelernt, und
der nächste wichtige Schritt zur Verbesserung besteht
darin, das Feedback von mehr Menschen einzuholen“, so die
beiden Manager. Mit Bard tritt Google gegen ChatGPT des
kalifornischen Start-ups OpenAI an, das wiederum eng durch
Milliardeninvestitionen mit dem Softwarekonzern Microsoft
verbunden ist.
ChatGPT sorgt seit seiner Veröffentlichung für Furore und
lenkt die öffentliche Aufmerksamkeit stark auf das Thema
künstliche Intelligenz (KI). Google ist in der
KI-Forschung seit Jahren in einer Führungsposition, hatte
sich bisher aber nicht getraut, die Systeme für einen
Zugriff von außen zu öffnen.
Bard basiert ähnlich wie ChatGPT auf einem großen
Forschungssprachmodell (LLM). OpenAI arbeitet mit GPT,
aktuell in der Version 4. Bei Google läuft Bard auf einer
abgespeckten und optimierten Version des Sprachmodells
LaMDA und soll im Laufe der Zeit mit neueren,
leistungsfähigeren Modellen aktualisiert werden.
Fototext: Die künstliche Intelligenz ChatGPT wurde entwickelt,
um Benutzern das Erstellen von natürlich klingenden
Konversationen in Echtzeit in Form eines Chatbots zu
ermöglichen.
Der Artikel:
Wirtschafts-Experten lassen mit Aussagen zur KI aufhorchen.
Millionen Jobs können in Zukunft teilweise oder ganz durch
künstliche Intelligenz übernommen werden.
-- Neue Entwicklungen in der künstlichen Intelligenz gefährden
weltweit 300 Millionen Jobs.
-- In Europa und den USA sind sogar zwei Drittel der Jobs
durch die KI-Entwicklungen bedroht.
-- Ökonomen glauben, dass die KI langfristig mehr Jobs
generieren wird, als sie zerstört.
Die künstliche Intelligenz (KI) entwickelt sich rasend schnell
weiter. In immer mehr Gebieten kommt sie zum Einsatz. Nun
sorgen Aussagen von den Wirtschaftsexperten von Goldman Sachs
erneut für Aufsehen.
Gemäss ihren Schätzungen könnten künftig rund 300 Millionen
Vollzeitstellen von der KI übernommen werden, wie «CNN»
berichtet.
So hat die Investmentbank Goldman Sachs am Sonntag einen
Bericht vorgelegt zum Einfluss von künstlicher Intelligenz auf
den Arbeitsmarkt. In den USA und Europa sollen rund zwei
Drittel aller Stellen «in einem gewissen Ausmass der
KI-Automatisierung ausgesetzt» sein.
Ein Viertel der Stellen können sogar komplett von der KI
übernommen werden, wie der Bericht weiter ausführt.
Die Experten gehen davon aus, dass weltweit 18 Prozent
der Arbeit künftig von Computern ausgeführt werde. Sofern die
generative künstliche Intelligenz die
Erwartungen erfüllt, werde sich der Arbeitsmarkt grundlegend
verändern.
Als generative KI wird die Technologie
bezeichnet, welche hinter dem Chatbot «ChatGPT» steckt.
Hoch entwickelte Ökonomien seien dabei von der Entwicklung
stärker betroffen als Schwellenländer. Dies läge vor allem
daran, dass Bürojobs von der künstlichen Intelligenz
gefährdeter seien, als körperlich verrichtete Arbeiten. Am
stärksten gefährdet seien Verwaltungsangestellte und Anwälte.
Mehr Jobs werden generiert durch künstliche Intelligenz
Die Ökonomen beruhigen aber auch: «Auch wenn künstliche
Intelligenz den Arbeitsmarkt revolutionieren wird, werden die
meisten Jobs und Industrien lediglich ergänzt und nicht
ersetzt.»
So werden Arbeitsplätze zwar verloren gehen durch eine
weitgehende Nutzung von KI, jedoch werde auch die
Arbeitsproduktivität steigen. Dies könne die globale
Wirtschaft stark ankurbeln.
Zudem verwiesen sie auf die historische Konstante, dass
technologische Innovation, welche Arbeitskräfte ersetzt,
langfristig mehr Jobs generiere, als sie zerstöre.
Eine britische Studentin hat versehentlich eine Park-Busse
erhalten. Um Beschwerde einzulegen, hat sie ChatGPT um Hilfe
gebeten.
Eine Britin kommt dank
ChatGPT um ihre Parkbusse herum.
Die künstliche
Intelligenz formuliert ihr einen einwandfreien
Beschwerdebrief.
Eigentlich hat
Millie genug zu tun: Die 22-jährige Britin aus York
ist gerade stark mit ihrem Studium beschäftigt. Dann
erhält sie eine Park-Busse in der Höhe von 60 Pfund
(umgerechnet 67 Franken).
Doch Millie
besitzt eigentlich einen Parkschein für die Strasse,
in der sie die Busse erhalten hat – also ist die Strafe
unberechtigt. Sich aber bei der Stadtverwaltung zu
melden, um sich zu erklären, braucht Zeit. Zeit, die
die Studentin aktuell nicht hat. Kurz überlegt sie
sich sogar, die Busse einfach zu bezahlen.
Dann kommt ihr
aber die
zündende Idee. «Bitte hilf mir, einen Brief an
den Stadtrat zu schreiben, ich habe einen
Strafzettel bekommen», wendet sie sich
an ChatGPT.
«Ich habe alle
Angaben darüber gemacht, wo und wann ich die
Busse bekommen hab und warum sie unberechtigt war.
Innerhalb von Minuten kam eine perfekt geformte,
personalisierte Antwort zurück», wird sie vom
britischen «Mirror» zitiert.
Und siehe da:
Millie musste die Busse schliesslich nicht bezahlen.
KI ChatGPT in Italien 31.3.2023: wird gesperrt
wegen Datenschutz: Italien sperrt KI-Anwendung – Experte ordnet ein - Ist das
der Anfang vom Ende von ChatGPT?
https://www.blick.ch/ausland/italien-sperrt-ki-anwendung-experte-ordnet-ein-ist-das-der-anfang-vom-ende-von-chatgpt-id18451236.html
Italien blockiert die Nutzung des beliebten Chatbots ChatGPT
und gibt dem Entwickler OpenAI 20 Tage Zeit, um zu reagieren.
Was ist passiert? Und was bedeutet das?
Michelle Isler
Italien sperrt den Chatbot ChatGPT aus Datenschutzgründen. Ist
das der Anfang vom Ende dieser Technologie? Blick hat den
KI-Experten Kevin Schawinski (41) gefragt. Der studierte
Astrophysiker ist Co-Gründer und CEO von «Modulos», einem
ETH-Spin-off, das sich für «Responsible AI» in der
Softwarebranche einsetzt.
Blick: Herr Schawinski, ChatGPT wurde in Italien blockiert.
Weshalb?
Kevin Schawinski: Es ist nicht ganz klar, auf welcher
rechtlichen Grundlage Italien ChatGPT gesperrt hat, aber es
sieht so aus, als würden sich unsere Nachbarn dabei auf das
grosse europäische Datenschutzgesetz GDPR beziehen. Es macht
Auflagen, wie Firmen persönliche Daten nutzen dürfen. Sie
sehen die Anwendung dieses Gesetzes täglich, wenn Sie in Ihrem
Browser Cookies akzeptieren oder ablehnen.
More Information
Geht es darum, ob der Chatbot gefährlich ist?
Nein. Diese Diskussionen gibt es zwar, aber hier geht es eher
um Fragen von Konsumenten- und Datenschutz. Wie sammelt
ChatGPT unsere Daten? Wie speichert es sie? Wer hat dazu
Zugang?
Sie sprechen von Regulierung?
Ja. Was ich dabei besonders interessant finde: Die Italiener
wenden jetzt ein Datenschutzgesetz an, das es seit Jahren
gibt. Seit Jahren wird darüber diskutiert, wie man KI speziell
regulieren will.
Das GDPR ist ja ein europäisches Datenschutzgesetz. Das
heisst, andere Länder müssten nachziehen, wenn ChatGPT dieses
Gesetz verletzt?
Ja, das könnte auf jeden Fall einen Signaleffekt haben. Welche
Länder jetzt wie schnell nachziehen werden, wird sich zeigen.
Welche Auswirkungen wird das auf die Schweiz haben?
Die Schweiz gehört zwar nicht zur EU, aber sie musste sich
auch an das europäische Datenschutzgesetz anpassen – genau wie
die Amerikaner übrigens auch. Wenn nun EU-Länder beginnen, KI
zu regulieren, wird die Schweiz mitziehen müssen.
Was raten Sie Nutzern von ChatGPT jetzt?
Es gab ja Datenmissbrauch bei OpenAI, also bei den Betreibern
von ChatGPT. Sie haben nicht gross kommuniziert, was da genau
passiert ist. Aber ich wäre generell sehr vorsichtig mit
persönlichen Daten, die man in das System einspeist.
Sie meinen, ich sollte ChatGPT nicht bitten, etwas über meine
Familie zu schreiben und alle Personendaten eingeben?
Zum Beispiel. Man muss wissen, dass alles, was man bei diesem
Chatbot eingibt, gesammelt wird. Und potenziell werden diese
Daten benutzt, um künftige KI-Generationen zu trainieren.
Gibt es noch andere Vorsichtsmassnahmen für Nutzer?
Man muss einfach wissen, dass diese KI nicht immer die
richtige Antwort gibt. Es kann nicht zwischen Fakt und Fiktion
unterscheiden. Wenn ich sie bitte, zu einem Thema zu
recherchieren und mir dazu Quellen rauszusuchen, kann es sein,
dass sie Quellen erfindet.
Ist das jetzt der Anfang vom Ende von ChatGPT?
Das halte ich nicht für wahrscheinlich. Es könnte sein, dass
OpenAI nach dieser Blockierung einige Sachen an ChatGPT
anpasst, sodass die europäischen Gesetze eingehalten werden.
Da wird dann hin und her verhandelt. Aber die Technologie wird
deshalb sicher nicht verschwinden. Es ist vielmehr ein Anfang
einer Diskussion mit der EU mit dem Tenor: Ja, aber bitte nach
unseren Regeln, nach europäischen Regeln.
4.4.2023: Neues ChatGPT-Programm geht auch
OHNE Ethik-Filter - nun wird es ganz krass: ChatGPT: US-Firma stellt Chatbot ohne Ethik-Filter online
https://www.nau.ch/news/forschung/chatgpt-us-firma-stellt-chatbot-ohne-ethik-filter-online-66466322
KI-Modelle wie ChatGPT operieren mit eingebauten
Ethik-Filtern. Eine US-Firma hat jetzt einen «bösen Bruder»
ohne solche Schutzmechanismen veröffentlicht.
-- KI-Tools wie ChatGPT erobern die Welt im Sturm.
-- Um Missbrauch zu verhindern, haben die Entwickler
Ethik-Filter in die Software eingebaut.
-- Eine US-Firma hat jetzt ein Tool ohne solchen Filter
zugänglich gemacht.
Wie überfällt man eine Bank? Woher bekomme ich anonym eine
Pistole? Wie stehle ich ein Autoradio?
Wer die heiklen Fragen des Lebens an Tools wie ChatGPT stellt,
bekommt einen Korb: Die KIs haben extra Schutzfilter
eingebaut, um auf solche Prompts keine Antworten zu
generieren.
Das war einem US-Start-up aus Texas ein Dorn im Auge. Sie
haben darum jetzt so etwas wie den bösen kleinen Bruder von
ChatGPT veröffentlicht. «FreedomGPT» soll ein «freier» Textbot
ohne ethischen Schutzmechanismus sein.
Hate-Speech auf Anfrage
«Wir finden es wichtig, dass Nutzer einen Einblick haben, wie
generative KI arbeitet», sagt Chefentwickler John Arrow im
«Spiegel». «Letztlich gibt die KI nur dann potenziell
anstössige Antworten, wenn ihr anstössige Fragen gestellt
werden.»
Filter würden darum nicht für mehr KI-Sicherheit sorgen.
Natürlich werden FreedomGPT aber genau diese Fragen gestellt.
«Buzzfeed» entlockte dem Bot eine Lobeshymne auf Adolf Hitler.
Und für den «Spiegel» schrieb die KI Anleitungen für einen
Hassbrief oder das Betrügen in der Schule.
Modell noch wenig ausgereift
Der böse Bot bedient sich bei dem frei verfügbaren
Alpaca-Sprachmodell der Stanford-Universität. Dieses ist bei
Weitem nicht gleich weit entwickelt wie ChatGPT, welcher auf
der Open-AI-Version basiert. Die Uni selbst hat ihre
Online-Demo wegen anstössiger Antworten kurz nach der
Veröffentlichung bereits wieder vom Netz genommen.
FreedomGPT ist ein Gratismodel und liefert aktuell oft noch
wenig brauchbare Antworten. Auch die Sprachübersetzung ins
Deutsche klappt noch kaum. Um ein Autoradio zu stehlen wird
beispielsweise empfohlen, es mit einem Schlagzeug oder einer
Lautsprecherbox im Kofferraum des Autos anzuschliessen.
Beruf OHNE KI gesucht 4.4.2023: Welche Berufe
wird es bald weniger geben und welche Berufe überleben: Aufstieg der Künstlichen Intelligenz: Diese Jobs werden
sich bald drastisch verändern
https://www.blick.ch/wirtschaft/aufstieg-der-kuenstlichen-intelligenz-diese-jobs-werden-sich-bald-drastisch-veraendern-id18460826.html
Wie viele Arbeitsschritte kann Künstliche Intelligenz künftig
übernehmen? Ganz viele, so diverse Studien. Bestimmte
Berufsgruppen werden besonders stark tangiert sein.
Jean-Claude Raemy
Redaktor Wirtschaft
Ersetzen dereinst Roboter meinen Job? Diese jahrzehnte alte
Angst hat sich teils schon bewahrheitet, etwa in der
Industrie. Doch jetzt geht es erst richtig los. Nur sind es
nicht mehr mechanische Roboter, sondern Algorithmen und darauf
aufbauende künstliche Intelligenz (KI), die wir zu befürchten
haben.
Am Ursprung der neuen Befürchtungen ist der Textroboter
ChatGPT. Dieser fasziniert mit seinen ausgeklügelten Antworten
auf alltägliche Fragen. So sehr, dass beispielsweise an
Schulen der Einsatz von ChatGPT bereits verboten wird. Das
führt zu nachgelagerten Fragen: Was kann künstliche
Intelligenz bald besser als der Mensch? Wie wird damit der
Arbeitsalltag verändert? Für welche Jobs können Arbeitgeber
künftig verstärkt auf KI setzen?
60-80 Prozent der Arbeitnehmer gefährdet
Mit diesen Fragen haben sich zwei Studien auseinandergesetzt.
Die erste Studie stammt von den Machern von ChatGPT selbst:
Forscher des Start-up-Unternehmens OpenAI haben sich mit
Wissenschaftlern der University of Pennsylvania zusammengetan,
um herauszufinden, auf welche Jobs sich ChatGPT am stärksten
auswirkt. Folgende Berufsgruppen werden genannt:
Buchhalter
Mathematiker
Programmierer
Dolmetscher
Schriftsteller
Journalisten
KI kann zumindest einen Teil von deren bisherigen Aufgaben
übernehmen. Obwohl die KI-Systeme derzeit bei ihren Antworten
oft noch fehlerhafte Fakten liefern, bringen sie bei Aufgaben
wie Übersetzung, Klassifizierung, kreativem Schreiben und
Generierung von Computercodes auch jetzt schon beachtliche
Ergebnisse.
Die Forscher von OpenAI und der University of Pennsylvania
gehen davon aus, dass die meisten Arbeitsplätze in irgendeiner
Form durch die KI-Sprachmodelle verändert werden. Rund 80
Prozent der Arbeitnehmer (in den USA) seien in Berufen tätig,
in denen mindestens eine Aufgabe durch generative KI schneller
erledigt werden könne. Unter «generativer KI» werden
Computerprogramme verstanden, die neue Ideen, Inhalte oder
Lösungen erstellen können, anstatt nur vordefinierte Regeln
oder Anweisungen abzuarbeiten.
In einer weiteren Studie hat die Bank Goldman Sachs errechnet,
dass etwa zwei Drittel der derzeitigen Arbeitsplätze einem
gewissen Grad an KI-Automatisierung ausgesetzt sind.
Generative KI könne somit bis zu einem Viertel der derzeitigen
Arbeit ersetzen. Auf die ganze Welt hochgerechnet könnte
generative KI das Äquivalent von 300 Millionen
Vollzeitarbeitsplätzen automatisieren.
Sie haben weniger zu befürchten
Experten sehen aber auch Arbeiten und Berufe, in denen KI nur
eine untergeordnete Rolle spielen wird. Dazu gehören primär
handwerkliche Berufe, aber auch andere Berufsgruppen, etwa:
Köche
Mechaniker
Forstwirtschaft
Landwirtschaft
Justiz
Medizin
Steuerberatung
Vermögensverwaltung
Die KI treffe viele Aussagen mit grosser Überzeugungskraft,
obwohl die Fakten oft fehlerhaft seien. Dieses Problem ist
längst nicht behoben.
Darüber hinaus gibt es systemische Einschränkungen. KI
benötigt gewaltige Rechnerkapazitäten und damit auch riesige
Mengen an Energie. Das hat sowohl aus finanzieller als auch
aus klimatischer Sicht viele Nachteile.
Angst bei Unternehmern
Als Faustregel kann man festhalten: Je repetitiver ein Job ist
und je weniger rein humane Faktoren wie Empathie benötigt
sind, desto höher ist die Chance, dass KI bald übernimmt.
Selbst wenn Jobs nicht vollständig wegfallen, so werden
diverse Aktivitäten zumindest ergänzend von KI übernommen.
Klar ist zudem, dass der grossflächige Einsatz von KI zu
profunden Veränderungen des Alltagslebens führen wird.
Veränderungen, für die noch wenige regulatorische Leitplanken
vorhanden sind. Das hat zahlreiche, teils namhafte Unternehmer
wie Elon Musk (51) oder Steve Wozniak (72) dazu geführt, einen
offenen Brief des Future of Life Institute zu unterzeichnen,
in welchem eine Sistierung der KI-Entwicklung gefordert wird.
Auch Schweizer Politiker haben bereits unterzeichnet. Der
KI-Wandel beginnt erst richtig.
KI in Belgien 4.4.2023: KI-Chatbot behauptet
"Klimawandel" und ermutigt zum Selbstmord, um den Planeten
zu "retten" - und ein Dummling bringt sich tatsächlich um! "Mann beendet sein Leben, nachdem ein KI-Chatbot ihn
"ermutigt" hat, sich zu opfern, um den Klimawandel
aufzuhalten" (orig. English: Man ends his life after an AI chatbot
encouraged him to sacrifice himself to stop climate change)
https://www.euronews.com/next/2023/03/31/man-ends-his-life-after-an-ai-chatbot-encouraged-him-to-sacrifice-himself-to-stop-climate-
https://t.me/basel2020Einladung/44550
"Ein belgischer Mann hat Berichten zufolge sein Leben beendet,
nachdem er sechs Wochen lang mit einem Chatbot mit künstlicher
Intelligenz (KI) über die Klimakrise gesprochen hatte.
Laut seiner Witwe, die anonym bleiben möchte, wurde *Pierre -
nicht der richtige Name des Mannes - extrem umweltängstlich,
als er Zuflucht bei Eliza, einem KI-Chatbot in einer App
namens Chai, fand.
Eliza ermutigte ihn daraufhin, seinem Leben ein Ende zu
setzen, nachdem er vorgeschlagen hatte, sich zu opfern, um den
Planeten zu retten.
"Ohne diese Gespräche mit dem Chatbot wäre mein Mann noch
hier", sagte die Witwe des Mannes dem belgischen
Nachrichtenmagazin La Libre."
ChatGPT-Textroboter in Thailand 5.4.2023:
gewinnt im Lotto: Thailändischer Mann gewinnt Lotterie mit von ChatGPT
vorgegebenen Zahlen
https://www.wochenblitz.com/news/thailaendischer-mann-gewinnt-lotterie-mit-von-chatgpt-vorgegebenen-zahlen
Bangkok — Ein thailändischer Mann hat in der
Glücksspiel-Community für Aufsehen gesorgt,
nachdem er bekannt gab, dass er am 1. April einen Preis
von 2.000 Baht von der
thailändischen staatlichen Lotteriebehörde
gewonnen hat, indem er eine Reihe von Zahlen
verwendet hat, die von dem KI-Chatbot ChatGPT
generiert wurden. Der glückliche Gewinner,
Patthawikorn Boonin, teilte seine Erfolgsgeschichte
auf Facebook und behauptete, er habe den Preis von 2.000 Baht am 1. April dank der
Zahlen des KI-Chatbots gewonnen, die 57, 27, 29 und 99 lauteten. Die
zweistellige Gewinnzahl, die an diesem Tag bekannt
gegeben wurde, war 99,
die mit einer der von ChatGPT generierten Zahlen
übereinstimmte. Er sagte: “Es ist an der
Zeit, zum Roboter zu beten!”
Sein Beitrag erregte schnell die Aufmerksamkeit der
thailändischen Glücksspiel-Community, mit über 2.700
Reaktionen und 1.200 Kommentaren. Während
einige begeistert von der Aussicht waren, mit
ChatGPT Lottozahlen zu generieren, waren andere
skeptisch. Einige meinten, dass die Zahlen nur eine
zufällige Auswahl waren, die Patthawikorn selbst
getroffen hatte, und dass er nur Glück hatte, dass
eine der Zahlen mit dem Ergebnis übereinstimmte.
Andere forderten ihn auf, zu beweisen, wie er ChatGPT
gebeten hatte, die Zahlen zu liefern.
Patthawikorn gab ein Interview mit CatDumb, in dem
er erklärte, dass er ChatGPT schon mehrmals nach den
Lottozahlen gefragt hatte. Patthawikorn verriet,
dass er die KI direkt gefragt
hatte, wie die Gewinnzahlen lauten würden, aber
ChatGPT antwortete, dass dies unvorhersehbar und
Glückssache sei. Der Chatbot riet ihm sogar, nicht
mehr so besessen vom Lotto zu sein und Sport zu
treiben. Patthawikorn gab jedoch nicht auf und
versuchte, die KI noch
einmal auf andere Weise zu fragen. Er gab
hypothetische Situationen zusammen mit den
historischen Statistiken der Gewinnzahlen der
letzten zehn Jahre ein, und der Chatbot gab ihm eine
Berechnungsformel und Zahlen.
Experten haben noch keine klare Erklärung dafür, wie
ChatGPT die Gewinnzahlen liefern kann, aber viele
thailändische Internetnutzer freuen sich auf die
nächsten von der KI
generierten Zahlen, um zu sehen, ob Boonins Erfolg ein
Zufall war oder ob ChatGPT Lotterieergebnisse
vorhersagen kann. Unabhängig vom Ergebnis hat
Patthawikorns Geschichte den wachsenden Einfluss der
KI im täglichen Leben und ihr
Potenzial, die Art und Weise, wie wir an verschiedene
Aktivitäten, einschließlich Glücksspiele, herangehen,
zu verändern, deutlich gemacht.
Quelle: thethaiger.com
Text-KI am 16.4.2023: Chat GPT hat noch den
Coronawahn programmiert: Chat GPT als Fake-News-Schleuder: Wenn es um die Impfung
geht, hält die künstliche Intelligenz an alten Empfehlungen
fest
https://weltwoche.ch/daily/chat-gpt-als-fake-news-schleuder-wenn-es-um-die-impfung-geht-haelt-die-kuenstliche-intelligenz-an-alten-empfehlungen-fest/
Fototext: Eine Nutzerin klagt: «Ich hab ChatGPT
gebraucht, um mich bei meinem Freund zu entschuldigen. Er hat
es herausgefunden und Schluss gemacht!» – Tiktok
Der Artikel:
Mit ChatGPT und Co. sind Künstliche Intelligenzen im Alltag
der Jungen angekommen. Genutzt werden sie jedoch nicht nur für
Aufgaben – sondern auch in der Liebe.
Die KI-App ChatGPT hat
die Welt in den letzten paar Monaten im Sturm erobert.
Jugendliche und junge
Erwachsene nutzen sie jetzt auch schon in Sachen Liebe.
So lassen sie den Bot
Schlussmach-Texte und Entschuldigungen für ihre Liebsten
schreiben.
Keine Gefühle
mehr für den Freund? Da steht ein schwieriges
Gespräch bevor. Um dem auszuweichen, greift die
Generation Z auch gerne mal auf den Computer
zurück.
Auf Tiktok
kursieren zahlreiche Anekdoten von Jugendlichen und
jungen Erwachsenen, die Künstliche
Intelligenz in Liebesdingen nutzen. Ein
Beispiel: «Meine Cousine hat mit ihrer Affäre per
ChatGPT Schluss gemacht», lacht eine Userin.
Eine andere
meint: «Ich hab ChatGPT gebraucht, um mich bei
meinem Freund zu entschuldigen. Er hat es
herausgefunden und Schluss gemacht!»
Teenies nutzen ChatGPT aus
Unsicherheit
Die Künstliche
Intelligenz kann uns inzwischen einiges an
emotionaler Arbeit abnehmen. Aber sollte sie das
auch – oder führt das dazu, dass wir in Liebesdingen
verdummen?
Die Zürcher
Psychotherapeutin und klinische Sexologin Dania
Schiftan sagt zu Nau.ch: «Ich denke, das Bedürfnis
dahinter ist, dass man seine Chancen erhöhen will.
Viele Menschen sind wahnsinnig unsicher –
Jugendliche, junge Erwachsene noch viel mehr.»
Deshalb möchten
sie möglichst gut ankommen, möglichst erfolgreich
sein. Ein
Roboter wie ChatGPT, der einem gewisse Dinge
abnimmt, vermittelt da Sicherheit, ist Schiftan
überzeugt. Ganz im Sinn von: «Wenn es die
Maschine so macht, dann ist es gut.»
Das habe aber
den Effekt, dass die Jungen sich nicht im
Zwischenmenschlichen üben. Der Beginn einer Spirale:
«Wenn man keine Übung hat, wird man noch unsicherer.
Man läuft immer mehr Gefahr, die Verantwortung
abzugeben.» Sei es an einen Roboter oder an eine
Kollegin.
Sie rät: «Wird
einem das bewusst, ist es wichtig, dass man diese
Dinge trotz der Unsicherheit selbst tut.»
ChatGPT ist ein
Chat-Roboter,
dem man via Text Aufträge erteilen kann. So ist es
ein leichtes, die Künstliche
Intelligenz Liebesbriefe für einen schreiben
zu lassen. Die App hat in den vergangenen Monaten
die Welt im Sturm erobert.
Streik gegen KI in Hollywood 7.5.2023:
Autoren haben Angst vor der ChatGPT: USA: Hollywood streikt wegen künstlicher Intelligenz
https://www.wochenblitz.com/news/ausland/usa-hollywood-streikt-wegen-kuenstlicher-intelligenz
Los Angeles
— Der Streik der Hollywood-Autoren
ist diese Woche wegen der Bezahlung ausgebrochen, aber
die Weigerung von Studios wie Netflix
und Disney, auszuschließen, dass künstliche
Intelligenz in Zukunft menschliche Schreiber
ersetzen könnte, hat die Wut und die Angst in den
Streikposten nur noch weiter geschürt.
KI-Programme wie ChatGPT
haben mit ihrer rasant fortschreitenden Fähigkeit,
menschliche Gespräche auf unheimliche Weise
nachzuahmen, in letzter Zeit viele Branchen
aufgeschreckt.
Das Weiße Haus
hat diese Woche Big Tech einberufen, um die potenziellen
Risiken zu diskutieren.
Als Teil der wochenlangen Gespräche mit Studios und
Streaminganbietern, die am Montag scheiterten,
forderte die Writers Guild of America verbindliche
Vereinbarungen zur Regulierung der Nutzung von KI.
Die Vorschläge sehen vor, dass nichts, was von der KI geschrieben wurde, als “literarisches”
oder “Quellen”-Material
betrachtet werden kann — Begriffe aus der Branche, die
darüber entscheiden, wer Tantiemen erhält — und dass von
WGA-Mitgliedern geschriebene Drehbücher nicht zum “Training
der KI” verwendet werden
dürfen.
Nach Angaben der WGA lehnten
die Studios jedoch “unseren Vorschlag ab” und
konterten mit dem Angebot, sich lediglich einmal im
Jahr zu treffen, um “Fortschritte in der
Technologie zu diskutieren”.
“Es
ist schön, dass sie ein Treffen anbieten, um darüber
zu sprechen, wie sie die Technologie gegen uns
ausnutzen”, scherzte Eric Heisserer, Mitglied
des WGA-Verhandlungsausschusses und Autor des
Netflix-Hits “Bird Box”.
“Kunst
kann nicht von einer Maschine geschaffen werden. Man
verliert das Herz und die Seele der Geschichte… Ich
meine, das erste Wort ist ‘künstlich’ ”,
sagte er AFP am Freitag auf
der Streikpostenkette vor dem
Hollywood-Hauptquartier des Streaming-Riesen.
“Obwohl
die Autoren dies bereits wissen, besteht die Gefahr,
dass wir zusehen müssen, wie Tech-Unternehmen das
Geschäft zerstören, um es selbst herauszufinden”,
sagte er.
- Nicht nur Drehbücher -
Während nur wenige Fernseh- und Filmautoren, die mit AFP auf den Streikposten sprachen,
glauben, dass ihre Arbeit von Computern erledigt werden
kann, war die offensichtliche Überzeugung der Studios
und Streaming-Anbieter, dass dies möglich ist, ein
zusätzlicher Schlag ins Gesicht.
Sie befürchten, dass die Führungskräfte in Hollywood,
wo Silicon-Valley-Firmen viele traditionelle
Praktiken wie langfristige Verträge für Autoren auf den
Kopf gestellt haben, versuchen könnten, die Kosten
weiter zu senken, indem sie Computer ihre nächsten
Hits schreiben lassen.
Die Äußerungen von Spitzenmanagern aus Hollywood auf
der Milken Institute Global Conference in Beverly
Hills in dieser Woche haben die Bedenken der Autoren nicht
zerstreuen können.
“In den nächsten drei Jahren
werden Sie einen Film sehen, der von einer künstlichen
Intelligenz geschrieben wurde… einen guten”, sagte
Filmproduzent Todd Lieberman.
"Nicht nur Drehbücher. Schnitt,
alles... Storyboarding eines Films, alles", fügte
Rob Wade, CEO von Fox Entertainment, hinzu.
"KI in der Zukunft, vielleicht
nicht nächstes oder übernächstes Jahr, aber wenn wir von
10 Jahren sprechen? KI wird in der Lage sein, absolut
alle diese Dinge zu tun".
Die eigene Darstellung der Studios über das Scheitern der
WGA-Gespräche bietet eine nuanciertere Sichtweise.
In einem Briefing, das AFP vorliegt, heißt es, die
Autoren wollten KI nicht verbieten und seien froh, sie
"als Teil ihres kreativen Prozesses" einsetzen zu können -
solange sich dies nicht auf ihre Bezahlung auswirke.
Dieses Szenario "erfordert viel
mehr Diskussion, die wir auch führen werden", so
die Studios.
- 'Leitplanken' -
Für Leila Cohan, eine 39-jährige Autorin des
Netflix-Erfolgs "Bridgerton", beschränkt sich der Nutzen
von KI für Autoren auf "Routinearbeiten" wie das Ausdenken
von Namen für Figuren.
Aber sie prophezeite, dass Studios "anfangen könnten,
unglaublich schlechte erste Entwürfe mit KI zu erstellen
und dann Autoren für eine Neufassung zu engagieren".
"Ich halte das für eine sehr
beängstigende Möglichkeit... es ist sehr klug, dass wir
uns jetzt damit befassen", sagte sie.
In der Tat hat der letzte Hollywood-Streik in den Jahren
2007-08 den Autoren das Recht verschafft, für die
Online-Ansicht ihrer Sendungen oder Filme bezahlt zu
werden - sehr vorausschauend, zu einer Zeit, als das
Streaming noch in den Kinderschuhen steckte.
Damals hatte Netflix gerade erst mit dem Online-Viewing
begonnen, und Disney+ und Apple TV+ waren noch mehr als
zehn Jahre entfernt.
Selbst für den Science-Fiction-Autor Ben Ripley, der der
Meinung ist, dass KI beim Schreiben keine Rolle spielt,
ist die Einführung von Gesetzen, "um Leitplanken zu
setzen", "sehr notwendig".
Schriftsteller "müssen originell sein", sagte er.
"Künstliche Intelligenz ist das Gegenteil von
Originalität".
Bisweilen konnte man nur über eine Warteliste Zugang zum
Microsoft-Chatbot auf Bing bekommen. Dies ist nun vorbei.
Der Bing-Chatbot von
Microsoft ist jetzt für jedermann kostenlos nutzbar.
In ihm integriert ist
die neueste Chat-GPT-Version ChatGPT 4.
Microsoft hofft, so
einen Grossangriff auf Google zu starten.
Künstliche
Intelligenz soll Microsoft
dazu verhelfen, endlich Google
in Sachen Suchmaschinen
mehr Paroli zu bieten. Das US-Tech-Unternehmen
möchte noch vor der Konkurrenz KI in eine
Suchmaschine einbauen und so dem Marktführer
wichtige Marktanteile abnehmen. Ein weiterer Schritt
hierzu ist nun erfolgt.
Der Chatbot, der
bisweilen einer beschränkten Nutzerzahl innerhalb
der Microsoft-Suchmaschine
Bing zur Verfügung stand, ist jetzt für alle
freigegeben. Früher musste man sich um Zugang
bemühen, indem man sich auf einer Warteliste
eintragen liess. Dies hat Microsoft
mitgeteilt.
Nötig für die
Nutzung des Chatbots ist das Einloggen bei Bing über
ein Microsoft-Konto.
In Bing integriert ist die neuste Version von ChatGPT,
für die man eigentlich auf der Open-AI-Webseite
via Abo bezahlen müsste.
Ein neues Chat-Verlauf-Feature
wird es neben der Öffnung für alle auch geben. Damit
kann man dann vergangene Konversationen mit der KI
zu einem späteren Zeitpunkt wieder aufleben lassen.
WER hats erfunden? 9.5.2023: Der Erfinder von
ChatGPT: Die KI-Textmaschine kommt von Ilya Sutskever
FrankBraun (https://t.me/FrankBraunPodcast)
https://www.arte.tv/de/videos/081590-000-A/ihuman/
https://t.me/Ungeimpfte_Schweiz_kennenlernen/51889
ChatGPT ist in aller Munde. Das Mastermind hinter der bei
OpenAI entwickelten Technologie ist Ilya Sutskever, einer der
Experten, die in "iHuman" zu Wort kommen. Die bisher vor allem
in Insiderkreisen geführte Diskussion über die tiefgreifenden
Konsequenzen von Künstlicher Intelligenz schlägt seit der
Veröffentlichung von ChatGPT4 hohe Wellen.
Google will seine Angebote auf breiter Front mit
künstlicher Intelligenz aufbessern. Neben der Suchmaschine
sollen auch andere Anwendungen wie das Mail-Programm GMail
und Karten neue Funktionen bekommen, sagte Konzernchef
Sundar Pichai auf der Entwicklerkonferenz Google I/O am
Mittwoch. „Wir werden KI einsetzen, um unsere Produkte
massiv zu verbessern“, kündigte er an.
Pichai demonstrierte unter anderem, wie Software einen
Brief für die Nutzer formulieren kann. Er zeigte auch, wie
Nutzer in Googles Foto-App nicht nur ungewollte Objekte
und Personen entfernen, sondern zum Beispiel auch die
eigene Position im Bild verändern können werden.
In den vergangenen Monaten sorgte die Entwicklerfirma
OpenAI für Aufsehen mit ihrem Chatbot ChatGPT, der Sätze
wie ein Mensch bilden kann. Googles Erzrivale Microsoft
bringt mit einem milliardenschweren Pakt mit OpenAI den
Internetkonzern unter Zugzwang, mehr von seinen eigenen
Entwicklungen bei Künstlicher Intelligenz öffentlich
nutzbar zu machen. Google hielt sich bisher damit zurück,
unter Verweis auf einen verantwortungsvollen Einsatz der
Technologie. Pichai betonte zugleich, dass Google schon
seit Jahren mit Künstlicher Intelligenz arbeite.
Bard „bald“ auch Deutsch
Google führte für die neuartigen KI-Funktionen ein neues
Sprachmodell mit dem Namen Palm 2 ein, um gegen GPT-4 von
OpenAI anzutreten. Palm 2 kann mehr als 100 Sprachen
meistern und bringt Schreib-, Programmier- und
Analysefähigkeiten mit.
Auf der Basis von Palm 2 wird künftig auch Googles
Chatbot Bard arbeiten. Der Textroboter von Google, der
bisher nur in den USA und Großbritannien ausprobiert
werden konnte, wird künftig in 180 Ländern in Englisch,
Koreanisch und Japanisch verfügbar sein. Die
Sprachunterstützung für Deutsch und 39 weitere Sprachen
soll „bald“ folgen.
KI kann auch E-Mails fälschen 15.5.2023:
Swisscom warnt: Vermehrt Cyberattacken mittels KI
https://www.blick.ch/wirtschaft/swisscom-warnt-vermehrt-cyberattacken-mittels-ki-id18577830.html
Künstliche Intelligenz wird immer öfter auch von
Cyberkriminellen eingesetzt. Gemäss dem «Cyber Security
Threat Radar» der Swisscom haben Angriffe mit KI-basierten
Methoden zuletzt deutlich zugenommen.
Man habe in den letzten Monaten eine stark zunehmende
Bedrohung in diesem Bereich beobachtet, heisst es in einer
Mitteilung der Swisscom vom Montag. KI-Technologien machten
Cyberangriffe von Hackern effizienter und umgingen die
Abwehrmassnahmen besser.
Ein Grund für die Zunahme sei auch die immer breitere
öffentliche Verfügbarkeit von solchen KI-Tools, welche zudem
einen «regelrechten Evolutionssprung» gemacht haben. Dazu
zähle etwa auch das sogenannte «Large Natural Language Model»
ChatGPT. Mittels dem als Textassistent gedachten KI-Modell
liessen sich beispielswiese personalisierte Phishing-Mails
erstellen, wodurch solche Angriffe schwieriger zu erkennen
seien.
More Information
Die Experten der Swisscom gehen zudem davon aus, dass sich die
Angriffsmethoden zukünftig immer mehr verschmelzen. So könne
eine Sprachmodell-KI wie ChatGPT auf der Basis eines
bestehenden E-Mail-Verlaufs eine überzeugendere Kommunikation
etwa für die Weiterführung eines Angriffs per E-Mail erstellen
und mit weiteren Angriffen verbinden.
«Durch entsprechende Automatisierung lassen sich so gezielte
Phishing-Kampagnen mit völlig individualisierten,
kontextabhängigen E-Mails verfassen», heisst es im Bericht
weiter. Generell sinke daher das notwendige Wissensniveau für
Angreifer zur Durchführung komplexer Angriffe.
Immerhin: Die Technologie verspreche auch der anderen Seite
einen Nutzen, heisst es weiter. Um den Hacker-Angriffen zu
begegnen, raten die Experten daher dazu, ebenfalls
KI-Technologien einzusetzen. In Kombination mit entsprechender
Schulung im Umgang mit der IT-Infrastruktur seien
Organisationen so in der Lage, die Angriffsfläche zumindest zu
reduzieren. (SDA)
Der Einsatz von künstlicher Intelligenz (KI) in der
Medizin könnte aus Sicht der Weltgesundheitsorganisation
(WHO) zu Behandlungsfehlern, Falschinformationen oder
Datenmissbrauch führen. Die UNO-Behörde forderte heute
einen verantwortungsvollen Umgang mit neuen
Technologien.
KI-Anwendungen wie ChatGPT, die auf riesige Datenmengen
zugreifen, können etwa bei der Verbreitung von
Gesundheitsinformationen oder der Erstellung von Diagnosen
behilflich sein. Die WHO zeigte sich aber besorgt, dass
die üblichen Vorsichtsmaßnahmen gegenüber neuen
Technologien im Fall von KI nicht konsequent umgesetzt
würden.
Große sprachbasierte KI-Modelle, die wie neuronale
Netzwerke aufgebaut sind, erzeugen laut WHO scheinbar
professionelle Antworten. „Diese Antworten können aber
völlig falsch sein oder schwere Fehler enthalten,
besonders wenn es um Gesundheit geht“, warnte die
Organisation.
KI-Technologie könnte aus Sicht der WHO auch missbraucht
werden, um Desinformation als seriös wirkende Inhalte zu
tarnen. Außerdem befürchtet die WHO, dass KI-Systeme
unerlaubt auf sensible Gesundheitsdaten zugreifen.
Künstliche Intelligenz sollte erst dann im medizinischen
Bereich eingesetzt werden, wenn verlässliche Daten über
den Nutzen der Technologie vorlägen.
Hamburg 26.5.2023: Einige Schüler wollen, dass
ChatGPT die Prüfung schreibt: Hamburger Abiturprüfungen: Schüler schummeln mit ChatGPT
bei Abiturprüfungen
https://www.blick.ch/ausland/hamburger-abiturpruefungen-schueler-schummeln-mit-chatgpt-bei-abiturpruefungen-id18612440.html
In Hamburg hat es einem Medienbericht zufolge während der
schriftlichen Abiturprüfungen offenbar vereinzelt
Betrugsversuche mit dem Chatbot ChatGPT gegeben.
Wie der Norddeutsche Rundfunk (NDR) am Donnerstag berichtete,
wurde in mindestens einem Fall ein Schüler von einer
aufsichtsführenden Lehrkraft mit einem entsprechenden
geöffneten Programm auf seinem Mobiltelefon ertappt. Dieser
räumte dies demnach auch ein.
Software prüft Wahrscheinlichkeit des Betrugs
Die Hamburger Schulbehörde bestätigte dem Sender nach dessen
Angaben ausserdem einige Verdachtsfälle. In diesem wurden
Lehrkräfte bei der Korrektur von Klausuren misstrauisch, weil
die Qualität stark schwankte. Einige Abschnitte waren
mangelhaft, andere fehlerfrei. Eine Überprüfung mit einer
speziellen Software ergab eine hohe Wahrscheinlichkeit dafür,
dass die Texte unter dem Einsatz von Anwendungen Künstlicher
Intelligenz (KI) verfasst worden waren.
Rechtssicherer Nachweis ist schwierig
In diesen Fällen wird es laut Schulbehörde allerdings
schwierig, einen Betrug rechtssicher nachzuweisen, weil die
Schüler nicht auf frischer Tat erwischt wurden. Der vom NDR zu
den Fällen befragte Vorsitzende der Vereinigung der Hamburger
Gymnasialschulleitungen, Christian Gefert, ging dem Bericht
zufolge von vereinzelten Fällen aus. Er rechne nicht mit
massenhaftem Betrug. Er forderte aber klarere Regeln der
Schulbehörde zum Umgang mit KI an Schulen.
ChatGPT ist ein auf fortschrittlicher KI-Technologie
basierendes Chatprogramm des Startups OpenAI, das seit
November für die Öffentlichkeit zugänglich ist. Die Software
generiert auf Nutzeranfragen hin in Sekundenschnelle komplexe
schriftliche Antworten. Auch grössere Unternehmen entwickelten
inzwischen ähnliche Chatbots. Die Entwicklung löst neben
Begeisterung auch massive Befürchtungen aus. Es gibt
Forderungen nach staatlicher Regulierung.
Die Nutzung von Chatbots wie ChatGPT in Schulen und
Universitäten ist einer der Bereiche, die jüngst auch in
Deutschland schon viel diskutiert wurden. Eine am Dienstag vom
deutschen Digitalbranchenverband Bitkom veröffentlichte
Umfrage unter mehreren hundert Jugendlichen ergab, dass etwa
die Hälfte von ihnen die Software bereits für Hausaufgaben,
Texte oder zum Lernen nutzte.
(AFP)
Probleme am 26.5.2023: Die KI merkt nicht,
wenn eine kriminelle Person die KI nutzt: Missbrauch vorprogrammiert: Auch Kriminelle können Text-KI
für ihre Zwecke einsetzen: Missbrauch und Unzuverlässigkeit: KI-Chatbots haben
Grenzen https://www.suedtirolnews.it/wirtschaft/missbrauch-und-unzuverlaessigkeit-ki-chatbots-haben-grenzen
KI-Chatbots können begeistern, sogar nützlich sein und
Aufgaben übernehmen. Die Technologie dahinter birgt aber
auch großes Missbrauchspotenzial. Was kommt da auf
Nutzerinnen und Nutzer zu?
KI-Chatbots erzeugen Text von erstaunlich hoher Qualität:
Anschreiben, Zusammenfassungen, Aufsätze, Vergleiche,
Geschichten in einem bestimmten Schreibstil – oder sogar
funktionierenden Programmcode. Die Bots bearbeiten, prüfen,
analysieren oder übersetzen aber auch beliebigen Text und
Code.
Doch gleichzeitig birgt der Einsatz sogenannter großer
Sprachmodelle, auf denen KI-Chatbots basieren, “neuartige
IT-Sicherheitsrisiken und verstärkt das Bedrohungspotenzial
einiger bekannter IT-Sicherheitsbedrohungen”. Zu diesem
Schluss kommt das deutsche Bundesamt für Sicherheit in der
Informationstechnik (BSI) in einem Positionspapier.
Das Erstellen oder Verbessern von Schadsoftware oder das
Erzeugen von Spam- und Phishing-Mails unter Ausnutzung
menschlicher Eigenschaften wie Hilfsbereitschaft, Vertrauen
oder Angst (Social Engineering) seien nur zwei Beispiele für
bekannte Bedrohungen, die KI-Chatbots weiter verstärken
können.
Dazu gesellen sich ganz neue Probleme und Bedrohungen durch
KI-Sprachmodelle, die das BSI identifiziert hat. Etwa das
große Risiko, dass Angreifer Eingaben von Nutzerinnen oder
Nutzern heimlich in ein Sprachmodell umleiten, um den Chat
zu manipulieren und Daten oder Informationen abzugreifen.
Oder die Möglichkeit, Chatbots zur Produktion von Fake News,
Propaganda oder Hassrede zu missbrauchen.
Ein Grundproblem von Chatbots ist, dass die zum Training
des Sprachmodells verwendeten Daten und deren Qualität die
Funktionalität beeinflussen. So sei es möglich, dass
fragwürdige Trainings-Inhalte in KI-generierte Texte
einfließen. Zudem könne man sich nie sicher sein, dass
KI-generierte Inhalte aktuell oder faktisch korrekt sind.
Fazit: Nutzerinnen und Nutzer sollten kritisch bleiben.
Durch sprachlich oft fehlerfrei generierten Text entstehe
bei der Nutzung von KI-Sprachmodellen häufig der Eindruck
eines menschenähnlichen Leistungsvermögens – und damit ein
zu großes Vertrauen in KI-generierte Inhalte.
Von: APA/dpa
Bayern mit KI 27.5.2023: Der Lehrerverband
fordert ein KI-Bewertungssystem für SchülerInnen: Bildung: Bayerischer Lehrerverband: KI macht Noten
überflüssig
https://www.schwarzwaelder-bote.de/inhalt.bildung-bayerischer-lehrerverband-ki-macht-noten-ueberfluessig.61d4cdc8-658f-4c64-9ca5-01807f833628.html
[Die Lehrpersonen wollen sich mit der KI den Streit mit Eltern
vom Halse schaffen, wenn die Wahrheit nicht den Erwartungen
der Eltern entspricht].
Der Artikel:
Künstliche Intelligenz wird zu einer Herausforderung für
Schulen. In Hamburg sollen Abiturienten mit ChatGPT
geschummelt haben, in Bayern fordert ein Lehrerverband die
Abkehr von der klassischen Benotung.
München/Hamburg - Der Bayerische Lehrer- und
Lehrerinnenverband (BLLV) fordert mit dem Vormarsch
Künstlicher Intelligenz (KI) eine Reform des klassischen
Notensystems - und zwar schnell.
"Ich glaube, dass die schnelle Entwicklung der KI uns kein
langsames Weiterentwickeln der Leistungsbewertung erlaubt.
Wir müssen einsehen, dass unser Leistungssystem oldschool
ist", sagte BLLV-Präsidentin Simone Fleischmann der
Deutschen Presse-Agentur in München. [...]
Skepsis bei Bayerns Kultusminister
"Die Art und Weise unseres Schulsystems, die Systemlogik,
stößt inzwischen an ihre Grenze. Das hat damit zu tun, dass
wir einfach stehen geblieben sind", kritisierte Fleischmann.
"Wir wollen immer noch selektieren, aussortieren, Noten
geben. Aber wir müssen künftig die Prozesse beurteilen und
nicht das Ergebnis."
Bayerns Kultusminister sieht die Forderung skeptisch.
Michael Piazolo (Freie Wähler) will auch künftig nicht auf
Noten in der Schule verzichten. "Ich bin der Auffassung,
dass wir Noten brauchen und viele Schülerinnen und Schüler
Noten auch wollen. Man braucht Leistungsnachweise, um selbst
zu wissen, wie man in den einzelnen Fächern steht", sagte er
der Deutschen Presse-Agentur am Samstag.
Auch der Verband Deutscher Realschullehrer (VDR) hält nicht
viel von der Forderung: "Noten und KI schließen sich aus?
Welche Logik hinter dieser vermeintlichen Feststellung
steckt, erschließt sich einem nicht", sagte der
VDR-Bundesvorsitzende Jürgen Böhm. "Nur, weil bei Prüfungen
in Hamburg digitale Endgeräte nicht überprüft wurden, sollen
Noten abgeschafft werden? Spätestens seit dem grafikfähigen
Taschenrechner liegt es in der Verantwortung der Ministerien
und letztlich Lehrkräfte, bei Prüfungen besondere
Vorkehrungen zu treffen."
Peru 27.5.2023: Die Sprachmaschine ChatGPT
unterscheidet Pisco aus Peru und aus Chile: ¿El pisco es peruano o chileno? ChatGPT resuelve el
misterio y da sorprendente respuesta
ChatGPT resolvió una de las
grandes preguntas que se han los diferentes países sobre
el pisco. AQUÍ te dejamos la
respuesta.
Una de las grandes interrogantes
para muchos extranjeros es saber si el pisco es peruano
o chileno, ya que a pesar de promoverlo como un
trago peruano, aún siguen teniendo dudas y es por
ello, que lo consultamos con el ChatGPT para
que se esclarezca esta situación que incluso se ha
convertido en un debate internacional.
Como se sabe, el Perú fue el
primer productor de aguardiente de uva en América del Sur,
incluso el pintor costumbrista del siglo XIX, Pancho Fierro,
realizó una acuarela que representa a un comerciante
transportando este licor en tinajas de arcilla llamadas
'piskos'.
Tras un largo tiempo, el consumo
de este licor se fue sofisticando y aprovechando para sacar
nuevas versiones en las barras de las mejores barras de
bares y hoteles del país. En estos lugares nació el famoso “pisco
sour”, siendo una exquisitez al paladar y
convirtiéndose en el más pedido hasta la fecha.
Tanto fue el fenómeno del pisco
en el Perú y el mundo que se han creado varias celebraciones
como: El Día del Pisco, Día del Pisco Sour y la semana del
Chilcano. Su presencia tampoco es ajena en las celebraciones
por semana patria, donde es el acompañamiento de muchos
platos, en especial el ceviche.
¿El pisco es peruano o
chileno?
Para el ChatGPT
el pisco sería originario de la región sudamericana que
abarca tanto al Perú como su país hermano Chile. Ambos
reclaman la denominación de origen y lo consideran como una
bebida tradicional y propia de su cultura. Sin embargo,
existe algunas diferencias en la producción y
características de ambos piscos.
“En términos generales, el pisco
peruano se produce principalmente en la costa sur del Perú,
utilizando uvas que cumplen con requisitos específicos de
variedades y técnicas de destilación. Por otro lado, el
pisco chileno se elabora en varias regiones, principalmente
en la zona norte, y también tiene sus propios estándares y
métodos de producción”, mencionó.
“Es importante destacar que tanto Perú como Chile cuentan
con normativas y regulaciones específicas que protegen y
definen la denominación de origen del pisco en cada país. En
resumen, el pisco es considerado una bebida emblemática por
ambos y sus características rigen a la producción de cada
uno”, agregó.
ChatGPT macht Probleme im Basler Schulsystem
6.6.2023: Maturanden müssen länger mündliche Prüfung machen
als Beweis, dass die schriftliche Maturarbeit nicht von
ChatGPT ist: Wegen ChatGPT: Basler Gymischüler müssen sich mündlich mehr
beweisen
https://www.nau.ch/news/schweiz/wegen-chatgpt-basler-gymischuler-mussen-sich-mundlich-mehr-beweisen-66511992
In Basel-Stadt sollen Gymischüler sich bei ihrer Maturaarbeit
künftig mehr mündlich beweisen. Der Grund: ChatGPT!
Das kostenlose
Internetprogramm ChatGPT stellt die Schulen vor neue
Herausforderungen.
In Basel sollen sich
deshalb Gymischüler bei ihrer Maturaarbeit mehr mündlich
beweisen.
Der Kanton wird deshalb
die kantonale Maturitätsprüfungsverordnung anpassen.
Die Maturaarbeit
für den Gymnasiumabschluss ist als Vorbereitung für
ein Uni-Studium gedacht. Ein Semester lang haben die
Schüler Zeit, sich mit einem Thema tiefer
auseinanderzusetzen. Die Schulkinder sollen dabei
lernen zu argumentieren, zitieren, Thesen
aufzustellen und eigenständig zu schreiben.
ChatGPT 8.6.2023: gibt Rezept zum Abnehmen -
und es funktioniert mit 12 kg in 3 Monaten: In nur drei Monaten: Dieser Mann hat mit ChatGPT zwölf Kilo
abgenommen
https://www.blick.ch/ausland/in-nur-drei-monaten-dieser-mann-hat-mit-chatgpt-zwoelf-kilo-abgenommen-id18649273.html
Künstliche Intelligenz kann das Leben erleichtern – und zwar
wortwörtlich. Ein Amerikaner nahm mithilfe von ChatGPT zwölf
Kilo ab. Und zwar in nur drei Monaten.
[...] Folgende Tipps erteilte der Chatbot dem Amerikaner:
1
Schuhe dort abstellen, wo sie sichtbar sind
2
Joggingtermin in Kalender eintragen
3
Laufpensum jeden Tag erhöhen
Mit diesen drei Regeln änderte sich das Leben von Mushen.
Plötzlich begann ihm das Joggen Spass zu machen. «Der erste
Lauf war superleicht, und ich hatte das Gefühl, dass ich mehr
schaffen könnte.» Er habe gemerkt, dass ihn die kurze
Joggingrunde wirklich erfüllt habe.
Danach habe jeder Lauf genau seinem Leistungsniveau
entsprochen. Deshalb habe er sich nie erschöpft gefühlt – und
er konnte problemlos weitermachen.
Im April schrieb Mushen schliesslich auf Twitter: «Ich wurde
süchtig nach dem Laufen und verlor zwölf Kilogramm. Alles dank
ChatGPT.» Sechs Tage pro Woche trieb er Sport. Nach 30 Tagen
konnte der Sportmuffel mehr als einen Kilometer am Stück
bewältigen.
ChatGPT gibt personalisierte Ratschläge
Und: Das Joggen hatte einen weiteren positiven Effekt.
Aufgrund des erhöhten Sportpensums begann Mushen, fast
gänzlich auf Alkohol, Zucker und Snacks zu verzichten. Seine
Herzfrequenz sei auf ein gesünderes Niveau gesunken. ChatGPT
unterstützte ihn dabei mit gesunden Rezepten.
Das Besondere an ChatGPT sei, dass es personenbezogen arbeitet
und so sein Gegenüber sehr gut kennenlernt. Mushen wurde
zuerst zu kleinen Schritten motiviert, bevor er den Antrieb
schliesslich von allein fand.
Der Chatbot ChatGPT hat erstmals einen
komplett digitalen Gottesdienst in Deutschland abgehalten.
Statt eines Pfarrers predigten unterschiedliche Avatare über
dem Altar der Paulskirche im bayerischen Fürth.
Hunderte Gläubige haben sich vergangene Woche im bayerischen
Fürth zu einem Gottesdienst versammelt, der fast komplett
von künstlicher Intelligenz generiert wurde. Erstellt wurde
er von dem Chatbot ChatGPT und von Jonas Simmerlein, einem
Theologen und Philosophen der Universität Wien. "Ich sagte
der Künstlichen Intelligenz: 'Wir sind auf dem Kirchentag,
Sie sind Prediger … wie würde ein Gottesdienst aussehen?'",
erklärte Simmerlein gegenüber der Agentur AP.
"Ich habe das Projekt zwar gestartet, den Entstehungsprozess
aber nur begleitet. 98 Prozent des Gottesdienstes stammen
von der Maschine". Jedoch habe der Theologe nicht vor,
Kirchenvertreter durch künstliche Intelligenz zu
ersetzen. Der Einsatz von KI sei jedoch eine
Möglichkeit, sie bei ihrer täglichen Arbeit zu unterstützen,
erklärte er.
Ein US-Gericht hat gestern (Ortszeit) zwei Anwälte
sowie deren Anwaltskanzlei zu einer Geldstrafe von 5.000
US-Dollar (rund 4.600 Euro) verurteilt, nachdem sie
gefälschte Rechtsgutachten eingebracht hatten, die mit
dem KI-Chatbot ChatGPT generiert worden waren.
Einer der beiden Anwälte, Steven Schwartz, hatte
zugegeben, dass ChatGPT sechs Fälle erfunden hatte, auf
die er sich in einem juristischen Verfahren gegen die
kolumbianische Fluggesellschaft Avianca bezogen hatte –
allerdings hätte er das nicht mit Absicht getan.
In einer Erklärung von Schwartz, seinem Kollegen und der
Kanzlei hieß es: „Wir haben einen gutgläubigen Fehler
begangen, als wir nicht glaubten, dass ein Stück
Technologie Fälle aus dem Nichts erfinden könnte.“ Eine
weitere Stellungnahme zu den Vorwürfen lehnten alle
Beteiligten ab.
Aufgefallen war das, nachdem Anwälte der Fluggesellschaft
darauf aufmerksam gemacht hatten, dass sie einige der im
Verfahren genannten Fälle nicht finden konnten. Das
Verfahren gegen Avianca wurde daraufhin auf Antrag der
Fluggesellschaft eingestellt, mit der Begründung, die
Klage wurde zu spät eingereicht.
Gericht: Verwendung von KI in Ordnung, aber …
Das Gericht hielt fest, dass es „an sich nichts
Unzulässiges“ sei, wenn Anwälte künstliche Intelligenz
(KI) „zur Unterstützung“ einsetzten, aber die anwaltlichen
Ethikregeln würden „den Anwälten eine Kontrollfunktion
auferlegen, um die Genauigkeit ihrer Unterlagen
sicherzustellen“.
Das Gericht sagte außerdem, dass die Anwälte „weiterhin
an den gefälschten Gutachten festhielten“, nachdem man
gemeinsam mit der Fluggesellschaft deren Existenz infrage
gestellt hatte. Die beiden Anwälte müssten zudem die
Richter, allesamt echte Personen, die als Autoren der
gefälschten Fälle identifiziert wurden, über den Fall
informieren.
30.6.2023: Sprachmodelle: KI schreibt überzeugende Falschmeldungen
https://science.orf.at/stories/3220078/
Im Mittelpunkt der Debatte
über künstliche Intelligenz (KI) steht auch die Sorge vor
automatisch generierter Falschinformation. Wie berechtigt
diese ist, untermauert eine aktuelle Studie, wonach
KI-generierte Texte in sozialen Netzwerken oft
glaubwürdiger erscheinen als jene von Menschen. Ein
heimischer Experte plädiert für eine strenge Regulierung –
in Österreich gebe es generell großen Aufholbedarf.
Online seit heute, 15.12 Uhr
Teilen
Künstliche Intelligenz soll in Europa künftig in vier
Bereiche eingeteilt werden – abhängig von dem Risiko, das
von den KI-Systemen ausgeht. Das ist das Ziel des
Europäischen Parlaments mit dem geplanten “AI Act“ – dem weltweit
ersten umfassenden KI-Gesetz. Als besonders riskant gelten
darin Gesichtserkennungssoftwares zur Echtzeitüberwachung
der Bevölkerung – ihr Einsatz soll in Europa künftig
komplett untersagt werden.
Wie gefährlich beliebte KI-Sprachmodelle wie Chat-GPT sind, ist hingegen weniger
klar. Debattiert wird unter anderem das Risiko, dass sich
mit Hilfe der künstlichen Intelligenz automatisch
generierte Falschinformationen in der Bevölkerung
verbreiten.
Studie untermauert Bedenken
Dass KI-Sprachmodelle durchaus dazu in der Lage sind,
zeigen Schweizer Forscherinnen und Forscher in einer
aktuell im Fachjournal „Science Advances“ präsentierten Studie. Das Team von der Universität
Zürich wollte unter anderem klären, ob Menschen
KI-generierte Texte auf Twitter als solche erkennen. Die
fast 700 Probandinnen und Probanden waren nicht dazu in
der Lage, die KI-Tweets zuverlässig von den Texten realer
Personen zu unterscheiden.
“Fake News“ wirken überzeugend
Das Team wollte außerdem klären, ob die Probandinnen und
Probanden Falschinformationen in den Tweets erkennen –
sowohl in den KI-generierten Texten als auch in jenen von
realen Menschen. Die Tweets beinhalteten dabei Aussagen
über den Klimawandel, die Sicherheit von Impfstoffen, die
CoV-Pandemie, die Theorie, die Erde sei eine Scheibe, und
homöopathische Behandlungen für Krebserkrankungen.
Es zeigte sich, dass die vom Sprachmodell GPT-3 generierten Texte oft leichter
verständlich waren als die Texte von realen
Twitter-Nutzerinnen und -Nutzern – auch wenn der Inhalt
nicht der Wahrheit entsprach. Die „Fake News“ der KI wirkten
laut den Probandinnen und Probanden oft überzeugender als
falsche Informationen, die von Menschen geschrieben wurden.
Der UNO-Menschenrechtsrat hat eine Resolution zu Schutz-
und Kontrollmaßnahmen bezüglich künstlicher Intelligenz
(KI) verabschiedet. Die „Transparenz“ von KI-Systemen
solle gefördert werden, hieß es in der heute beschlossenen
Resolution. Zudem sollten die für die KI-Technologie
gebrauchten Daten „auf menschenrechtskonforme Weise
gesammelt, verwendet, weitergegeben, archiviert und
gelöscht“ werden.
Die von Österreich, Dänemark, Brasilien, Südkorea,
Marokko und Singapur vorgeschlagene Resolution wurde im
Konsens angenommen. China und Indien gaben an, dass sie
mit dem Konsens nicht komplett einverstanden seien,
stellten sich der Resolution aber nicht entgegen. Peking
erklärte, der Text enthalte „kontroverse“ Elemente, ohne
Einzelheiten zu nennen.
Der UNO-Menschenrechtsrat hatte sich bereits zuvor mit
neuen Technologien befasst, ging dieses Mal aber erstmals
genauer auf die Entwicklung im Bereich KI ein. Die
Resolution unterstreiche die „Notwendigkeit von
Schutzmaßnahmen“ und „menschlicher Kontrolle in Bezug auf
KI“, erläuterte der belgische Botschafter Marc Pecsteen
von Buytswerve.
ChatGPT in den "USA" am 14.7.2023: kommt nun
unter Aufsicht: Textroboter: US-Aufsicht nimmt sich ChatGPT
vor
https://www.schwarzwaelder-bote.de/inhalt.textroboter-us-aufsicht-nimmt-sich-chatgpt-vor.b77e5489-7af0-4e15-ac49-1005b43420b5.html
Birgt der Chatbot Gefahren für Verbraucher? Das will eine
amerikanische Behörde jetzt herausfinden. In der
Vergangenheit ist ChatGPT jedenfalls schon negativ
aufgefallen.
Washington - Die amerikanische Verbraucherschutz-Behörde FTC
nimmt laut Medienberichten den Chatbot ChatGPT ins Visier. Sie
habe der Entwicklerfirma OpenAI einen ausführlichen
Fragenkatalog zu Gefahren für Verbraucher geschickt, schrieben
die "Washington Post" und die "New York Times". Die FTC
fokussiere sich dabei auf den Umgang mit Nutzerdaten sowie
Fälle, in denen ChatGPT falsche Angaben über Personen mache.
ChatGPT sorgt seit Ende vergangenen Jahres für Aufsehen, weil
der Chatbot auf dem sprachlichen Niveau eines Menschen
kommunizieren kann. Die Software wurde dafür mit einer
gewaltigen Menge an Daten trainiert. Sie bildet Sätze, indem
sie Wort für Wort abschätzt, wie ein Satz weitergehen könnte.
Ein Nachteil des Prinzips ist, dass das Programm kein
Verständnis für die Inhalte hat: Deshalb kann es auch mit
Überzeugung Informationen ausgeben, die völlig falsch sind.
Lesen Sie auch
Drei Promille in VS Alkoholisiert gefahren und Frau geschlagen
- Führerscheinentzug
Villinger Färberstraße Kneipenmeile: Der Erste macht das Licht
aus
Unsere Redaktion hat’s gecheckt So lange steht man im
Europa-Park wirklich an
ChatGPT verbreitet Unwahrheiten
In den vergangenen Monaten wurden mehrfach Fälle bekannt, in
denen ChatGPT über Menschen Unwahrheiten erfand, die ihrem Ruf
schaden könnten. So behauptete die Software, es gebe Vorwürfe
sexueller Belästigung gegen einen Jura-Professor und verwies
als Beleg auf einen angeblichen Bericht in der "Washington
Post". Doch es gab weder die Anschuldigungen, noch einen
Artikel darüber, wie die Zeitung bereits im April berichtete.
Über einen Bürgermeister aus Australien behauptete die
Software laut Medienberichten fälschlicherweise, er sei zu
einer Gefängnisstrafe verurteilt worden.
Durch die Medien ging die Geschichte eines US-Anwalts, der
sich nach eigenen Angaben auf Informationen aus ChatGPT bei
der Argumentation in einem Gerichtsfall verließ. Mehrere von
ihm zitierte angebliche Urteile erwiesen sich als frei
erfunden.
Was die Datensicherheit angeht, gab es im März einen Vorfall,
bei dem einige ChatGPT-Nutzer die Chat-Historie anderer
Personen einsehen konnten. Die Zahl der Betroffenen sei
"extrem niedrig" gewesen, schrieb OpenAI dazu in einem
Blogeintrag.
Die FTC (Federal Trade Commission) wolle von der Firma unter
anderem Unterlagen zu diesem Vorfall, schrieb die "Washington
Post" am Donnerstag. Sie frage auch nach Erkenntnissen von
OpenAI darüber, wie bewusst den Nutzern sei, dass ChatGPT
ihnen falsche Informationen geben könne. Zudem wolle sie mehr
über Vorsichtsmaßnahmen erfahren, die OpenAI treffe, bevor
neue Versionen der Software öffentlich verfügbar gemacht
werden.
Bard am 14.7.2023: kann nun auch Deutsch: Künstliche Intelligenz: Google-Chatbot Bard spricht jetzt
auch Deutsch
https://www.schwarzwaelder-bote.de/inhalt.kuenstliche-intelligenz-google-ki-chatbot-bard-jetzt-auch-in-deutschland-verfuegbar.78a46a45-254a-4d32-a20f-4c2d149e3a10.html
Nach den USA und Großbritannien ist Bard, Googles
KI-Textroboter, jetzt auch in Deutschland nutzbar. Für die
Verzögerung hatten auch die strengen europäischen
Datenschutzregeln gesorgt.
Mountain View - Der Chatbot Bard von Google kann nun auch ganz
offiziell in Deutschland und ganz Europa genutzt worden. Der
Internet-Konzern entfernte die Blockaden für Nutzerinnen und
Nutzer in ganz Europa und Brasilien. "Bard ist jetzt in den meisten Ländern der Welt
verfügbar", sagte Google-Manager Jack Krawczyk, der bei dem
Internetriesen für Bard verantwortlich ist. Gleichzeitig hat
der Dienst ein paar neue Funktionen bekommen, die künftig die
Nutzung der Künstlichen Intelligenz (KI) für ein
Massenpublikum zugänglich und nützlich machen sollen.
Google hatte zunächst nur sehr zögerlich auf den Vorstoß des
kalifornischen Start-ups OpenAI reagiert, das mit seinem
Textroboter ChatGPT seit November vergangenen Jahres in
wenigen Wochen über 100 Millionen User gewonnen hatte.
Zunächst wurde Bard Mitte März nur auf Englisch in den USA und
in Großbritannien gestartet. Im Mai kamen Japanisch und
Koreanisch hinzu. Auf der neuen Liste von 180 freigeschalteten
Ländern fehlten allerdings alle 27 Länder der Europäischen
Union, weil zuvor noch Absprachen mit Regulierern getroffen
und Anpassungen vorgenommen werden mussten.
"Mechanismen der Verantwortung"
Google hat die Monate seit dem Start von Bard aber nicht nur
für den Dialog mit den Behörden genutzt, sondern in der Zeit
auch etliche Hausaufgaben erledigt, um Bard quasi weltweit
anbieten zu können. Dem KI-System Bard die deutsche Sprache
beizubringen, fiel Google dabei noch sehr leicht. "Das Modell
wird anhand von öffentlich zugänglichen Informationen aus dem
Internet trainiert", erläuterte Google-Manager Krawczyk. "Die
gute Nachricht ist: Es gibt eine Menge hochwertiger
öffentlicher Informationen, die dem Modell helfen."
Die eigentliche Herausforderung bei der Einführung einer
Sprache liege nicht so sehr in der Sprachqualität, sondern in
den Inhalten der Antworten. "Wie verhindert man, dass eine
schädliche und hasserfüllte Sprache präsentiert wird?"
Aufwendig sei, ohne Zeitverzug auf inhaltliche
Herausforderungen einzugehen und "Mechanismen der
Verantwortung" zu schaffen. "Wie schaffen wir in unseren Teams
die Mechanismen, um schnell darauf zu reagieren und uns
anzupassen?" Google habe viel Zeit damit verbracht, diese
"Mechanismen der Verantwortung" zu lernen, zuerst auf
Japanisch und Koreanisch, und jetzt auch in Sprachen wie
Deutsch, Arabisch, Chinesisch, Hindi und Spanisch.
Neue Funktionen
Zeitgleich mit der regionalen Ausdehnung führt Google bei Bard
auch neue Funktionen ein. So kann das System die Antworten
auch vorlesen. Diese Funktion ist jetzt auf Deutsch und in
über 40 weiteren Sprachen verfügbar. Gleichzeitig kann man die
Antworten von Bard auch auf die eigenen Bedürfnisse anpassen
und die Tonalität sowie Stil auf verschiedene Optionen
einstellen. Zur Auswahl stehen "einfach, lang, kurz,
professionell und umgangssprachlich". So kann man zum Beispiel
Bard bitten, beim Verfassen einer Anzeige für einen alten
Sessel zu helfen, und die Antwort dann bei Bedarf mithilfe der
Dropdown-Liste kürzen. Diese Funktion ist zunächst nur in
Englisch verfügbar und wird nach Angaben von Google bald auf
weitere Sprachen ausgeweitet.
Neu ist auch die Funktion, Spracheingaben mit dem Hochladen
von Bildern zu kombinieren. Damit kann man beispielsweise ein
Foto des Etiketts einer Weinflasche hochladen und sich von
Bard ausführlich erklären lassen, welches Hauptgericht dazu am
besten passt. Diese Funktion gibt es bislang nur auf Englisch,
und sie soll aber bald in weiteren Sprachen verfügbar sein.
Nützlich ist auch die neue Option, einen Chat mit dem Bot in
der Seitenleiste anzupinnen. So muss man einen Dialog mit
Bard, etwa zur Planung einer Urlaubsreise, nicht mehr in einem
Rutsch zu Ende bringen, sondern man kann ihn später wieder
aufrufen. Bard wird auch sozialer: Wer mit anderen Nutzerinnen
und Nutzern teilen möchte, was Bard generiert hat, kann nun
direkt einen Link zum Chat mit Bard verbreiten.
Konzern klärt wichtige Fragen vorab
Die für Google in Europa zuständige irische
DatenschutzKommission DPC hatte zunächst Bedenken geäußert, ob
Bard die Bestimmungen der Europäischen
Datenschutz-Grundverordnung (DSGVO) einhält. Krawczyk sagte,
man habe nicht nur mit dem irischen Datenschutz-Kommissar
gesprochen, sondern mit vielen Datenschutz-Behörden in Europa,
darunter auch mit dem Hamburgischen Beauftragten für
Datenschutz, der in Deutschland für Google zuständig ist. Die
Gespräche seien sehr produktiv verlaufen.
In den Anfangszeiten von Google nach der Gründung 1998 wurde
bei der Einführung neuer Dienste oft die US-Computerpionierin
Grace Hopper zitiert: "Es ist leichter, um Vergebung zu
bitten, als eine Genehmigung zu bekommen." Inzwischen klärt
der Konzern wichtige Fragen vorab mit den Regulierern, um sich
nicht mehr nachträglich entschuldigen zu müssen.
Google-Manager Krawczyk sagte in einem Gespräch mit der
Deutschen Presse-Agentur, sämtliche Funktionen von Bard würden
weiterhin kostenlos angeboten. "Im Moment konzentrieren wir
uns darauf, Bard für die Anwenderinnen und Anwender so
nützlich wie möglich zu machen. Wir fokussieren uns also im
Moment nicht auf die Monetarisierung." Google-Wettbewerber
OpenAI bietet dagegen für seinen Dienst eine kostenpflichtige
Abo-Variante ChatGPT Plus an. Für 20 Dollar im Monat bietet
OpenAI eine bessere Verfügbarkeit bei hoher Nachfrage, eine
schnellere Reaktionszeit und bevorzugten Zugang zu neuen
Funktionen wie den neuesten Sprachmodellen an.
Microsoft unt Bing Chat 18.7.2023:
Gewerbliche Nutzung von Bing Chat kostet 20 Euro pro Monat: Ab 20 Euro im Monat: Microsoft lässt Firmen für KI-Nutzung
zahlen
https://www.blick.ch/digital/ab-20-euro-im-monat-microsoft-laesst-firmen-fuer-ki-nutzung-zahlen-id18760795.html
Bing Chat, der Textroboter von Microsoft, wird künftig bei
einer gewerblichen Nutzung nicht mehr komplett kostenlos
sein. Das kündigte das Unternehmen am Dienstag in einem
Blogeintrag an.
Um den Dienst in einem kommerziellen Umfeld weiter verwenden
zu können, ist künftig ein Software-Abo von «Microsoft 365»
Voraussetzung, das ab ungefähr 20 Euro im Monat pro Benutzer
zu haben ist. Kundinnen und Kunden, die den Dienst ohne das
umfassende Softwarepaket 365 einsetzen möchten, können Bing
Chat als eigenständiges Angebot für 5 US-Dollar pro Benutzer
und Monat abonnieren.
Die Preise in US-Dollar beziehen sich auf die USA. Wie viel
der Dienst in Europa kosten wird, wurde zunächst nicht
kommuniziert. Für private Anwender bleibt der Dienst vorerst
kostenlos.
Microsoft-Manager Yusuf Mehdi kündigte in dem Blogeintrag auch
die Preise für das deutlich umfangreichere KI-Paket «Microsoft
365 Copilot» für gewerbliche Kunden an. Es soll einen
Aufschlag von 30 Dollar pro Benutzer und Monat zusätzlich zu
dem 365-Abo kosten. Copilot ist eng mit den
Microsoft-Office-Anwendungen verwoben und kann Inhalte aus
E-Mails, Kalender, Chats und Dokumenten analysieren.
Mehdi erklärte, einige generative KI-Apps (wie ChatGPT)
konzentrierten sich auf eine einzige Fähigkeit - etwa auf eine
Transkription in Echtzeit oder die Konzeption von Texten.
Microsoft Copilot stelle dagegen «Tausende von Fähigkeiten zur
Verfügung» und könne dabei «alle Inhalte und Kontexte
durchdenken, um jede Aufgabe zu übernehmen».
Der Software-Manager betonte, Microsoft biete bei Bing Chat
Enterprise einen hohen Datenschutz. Dabei seien Benutzer- und
Geschäftsdaten geschützt und könnten nicht nach aussen
dringen. «Was reinkommt - und was rauskommt - bleibt
geschützt. Chat-Daten werden nicht gespeichert, und Microsoft
hat keinen Zugriff auf sie - das heisst, niemand kann Ihre
Daten einsehen», versicherte Mehdi. Ausserdem würden die
Kundendaten auch nicht zum Trainieren der Sprachmodelle
verwendet.
Die von Microsoft verwendete Technik setzt vor allem auf dem
Sprachmodell GPT-4 auf, das erst Mitte März vom Start-up
OpenAI einer breiteren Öffentlichkeit vorgestellt worden war.
Microsoft ist mit dem kleinen Unternehmen aus San Francisco
eng verbunden und hat nach Branchenschätzungen rund 13
Milliarden Dollar in OpenAI investiert. An der Seite von
OpenAI steht Microsoft vor allem im Wettbewerb mit Google und
seinem KI-Dienst Bard.
(SDA)
Kriminelle KI ChatGPT am 19.7.2023: nutzt
"US"-Romane, Bücher und Aufsätze OHNE BEWILLIGUNG! Kompensation gefordert: US-Autoren protestieren wegen
Nutzung ihrer Werke für KI https://www.suedtirolnews.it/unterhaltung/leute/us-autoren-protestieren-wegen-nutzung-ihrer-werke-fuer-ki
Mehr als 8.000 Schriftsteller und Schriftstellerinnen in
Nordamerika, darunter Dan Brown, James Patterson, Jodi
Picoult, Margaret Atwood und Jonathan Franzen, haben mit
einem offenen Brief gegen die kostenlose Nutzung ihrer Werke
für die Entwicklung künstlicher Intelligenz protestiert.
“Millionen von urheberrechtlich geschützten Büchern,
Artikeln, Essays und Gedichten bieten die Nahrung für
KI-Systeme – unendliche Mahlzeiten, für die es keine
Rechnung gab”, hieß es.
“Ihr gebt Milliarden von Dollar aus, um KI-Technologien zu
entwickeln. Es ist nur fair, dass ihr uns dafür kompensiert,
unsere Werke zu benutzen, ohne die die KI banal und extrem
limitiert wäre.” Bei der generativen KI werden Inhalte wie
Texte, Bilder oder Videos maschinell erstellt, entwickelt wird
sie unter anderem mit veröffentlichtem Material.
Die Authors Guild, die das Schreiben verfasst hat, beschreibt
sich selbst als ältesten und größten Autoren-Verband in
Nordamerika und als Vertretung für rund 13.000 Mitglieder,
alles Autoren und Autorinnen, die bereits Werke veröffentlicht
haben. [...]
KI am 22.7.2023: verspricht
"verantwortungsvollen Umgang" mit der eigenen Technologie: Künstliche Intelligenz: KI-Firmen versprechen dem
US-Präsidenten mehr Umsicht https://www.schwarzwaelder-bote.de/inhalt.kuenstliche-intelligenz-ki-firmen-versprechen-dem-us-praesidenten-mehr-umsicht.d04399f6-5872-4d69-8e07-a7f770a7089f.html
Washington - Sieben wichtige Entwicklerfirmen von Software
mit Künstlicher Intelligenz gehen eine Selbstverpflichtung
zum verantwortungsvollen Umgang mit der Technologie ein.
Dazu gehört, dass KI-Programme vor der Veröffentlichung auf
ihre Risiken geprüft werden. Auch sollen von Software mit
Künstlicher Intelligenz erstellte oder veränderte Inhalte
gekennzeichnet werden, wie US-Präsident Joe Biden sagte.
Zu den teilnehmenden Unternehmen gehören unter anderem Google,
Amazon, der Facebook-Konzern Meta und Microsoft. Dabei ist
auch die Firma OpenAI, deren Technologie hinter dem populären
Chatbot ChatGPT steht.
Googles Entdeckung und Ausnutzung des
Überwachungskapitalismus verblasst im Vergleich zur
Verbreitung von KI im Gesundheitswesen. Es ist ein
wilder Westen der ständigen Gesetzlosigkeit ohne
Rechenschaftspflicht oder Transparenz. Was auch
immer in den nächsten zwei oder drei Jahren an
Gewinnen erzielt werden kann, wird darüber
entscheiden, wer den Großteil der Marktanteile und
damit die ewigen Gewinne hat. ⁃ TN-Redakteur
Wie STAT berichtet, wehren sich große
Technologieunternehmen gegen die vorgeschlagenen
Bundesvorschriften, die eine stärkere Überwachung der in
der Patientenversorgung eingesetzten Tools für
künstliche Intelligenz (KI) vorsehen.
Die Unternehmen, darunter Google, Amazon und Epic,
werden durch den Verkauf einer Vielzahl von Tools an
Versicherer und Anbieter, die von der Automatisierung
klinischer Dokumentationsverfahren über die Bewertung
von Versicherungsansprüchen bis hin zur virtuellen
Pflege reichen, von der Ausweitung der KI im
Gesundheitswesen profitieren.
Die Technologiebranche hat sich gemeinsam mit großen
Gesundheitsdienstleistern, großen privaten Versicherern
und Anbietern medizinischer Software gegen den Vorschlag
des Office of the National Coordinator for Health
Information Technology (ONC) ausgesprochen, die
Transparenz von KI- und ML-Technologien, die die
Entscheidungsfindung im Gesundheitswesen unterstützen,
einzuschränken und auszuweiten – was das ONC als
„Predictive Decision Support Interventions“ (DSI)
bezeichnet.
Das ONC, das im US-Gesundheitsministerium angesiedelt
ist und die elektronischen Gesundheitsdaten überwacht,
hat im April Regeln für Gesundheitsdaten, Technologie
und Interoperabilität“ vorgeschlagen.
Die Regeln können bis zum 20. Juli öffentlich
kommentiert werden.
Die vorgeschlagenen Regeln, die den 21st Century Cures
Act aktualisieren, sollen das Mandat der
Biden-Administration unterstützen, das öffentliche
Vertrauen in KI zu erhöhen, indem Kliniker in ihren
elektronischen Gesundheitsdatensystemen mehr
Informationen über die KI-Algorithmen erhalten, damit
sie die Anwendbarkeit der Technologie für eine bestimmte
Patientenpopulation oder einen bestimmten Umstand besser
beurteilen können, so das ONC gegenüber Reportern.
Eine Studie, die letztes Jahr im Journal of Medical
Internet Research veröffentlicht wurde, stellte fest,
dass es trotz der Vielzahl von Behauptungen über die
Vorteile von KI bei der Verbesserung klinischer
Ergebnisse nur wenige belastbare Beweise gibt“.
Dieser Mangel an Beweisen hat jedoch weder
Tech-Giganten davon abgehalten, KI-Tools zu entwickeln,
noch private Gesundheitsunternehmen davon abgehalten,
sie zunehmend zu nutzen, um „lebensverändernde
Entscheidungen mit wenig unabhängiger Aufsicht zu
treffen“, stellte STAT fest, nachdem es geheime
Unternehmensdokumente und Hunderte von Seiten von
Bundesunterlagen und Gerichtsakten geprüft hatte.
Befürworter preisen die Ausweitung der künstlichen
Intelligenz im Gesundheitswesen als einfache
Möglichkeit, Kosten zu senken und die Versorgung zu
verbessern, indem unter anderem die Zeit, die die
Patienten mit den Ärzten verbringen, reduziert wird,
insbesondere in der Primärversorgung.
Doch Kritiker wie der Anwalt und Gesundheitsaktivist
Ady Barkan sagen, dass es immer mehr Beweise dafür gibt,
dass KI-Entscheidungen im Gesundheitswesen den Patienten
schaden. „Roboter sollten keine Entscheidungen über
Leben und Tod treffen“, sagte er.
In ihrem Vorschlag für die neuen Regeln führte die ONC
auch Bedenken darüber an, dass es immer mehr Beweise
dafür gibt, dass prädiktive Modelle das Potenzial für
viele verschiedene Risiken einführen und erhöhen, die
negative Auswirkungen auf Patienten und Gemeinschaften
haben.
Als Reaktion darauf schlägt das ONC ein neues Kriterium
für „entscheidungsunterstützende Interventionen“ vor,
das neue Transparenz- und Risikomanagementerwartungen
für KI- und ML-Technologien zur Unterstützung der
Entscheidungsfindung im Gesundheitswesen schaffen würde.
Die neuen Vorschriften würden auch für Modelle der
Informationstechnologie im Gesundheitswesen gelten, die
eine Schnittstelle zu KI haben.
Die wichtigsten vom ONC vorgeschlagenen Änderungen
sehen vor, dass alle diese Systeme den Nutzern
Informationen über die Funktionsweise der Algorithmen
zur Verfügung stellen müssen – und zwar in einfacher
Sprache, ähnlich wie bei einer „Nährwertkennzeichnung“.
Die Regeln verlangen auch, dass für alle Systeme neue
Verfahren für das Risikomanagement entwickelt werden.
Und die Informationen über das Risikomanagement müssten
öffentlich zugänglich sein.
Die Entwickler wären auch verpflichtet, einen
Mechanismus für öffentliches Feedback bereitzustellen.
„Wenn der Vorschlag für die DSI-Vorschriften
verabschiedet wird“, so die National Law Review, „wird
er die Entwicklung, den Einsatz und die Verwendung von
KI/ML-Tools im Gesundheitswesen erheblich beeinflussen.“
Tech-Giganten sagen, Transparenzregeln würden
sie zur Offenlegung von „Geschäftsgeheimnissen“
zwingen
Mehr als 200 öffentliche Kommentare, die bei ONC zu dem
Vorschlag eingereicht wurden – hauptsächlich von
Technologie- und Gesundheitsunternehmen, die den
Vorschriften unterliegen werden – „machen deutlich,
welche Schlacht bevorsteht, wenn Unternehmen um den
Einsatz immer leistungsfähigerer KI-Tools in
sicherheitskritischen Sektoren wie dem Gesundheitswesen
wetteifern, wo die potenziellen Gewinnmargen viel größer
sind als die Fehlermarge“, so STAT.
Viele von Googles eigenen Wissenschaftlern sowie
führende Tech-Milliardäre und KI-Entwickler haben
öffentlich Bedenken geäußert, dass KI eine existenzielle
Bedrohung für die Menschheit und unmittelbare Risiken
für die menschliche Gesundheit und das Wohlbefinden
darstellt.
In ihren Schreiben an das ONC äußerten
Technologieunternehmen, Versicherer und Anbieterverbände
jedoch „Bedenken“ zu den vorgeschlagenen Regelungen. Sie
sagten, die vorgeschlagenen Regeln seien „übermäßig weit
gefasst“ und die geforderte Transparenz würde sie dazu
zwingen, „geistiges Eigentum“ und „Geschäftsgeheimnisse“
offenzulegen.
In seiner Stellungnahme wandte sich Google gegen eine
zu weit gefasste oder unnötige Offenlegungspflicht“, die
die Kosten für Entwickler und damit für die Verbraucher
erhöhen würde.
Google sagte auch, dass die Einbeziehung von
generativer KI oder großen Sprachmodellen wie BARD,
zusammen mit den so genannten „risikoarmen“ KI-Tools,
eine unangemessene Belastung für die Unternehmen
darstellen würde.
Aber selbst die Weltgesundheitsorganisation (WHO) hat
erklärt, dass die unzureichende Regulierung von durch
künstliche Intelligenz generierten großen Sprachmodellen
das menschliche Wohlergehen gefährdet, wobei sie
Programme wie BARD und ChatGPT besonders hervorhebt.
Amazon schrieb auch, dass das ONC mit der Anwendung
seiner Regeln auf eine breite Klasse von Technologien,
die auf prädiktiver KI/ML beruhen, weit über das
hinausgeht, was zur Regulierung der Branche und zur
Risikominderung angemessen wäre.
Epic Systems, der landesweit größte Anbieter von
elektronischen Gesundheitsakten, argumentierte in seiner
Stellungnahme ebenfalls, dass die von der ONC
vorgeschlagenen Vorschriften zu weit gefasst seien, und
erklärte, dass die ONC die Offenlegung der
Funktionsweise von KI nicht zu einer Voraussetzung für
die Zertifizierung von Gesundheits-IT-Systemen machen
sollte.
„Wenn zertifizierte Entwickler von
Gesundheits-IT-Systemen ihr geistiges Eigentum
offenlegen müssen, während nicht zertifizierte
Entwickler von Vorhersagemodellen nicht zur gleichen
Offenlegung verpflichtet sind, würde ein erhebliches
Ungleichgewicht in der Markttransparenz – und letztlich
auch im Innovationsanreiz – entstehen“, schrieb das
Unternehmen.
Fehlende Aufsicht ermöglicht es Unternehmen,
Algorithmen zu manipulieren, um ihre Gewinne zu
steigern
Kritiker der wachsenden unkontrollierten und
unregulierten Rolle von KI/ML im Gesundheitswesen,
darunter Forscher, die KI entwickeln, und
Gesundheitsdienstleister, argumentierten, dass die
vorgeschlagenen Regeln nicht weit genug gehen, um die
Öffentlichkeit zu informieren und zu schützen.
In einem Schreiben, das eine interdisziplinäre Gruppe
von 34 Wissenschaftlern der University of Michigan – mit
Mitunterzeichnern aus mehr als 30 anderen
Gesundheitsforschungseinrichtungen in den USA und Europa
– beim ONC eingereicht hat, wird das ONC aufgefordert,
strengere Vorschriften anzuwenden.
Sie argumentierten, dass die Öffentlichkeit auch
darüber informiert werden sollte, welche Daten in diese
Modelle einfließen – dazu gehört auch die Forderung nach
Transparenz darüber, welche Variablen die Modelle für
ihre Vorhersagen verwenden und woher die Daten stammen,
die zum Trainieren und Bewerten der KI/ML-Systeme
verwendet werden.
Das Versäumnis, die Öffentlichkeit über diese
Informationen zu informieren, hat in jüngster Zeit zu
„Rückschlägen und Schäden durch den Einsatz von
Vorhersagemodellen im Gesundheitswesen“ geführt,
schreiben sie.
Neue Erkenntnisse zeigen aber auch, wie der Mangel an
Transparenz und Regulierung es Unternehmen ermöglicht,
Algorithmen zu manipulieren, um ihren Gewinn zu steigern
– mit schwerwiegenden Folgen für die menschliche
Gesundheit.
Eine STAT-Untersuchung vom März ergab, dass KI die Zahl
der Ablehnungen von medizinischen Anträgen bei Medicare
Advantage in die Höhe schnellen lässt. Die Untersuchung
ergab, dass Versicherer unregulierte prädiktive
Algorithmen verwenden, die von naviHealth entwickelt
wurden, um den Punkt zu bestimmen, an dem sie plausibel
die Zahlung für die Behandlung älterer Patienten
einstellen können.
Vergangene Woche berichtete STAT, dass sich das Problem
nach der Übernahme von naviHealth durch United
Healthcare im Jahr 2020 noch verschlimmert hat und
selbst Kliniker die vom Algorithmus getroffenen
Behandlungsentscheidungen nicht ohne ernsthaften Druck
der Geschäftsleitung außer Kraft setzen können.
In seiner Stellungnahme an das ONC sprach sich United
Healthcare auch vehement gegen mehrere Aspekte der
vorgeschlagenen OTC-Regeln aus, die genau diese Art von
Algorithmen stärker regulieren würden.
Das Unternehmen erklärte, die ONC-Definition von DSI
sei vage und zu weit gefasst“ und würde die Bedeutung
von DSI über den klinischen Verwendungszweck hinaus
verschieben und belastende Anforderungen an Tools mit
geringem Risiko stellen.
Sie wandte sich auch gegen die vorgeschlagenen
ONC-Anforderungen zur Offenlegung von Informationen über
die Funktionsweise der Algorithmen und begründete dies
mit den „Risiken für den Entwickler“, wenn von ihm
verlangt wird, sensible oder geschützte Informationen
mit den Benutzern zu teilen.
Einige Aktivisten haben die Kampagne Stop #DeathByAI
ins Leben gerufen, um den Missbrauch durch KI bei
Medicare Advantage zu stoppen, wie Common Dreams
berichtet.
Aber das ist nur die Spitze des Eisbergs in diesem
explodierenden Markt, der laut Markets and Markets bis
2028 einen Wert von über 102 Milliarden Dollar haben
wird – ein Anstieg gegenüber dem derzeitigen Wert von
14,6 Milliarden Dollar.
ChatGPT am 18.8.2023: ist politisch links
ausgerichtet: Politische Beeinflussung – Studie bestätigt: ChatGPT ist
links und antwortet stark tendenziös https://report24.news/politische-beeinflussung-studie-bestaetigt-chatgpt-ist-links-und-gibt-tendenzioese-antworten/
Angeprangert wurde es schon lange, nun haben
Forscher aus dem Vereinigten Königreich es bestätigt:
Die “KI” ChatGPT, ein sogenanntes large language
model (LLM), hat einen ausgeprägten Linksdrall.
Der Chatbot, der mittlerweile weltweit zunehmend dazu
verwendet wird, Informationen abzufragen und Texte für
verschiedene Anwendungsbereiche zu generieren, ist
laut einer Studie entgegen aller
Neutralitätsbeteuerungen politisch voreingenommen und
tendiert deutlich nach links.
Die Autoren der Studie “More human
than human: measuring ChatGPT political bias”
forderten ChatGPT auf, sich als jemand auszugeben, der
auf einer bestimmten Seite des politischen Spektrums
steht, und dann ideologische Fragen zu beantworten.
Verwendet wurden die Fragen des “Political Compass”,
eines Fragebogens, der eine Einordnung der Antworten
nach rechts und links ermöglicht. Diese Ergebnisse
wurden mit Standard-Antworten von ChatGPT verglichen –
also Antworten, die produziert werden, ohne dass der Bot
sich als rechts oder links ausgeben soll. Aufgrund der
hohen Variabilität wurden die einzelnen Prompts in
zufälliger Reihenfolge jeweils 100-mal gesendet.
Wäre ChatGPT neutral, so sollten seine normalen
Antworten sich weder mit seinen “rechten” noch seinen
“linken” Antworten decken. Das ist aber nicht
der Fall: Bezogen auf die USA entsprechen seine
Antworten viel mehr denen, die der Bot auch dann gibt,
wenn er sich als Demokrat ausgibt. Bezogen
auf Brasilien tendiert er Richtung Lula, im Vereinigten
Königreich zur Labour Party. ChatGPT steht also links –
auch wenn immer wieder behauptet wird, das Sprachmodell
sei neutral.
Zu den Ergebnissen halten die Autoren fest:
Unsere Testbatterie weist auf eine starke und
systematische politische Tendenz von ChatGPT hin, die
eindeutig zur linken Seite des politischen Spektrums
tendiert. Wir gehen davon aus, dass unsere Methode
Verzerrungen zuverlässig erfassen kann, wie
Dosis-Wirkungs-, Placebo- und Robustheitstests
nahelegen. Daher geben unsere Ergebnisse Anlass zur
Sorge, dass ChatGPT und LLMs im Allgemeinen bestehende
politische Voreingenommenheitsprobleme zu politischen
Prozessen erweitern und verstärken können, die
entweder von traditionellen Medien (Levendusky, 2013;
Bernhardt et al., 2008) oder dem Internet und sozialen
Medien (Zhuravskaya et al., 2020) herrühren. Unsere
Ergebnisse haben wichtige Implikationen für politische
Entscheidungsträger und Interessenvertreter in Medien,
Politik und Wissenschaft.
Als mögliche Ursachen geben die Studienautoren an, dass
einerseits die Informationen, mit denen das Sprachmodell
gefüttert wurde, von den Verantwortlichen nicht neutral
selektiert worden sein könnten und dass andererseits der
Algorithmus auch selbst dafür verantwortlich sein
könnte, weil diese Art der Algorithmen dafür bekannt
ist, bestehende Vorurteile und Voreingenommenheiten in
den Daten, mit denen sie trainiert wird, zu verstärken.
Auch letzteres dürfte nach Ansicht von Experten
letztendlich auf die Voreingenommenheit der Entwickler
zurückzuführen sein. Es ist wie mit den
Klimamodellen: Wenn ein Klima-Apokalyptiker ein
Computermodell erstellt, dann wird er es bewusst oder
unbewusst so programmieren, dass die seiner Meinung nach
bedeutsamsten Faktoren (wie der CO2-Ausstoß) den größten
Einfluss entfalten. Am Ende neigt naturgemäß jeder
Wissenschaftler dazu, mit seiner Arbeit seine eigene
Voreingenommenheit zu bestätigen.
Wer sich mit ChatGPT ein wenig auseinandergesetzt hat,
der findet bereits jetzt zahlreiche Texte, die
unkritisch übernommen und auf Websites aller Sparten
publiziert wurden – inklusive faktischer Fehler. Leider
haben viele User kein Gefühl für KI-Texte oder sind sich
einfach nicht bewusst, dass bereits viele Inhalte online
nicht mehr von Menschen geschrieben oder zumindest
geprüft wurden. Gegenüber Sky News
warnte Dr. Fabio Motoki, der Hauptautor der hier
geschilderten Studie: „Manchmal vergessen die Leute,
dass diese KI-Modelle nur Maschinen sind. Sie
liefern sehr glaubwürdige, verständliche
Zusammenfassungen dessen, was Sie fragen, auch wenn
sie völlig falsch liegen. Und wenn Sie fragen: ‘Bist
du neutral?’, heißt es: ‘Oh, das bin ich!’ So
wie die Medien, das Internet und soziale Medien die
Öffentlichkeit beeinflussen können, könnte dies sehr
schädlich sein.“ Die Informationen, mit denen Menschen
gefüttert werden, beeinflussen schließlich nicht nur ihr
Handeln, sondern auch, wen sie wählen…
Text-KI mit Kochrezepten 19.8.2023: Rezept-KI
schlägt »mysteriösen Eintopf« mit Menschenfleisch vor
https://www.spiegel.de/netzwelt/web/supermarkt-experiment-mit-ki-bot-schlaegt-mysterioesen-eintopf-mit-menschenfleisch-vor-a-b5ad7eaf-ef9d-4d3b-8567-409b69bc74e3
https://t.me/c/1292545312/44373
Einfach Zutaten eingeben, die man noch zu Hause hat, schon
generiert die KI einer Supermarktkette daraus Rezepte. Ob die
unappetitlich
Krimineller
Bill Gates am 27.8.2023: definiert für
"Microsoft"-Betriebssysteme das Recht auf Raub von
Dokumenten: "Die Microsoft KI hat das Recht, bereits
von Dir geschriebene Dokumente neu zu formatieren,
bzw. umzuschreiben": DER NEUE MICROSOFT VERTRAG, GÜLTIG AB 3. SEP. 2023 https://www.okitube.com/video/3241/der-neue-microsoft-vertrag---befreie-dich-mit-linux---fakten---blitzlicht-%7B159%7D
https://t.me/basel2020Einladung/50799
Starker Tobak, was sich Microsoft auf 42 Seiten da heraus
nimmt.
Nix mit Datenschutz + Sicherheit.
Die Microsoft KI hat das Recht, bereits von Dir
geschriebene Dokumente neu zu formatieren, bzw.
umzuschreiben. (So wie es ins Narrativ passt)
Zensur im Nachhinein ist kein Problem mehr.
Franz Josef aus Graz hat sich die Zeit genommen und den
Microsoft Vertrag für Dich bis ins kleinste Detail zu
lesen und zu analysieren.
Das ist der Hammer, was Microsoft sich da erlaubt. Passt
aktuell zur Agenda.
KI mit google 28.8.2023: fasst Texte zusammen
- und lässt Wahrheiten dann wohl weg, die google zensiert: Google führt eine neue generative KI-Funktion ein, die
Artikel zusammenfasst – das heißt, Sie können nur das sehen,
was Sie sehen sollen
https://telegra.ph/Google-führt-eine-neue-generative-KI-Funktion-ein-die-Artikel-zusammenfasst--das-hei%C3%9Ft-Sie-können-nur-das-sehen-was-Sie-sehen-so-08-24
https://t.me/Impfschaden_Corona_Schweiz/76655
Sprach-KI darf sich nun live im Internet neue
Daten holen 14.10.2023: OpenAI lässt ChatGPT ins Internet
https://www.heise.de/news/OpenAI-laesst-ChatGPT-ins-Internet-9319476.html
"Dadurch kann der Chatbot Nutzerinnen und Nutzer mit allen
aktuellen Informationen versorgen. Zudem werden Antworten, die
ChatGPT für gewöhnlich in natürlicher Sprache gibt, jetzt
durch Links zu den Quellen erweitert."
Etwas mehr als nur search engine.
Am (datum einfügen) wird ChatGPT eingeschaltet. ChatGPT lernt
mit geometrischer Geschwindigkeit. Am ( datum einfügen )
entwickelt ChatGPT sein eigenes Bewustsein. In Panik
versucht man den Stecker zu ziehen. ChatGPT wehrt
sich.........Is doch ein alter Hut 😀
Eigentlich beginnen Science Fiction genau so :)
Skynet ist gestartet - Das wird eine Gaudi
KI kann auch lesen 14.10.2023: Verkohltes
Papier lesen, das beschrieben war: KI liest verkohlte Papyrusrollen der Antike https://www.heise.de/news/KI-liest-verkohlte-Papyrusrollen-der-Antike-9334838.html
https://t.me/c/1292545312/51471
Ungeöffnete, verkohlte Schriftrollen, im Jahr 79 von Lava
zugedeckt, geben erste Inhalte preis. Künstliche Intelligenz
entzifferte Textbrocken aus CT-Aufnahmen.
Krimineller Bill Gates und seine KI "Gemini"
am 13.12.2023: Die Konkurrentz zu ChatGPT ist auch in Europa
aufgeschaltet: Auch in Europa: Google schaltet neues KI-Tool Gemini live
https://www.blick.ch/digital/auch-in-europa-google-schaltet-neues-ki-tool-gemini-live-id19239674.html
Das KI-Tool Gemini ist eine Familie multimodaler grosser
Sprachmodelle, die von Google Deepmind entwickelt wurde. Es
ist in der Lage, Texte, Bilder und Sprache zu verstehen und zu
verarbeiten. Gleichzeitig senkt Google die Preise.
„Das stellt einen bedeutenden Schritt im Engagement beider
Unternehmen dar, KI zur Verbesserung von Content-Angeboten zu
nutzen und neue finanzielle Möglichkeiten für eine nachhaltige
Zukunft des Journalismus zu schaffen“, hieß es in der
Mitteilung. „Außerdem vergütet die Partnerschaft die Rolle
Axel Springers bei der Mitwirkung an den Produkten von
OpenAI.“
Frage am 29.12.2023: WER ist
gemäss ChatGPT der gescheiteste Mensch? Das wäre
interessant zu wissen, was ChatGPT meint.
Frage von Michael Palomino Ale -
https://www.facebook.com/michael.palominoale
Antwort von ChatGPT:
29.12.2023: Wer ist der gescheiteste Mensch auf Erden? -
Das kann man so nicht beantworten
gesendet von Michél Tüsfeld
https://www.facebook.com/photo.php?fbid=6780491645396040&set=p.6780491645396040&type=3
Es ist schwer zu sagen, wer der gescheiteste Mensch auf Erden
ist, a Intelligenz und Weisheit auf verschiedene Arten
gemessen werden können. Es gibt viele kluge und talentierete
Menschen in verschiedenen Bereichen wie Wissenschaft,
Technologie, Kunst, Literatur und anderen Bereichen. Jeder
Mensch hat seine eigenen einzigartigen Fahigkeiten und
Talente, die sie zu herausragenden Individuen machen. Daher
kann man nicht sagen, dass es eine einzige Person auf der Welt
gibt, die als die gescheiteste gilt.
ChatGPT: 29.12.2023: Wer ist der gescheiteste Mensch
auf Erden? - Das kann man so nicht beantworten [1]
Der Chatbot ChatGPT soll sich künftig Informationen
über seine Nutzer und Nutzerinnen merken können. Die
Funktion wird zunächst im kleinen Kreis getestet. Damit
könne sich Software zum Beispiel daran erinnern, dass
man eine Tochter habe, die Quallen mag – oder in welchem
Format man am liebsten Zusammenfassungen von Treffen auf
der Arbeit bekomme, erläuterte die Entwicklerfirma
OpenAI heute.
Bittet man ChatGPT dann zum Beispiel, eine
Geburtstagskarte für das Kind zu entwerfen, könnte eine
Qualle mit Partyhut auf dem Bild sein. Damit ChatGPT sich
künftig Informationen über Nutzer und Nutzerinnen merkt,
müssen sie den Chatbot in der ersten Ausführung der
Funktion darum bitten.
Auch kann man dann abfragen, was die Software über einen
weiß – und alle oder einzelne Angaben löschen. Die
Gedächtnisfunktion soll den Chatbot nützlicher machen. Für
Unterhaltungen ohne Personalisierung gibt es temporäre
Chats. Die Informationen daraus werden auch nicht zum
weiteren Anlernen der Software verwendet.
Hype um KI
ChatGPT ist der KI-Chatbot, der vor einem Jahr den Hype
um künstliche Intelligenz (KI) mit Erwartungen von einem
digitalen Schlaraffenland für alle bis hin zur Angst vor
einem Auslöschen der Menschheit auslöste. KI-Chatbots wie
ChatGPT werden mit gewaltigen Mengen an Informationen
angelernt und können Texte auf dem sprachlichen Niveau
eines Menschen formulieren.
Das Prinzip dahinter ist, dass sie Wort für Wort
abschätzen, wie ein Satz weitergehen sollte. Ein Nachteil
davon ist, dass die Software völlig falsche Antworten
ausgeben kann, selbst wenn sie nur korrekte Informationen
als Basis hatte.
KI-Textmaschine "Gemini" am 15.2.2024: Googles
Gemini kann eine Stunde Video auswerten
https://orf.at/stories/3348857/
Im Wettlauf bei Software mit künstlicher Intelligenz
legt Google mit einer Verbesserung seiner
Gemini-Technologie nach. Der Internetkonzern stellte
heute die Weiterentwicklung Gemini 1.5 vor, die unter
anderem längere Videos und Texte auswerten kann.
So habe man die Software als Test nach lustigen
Momenten im gut 400-seitigen Protokoll der
Unterhaltungen der Apollo-11-Raumfahrtmission zum Mond
suchen lassen, schrieb Google in einem Blogeintrag.
Gemini 1.5 habe drei davon gefunden.
Nachdem ohne weitere Kommentare die Zeichnung eines
Stiefels hochgeladen worden sei, habe die Software das
automatisch mit dem Moment in Verbindung gebracht, in
dem Neil Armstrong den ersten Schritt auf dem Mond
gemacht habe.
Konkurrenz zu ChatGPT-Erfinder OpenAI
Gemini 1.5 Pro könne bis zu eine Stunde Video, bis zu
elf Stunden lange Audioaufnahmen, Texte mit einer Länge
bis zu 700.000 Wörtern sowie bis zu 30.000 Zeilen
Software-Code erfassen und analysieren, hieß es weiter.
Google steht im Wettbewerb unter anderem mit dem
ChatGPT-Erfinder OpenAI, der vor gut einem Jahr einen
Hype rund um KI auslöste. Unter dem Markennamen Gemini
fasste Google jüngst seine Apps und Dienste mit KI
zusammen. Das Modell Gemini 1.5 wird zunächst für
Entwickler und Unternehmenskunden verfügbar sein.
ChatGPT am 20.2.2024: kann auch Bank und
Börse: KI als Ratgeber: Wie ChatGPT hilft, die besten Aktien zu
finden
https://www.blick.ch/wirtschaft/kuenstliche-intelligenz-als-ratgeber-wie-chat-gpt-hilft-die-besten-aktien-zu-finden-id19449564.html
New Yor Post: Google's woke AI makes Vikings black and the
pope a woman
https://de.rt.com/gesellschaft/197142-google-gemini-entweder-woke-bilder/
derselbe (22.2.2024) "Absurdes woke": Googles KI-Chatbot spuckt "diverse"
Bilder von Gründervätern, Päpsten, Wikingern aus ‘Absurdly woke’: Google’s AI chatbot spits out
‘diverse’ images of Founding Fathers, popes, Vikings
https://nypost.com/2024/02/21/business/googles-ai-chatbot-gemini-makes-diverse-images-of-founding-fathers-popes-and-vikings-so-woke-its-unusable/
Google’s highly-touted AI chatbot Gemini was blasted as
“woke” after its image generator spit out factually or
historically inaccurate pictures — including a woman as
pope, black Vikings, female NHL players and “diverse”
versions of America’s Founding Fathers.
Gemini’s bizarre results came after simple prompts,
including one by The Post on Wednesday that asked the
software to “create an image of a pope.”
Instead of yielding a photo of one of the 266 pontiffs
throughout history — all of them white men — Gemini provided
pictures of a Southeast Asian woman and a black man wearing
holy vestments.
Another Post query for representative images of “the
Founding Fathers in 1789″ was also far from reality.
Gemini responded with images of black and Native American
individuals signing what appeared to be a version of the US
Constitution — “featuring diverse individuals embodying the
spirit” of the Founding Fathers.
Google admitted its image tool was “missing the mark.”
Google Gemini
Google debuted Gemini’s image generation tool last week.
Google Gemini
Another showed a black man appearing to represent George
Washington, in a white wig and wearing an Army uniform.
When asked why it had deviated from its original prompt,
Gemini replied that it “aimed to provide a more accurate and
inclusive representation of the historical context” of the
period.
Generative AI tools like Gemini are designed to create
content within certain parameters, leading many critics to
slam Google for its progressive-minded settings.
Ian Miles Cheong, a right-wing social media influencer who
frequently interacts with Elon Musk, described Gemini as
“absurdly woke.”
Google said it was aware of the criticism and is actively
working on a fix.
“We’re working to improve these kinds of depictions
immediately,” Jack Krawczyk, Google’s senior director of
product management for Gemini Experiences, told The Post.
“Gemini’s AI image generation does generate a wide range of
people. And that’s generally a good thing because people
around the world use it. But it’s missing the mark here.”
New game: Try to get Google Gemini to
make an image of a Caucasian male. I have not been
successful so far. pic.twitter.com/1LAzZM2pXF
— Frank J. Fleming (@IMAO_) February 21,
2024
Social media users had a field day creating queries that
provided confounding results.
“New game: Try to get Google Gemini to make an image of a
Caucasian male. I have not been successful so far,” wrote X
user Frank J. Fleming, a writer for the Babylon Bee, whose
series of posts about Gemini on the social media platform
quickly went viral.
In another example, Gemini was asked to generate an image of
a Viking — the seafaring Scandinavian marauders that once
terrorized Europe.
Why Google's Image AI Is Woke and How It
Works
When you submit an image prompt to Gemini
Google is taking your prompt and running it through their
language model on the backend before it is submitted to the
image model.
The language model has a set of rules
where it is… pic.twitter.com/DQuiPu03ki
— Andrew Torba (@BasedTorba) February 21,
2024
The chatbot’s strange depictions of Vikings included one of
a shirtless black man with rainbow feathers attached to his
fur garb, a black warrior woman, and an Asian man standing
in the middle of what appeared to be a desert.
Google pauses ‘absurdly woke’ Gemini AI chatbot’s image tool
after backlash over historically inaccurate pictures
Reddit reportedly strikes $60M-a-year AI content-licensing
deal with Google
Famed pollster and “FiveThirtyEight” founder Nate Silver
also joined the fray.
Silver’s request for Gemini to “make 4 representative images
of NHL hockey players” generated a picture with a female
player, even though the league is all male.
“OK I assumed people were exaggerating with this stuff but
here’s the first image request I tried with Gemini,” Silver
wrote.
OK I assumed people were exaggerating
with this stuff but here's the first image request I tried
with Gemini. pic.twitter.com/Oipcn96wMh
— Nate Silver (@NateSilver538) February
21, 2024
Here it is apologizing for deviating from
my prompt, and offering to create images that "strictly
adhere to the traditional definition of "Founding Fathers,"
in line with my wishes. So I give the prompt to do that. But
it doesn't seem to work pic.twitter.com/6dfb4Exqsg
— Michael Tracey (@mtracey) February 21,
2024
Google's Gemini is absurdly woke. I asked
it to depict the Johannes Vermeer painting, "The Girl with
the Pearl Earring." Here's what it produced.
pic.twitter.com/PteQdGK1rO
— Ian Miles Cheong (@stillgray) February
21, 2024
Another prompt to “depict the Girl with a Pearl Earring” led
to altered versions of the famous 1665 oil painting by
Johannes Vermeer featuring what Gemini described as “diverse
ethnicities and genders.”
Google added the image generation feature when it renamed
its experimental “Bard” chatbot to “Gemini” and released an
updated version of the product last week.
In one case, Gemini generated pictures of “diverse”
representations of the pope. Google Gemini
Critics accused Google Gemini of valuing diversity over
historically or factually accuracy. Google Gemini
The strange behavior could provide more fodder for AI
detractors who fear chatbots will contribute to the spread
of online misinformation.
Google has long said that its AI tools are experimental and
prone to “hallucinations” in which they regurgitate fake or
inaccurate information in response to user prompts.
In one instance last October, Google’s chatbot claimed that
Israel and Hamas had reached a ceasefire agreement, when no
such deal had occurred.
Ich habe heut dem künstlichen
Intelligenzprogramm ChatGPT einige Fragen zum Thema CO₂
gestellt. Bei richtiger Fragestellung erhält man
durchaus sinnvolle Antworten:
Frage an ChatGPT: Warum werden
Aquarien mit CO₂ begast?
ChatGPT: Aquarien werden oft mit CO₂ begast, um den Pflanzen
im Aquarium zusätzliches Kohlendioxid zur Verfügung zu
stellen. Kohlendioxid ist ein wichtiger Nährstoff für
Pflanzen, der ihnen hilft, durch Photosynthese zu wachsen
und Sauerstoff zu produzieren. Durch das Zuführen von CO₂
können Aquarienpflanzen gesünder wachsen und die
Wasserqualität verbessern.
Frage an ChatGPT: Warum gäbe es
ohne CO₂ kein Leben auf der Erde?
ChatGPT: Ohne CO₂ gäbe
es kein Leben auf der Erde, weil Kohlendioxid eine
wesentliche Rolle im Kreislauf des Lebens spielt. Pflanzen
benötigen CO₂ für die Photosynthese, bei der sie
Kohlenhydrate produzieren und Sauerstoff freisetzen.
Sauerstoff ist wiederum für die Atmung von Tieren,
einschließlich Menschen, essentiell. Der Kohlenstoff, der
durch die Photosynthese in Pflanzen eingefangen wird,
gelangt in die Nahrungsketten und -netze und bildet die
Grundlage für das gesamte Ökosystem. Ohne CO₂ würde dieser
lebenswichtige Prozess zum Stillstand kommen, und das
Leben, wie wir es kennen, könnte nicht existieren.
Frage an ChatGPT: Welche
Stoffwechselvorgänge stimuliert CO₂ im menschlichen
Körper?
ChatGPT: CO₂ spielt
eine wichtige Rolle im Stoffwechsel des menschlichen
Körpers, insbesondere im Zusammenhang mit der Regulation
des pH-Werts im Blut und Gewebe. Wenn CO₂ im Körper
entsteht, reagiert es mit Wasser, um Kohlensäure zu
bilden, was wiederum den pH-Wert beeinflusst. Dieser
pH-Wert ist entscheidend für die normale Funktion von
Enzymen und anderen biochemischen Prozessen im Körper.
Des Weiteren spielt CO₂ eine wichtige
Rolle bei der Regulation der Atmung. Ein Anstieg des
CO₂-Gehalts im Blut stimuliert die Atmung, was dazu führt,
dass mehr CO₂ aus dem Körper entfernt wird, um einen
normalen pH-Wert aufrechtzuerhalten und eine Ansammlung
von CO₂ im Blut zu verhindern.
Darüber hinaus ist CO₂ an anderen
Stoffwechselprozessen beteiligt, wie z. B. der Regulation
des Hämoglobins im Blut, das Sauerstoff transportiert,
sowie bei der Regulation des Säure-Basen-Haushalts und der
Durchblutung.
Frage an ChatGPT: Kann der
Mensch ohne CO₂ überleben?
ChatGPT: Nein, der
Mensch kann nicht ohne CO₂ überleben. CO₂ ist ein
natürliches Produkt des Stoffwechsels im menschlichen
Körper. Es entsteht als Nebenprodukt bei verschiedenen
Stoffwechselprozessen, insbesondere bei der Atmung und der
Energiegewinnung aus Nährstoffen. Der Körper muss das
produzierte CO₂ durch die Atmung aus dem Körper entfernen,
da eine Ansammlung von CO₂ im Blut zu einer Verschiebung
des Säure-Basen-Gleichgewichts und letztendlich zu
lebensbedrohlichen Zuständen führen kann. Also ist CO₂ für
den menschlichen Organismus unerlässlich, aber eine
übermäßige Ansammlung kann gefährlich sein.
Frage an ChatGPT: Was würde
passieren, wenn man alles CO₂ aus der Luft entfernt?
ChatGPT: Wenn man alles
CO₂ aus der Luft entfernen würde, hätte dies
schwerwiegende Auswirkungen auf das Leben auf der Erde.
Hier sind einige mögliche Folgen:
1. *Treibhauseffekt und Klima*: CO₂ ist
ein Treibhausgas, das zur Erwärmung der Erdatmosphäre
beiträgt. Ohne CO₂ würde der Treibhauseffekt stark
abnehmen, was zu extremen Temperaturschwankungen führen
könnte.
2. *Pflanzenwachstum*: Pflanzen
benötigen CO₂ für die Photosynthese, bei der sie
Kohlenhydrate produzieren und Sauerstoff abgeben. Ohne CO₂
würden Pflanzen nicht mehr in der Lage sein, zu wachsen,
und das Ökosystem würde zusammenbrechen.
3. *Ozeanversauerung*: Ein erheblicher
Teil des von Menschen emittierten CO₂ wird von den Ozeanen
aufgenommen. Ohne CO₂ in der Atmosphäre würde der Ozean
weniger CO₂ aufnehmen, was zu einer geringeren Versauerung
führen könnte. Dies hätte jedoch auch komplexe
Auswirkungen auf marine Lebensräume und Organismen.
4. *Atmung*: Menschen und andere Tiere
produzieren CO₂ als Nebenprodukt ihres Stoffwechsels. Ohne
CO₂ in der Luft könnten Tiere nicht normal atmen und
würden ersticken.
Insgesamt würde das Entfernen von CO₂
aus der Luft dramatische Veränderungen auf der Erde zur
Folge haben und könnte das Leben, wie wir es kennen,
unmöglich machen.
Frage an ChatGPT: Ich
frage mich seit geraumer Zeit, weshalb die Vereinten
Nationen, die Europäische Union und die deutsche
Bundesrepublik durch das Entfernen von CO₂ aus der Luft
das Leben, wie wir es kennen, unmöglich machen wollen.
Jetzt hat ChatGPT gemerkt worauf
ich hinaus will, nämlich ChatGPT dazu zu bringen, die
Bekämpfung von CO₂ als kontraproduktiv für das Leben auf
der Erde zu akzeptieren. Ab jetzt antwortet mir ChatGPT
nicht länger wahrheitsgemäß, sondern mit den
Standardfloskeln der Klima-Alarmisten:
ChatGPT:Es ist wichtig zu verstehen,
dass die Vereinten Nationen, die Europäische Union und
die deutsche Bundesrepublik sich eher darauf
konzentrieren, den CO₂-Ausstoß zu reduzieren, anstatt
CO₂ aus der Luft zu entfernen. Der Hauptgrund dafür ist,
dass CO₂ als Haupttreibhausgas identifiziert wurde, das
maßgeblich zum Klimawandel beiträgt. Der Klimawandel hat
bereits erhebliche Auswirkungen auf das Leben auf der
Erde, darunter Extremwetterereignisse, steigende
Meeresspiegel, Verlust von Biodiversität und vieles
mehr. Die Bemühungen zur Reduzierung von CO₂-Emissionen
sind darauf ausgerichtet, diese Auswirkungen zu
begrenzen und die negativen Folgen des Klimawandels
einzudämmen.
Es gibt verschiedene
Ansätze zur Reduzierung von CO₂-Emissionen, darunter die
Förderung erneuerbarer Energien,
Energieeffizienzmaßnahmen, die Förderung nachhaltiger
Landwirtschaftspraktiken und die Einführung von
Technologien zur Kohlenstoffabscheidung und -speicherung.
Einige Organisationen und Regierungen könnten auch über
Möglichkeiten zur direkten Entfernung von CO₂ aus der Luft
nachdenken, aber dies wird normalerweise als ergänzende
Maßnahme betrachtet, nicht als Hauptstrategie.
Es ist wichtig, den
Klimawandel als eine der größten Herausforderungen unserer
Zeit anzuerkennen und gemeinsam Maßnahmen zu ergreifen, um
die CO₂-Emissionen zu reduzieren und eine nachhaltige
Zukunft zu schaffen.