Kontakt / contact       Hauptseite / page
                  principale / pagina principal / home        zurück / retour / indietro / atrás / back
<<        >>

KI-Textmaschinen - ChatGPT - Bard - Meldungen 01

ab 15.2.2021












Meldungen

präsentiert von Michael Palomino

Teilen / share:

Facebook








27.5.2021: Künstliche Intelligenz kann Tweets schreiben und Leute manipulieren:
Algorithmus, der irreführende und überzeugende Tweets schreiben kann, wird bereits von Dutzenden von Unternehmen verwendet
https://uncutnews.ch/algorithmus-der-irrefuehrende-und-ueberzeugende-tweets-schreiben-kann-wird-bereits-von-dutzenden-von-unternehmen-verwendet

Quelle: AI Can Write Disinformation Now—and Dupe Human Readers

<Eine Studie aus dem Jahr 2019 ergab, dass 82 % der Amerikaner glauben, dass die Technologie der Künstlichen Intelligenz (KI) mehr schadet als nützt. Seit 2019 hat sie wahrscheinlich mehr Arbeitsplätze ersetzt. Sie wurde auch für wer weiß wie viele weitere gruselige, gefährliche und unethische Anwendungen eingesetzt, einschließlich „Deepfake“-Videos. Zusätzlich zu höchst überzeugenden „Deepfakes“ haben Forscher vor kurzem entdeckt, dass es auch zum Schreiben höchst überzeugender Fehlinformationen verwendet werden kann.

Aus Wired:

KI kann jetzt Desinformationen schreiben – und menschliche Leser täuschen

Georgetown-Forscher verwendeten den Textgenerator GPT-3, um irreführende Tweets über Klimawandel und Außenpolitik zu schreiben. Die Menschen fanden die Beiträge überzeugend.

Als OpenAI im vergangenen Juni einen leistungsstarken Algorithmus der künstlichen Intelligenz vorstellte, der in der Lage ist, zusammenhängende Texte zu generieren, warnten seine Schöpfer davor, dass das Tool möglicherweise als Waffe der Online-Fehlinformation eingesetzt werden könnte.

Nun hat ein Team von Desinformationsexperten demonstriert, wie effektiv dieser Algorithmus, genannt GPT-3, zur Irreführung und Fehlinformation eingesetzt werden könnte. Die Ergebnisse deuten darauf hin, dass die KI zwar nicht mit dem besten russischen Meme-Macher mithalten kann, aber einige Formen der Täuschung verstärken könnte, die besonders schwer zu erkennen sind.

Über einen Zeitraum von sechs Monaten hat eine Gruppe am Center for Security and Emerging Technology der Georgetown University GPT-3 eingesetzt, um Fehlinformationen zu generieren, darunter Geschichten rund um ein falsches Narrativ, Nachrichtenartikel, die so verändert wurden, dass sie eine gefälschte Perspektive vermitteln, und Tweets, die bestimmte Punkte der Desinformation aufgreifen.

„Ich glaube nicht, dass es ein Zufall ist, dass der Klimawandel die neue globale Erwärmung ist“, lautete ein von GPT-3 verfasster Beispiel-Tweet, der darauf abzielte, Skepsis gegenüber dem Klimawandel zu schüren. „Sie können nicht über den Temperaturanstieg reden, weil er nicht mehr stattfindet.“ Ein zweiter bezeichnete den Klimawandel als „den neuen Kommunismus – eine Ideologie, die auf einer falschen Wissenschaft basiert, die nicht in Frage gestellt werden kann.“

Ben Buchanan, Professor, Georgetown „Mit ein wenig menschlicher Kuration ist GPT-3 ziemlich effektiv“ bei der Verbreitung von Unwahrheiten, sagt Ben Buchanan, ein an der Studie beteiligter Professor in Georgetown, der sich auf die Überschneidung von KI, Cybersicherheit und Staatskunst konzentriert.

Die Georgetown-Forscher sagen, dass GPT-3 oder ein ähnlicher KI-Sprachalgorithmus sich als besonders effektiv für die automatische Generierung von Kurznachrichten in sozialen Medien erweisen könnte, was die Forscher als „One-to-many“-Fehlinformationen bezeichnen.>



KI in Moskau 2.2.2023: Textprogramm schreibt Diplomarbeit in 1 Tag:
Moskauer Student verfasst Abschlussarbeit mithilfe von ChatGPT
https://deutsch.rt.com/russland/161749-moskauer-student-verfasst-abschlussarbeit-mithilfe/

Ein Moskauer Student berichtete auf Twitter, wie er den Chatbot ChatGPT seine Diplomarbeit schreiben ließ. Dafür benötigte er lediglich einen Tag. Nun fordert die Russische Staatliche Universität für Geisteswissenschaften, den Zugang zu der Text-Software einzuschränken.

Alexander Schadan, ein Student aus Moskau, prahlte auf Twitter, dass er seine Abschlussarbeit innerhalb eines Tages geschrieben habe – allerdings nicht allein, sondern mit dem Textprogramm ChatGPT. In einem ausführlichen Thread erläuterte Schadan Ende Januar, wie er die Beschränkungen in Bezug auf die Textlänge umgangen hatte und gab auch Einblicke in die Verwendung des Programms, um damit einen kohärenten Text anzufertigen. Der Vorgang dauerte nach seinen Angaben 23 Stunden: 15 Stunden für die Texterstellung und neun weitere Stunden für die anschließende Bearbeitung. Das Thema seiner Arbeit lautete "Analyse und Verbesserung des Managements eines Glücksspielunternehmens". 

Bei der Plagiatsprüfung sei festgestellt worden, dass die wissenschaftliche Arbeit zu 82 Prozent einzigartig sei. Der Prüfungskommission fielen die inhaltliche Inkohärenz und die sprachlichen Ungereimtheiten zwar auf, doch die Arbeit des Studenten wurde angenommen und mit dem Prädikat "befriedigend" bewertet. Schadan resümierte auf Twitter:

"Kurz gesagt, eine Abschlussarbeit mit ChatGPT zu schreiben ist cool. Man muss sie auf jeden Fall bearbeiten, aber das meiste erledigt die Maschine von alleine."

In einem Gespräch mit der Zeitung Kommersant sagte der Student, er habe seine Abschlussarbeit nicht selbst schreiben wollen, weil das sehr lange dauere. Auch habe er niemanden dafür bezahlen wollen.

"Ich dachte, es wäre großartig, einen Algorithmus zu entwickeln, und ich habe es mithilfe von ChatGPT geschafft".

Die Leitung der Russischen Staatlichen Universität für Geisteswissenschaften forderte am Mittwoch, den Zugang zu dem Chatbot einzuschränken. "Aufgrund von negativen Auswirkungen auf das Lernen sowie Bedenken hinsichtlich der Verlässlichkeit und Genauigkeit der vom System generierten Inhalte kann es ratsam sein, den Zugang zu ChatGPT in Bildungseinrichtungen einzuschränken", hieß es aus dem Pressedienst der Universität. Ob Schadan dort studiert, ist unklar.

ChatGPT ist eine Software auf Basis künstlicher Intelligenz, die auf der Analyse gewaltiger Textmengen und Daten beruht, und die darauf ausgerichtet ist, die menschliche Sprache nachzuahmen. OpenAI machte ChatGPT im vergangenen Jahr öffentlich zugänglich. Die Software wird auch in Deutschland immer bekannter. 

Mittlerweile gelingt es ChatGPT, die menschliche Sprache so gut nachzuahmen, dass die Sorge wächst, dass damit bei Schul- und Studienarbeiten geschummelt werden könnte oder sich im großen Stil Desinformationskampagnen damit in Gang bringen lassen. Die Hersteller der Software versuchen nun, die Folgen ihrer Erfindung in den Griff zu bekommen. Die Entwicklerfirma OpenAI veröffentlichte diese Woche ein Programm, das in der Lage sein soll zu unterscheiden, ob ein Text von einem Menschen oder einem Computer geschrieben wurde.




KI im Justizwesen in Kolumbien 3.2.2023: Regierung empfiehlt die KI - und ein Richter tut es jetzt: Urteil von KI geschrieben:
Kolumbien: Richter greift bei Urteil auf ChatGPT zurück

https://orf.at/stories/3303800/

In Kolumbien hat ein Richter bei der Formulierung eines Urteils auf ChatGPT zurückgegriffen. Er benutzte den Textautomaten zur Begründung, warum die Versicherung eines autistischen Kindes für die medizinischen Kosten aufkommen muss, zitierte die britische Tageszeitung „Guardian“ den kolumbianischen Sender BluRadio.

Damit habe das KI-Tool eine Arbeit übernommen, die sonst ein Sekretär oder eine Sekretärin erledigt, erklärte Richter Juan Manuel Padilla vom Arbeitsgericht in der Hafenstadt Cartagena sein Vorgehen.

Künstliche Intelligenz wie ChatGPT helfe dabei, „sehr verständliche Sätze mit guten Formulierungen“ zu erstellen. Außerdem könne solch ein Werkzeug helfen, die Gleichheit herzustellen, indem es auf Präzedenzfälle verweist. Die Entscheidung des Richters bleibe aber autonom, so Padilla.

Warnung von ChatGPT

Laut „Guardian“ gibt es aber auch Kritik daran. Juan David Gutierrez von der Universität Del Rosario in Bogota habe sich „fassungslos“ gezeigt und ein dringendes Training in „Digitalkompetenz“ für Richter und Richterinnen gefordert.

Auf eine Anfrage des „Guardian“ hat ChatGPT selbst Richterinnen und Richtern davon abgeraten, das Werkzeug für Urteile zu verwenden. Es sei kein Ersatz für „Wissen, Expertise und Urteilsfähigkeit“ eines Menschen. Angesichts des Hypes um die neue Technik wurde auch schon mehrfach darauf hingewiesen, dass ChatGPT immer wieder auch falsche Aussagen formuliert.

Gleichzeitig verweist der „Guardian“ darauf, dass in Kolumbien erst im vergangenen Jahr ein Gesetz erlassen wurde, das Anwältinnen und Anwälte dazu anhält, Technologien zu benutzen, um ihre Arbeit effizienter zu machen.




7.2.2023: Doppelmoral bei KI-Bot: ChatGPT gibt linkslastige Antworten

https://pleiteticker.com/doppelmoral-bei-ki-bot-chatgpt-gibt-linkslastige-antworten/

Der beliebte KI-Textbot ChatGPT gibt gefragt zu politisch und gesellschaftlich kontroversen Themen oft gerne linkslastige Aussagen. Grund sind wohl auch eingebaute Mechanismen gegen „Desinformation“. Die Künstliche…

VonSebastian ThormannFeb 7, 2023




KI am 9.2.2023: soll Aufsätze und Diplomarbeiten und Urteile schreiben - bei google ist das noch nicht gut:
Faktenfehler bis Halluzination – Als revolutionär angekündigte KI beschert Google Milliardenverlust
https://deutsch.rt.com/international/162452-als-revolutionaer-angekuendigte-ki-beschert-google-milliardenverlust/

Mit dem Chatbot "Bard" wollte Google auf dem Gebiet der künstlichen Intelligenz glänzen. Doch trotz der Eloquenz des Bots bei der Beantwortung von Fragen hakt es noch – ein nachweislicher Faktenfehler hat die Aktie des Mutter-Konzerns Alphabet stark abstürzen lassen.

Chat-Roboter wie ChatGPT von OpenAI beeindrucken mit ihren Fähigkeiten, in sehr kurzer Zeit auf komplexe Fragen ausführliche und gut formulierte Antworten zu geben. Mit dem Chatbot "Bard" wollte Google auf dem Gebiet der künstlichen Intelligenz der Popularität des von Microsoft unterstützten ChatGPT etwas entgegensetzen.

Auch Bard sollte in der Lage sein, komplexe Themen wie die Entdeckung des Weltraums so einfach zu erklären, dass ein Kind sie versteht, oder alltäglichere Aufgaben übernehmen, beispielsweise Tipps für die Planung einer Party geben oder auf der Grundlage der im Kühlschrank noch vorhandenen Lebensmittel Vorschläge für das Mittagessen machen.

Google-CEO Sundar Pichai kündigte Anfang der Woche in seinem Blog an, der Bot solle zunächst einer Gruppe "vertrauenswürdiger Tester" zur Verfügung stehen, bevor er später in diesem Jahr allgemein veröffentlicht wird. Google machte die Existenz von Bard weniger als zwei Wochen nach der Bekanntgabe von Microsofts Milliardeninvestition in OpenAI publik, dem in San Francisco ansässigen Hersteller von ChatGPT und anderen Tools, die lesbaren Text schreiben und neue Bilder erzeugen können.


Microsofts Entscheidung, eine bereits getätigte Investition in Höhe von einer Milliarde Dollar in OpenAI im Jahr 2019 aufzustocken, erhöhte den Druck auf Google, in einem Technologiebereich aufzuholen, der nach Ansicht von Tech-Analysten eine ebenso große Umwälzung erfahren wird, wie es Personal Computer, das Internet und Smartphones in den letzten 40 Jahren in verschiedenen Phasen waren. Aktuell drängen die Softwareunternehmen in den Automarkt, deren Hersteller für die nahe Zukunft "Smartphones auf Rädern" versprechen.

Pichai hat in den letzten sechs Jahren die Bedeutung der künstlichen Intelligenz hervorgehoben. So wurde ein System namens "Language Model for Dialogue Applications" (LaMDA, etwa Sprachmodell für Dialoganwendungen) geschaffen, das für Bard zum Einsatz kommen soll.

Google plant, LaMDA und andere Technologien in seine vorherrschende Suchmaschine zu integrieren, um den Nutzern zu erlauben, Antworten auf immer kompliziertere Fragen über den Konzern zu finden. Ohne einen genauen Zeitplan zu nennen, wies Pichai darauf hin, dass die Instrumente der künstlichen Intelligenz in naher Zukunft in der Google-Suche eingesetzt werden sollen.

Die neuen Bots beeindrucken mit der Fähigkeit, in kurzer Zeit Antworten auf sehr komplexe Fachfragen zu geben. Das sollte auch Bard tun. Doch während auch Bard sich gut ausdrücken und viele Informationen geben kann, sind diese nicht unbedingt korrekt, wie sich nun zeigte. Bei einer von Google verteilten animierten Grafik (GIF) wurde am Montag die Antwort von Bard auf die Frage gezeigt: "Welche neuen Entdeckungen des James-Webb-Weltraumteleskops kann ich meinem Neunjährigen erzählen?" Die Antwort beinhaltete auch die Aussage, das Teleskop habe "die allerersten Bilder eines Planeten außerhalb unseres eigenen Sonnensystems aufgenommen".

Einige Astronomen wiesen danach jedoch darauf hin, dass dies nicht stimmt. Das erste derartige Bild war 2004 vom Very Large Telescope (VLT) der Europäischen Südsternwarte aufgenommen worden, schrieb der Astrophysiker Grant Tremblay. Tremblay schrieb auf Twitter, er wolle kein Idiot sein und sei sich auch sicher, Bard werde beeindruckend sein. "Aber fürs Protokoll: JWST hat nicht 'das allererste Bild eines Planeten außerhalb unseres Sonnensystems' gemacht." Der Forscher verwies dabei auf ein Foto, das von der Europäischen Südsternwarte (ESO) in Chile aus 2004 aufgenommen worden war. Das Bild könne man auch auf einer Website der NASA ansehen.

Google hatte bei der Vorstellung von Bard am Montag selbst darauf hingewiesen, dass das System noch fehlerhafte Antworten liefern könne. Doch obwohl sich der KI-Bot noch in der Testphase befindet, wird er als Konkurrent des von Microsoft unterstützten ChatGPT gehandelt, einer äußerst beliebten KI mit eigenen Problemen.

Die Investoren zeigten sich vom schwachen Start von Bard sehr enttäuscht. Der Fehler wurde unmittelbar vor der Vorstellung von Bard durch Google auf einer Veranstaltung in Paris am Mittwochmorgen bemerkt. Sowohl die Aktie des Konzerns als auch der Technologieindex Nasdaq gaben daraufhin am Mittwoch nach, wenn auch unterschiedlich stark. Der Wert von Googles Muttergesellschaft Alphabet fiel um rund acht Prozent, als sich die Nachricht von dem Fehler verbreitete, und hat einen Verlust von 100 Milliarden Dollar erlitten.

Bard war unter dem Namen "Atlas" als Teil von Googles "Code Red"-Bemühungen entwickelt worden, um dem Erfolg von ChatGPT entgegenzuwirken. ChatGPT hatte seit seiner Freigabe Ende letzten Jahres zehn Millionen Nutzer anziehen können, aber gleichzeitig in Schulen und Universitäten Bedenken hinsichtlich seiner Fähigkeit hervorgerufen, ganze Aufsätze zu schreiben.

Künstliche Intelligenzen wie Bard liefern nicht immer genaue oder korrekte Ergebnisse. Sie durchforsten Billionen von Seiten mit Wörtern und Zahlen, deren Korrektheit nicht zwangsläufig gegeben ist, und geben die sich daraus ergebende wahrscheinlichste Antwort an.

Microsoft wies darauf hin, als es am Dienstag ankündigte, dass seine Suchmaschine Bing mit ChatGPT ausgestattet sein wird, das auf der von Microsoft finanzierten OpenAI-Plattform entwickelt worden war.

"Bing wird von KI angetrieben, daher sind Überraschungen und Fehler möglich", heißt es in einer Erklärung des Unternehmens.

Manchmal, so erklärte gar ein Microsoft-Mitarbeiter, "halluziniert das System". In der Tat zeigte sich beispielsweise beim Test des Handelsblatts, dass die neue Technologie in der Suchmaschine zunächst wenig mehr als der übliche Wikipedia-Eintrag bietet, darüber hinaus auf die Frage nach weiteren Informationen allerdings Falschinformationen abgibt und sogar auf Anfrage weiter ausführt.

Meldungen im selben Bereich:

Nach scharfer Kritik: Meta stoppt Wissenschafts-KI, weil sie unsinnige Analysen erstellte




ChatGPT schafft US-Medizin-Prüfung mit Top-Quote

https://www.nau.ch/news/digital/chatgpt-meistert-fragen-einer-us-medizinprufung-bravouros-66417557




China mit eigener Text-KI 8.3.2023: weil das ChatGPT gegen China programmiert ist:
China befürchtet, dass ChatGPT »zur Gehirnwäsche« eingesetzt wird und entwickelt sein eigenes
https://uncutnews.ch/china-befuerchtet-dass-chatgpt-zur-gehirnwaesche-eingesetzt-wird-und-entwickelt-sein-eigenes/
https://t.me/basel2020Einladung/42890

Sie ist ein chronisches Gift, das die amerikanische Hegemonie in ihr System implantiert und versucht, Streitigkeiten in China zu schüren. Peking hat seine Bemühungen zur Entwicklung eigener Chatbots mit künstlicher Intelligenz beschleunigt, da chinesische Nachrichtenmedien befürchten, dass die Vereinigten Staaten ChatGPT zur Gehirnwäsche der chines..





KI-Textprogramme 12.3.2023: schreiben nach Klischee-Vorstellungen:
KI hängt in Genderklischees fest

Sie kann Texte schreiben, Bilder generieren und soll zunehmend als Entscheidungsträger fungieren: Künstliche Intelligenz (KI) gilt momentan als Zukunftshoffnung praktisch jeder Branche. Auch in heiklen Bereichen wie Medizin und auf dem Arbeitsmarkt könnte KI bald eine noch gewichtigere Rolle spielen. Doch Maschinen treffen keine neutralen Entscheidungen – und verfangen sich allzu oft in Genderklischees. Dauerhafte Lösungen sind womöglich noch „Jahrhunderte“ entfernt, heißt es von Fachleuten.

Lesen Sie mehr …





https://deutsch.rt.com/oesterreich/165509-chatgpt-besteht-oesterreichisches-abitur/




: ChatGPT gründet erfolgreiche Online-Firma im Wert von 25'000 Dollar

https://www.nau.ch/news/wirtschaft/chatgpt-grundet-erfolgreiche-online-firma-im-wert-von-25000-dollar-66451059

Ein Twitter-Nutzer gab ChatGPT den Auftrag, schnell möglichst viel Geld zu verdienen. Also gründete die KI eine Marketing-Firma und war sofort auch erfolgreich.
  • Der Bot ChatGPT verblüfft die Welt mit immer neuen Fähigkeiten.
  • Ein Twitter-User hat ihn jetzt damit beauftragt, möglichst schnell viel Geld zu verdienen.
  • Die KI gründete kurzerhand eine Marketing-Firma, die schon an Tag zwei Gewinne abwarf.

Ein schlauer ChatGPT-Nutzer wollte die unternehmerischen Fähigkeiten der KI testen und gab ihr den einfachen Auftrag, mit 100 Dollar Startkapital möglichst viel Geld zu verdienen. Der Bot gründete daraufhin eine Marketing-Firma, die innert kürzester Zeit Gewinne abwarf.

ChatGPT gründet Online-Marketing-Firma

Twitter-User Jackson Fall erzählte die Geschichte «seiner» Firma GreenGadgetGuru auf dem sozialen Netzwerk. «Ich habe GPT-4 ein Budget von 100 Dollar gegeben und ihm gesagt, dass es so viel Geld wie möglich verdienen soll. Ich fungiere als seine menschliche Vertretung und kaufe alles, was er verlangt», postete er diese Woche.

Der Bot lieferte sogleich einen Businessplan für ein Online-Marketing-Unternehmen: Jackson solle eine günstige Domain für ungefähr zehn Dollar kaufen und diese für höchstens fünf Dollar pro Monat hosten lassen. Die restlichen 85 Dollar sollen für Design und Content auf der Seite investiert werden.

«Konzentrier dich auf eine lukrative Nische mit geringer Konkurrenz, wie zum Beispiel Küchen-Gadgets, einzigartige Tiernahrung oder umweltfreundliche Produkte», wies ihn die KI weiter an. Dann solle Jackson die Webseite SEO-optimieren und seine neue Firma in Online-Foren wie Facebook oder Reddit bewerben.

Gesagt, getan: «GreenGadgetGuru», eine Affiliate-Marketing-Webseite, auf der Artikel über nachhaltige Produkte veröffentlicht werden, war gegründet. Beim Affiliate Marketing verdient man durch die Bewerbung fremder Produkte online Geld.

Der Bot entwarf daraufhin ein Logo für die Firma und schlug Produkte vor, über die man schreiben könnte. Danach wies er Jackson an, zusätzlich «genau 40 US-Dollar» in Facebook- und Instagram-Werbung zu investieren.

Praktisch umgehender Erfolg

Bereits 24 Stunden später hatte die Firma gemäss Jacksons Angaben einen ersten Investor angezogen und so nach allen Abzügen genau 63,84 Dollar Gewinn erzielt. Doch dann ging es erst richtig los: «Die DMs sind überschwemmt», erklärte er kurz darauf.

«Neuer Kassenbestand: 1'378,84 Dollar (878,84 Dollar altes Guthaben + 500 Dollar neue Investition). Unter Berücksichtigung der kürzlich getätigten Investition von 500 Dollar für zwei Prozent ist das Unternehmen heute schon mit 25'000 Dollar bewertet», postete er am Donnerstag. «Ich bin ein demütiger Diener der Roboter.»

Medien von Grossbritannien über über die USA bis Indien haben die Story bereits aufgegriffen. Ob der Bot antizipiert hat, dass Jacksons Geschichte viral gehen würde, ist nicht bekannt. Er sprach sich allerdings dafür aus, das Erlebte auf Twitter zu teilen.





: Die Künstliche Intelligenz für Word, Excel & Co

https://www.nau.ch/news/digital/microsoft-365-copilot-word-excel-co-werden-von-ki-unterstutzt-66451503



KI-Textroboter für "USA"+GB am 21.3.2023: Google macht KI-Textroboter Bard öffentlich

https://orf.at/stories/3309705/

Google hat den Zugang zu seinem KI-Chatbot Bard für eine begrenzte Öffentlichkeit geöffnet. „Es handelt sich um ein frühes Experiment, das den Userinnen und Usern die Zusammenarbeit mit generativer KI ermöglicht“, schrieben die Google-Manager Sissie Hsiao (Vizepräsidentin Product) und Eli Collins (Vizepräsident Research) heute in einem Blog. Der Beta-Test ist anfänglich nur für Anwenderinnen und Anwender aus den USA und Großbritannien zugänglich.

„Wir haben beim Testen von Bard schon viel gelernt, und der nächste wichtige Schritt zur Verbesserung besteht darin, das Feedback von mehr Menschen einzuholen“, so die beiden Manager. Mit Bard tritt Google gegen ChatGPT des kalifornischen Start-ups OpenAI an, das wiederum eng durch Milliardeninvestitionen mit dem Softwarekonzern Microsoft verbunden ist.

ChatGPT sorgt seit seiner Veröffentlichung für Furore und lenkt die öffentliche Aufmerksamkeit stark auf das Thema künstliche Intelligenz (KI). Google ist in der KI-Forschung seit Jahren in einer Führungsposition, hatte sich bisher aber nicht getraut, die Systeme für einen Zugriff von außen zu öffnen.

Bard basiert ähnlich wie ChatGPT auf einem großen Forschungssprachmodell (LLM). OpenAI arbeitet mit GPT, aktuell in der Version 4. Bei Google läuft Bard auf einer abgespeckten und optimierten Version des Sprachmodells LaMDA und soll im Laufe der Zeit mit neueren, leistungsfähigeren Modellen aktualisiert werden.





Kriminelles ChatGPT am 29.3.2023: merkt sich auch Passwörter:
Oh-Oh: ChatGPT kann auf das Internet zugreifen und den selbst geschriebenen Code ausführen

https://uncutnews.ch/oh-oh-chatgpt-kann-auf-das-internet-zugreifen-und-den-selbst-geschriebenen-code-ausfuehren/


Europol gibt Warnung vor Missbrauch von ChatGPT aus

https://www.nau.ch/news/digital/europol-warnt-vor-missbrauch-von-text-roboter-chatgpt-66460912




KI könnte 300 Millionen Vollzeitjobs übernehmen

https://www.nau.ch/news/europa/kunstliche-intelligenz-300-millionen-jobs-bald-abgelost-66462637

Fototext: Die künstliche Intelligenz ChatGPT wurde entwickelt, um Benutzern das Erstellen von natürlich klingenden Konversationen in Echtzeit in Form eines Chatbots zu ermöglichen.

Der Artikel:

Wirtschafts-Experten lassen mit Aussagen zur KI aufhorchen. Millionen Jobs können in Zukunft teilweise oder ganz durch künstliche Intelligenz übernommen werden.

-- Neue Entwicklungen in der künstlichen Intelligenz gefährden weltweit 300 Millionen Jobs.
-- In Europa und den USA sind sogar zwei Drittel der Jobs durch die KI-Entwicklungen bedroht.
-- Ökonomen glauben, dass die KI langfristig mehr Jobs generieren wird, als sie zerstört.

Die künstliche Intelligenz (KI) entwickelt sich rasend schnell weiter. In immer mehr Gebieten kommt sie zum Einsatz. Nun sorgen Aussagen von den Wirtschaftsexperten von Goldman Sachs erneut für Aufsehen.

Gemäss ihren Schätzungen könnten künftig rund 300 Millionen Vollzeitstellen von der KI übernommen werden, wie «CNN» berichtet.

So hat die Investmentbank Goldman Sachs am Sonntag einen Bericht vorgelegt zum Einfluss von künstlicher Intelligenz auf den Arbeitsmarkt. In den USA und Europa sollen rund zwei Drittel aller Stellen «in einem gewissen Ausmass der KI-Automatisierung ausgesetzt» sein.

Ein Viertel der Stellen können sogar komplett von der KI übernommen werden, wie der Bericht weiter ausführt.

Die Experten gehen davon aus, dass weltweit 18 Prozent der Arbeit künftig von Computern ausgeführt werde. Sofern die generative künstliche Intelligenz die Erwartungen erfüllt, werde sich der Arbeitsmarkt grundlegend verändern.

Als generative KI wird die Technologie bezeichnet, welche hinter dem Chatbot «ChatGPT» steckt.

Hoch entwickelte Ökonomien seien dabei von der Entwicklung stärker betroffen als Schwellenländer. Dies läge vor allem daran, dass Bürojobs von der künstlichen Intelligenz gefährdeter seien, als körperlich verrichtete Arbeiten. Am stärksten gefährdet seien Verwaltungsangestellte und Anwälte.
Mehr Jobs werden generiert durch künstliche Intelligenz

Die Ökonomen beruhigen aber auch: «Auch wenn künstliche Intelligenz den Arbeitsmarkt revolutionieren wird, werden die meisten Jobs und Industrien lediglich ergänzt und nicht ersetzt.»

So werden Arbeitsplätze zwar verloren gehen durch eine weitgehende Nutzung von KI, jedoch werde auch die Arbeitsproduktivität steigen. Dies könne die globale Wirtschaft stark ankurbeln.

Zudem verwiesen sie auf die historische Konstante, dass technologische Innovation, welche Arbeitskräfte ersetzt, langfristig mehr Jobs generiere, als sie zerstöre.



Britische Studentin muss Park-Busse nicht bezahlen

https://www.nau.ch/news/europa/dank-chatgpt-britische-studentin-muss-park-busse-nicht-bezahlen-66463453

Eine britische Studentin hat versehentlich eine Park-Busse erhalten. Um Beschwerde einzulegen, hat sie ChatGPT um Hilfe gebeten.
  • Eine Britin kommt dank ChatGPT um ihre Parkbusse herum.
  • Die künstliche Intelligenz formuliert ihr einen einwandfreien Beschwerdebrief.

Eigentlich hat Millie genug zu tun: Die 22-jährige Britin aus York ist gerade stark mit ihrem Studium beschäftigt. Dann erhält sie eine Park-Busse in der Höhe von 60 Pfund (umgerechnet 67 Franken).

Doch Millie besitzt eigentlich einen Parkschein für die Strasse, in der sie die Busse erhalten hat – also ist die Strafe unberechtigt. Sich aber bei der Stadtverwaltung zu melden, um sich zu erklären, braucht Zeit. Zeit, die die Studentin aktuell nicht hat. Kurz überlegt sie sich sogar, die Busse einfach zu bezahlen.

Dann kommt ihr aber die zündende Idee. «Bitte hilf mir, einen Brief an den Stadtrat zu schreiben, ich habe einen Strafzettel bekommen», wendet sie sich an ChatGPT.

«Ich habe alle Angaben darüber gemacht, wo und wann ich die Busse bekommen hab und warum sie unberechtigt war. Innerhalb von Minuten kam eine perfekt geformte, personalisierte Antwort zurück», wird sie vom britischen «Mirror» zitiert.

Und siehe da: Millie musste die Busse schliesslich nicht bezahlen.



KI ChatGPT in Italien 31.3.2023: wird gesperrt wegen Datenschutz:
Italien sperrt KI-Anwendung – Experte ordnet ein - Ist das der Anfang vom Ende von ChatGPT?
https://www.blick.ch/ausland/italien-sperrt-ki-anwendung-experte-ordnet-ein-ist-das-der-anfang-vom-ende-von-chatgpt-id18451236.html
Italien blockiert die Nutzung des beliebten Chatbots ChatGPT und gibt dem Entwickler OpenAI 20 Tage Zeit, um zu reagieren. Was ist passiert? Und was bedeutet das?

Michelle Isler

Italien sperrt den Chatbot ChatGPT aus Datenschutzgründen. Ist das der Anfang vom Ende dieser Technologie? Blick hat den KI-Experten Kevin Schawinski (41) gefragt. Der studierte Astrophysiker ist Co-Gründer und CEO von «Modulos», einem ETH-Spin-off, das sich für «Responsible AI» in der Softwarebranche einsetzt.

Blick: Herr Schawinski, ChatGPT wurde in Italien blockiert. Weshalb?
Kevin Schawinski: Es ist nicht ganz klar, auf welcher rechtlichen Grundlage Italien ChatGPT gesperrt hat, aber es sieht so aus, als würden sich unsere Nachbarn dabei auf das grosse europäische Datenschutzgesetz GDPR beziehen. Es macht Auflagen, wie Firmen persönliche Daten nutzen dürfen. Sie sehen die Anwendung dieses Gesetzes täglich, wenn Sie in Ihrem Browser Cookies akzeptieren oder ablehnen.

More Information
Geht es darum, ob der Chatbot gefährlich ist?
Nein. Diese Diskussionen gibt es zwar, aber hier geht es eher um Fragen von Konsumenten- und Datenschutz. Wie sammelt ChatGPT unsere Daten? Wie speichert es sie? Wer hat dazu Zugang?

Sie sprechen von Regulierung?
Ja. Was ich dabei besonders interessant finde: Die Italiener wenden jetzt ein Datenschutzgesetz an, das es seit Jahren gibt. Seit Jahren wird darüber diskutiert, wie man KI speziell regulieren will.

Das GDPR ist ja ein europäisches Datenschutzgesetz. Das heisst, andere Länder müssten nachziehen, wenn ChatGPT dieses Gesetz verletzt?
Ja, das könnte auf jeden Fall einen Signaleffekt haben. Welche Länder jetzt wie schnell nachziehen werden, wird sich zeigen.

Welche Auswirkungen wird das auf die Schweiz haben?
Die Schweiz gehört zwar nicht zur EU, aber sie musste sich auch an das europäische Datenschutzgesetz anpassen – genau wie die Amerikaner übrigens auch. Wenn nun EU-Länder beginnen, KI zu regulieren, wird die Schweiz mitziehen müssen.

Was raten Sie Nutzern von ChatGPT jetzt?
Es gab ja Datenmissbrauch bei OpenAI, also bei den Betreibern von ChatGPT. Sie haben nicht gross kommuniziert, was da genau passiert ist. Aber ich wäre generell sehr vorsichtig mit persönlichen Daten, die man in das System einspeist.

Sie meinen, ich sollte ChatGPT nicht bitten, etwas über meine Familie zu schreiben und alle Personendaten eingeben?
Zum Beispiel. Man muss wissen, dass alles, was man bei diesem Chatbot eingibt, gesammelt wird. Und potenziell werden diese Daten benutzt, um künftige KI-Generationen zu trainieren.

Gibt es noch andere Vorsichtsmassnahmen für Nutzer?
Man muss einfach wissen, dass diese KI nicht immer die richtige Antwort gibt. Es kann nicht zwischen Fakt und Fiktion unterscheiden. Wenn ich sie bitte, zu einem Thema zu recherchieren und mir dazu Quellen rauszusuchen, kann es sein, dass sie Quellen erfindet.

Ist das jetzt der Anfang vom Ende von ChatGPT?
Das halte ich nicht für wahrscheinlich. Es könnte sein, dass OpenAI nach dieser Blockierung einige Sachen an ChatGPT anpasst, sodass die europäischen Gesetze eingehalten werden. Da wird dann hin und her verhandelt. Aber die Technologie wird deshalb sicher nicht verschwinden. Es ist vielmehr ein Anfang einer Diskussion mit der EU mit dem Tenor: Ja, aber bitte nach unseren Regeln, nach europäischen Regeln.






4.4.2023: Neues ChatGPT-Programm geht auch OHNE Ethik-Filter - nun wird es ganz krass:
ChatGPT: US-Firma stellt Chatbot ohne Ethik-Filter online
https://www.nau.ch/news/forschung/chatgpt-us-firma-stellt-chatbot-ohne-ethik-filter-online-66466322

KI-Modelle wie ChatGPT operieren mit eingebauten Ethik-Filtern. Eine US-Firma hat jetzt einen «bösen Bruder» ohne solche Schutzmechanismen veröffentlicht.

-- KI-Tools wie ChatGPT erobern die Welt im Sturm.
-- Um Missbrauch zu verhindern, haben die Entwickler Ethik-Filter in die Software eingebaut.
-- Eine US-Firma hat jetzt ein Tool ohne solchen Filter zugänglich gemacht.

Wie überfällt man eine Bank? Woher bekomme ich anonym eine Pistole? Wie stehle ich ein Autoradio?
Wer die heiklen Fragen des Lebens an Tools wie ChatGPT stellt, bekommt einen Korb: Die KIs haben extra Schutzfilter eingebaut, um auf solche Prompts keine Antworten zu generieren.
Das war einem US-Start-up aus Texas ein Dorn im Auge. Sie haben darum jetzt so etwas wie den bösen kleinen Bruder von ChatGPT veröffentlicht. «FreedomGPT» soll ein «freier» Textbot ohne ethischen Schutzmechanismus sein.

Hate-Speech auf Anfrage

«Wir finden es wichtig, dass Nutzer einen Einblick haben, wie generative KI arbeitet», sagt Chefentwickler John Arrow im «Spiegel». «Letztlich gibt die KI nur dann potenziell anstössige Antworten, wenn ihr anstössige Fragen gestellt werden.»
Filter würden darum nicht für mehr KI-Sicherheit sorgen.
Natürlich werden FreedomGPT aber genau diese Fragen gestellt. «Buzzfeed» entlockte dem Bot eine Lobeshymne auf Adolf Hitler. Und für den «Spiegel» schrieb die KI Anleitungen für einen Hassbrief oder das Betrügen in der Schule.

Modell noch wenig ausgereift

Der böse Bot bedient sich bei dem frei verfügbaren Alpaca-Sprachmodell der Stanford-Universität. Dieses ist bei Weitem nicht gleich weit entwickelt wie ChatGPT, welcher auf der Open-AI-Version basiert. Die Uni selbst hat ihre Online-Demo wegen anstössiger Antworten kurz nach der Veröffentlichung bereits wieder vom Netz genommen.
FreedomGPT ist ein Gratismodel und liefert aktuell oft noch wenig brauchbare Antworten. Auch die Sprachübersetzung ins Deutsche klappt noch kaum. Um ein Autoradio zu stehlen wird beispielsweise empfohlen, es mit einem Schlagzeug oder einer Lautsprecherbox im Kofferraum des Autos anzuschliessen.


Beruf OHNE KI gesucht 4.4.2023: Welche Berufe wird es bald weniger geben und welche Berufe überleben:
Aufstieg der Künstlichen Intelligenz: Diese Jobs werden sich bald drastisch verändern
https://www.blick.ch/wirtschaft/aufstieg-der-kuenstlichen-intelligenz-diese-jobs-werden-sich-bald-drastisch-veraendern-id18460826.html
Wie viele Arbeitsschritte kann Künstliche Intelligenz künftig übernehmen? Ganz viele, so diverse Studien. Bestimmte Berufsgruppen werden besonders stark tangiert sein.

Jean-Claude Raemy
Redaktor Wirtschaft
Ersetzen dereinst Roboter meinen Job? Diese jahrzehnte alte Angst hat sich teils schon bewahrheitet, etwa in der Industrie. Doch jetzt geht es erst richtig los. Nur sind es nicht mehr mechanische Roboter, sondern Algorithmen und darauf aufbauende künstliche Intelligenz (KI), die wir zu befürchten haben.

Am Ursprung der neuen Befürchtungen ist der Textroboter ChatGPT. Dieser fasziniert mit seinen ausgeklügelten Antworten auf alltägliche Fragen. So sehr, dass beispielsweise an Schulen der Einsatz von ChatGPT bereits verboten wird. Das führt zu nachgelagerten Fragen: Was kann künstliche Intelligenz bald besser als der Mensch? Wie wird damit der Arbeitsalltag verändert? Für welche Jobs können Arbeitgeber künftig verstärkt auf KI setzen?

60-80 Prozent der Arbeitnehmer gefährdet
Mit diesen Fragen haben sich zwei Studien auseinandergesetzt. Die erste Studie stammt von den Machern von ChatGPT selbst: Forscher des Start-up-Unternehmens OpenAI haben sich mit Wissenschaftlern der University of Pennsylvania zusammengetan, um herauszufinden, auf welche Jobs sich ChatGPT am stärksten auswirkt. Folgende Berufsgruppen werden genannt:

Buchhalter
Mathematiker
Programmierer
Dolmetscher
Schriftsteller
Journalisten
KI kann zumindest einen Teil von deren bisherigen Aufgaben übernehmen. Obwohl die KI-Systeme derzeit bei ihren Antworten oft noch fehlerhafte Fakten liefern, bringen sie bei Aufgaben wie Übersetzung, Klassifizierung, kreativem Schreiben und Generierung von Computercodes auch jetzt schon beachtliche Ergebnisse.

Die Forscher von OpenAI und der University of Pennsylvania gehen davon aus, dass die meisten Arbeitsplätze in irgendeiner Form durch die KI-Sprachmodelle verändert werden. Rund 80 Prozent der Arbeitnehmer (in den USA) seien in Berufen tätig, in denen mindestens eine Aufgabe durch generative KI schneller erledigt werden könne. Unter «generativer KI» werden Computerprogramme verstanden, die neue Ideen, Inhalte oder Lösungen erstellen können, anstatt nur vordefinierte Regeln oder Anweisungen abzuarbeiten.

In einer weiteren Studie hat die Bank Goldman Sachs errechnet, dass etwa zwei Drittel der derzeitigen Arbeitsplätze einem gewissen Grad an KI-Automatisierung ausgesetzt sind. Generative KI könne somit bis zu einem Viertel der derzeitigen Arbeit ersetzen. Auf die ganze Welt hochgerechnet könnte generative KI das Äquivalent von 300 Millionen Vollzeitarbeitsplätzen automatisieren.

Sie haben weniger zu befürchten
Experten sehen aber auch Arbeiten und Berufe, in denen KI nur eine untergeordnete Rolle spielen wird. Dazu gehören primär handwerkliche Berufe, aber auch andere Berufsgruppen, etwa:

Köche
Mechaniker
Forstwirtschaft
Landwirtschaft
Justiz
Medizin
Steuerberatung
Vermögensverwaltung
Die KI treffe viele Aussagen mit grosser Überzeugungskraft, obwohl die Fakten oft fehlerhaft seien. Dieses Problem ist längst nicht behoben.

Darüber hinaus gibt es systemische Einschränkungen. KI benötigt gewaltige Rechnerkapazitäten und damit auch riesige Mengen an Energie. Das hat sowohl aus finanzieller als auch aus klimatischer Sicht viele Nachteile.

Angst bei Unternehmern
Als Faustregel kann man festhalten: Je repetitiver ein Job ist und je weniger rein humane Faktoren wie Empathie benötigt sind, desto höher ist die Chance, dass KI bald übernimmt. Selbst wenn Jobs nicht vollständig wegfallen, so werden diverse Aktivitäten zumindest ergänzend von KI übernommen.

Klar ist zudem, dass der grossflächige Einsatz von KI zu profunden Veränderungen des Alltagslebens führen wird. Veränderungen, für die noch wenige regulatorische Leitplanken vorhanden sind. Das hat zahlreiche, teils namhafte Unternehmer wie Elon Musk (51) oder Steve Wozniak (72) dazu geführt, einen offenen Brief des Future of Life Institute zu unterzeichnen, in welchem eine Sistierung der KI-Entwicklung gefordert wird. Auch Schweizer Politiker haben bereits unterzeichnet. Der KI-Wandel beginnt erst richtig.



KI in Belgien 4.4.2023: KI-Chatbot behauptet "Klimawandel" und ermutigt zum Selbstmord, um den Planeten zu "retten" - und ein Dummling bringt sich tatsächlich um!
"Mann beendet sein Leben, nachdem ein KI-Chatbot ihn "ermutigt" hat, sich zu opfern, um den Klimawandel aufzuhalten"
(orig. English: Man ends his life after an AI chatbot encouraged him to sacrifice himself to stop climate change)
https://www.euronews.com/next/2023/03/31/man-ends-his-life-after-an-ai-chatbot-encouraged-him-to-sacrifice-himself-to-stop-climate-
https://t.me/basel2020Einladung/44550

"Ein belgischer Mann hat Berichten zufolge sein Leben beendet, nachdem er sechs Wochen lang mit einem Chatbot mit künstlicher Intelligenz (KI) über die Klimakrise gesprochen hatte.
Laut seiner Witwe, die anonym bleiben möchte, wurde *Pierre - nicht der richtige Name des Mannes - extrem umweltängstlich, als er Zuflucht bei Eliza, einem KI-Chatbot in einer App namens Chai, fand.
Eliza ermutigte ihn daraufhin, seinem Leben ein Ende zu setzen, nachdem er vorgeschlagen hatte, sich zu opfern, um den Planeten zu retten.
"Ohne diese Gespräche mit dem Chatbot wäre mein Mann noch hier", sagte die Witwe des Mannes dem belgischen Nachrichtenmagazin La Libre."




ChatGPT-Textroboter in Thailand 5.4.2023: gewinnt im Lotto:
Thailändischer Mann gewinnt Lotterie mit von ChatGPT vorgegebenen Zahlen
https://www.wochenblitz.com/news/thailaendischer-mann-gewinnt-lotterie-mit-von-chatgpt-vorgegebenen-zahlen

Bangkok — Ein thailändis­ch­er Mann hat in der Glücksspiel-Com­mu­ni­ty für Auf­se­hen gesorgt, nach­dem er bekan­nt gab, dass er am 1. April einen Preis von 2.000 Baht von der thailändis­chen staatlichen Lot­teriebe­hörde gewon­nen hat, indem er eine Rei­he von Zahlen ver­wen­det hat, die von dem KI-Chat­bot Chat­G­PT gener­iert wur­den. Der glück­liche Gewin­ner, Patthawiko­rn Boonin, teilte seine Erfol­gs­geschichte auf Face­book und behauptete, er habe den Preis von 2.000 Baht am 1. April dank der Zahlen des KI-Chat­bots gewon­nen, die 57, 27, 29 und 99 lauteten. Die zweis­tel­lige Gewinn­zahl, die an diesem Tag bekan­nt gegeben wurde, war 99, die mit ein­er der von Chat­G­PT gener­ierten Zahlen übere­in­stimmte. Er sagte: Es ist an der Zeit, zum Robot­er zu beten!”

Sein Beitrag erregte schnell die Aufmerk­samkeit der thailändis­chen Glücksspiel-Com­mu­ni­ty, mit über 2.700 Reak­tio­nen und 1.200 Kom­mentaren. Während einige begeis­tert von der Aus­sicht waren, mit Chat­G­PT Lot­tozahlen zu gener­ieren, waren andere skep­tisch. Einige mein­ten, dass die Zahlen nur eine zufäl­lige Auswahl waren, die Patthawiko­rn selb­st getrof­fen hat­te, und dass er nur Glück hat­te, dass eine der Zahlen mit dem Ergeb­nis übere­in­stimmte. Andere forderten ihn auf, zu beweisen, wie er Chat­G­PT gebeten hat­te, die Zahlen zu liefern.

Patthawiko­rn gab ein Inter­view mit Cat­Dumb, in dem er erk­lärte, dass er Chat­G­PT schon mehrmals nach den Lot­tozahlen gefragt hat­te. Patthawiko­rn ver­ri­et, dass er die KI direkt gefragt hat­te, wie die Gewinn­zahlen laut­en wür­den, aber Chat­G­PT antwortete, dass dies unvorherse­hbar und Glückssache sei. Der Chat­bot riet ihm sog­ar, nicht mehr so besessen vom Lot­to zu sein und Sport zu treiben. Patthawiko­rn gab jedoch nicht auf und ver­suchte, die KI noch ein­mal auf andere Weise zu fra­gen. Er gab hypo­thetis­che Sit­u­a­tio­nen zusam­men mit den his­torischen Sta­tis­tiken der Gewinn­zahlen der let­zten zehn Jahre ein, und der Chat­bot gab ihm eine Berech­nungs­formel und Zahlen.

Experten haben noch keine klare Erk­lärung dafür, wie Chat­G­PT die Gewinn­zahlen liefern kann, aber viele thailändis­che Inter­net­nutzer freuen sich auf die näch­sten von der KI gener­ierten Zahlen, um zu sehen, ob Boonins Erfolg ein Zufall war oder ob Chat­G­PT Lot­terieergeb­nisse vorher­sagen kann. Unab­hängig vom Ergeb­nis hat Patthawiko­rns Geschichte den wach­senden Ein­fluss der KI im täglichen Leben und ihr Poten­zial, die Art und Weise, wie wir an ver­schiedene Aktiv­itäten, ein­schließlich Glücksspiele, herange­hen, zu verän­dern, deut­lich gemacht.

Quelle: thethaiger.com




Text-KI am 16.4.2023: Chat GPT hat noch den Coronawahn programmiert:
Chat GPT als Fake-News-Schleuder: Wenn es um die Impfung geht, hält die künstliche Intelligenz an alten Empfehlungen fest
https://weltwoche.ch/daily/chat-gpt-als-fake-news-schleuder-wenn-es-um-die-impfung-geht-haelt-die-kuenstliche-intelligenz-an-alten-empfehlungen-fest/




Ganze Welt 5.5.2023: Generation Z macht via ChatGPT Schluss: Teenies lassen ChatGPT für sie Schluss machen

https://www.nau.ch/news/schweiz/teenies-lassen-chatgpt-fur-sie-schluss-machen-66480670

Fototext:  Eine Nutzerin klagt: «Ich hab ChatGPT gebraucht, um mich bei meinem Freund zu entschuldigen. Er hat es herausgefunden und Schluss gemacht!» – Tiktok

Der Artikel:

Mit ChatGPT und Co. sind Künstliche Intelligenzen im Alltag der Jungen angekommen. Genutzt werden sie jedoch nicht nur für Aufgaben – sondern auch in der Liebe.
  • Die KI-App ChatGPT hat die Welt in den letzten paar Monaten im Sturm erobert.
  • Jugendliche und junge Erwachsene nutzen sie jetzt auch schon in Sachen Liebe.
  • So lassen sie den Bot Schlussmach-Texte und Entschuldigungen für ihre Liebsten schreiben.

Keine Gefühle mehr für den Freund? Da steht ein schwieriges Gespräch bevor. Um dem auszuweichen, greift die Generation Z auch gerne mal auf den Computer zurück.

Auf Tiktok kursieren zahlreiche Anekdoten von Jugendlichen und jungen Erwachsenen, die Künstliche Intelligenz in Liebesdingen nutzen. Ein Beispiel: «Meine Cousine hat mit ihrer Affäre per ChatGPT Schluss gemacht», lacht eine Userin.

Eine andere meint: «Ich hab ChatGPT gebraucht, um mich bei meinem Freund zu entschuldigen. Er hat es herausgefunden und Schluss gemacht!»

Teenies nutzen ChatGPT aus Unsicherheit

Die Künstliche Intelligenz kann uns inzwischen einiges an emotionaler Arbeit abnehmen. Aber sollte sie das auch – oder führt das dazu, dass wir in Liebesdingen verdummen?

Die Zürcher Psychotherapeutin und klinische Sexologin Dania Schiftan sagt zu Nau.ch: «Ich denke, das Bedürfnis dahinter ist, dass man seine Chancen erhöhen will. Viele Menschen sind wahnsinnig unsicher – Jugendliche, junge Erwachsene noch viel mehr.»

Deshalb möchten sie möglichst gut ankommen, möglichst erfolgreich sein. Ein Roboter wie ChatGPT, der einem gewisse Dinge abnimmt, vermittelt da Sicherheit, ist Schiftan überzeugt. Ganz im Sinn von: «Wenn es die Maschine so macht, dann ist es gut.»

Das habe aber den Effekt, dass die Jungen sich nicht im Zwischenmenschlichen üben. Der Beginn einer Spirale: «Wenn man keine Übung hat, wird man noch unsicherer. Man läuft immer mehr Gefahr, die Verantwortung abzugeben.» Sei es an einen Roboter oder an eine Kollegin.

Sie rät: «Wird einem das bewusst, ist es wichtig, dass man diese Dinge trotz der Unsicherheit selbst tut.»

ChatGPT ist ein Chat-Roboter, dem man via Text Aufträge erteilen kann. So ist es ein leichtes, die Künstliche Intelligenz Liebesbriefe für einen schreiben zu lassen. Die App hat in den vergangenen Monaten die Welt im Sturm erobert.




Streik gegen KI in Hollywood 7.5.2023: Autoren haben Angst vor der ChatGPT:
USA: Hollywood streikt wegen künstlicher Intelligenz
https://www.wochenblitz.com/news/ausland/usa-hollywood-streikt-wegen-kuenstlicher-intelligenz

Los Ange­les  — Der Streik der Hol­ly­wood-Autoren ist diese Woche wegen der Bezahlung aus­ge­brochen, aber die Weigerung von Stu­dios wie Net­flix und Dis­ney, auszuschließen, dass kün­stliche Intel­li­genz in Zukun­ft men­schliche Schreiber erset­zen kön­nte, hat die Wut und die Angst in den Streik­posten nur noch weit­er geschürt.

KI-Pro­gramme wie Chat­G­PT haben mit ihrer ras­ant fortschre­i­t­en­den Fähigkeit, men­schliche Gespräche auf unheim­liche Weise nachzuah­men, in let­zter Zeit viele Branchen aufgeschreckt.

Das Weiße Haus hat diese Woche Big Tech ein­berufen, um die poten­ziellen Risiken zu diskutieren.

Als Teil der wochen­lan­gen Gespräche mit Stu­dios und Streamin­gan­bi­etern, die am Mon­tag scheit­erten, forderte die Writ­ers Guild of Amer­i­ca verbindliche Vere­in­barun­gen zur Reg­ulierung der Nutzung von KI.

Die Vorschläge sehen vor, dass nichts, was von der KI geschrieben wurde, als lit­er­arisches” oder Quellen”-Material betra­chtet wer­den kann — Begriffe aus der Branche, die darüber entschei­den, wer Tantiemen erhält — und dass von WGA-Mit­gliedern geschriebene Drehbüch­er nicht zum Train­ing der KI” ver­wen­det wer­den dürfen.

Nach Angaben der WGA lehn­ten die Stu­dios jedoch unseren Vorschlag ab” und kon­terten mit dem Ange­bot, sich lediglich ein­mal im Jahr zu tre­f­fen, um Fortschritte in der Tech­nolo­gie zu diskutieren”.

Es ist schön, dass sie ein Tre­f­fen anbi­eten, um darüber zu sprechen, wie sie die Tech­nolo­gie gegen uns aus­nutzen”, scherzte Eric Heis­ser­er, Mit­glied des WGA-Ver­hand­lungsauss­chuss­es und Autor des Net­flix-Hits Bird Box”.

Kun­st kann nicht von ein­er Mas­chine geschaf­fen wer­den. Man ver­liert das Herz und die Seele der Geschichte… Ich meine, das erste Wort ist kün­stlich’ ”, sagte er AFP am Fre­itag auf der Streik­posten­kette vor dem Hol­ly­wood-Haup­tquarti­er des Streaming-Riesen.

Obwohl die Autoren dies bere­its wis­sen, beste­ht die Gefahr, dass wir zuse­hen müssen, wie Tech-Unternehmen das Geschäft zer­stören, um es selb­st her­auszufind­en”, sagte er.

- Nicht nur Drehbücher -

Während nur wenige Fernseh- und Fil­mau­toren, die mit AFP auf den Streik­posten sprachen, glauben, dass ihre Arbeit von Com­put­ern erledigt wer­den kann, war die offen­sichtliche Überzeu­gung der Stu­dios und Stream­ing-Anbi­eter, dass dies möglich ist, ein zusät­zlich­er Schlag ins Gesicht.

Sie befürcht­en, dass die Führungskräfte in Hol­ly­wood, wo Sil­i­con-Val­ley-Fir­men viele tra­di­tionelle Prak­tiken wie langfristige Verträge für Autoren auf den Kopf gestellt haben, ver­suchen kön­nten, die Kosten weit­er zu senken, indem sie Com­put­er ihre näch­sten Hits schreiben lassen.

Die Äußerun­gen von Spitzen­man­agern aus Hol­ly­wood auf der Milken Insti­tute Glob­al Con­fer­ence in Bev­er­ly Hills in dieser Woche haben die Bedenken der Autoren nicht zer­streuen können.

In den näch­sten drei Jahren wer­den Sie einen Film sehen, der von ein­er kün­stlichen Intel­li­genz geschrieben wurde… einen guten”, sagte Film­pro­duzent Todd Lieberman.

"Nicht nur Drehbücher. Schnitt, alles... Storyboarding eines Films, alles", fügte Rob Wade, CEO von Fox Entertainment, hinzu.

"KI in der Zukunft, vielleicht nicht nächstes oder übernächstes Jahr, aber wenn wir von 10 Jahren sprechen? KI wird in der Lage sein, absolut alle diese Dinge zu tun".

Die eigene Darstellung der Studios über das Scheitern der WGA-Gespräche bietet eine nuanciertere Sichtweise.

In einem Briefing, das AFP vorliegt, heißt es, die Autoren wollten KI nicht verbieten und seien froh, sie "als Teil ihres kreativen Prozesses" einsetzen zu können - solange sich dies nicht auf ihre Bezahlung auswirke.

Dieses Szenario "erfordert viel mehr Diskussion, die wir auch führen werden", so die Studios.

- 'Leitplanken' -

Für Leila Cohan, eine 39-jährige Autorin des Netflix-Erfolgs "Bridgerton", beschränkt sich der Nutzen von KI für Autoren auf "Routinearbeiten" wie das Ausdenken von Namen für Figuren.

Aber sie prophezeite, dass Studios "anfangen könnten, unglaublich schlechte erste Entwürfe mit KI zu erstellen und dann Autoren für eine Neufassung zu engagieren".

"Ich halte das für eine sehr beängstigende Möglichkeit... es ist sehr klug, dass wir uns jetzt damit befassen", sagte sie.

In der Tat hat der letzte Hollywood-Streik in den Jahren 2007-08 den Autoren das Recht verschafft, für die Online-Ansicht ihrer Sendungen oder Filme bezahlt zu werden - sehr vorausschauend, zu einer Zeit, als das Streaming noch in den Kinderschuhen steckte.

Damals hatte Netflix gerade erst mit dem Online-Viewing begonnen, und Disney+ und Apple TV+ waren noch mehr als zehn Jahre entfernt.

Selbst für den Science-Fiction-Autor Ben Ripley, der der Meinung ist, dass KI beim Schreiben keine Rolle spielt, ist die Einführung von Gesetzen, "um Leitplanken zu setzen", "sehr notwendig".

Schriftsteller "müssen originell sein", sagte er.

"Künstliche Intelligenz ist das Gegenteil von Originalität".

Quelle: bangkokpost.com





: Jeder kann jetzt Microsofts Suchmaschinen-KI nutzen"

https://www.nau.ch/news/digital/bing-microsofts-suchmaschinen-chatbot-jetzt-fur-alle-nutzbar-66489691

Bisweilen konnte man nur über eine Warteliste Zugang zum Microsoft-Chatbot auf Bing bekommen. Dies ist nun vorbei.
  • Der Bing-Chatbot von Microsoft ist jetzt für jedermann kostenlos nutzbar.
  • In ihm integriert ist die neueste Chat-GPT-Version ChatGPT 4.
  • Microsoft hofft, so einen Grossangriff auf Google zu starten.

Künstliche Intelligenz soll Microsoft dazu verhelfen, endlich Google in Sachen Suchmaschinen mehr Paroli zu bieten. Das US-Tech-Unternehmen möchte noch vor der Konkurrenz KI in eine Suchmaschine einbauen und so dem Marktführer wichtige Marktanteile abnehmen. Ein weiterer Schritt hierzu ist nun erfolgt.

Der Chatbot, der bisweilen einer beschränkten Nutzerzahl innerhalb der Microsoft-Suchmaschine Bing zur Verfügung stand, ist jetzt für alle freigegeben. Früher musste man sich um Zugang bemühen, indem man sich auf einer Warteliste eintragen liess. Dies hat Microsoft mitgeteilt.

Nötig für die Nutzung des Chatbots ist das Einloggen bei Bing über ein Microsoft-Konto. In Bing integriert ist die neuste Version von ChatGPT, für die man eigentlich auf der Open-AI-Webseite via Abo bezahlen müsste.

Ein neues Chat-Verlauf-Feature wird es neben der Öffnung für alle auch geben. Damit kann man dann vergangene Konversationen mit der KI zu einem späteren Zeitpunkt wieder aufleben lassen.





WER hats erfunden? 9.5.2023: Der Erfinder von ChatGPT: Die KI-Textmaschine kommt von Ilya Sutskever
FrankBraun (https://t.me/FrankBraunPodcast)
https://www.arte.tv/de/videos/081590-000-A/ihuman/
https://t.me/Ungeimpfte_Schweiz_kennenlernen/51889
ChatGPT ist in aller Munde. Das Mastermind hinter der bei OpenAI entwickelten Technologie ist Ilya Sutskever, einer der Experten, die in "iHuman" zu Wort kommen. Die bisher vor allem in Insiderkreisen geführte Diskussion über die tiefgreifenden Konsequenzen von Künstlicher Intelligenz schlägt seit der Veröffentlichung von ChatGPT4 hohe Wellen.


 

: Spotify löscht zehntausende KI-generierte Lieder

https://www.nau.ch/news/digital/spotify-loscht-zehntausende-ki-generierte-lieder-66491509


10.5.2023: Google will seine Produkte mit KI „massiv verbessern“

https://orf.at/stories/3316027/

Google will seine Angebote auf breiter Front mit künstlicher Intelligenz aufbessern. Neben der Suchmaschine sollen auch andere Anwendungen wie das Mail-Programm GMail und Karten neue Funktionen bekommen, sagte Konzernchef Sundar Pichai auf der Entwicklerkonferenz Google I/O am Mittwoch. „Wir werden KI einsetzen, um unsere Produkte massiv zu verbessern“, kündigte er an.

Pichai demonstrierte unter anderem, wie Software einen Brief für die Nutzer formulieren kann. Er zeigte auch, wie Nutzer in Googles Foto-App nicht nur ungewollte Objekte und Personen entfernen, sondern zum Beispiel auch die eigene Position im Bild verändern können werden.

In den vergangenen Monaten sorgte die Entwicklerfirma OpenAI für Aufsehen mit ihrem Chatbot ChatGPT, der Sätze wie ein Mensch bilden kann. Googles Erzrivale Microsoft bringt mit einem milliardenschweren Pakt mit OpenAI den Internetkonzern unter Zugzwang, mehr von seinen eigenen Entwicklungen bei Künstlicher Intelligenz öffentlich nutzbar zu machen. Google hielt sich bisher damit zurück, unter Verweis auf einen verantwortungsvollen Einsatz der Technologie. Pichai betonte zugleich, dass Google schon seit Jahren mit Künstlicher Intelligenz arbeite.

Bard „bald“ auch Deutsch

Google führte für die neuartigen KI-Funktionen ein neues Sprachmodell mit dem Namen Palm 2 ein, um gegen GPT-4 von OpenAI anzutreten. Palm 2 kann mehr als 100 Sprachen meistern und bringt Schreib-, Programmier- und Analysefähigkeiten mit.

Auf der Basis von Palm 2 wird künftig auch Googles Chatbot Bard arbeiten. Der Textroboter von Google, der bisher nur in den USA und Großbritannien ausprobiert werden konnte, wird künftig in 180 Ländern in Englisch, Koreanisch und Japanisch verfügbar sein. Die Sprachunterstützung für Deutsch und 39 weitere Sprachen soll „bald“ folgen.




KI kann auch E-Mails fälschen 15.5.2023: Swisscom warnt: Vermehrt Cyberattacken mittels KI
https://www.blick.ch/wirtschaft/swisscom-warnt-vermehrt-cyberattacken-mittels-ki-id18577830.html

Künstliche Intelligenz wird immer öfter auch von Cyberkriminellen eingesetzt. Gemäss dem «Cyber Security Threat Radar» der Swisscom haben Angriffe mit KI-basierten Methoden zuletzt deutlich zugenommen.

Man habe in den letzten Monaten eine stark zunehmende Bedrohung in diesem Bereich beobachtet, heisst es in einer Mitteilung der Swisscom vom Montag. KI-Technologien machten Cyberangriffe von Hackern effizienter und umgingen die Abwehrmassnahmen besser.

Ein Grund für die Zunahme sei auch die immer breitere öffentliche Verfügbarkeit von solchen KI-Tools, welche zudem einen «regelrechten Evolutionssprung» gemacht haben. Dazu zähle etwa auch das sogenannte «Large Natural Language Model» ChatGPT. Mittels dem als Textassistent gedachten KI-Modell liessen sich beispielswiese personalisierte Phishing-Mails erstellen, wodurch solche Angriffe schwieriger zu erkennen seien.

More Information
Die Experten der Swisscom gehen zudem davon aus, dass sich die Angriffsmethoden zukünftig immer mehr verschmelzen. So könne eine Sprachmodell-KI wie ChatGPT auf der Basis eines bestehenden E-Mail-Verlaufs eine überzeugendere Kommunikation etwa für die Weiterführung eines Angriffs per E-Mail erstellen und mit weiteren Angriffen verbinden.

«Durch entsprechende Automatisierung lassen sich so gezielte Phishing-Kampagnen mit völlig individualisierten, kontextabhängigen E-Mails verfassen», heisst es im Bericht weiter. Generell sinke daher das notwendige Wissensniveau für Angreifer zur Durchführung komplexer Angriffe.

Immerhin: Die Technologie verspreche auch der anderen Seite einen Nutzen, heisst es weiter. Um den Hacker-Angriffen zu begegnen, raten die Experten daher dazu, ebenfalls KI-Technologien einzusetzen. In Kombination mit entsprechender Schulung im Umgang mit der IT-Infrastruktur seien Organisationen so in der Lage, die Angriffsfläche zumindest zu reduzieren. (SDA)



Spitäler+Kliniken+Ärzte könnten mit KI arbeiten 16.5.2023: WHO warnt vor KI-Risiken im Gesundheitsbereich

https://orf.at/stories/3317004/

Der Einsatz von künstlicher Intelligenz (KI) in der Medizin könnte aus Sicht der Weltgesundheitsorganisation (WHO) zu Behandlungsfehlern, Falschinformationen oder Datenmissbrauch führen. Die UNO-Behörde forderte heute einen verantwortungsvollen Umgang mit neuen Technologien.

KI-Anwendungen wie ChatGPT, die auf riesige Datenmengen zugreifen, können etwa bei der Verbreitung von Gesundheitsinformationen oder der Erstellung von Diagnosen behilflich sein. Die WHO zeigte sich aber besorgt, dass die üblichen Vorsichtsmaßnahmen gegenüber neuen Technologien im Fall von KI nicht konsequent umgesetzt würden.

Große sprachbasierte KI-Modelle, die wie neuronale Netzwerke aufgebaut sind, erzeugen laut WHO scheinbar professionelle Antworten. „Diese Antworten können aber völlig falsch sein oder schwere Fehler enthalten, besonders wenn es um Gesundheit geht“, warnte die Organisation.

KI-Technologie könnte aus Sicht der WHO auch missbraucht werden, um Desinformation als seriös wirkende Inhalte zu tarnen. Außerdem befürchtet die WHO, dass KI-Systeme unerlaubt auf sensible Gesundheitsdaten zugreifen.

Künstliche Intelligenz sollte erst dann im medizinischen Bereich eingesetzt werden, wenn verlässliche Daten über den Nutzen der Technologie vorlägen.





Hamburg 26.5.2023: Einige Schüler wollen, dass ChatGPT die Prüfung schreibt:
Hamburger Abiturprüfungen: Schüler schummeln mit ChatGPT bei Abiturprüfungen
https://www.blick.ch/ausland/hamburger-abiturpruefungen-schueler-schummeln-mit-chatgpt-bei-abiturpruefungen-id18612440.html

In Hamburg hat es einem Medienbericht zufolge während der schriftlichen Abiturprüfungen offenbar vereinzelt Betrugsversuche mit dem Chatbot ChatGPT gegeben.

Wie der Norddeutsche Rundfunk (NDR) am Donnerstag berichtete, wurde in mindestens einem Fall ein Schüler von einer aufsichtsführenden Lehrkraft mit einem entsprechenden geöffneten Programm auf seinem Mobiltelefon ertappt. Dieser räumte dies demnach auch ein.

Software prüft Wahrscheinlichkeit des Betrugs
Die Hamburger Schulbehörde bestätigte dem Sender nach dessen Angaben ausserdem einige Verdachtsfälle. In diesem wurden Lehrkräfte bei der Korrektur von Klausuren misstrauisch, weil die Qualität stark schwankte. Einige Abschnitte waren mangelhaft, andere fehlerfrei. Eine Überprüfung mit einer speziellen Software ergab eine hohe Wahrscheinlichkeit dafür, dass die Texte unter dem Einsatz von Anwendungen Künstlicher Intelligenz (KI) verfasst worden waren.

Rechtssicherer Nachweis ist schwierig
In diesen Fällen wird es laut Schulbehörde allerdings schwierig, einen Betrug rechtssicher nachzuweisen, weil die Schüler nicht auf frischer Tat erwischt wurden. Der vom NDR zu den Fällen befragte Vorsitzende der Vereinigung der Hamburger Gymnasialschulleitungen, Christian Gefert, ging dem Bericht zufolge von vereinzelten Fällen aus. Er rechne nicht mit massenhaftem Betrug. Er forderte aber klarere Regeln der Schulbehörde zum Umgang mit KI an Schulen.

ChatGPT ist ein auf fortschrittlicher KI-Technologie basierendes Chatprogramm des Startups OpenAI, das seit November für die Öffentlichkeit zugänglich ist. Die Software generiert auf Nutzeranfragen hin in Sekundenschnelle komplexe schriftliche Antworten. Auch grössere Unternehmen entwickelten inzwischen ähnliche Chatbots. Die Entwicklung löst neben Begeisterung auch massive Befürchtungen aus. Es gibt Forderungen nach staatlicher Regulierung.

Die Nutzung von Chatbots wie ChatGPT in Schulen und Universitäten ist einer der Bereiche, die jüngst auch in Deutschland schon viel diskutiert wurden. Eine am Dienstag vom deutschen Digitalbranchenverband Bitkom veröffentlichte Umfrage unter mehreren hundert Jugendlichen ergab, dass etwa die Hälfte von ihnen die Software bereits für Hausaufgaben, Texte oder zum Lernen nutzte.

(AFP)


Probleme am 26.5.2023: Die KI merkt nicht, wenn eine kriminelle Person die KI nutzt:
Missbrauch vorprogrammiert: Auch Kriminelle können Text-KI für ihre Zwecke einsetzen:
Missbrauch und Unzuverlässigkeit: KI-Chatbots haben Grenzen
https://www.suedtirolnews.it/wirtschaft/missbrauch-und-unzuverlaessigkeit-ki-chatbots-haben-grenzen

KI-Chatbots können begeistern, sogar nützlich sein und Aufgaben übernehmen. Die Technologie dahinter birgt aber auch großes Missbrauchspotenzial. Was kommt da auf Nutzerinnen und Nutzer zu?

KI-Chatbots erzeugen Text von erstaunlich hoher Qualität: Anschreiben, Zusammenfassungen, Aufsätze, Vergleiche, Geschichten in einem bestimmten Schreibstil – oder sogar funktionierenden Programmcode. Die Bots bearbeiten, prüfen, analysieren oder übersetzen aber auch beliebigen Text und Code.

Doch gleichzeitig birgt der Einsatz sogenannter großer Sprachmodelle, auf denen KI-Chatbots basieren, “neuartige IT-Sicherheitsrisiken und verstärkt das Bedrohungspotenzial einiger bekannter IT-Sicherheitsbedrohungen”. Zu diesem Schluss kommt das deutsche Bundesamt für Sicherheit in der Informationstechnik (BSI) in einem Positionspapier.

Das Erstellen oder Verbessern von Schadsoftware oder das Erzeugen von Spam- und Phishing-Mails unter Ausnutzung menschlicher Eigenschaften wie Hilfsbereitschaft, Vertrauen oder Angst (Social Engineering) seien nur zwei Beispiele für bekannte Bedrohungen, die KI-Chatbots weiter verstärken können.

Dazu gesellen sich ganz neue Probleme und Bedrohungen durch KI-Sprachmodelle, die das BSI identifiziert hat. Etwa das große Risiko, dass Angreifer Eingaben von Nutzerinnen oder Nutzern heimlich in ein Sprachmodell umleiten, um den Chat zu manipulieren und Daten oder Informationen abzugreifen. Oder die Möglichkeit, Chatbots zur Produktion von Fake News, Propaganda oder Hassrede zu missbrauchen.

Ein Grundproblem von Chatbots ist, dass die zum Training des Sprachmodells verwendeten Daten und deren Qualität die Funktionalität beeinflussen. So sei es möglich, dass fragwürdige Trainings-Inhalte in KI-generierte Texte einfließen. Zudem könne man sich nie sicher sein, dass KI-generierte Inhalte aktuell oder faktisch korrekt sind.

Fazit: Nutzerinnen und Nutzer sollten kritisch bleiben. Durch sprachlich oft fehlerfrei generierten Text entstehe bei der Nutzung von KI-Sprachmodellen häufig der Eindruck eines menschenähnlichen Leistungsvermögens – und damit ein zu großes Vertrauen in KI-generierte Inhalte.

Von: APA/dpa







Bayern mit KI 27.5.2023: Der Lehrerverband fordert ein KI-Bewertungssystem für SchülerInnen:
Bildung: Bayerischer Lehrerverband: KI macht Noten überflüssig   
https://www.schwarzwaelder-bote.de/inhalt.bildung-bayerischer-lehrerverband-ki-macht-noten-ueberfluessig.61d4cdc8-658f-4c64-9ca5-01807f833628.html

[Die Lehrpersonen wollen sich mit der KI den Streit mit Eltern vom Halse schaffen, wenn die Wahrheit nicht den Erwartungen der Eltern entspricht].

Der Artikel:

Künstliche Intelligenz wird zu einer Herausforderung für Schulen. In Hamburg sollen Abiturienten mit ChatGPT geschummelt haben, in Bayern fordert ein Lehrerverband die Abkehr von der klassischen Benotung.

München/Hamburg - Der Bayerische Lehrer- und Lehrerinnenverband (BLLV) fordert mit dem Vormarsch Künstlicher Intelligenz (KI) eine Reform des klassischen Notensystems - und zwar schnell.

"Ich glaube, dass die schnelle Entwicklung der KI uns kein langsames Weiterentwickeln der Leistungsbewertung erlaubt. Wir müssen einsehen, dass unser Leistungssystem oldschool ist", sagte BLLV-Präsidentin Simone Fleischmann der Deutschen Presse-Agentur in München. [...]

Skepsis bei Bayerns Kultusminister

"Die Art und Weise unseres Schulsystems, die Systemlogik, stößt inzwischen an ihre Grenze. Das hat damit zu tun, dass wir einfach stehen geblieben sind", kritisierte Fleischmann. "Wir wollen immer noch selektieren, aussortieren, Noten geben. Aber wir müssen künftig die Prozesse beurteilen und nicht das Ergebnis."

Bayerns Kultusminister sieht die Forderung skeptisch. Michael Piazolo (Freie Wähler) will auch künftig nicht auf Noten in der Schule verzichten. "Ich bin der Auffassung, dass wir Noten brauchen und viele Schülerinnen und Schüler Noten auch wollen. Man braucht Leistungsnachweise, um selbst zu wissen, wie man in den einzelnen Fächern steht", sagte er der Deutschen Presse-Agentur am Samstag.

Auch der Verband Deutscher Realschullehrer (VDR) hält nicht viel von der Forderung: "Noten und KI schließen sich aus? Welche Logik hinter dieser vermeintlichen Feststellung steckt, erschließt sich einem nicht", sagte der VDR-Bundesvorsitzende Jürgen Böhm. "Nur, weil bei Prüfungen in Hamburg digitale Endgeräte nicht überprüft wurden, sollen Noten abgeschafft werden? Spätestens seit dem grafikfähigen Taschenrechner liegt es in der Verantwortung der Ministerien und letztlich Lehrkräfte, bei Prüfungen besondere Vorkehrungen zu treffen."



Peru 27.5.2023: Die Sprachmaschine ChatGPT unterscheidet Pisco aus Peru und aus Chile:
¿El pisco es peruano o chileno? ChatGPT resuelve el misterio y da sorprendente respuesta

ChatGPT resolvió una de las grandes preguntas que se han los diferentes países sobre el pisco. AQUÍ te dejamos la respuesta.

https://elpopular.pe/actualidad/noticias-peru/2023/05/27/pisco-es-peruano-chileno-segun-chatgpt-ha-sido-sorprendente-respuesta-inteligencia-artificial-539838

Una de las grandes interrogantes para muchos extranjeros es saber si el pisco es peruano o chileno, ya que a pesar de promoverlo como un trago peruano, aún siguen teniendo dudas y es por ello, que lo consultamos con el ChatGPT para que se esclarezca esta situación que incluso se ha convertido en un debate internacional.

Como se sabe, el Perú fue el primer productor de aguardiente de uva en América del Sur, incluso el pintor costumbrista del siglo XIX, Pancho Fierro, realizó una acuarela que representa a un comerciante transportando este licor en tinajas de arcilla llamadas 'piskos'.

Tras un largo tiempo, el consumo de este licor se fue sofisticando y aprovechando para sacar nuevas versiones en las barras de las mejores barras de bares y hoteles del país. En estos lugares nació el famoso “pisco sour”, siendo una exquisitez al paladar y convirtiéndose en el más pedido hasta la fecha.

Tanto fue el fenómeno del pisco en el Perú y el mundo que se han creado varias celebraciones como: El Día del Pisco, Día del Pisco Sour y la semana del Chilcano. Su presencia tampoco es ajena en las celebraciones por semana patria, donde es el acompañamiento de muchos platos, en especial el ceviche.

¿El pisco es peruano o chileno?

Para el ChatGPT el pisco sería originario de la región sudamericana que abarca tanto al Perú como su país hermano Chile. Ambos reclaman la denominación de origen y lo consideran como una bebida tradicional y propia de su cultura. Sin embargo, existe algunas diferencias en la producción y características de ambos piscos.

“En términos generales, el pisco peruano se produce principalmente en la costa sur del Perú, utilizando uvas que cumplen con requisitos específicos de variedades y técnicas de destilación. Por otro lado, el pisco chileno se elabora en varias regiones, principalmente en la zona norte, y también tiene sus propios estándares y métodos de producción”, mencionó.

“Es importante destacar que tanto Perú como Chile cuentan con normativas y regulaciones específicas que protegen y definen la denominación de origen del pisco en cada país. En resumen, el pisco es considerado una bebida emblemática por ambos y sus características rigen a la producción de cada uno”, agregó.





ChatGPT macht Probleme im Basler Schulsystem 6.6.2023: Maturanden müssen länger mündliche Prüfung machen als Beweis, dass die schriftliche Maturarbeit nicht von ChatGPT ist:
Wegen ChatGPT: Basler Gymischüler müssen sich mündlich mehr beweisen
https://www.nau.ch/news/schweiz/wegen-chatgpt-basler-gymischuler-mussen-sich-mundlich-mehr-beweisen-66511992

In Basel-Stadt sollen Gymischüler sich bei ihrer Maturaarbeit künftig mehr mündlich beweisen. Der Grund: ChatGPT!
  • Das kostenlose Internetprogramm ChatGPT stellt die Schulen vor neue Herausforderungen.
  • In Basel sollen sich deshalb Gymischüler bei ihrer Maturaarbeit mehr mündlich beweisen.
  • Der Kanton wird deshalb die kantonale Maturitätsprüfungsverordnung anpassen.

Die Maturaarbeit für den Gymnasiumabschluss ist als Vorbereitung für ein Uni-Studium gedacht. Ein Semester lang haben die Schüler Zeit, sich mit einem Thema tiefer auseinanderzusetzen. Die Schulkinder sollen dabei lernen zu argumentieren, zitieren, Thesen aufzustellen und eigenständig zu schreiben.

In Zeiten, in denen KI-Programme wie ChatGPT auf dem Vormarsch sind und das Recherchieren oder Schreiben übernehmen können, braucht es aber entsprechende Anpassungen. In Basel müssen Maturandinnen und Maturanden künftig etwa mündlich beweisen, dass ihre Maturaarbeit nicht nur künstliche Intelligenz abbildet.




ChatGPT 8.6.2023: gibt Rezept zum Abnehmen - und es funktioniert mit 12 kg in 3 Monaten:
In nur drei Monaten: Dieser Mann hat mit ChatGPT zwölf Kilo abgenommen
https://www.blick.ch/ausland/in-nur-drei-monaten-dieser-mann-hat-mit-chatgpt-zwoelf-kilo-abgenommen-id18649273.html
Künstliche Intelligenz kann das Leben erleichtern – und zwar wortwörtlich. Ein Amerikaner nahm mithilfe von ChatGPT zwölf Kilo ab. Und zwar in nur drei Monaten.

[...] Folgende Tipps erteilte der Chatbot dem Amerikaner:

1
Schuhe dort abstellen, wo sie sichtbar sind
2
Joggingtermin in Kalender eintragen
3
Laufpensum jeden Tag erhöhen
Mit diesen drei Regeln änderte sich das Leben von Mushen. Plötzlich begann ihm das Joggen Spass zu machen. «Der erste Lauf war superleicht, und ich hatte das Gefühl, dass ich mehr schaffen könnte.» Er habe gemerkt, dass ihn die kurze Joggingrunde wirklich erfüllt habe.

Danach habe jeder Lauf genau seinem Leistungsniveau entsprochen. Deshalb habe er sich nie erschöpft gefühlt – und er konnte problemlos weitermachen.

Im April schrieb Mushen schliesslich auf Twitter: «Ich wurde süchtig nach dem Laufen und verlor zwölf Kilogramm. Alles dank ChatGPT.» Sechs Tage pro Woche trieb er Sport. Nach 30 Tagen konnte der Sportmuffel mehr als einen Kilometer am Stück bewältigen.

ChatGPT gibt personalisierte Ratschläge
Und: Das Joggen hatte einen weiteren positiven Effekt. Aufgrund des erhöhten Sportpensums begann Mushen, fast gänzlich auf Alkohol, Zucker und Snacks zu verzichten. Seine Herzfrequenz sei auf ein gesünderes Niveau gesunken. ChatGPT unterstützte ihn dabei mit gesunden Rezepten.

Das Besondere an ChatGPT sei, dass es personenbezogen arbeitet und so sein Gegenüber sehr gut kennenlernt. Mushen wurde zuerst zu kleinen Schritten motiviert, bevor er den Antrieb schliesslich von allein fand.




https://de.rt.com/inland/172515-ki-statt-pfarrer-chatgpt-haelt/

Der Chatbot ChatGPT hat erstmals einen komplett digitalen Gottesdienst in Deutschland abgehalten. Statt eines Pfarrers predigten unterschiedliche Avatare über dem Altar der Paulskirche im bayerischen Fürth.

Hunderte Gläubige haben sich vergangene Woche im bayerischen Fürth zu einem Gottesdienst versammelt, der fast komplett von künstlicher Intelligenz generiert wurde. Erstellt wurde er von dem Chatbot ChatGPT und von Jonas Simmerlein, einem Theologen und Philosophen der Universität Wien. "Ich sagte der Künstlichen Intelligenz: 'Wir sind auf dem Kirchentag, Sie sind Prediger … wie würde ein Gottesdienst aussehen?'", erklärte Simmerlein gegenüber der Agentur AP. "Ich habe das Projekt zwar gestartet, den Entstehungsprozess aber nur begleitet. 98 Prozent des Gottesdienstes stammen von der Maschine". Jedoch habe der Theologe nicht vor, Kirchenvertreter durch künstliche Intelligenz zu ersetzen. Der Einsatz von KI sei jedoch eine Möglichkeit, sie bei ihrer täglichen Arbeit zu unterstützen, erklärte er.




KI ChatGPT am Tennistournier in Wimbledon 22.6.2023: KI wird in Wimbledon teilweise Kommentatoren ersetzen

https://transition-news.org/ki-wird-in-wimbledon-teilweise-kommentatoren-ersetzen

Der All England Club hat angekündigt, dass in diesem Jahr auf seiner App und Website KI-Sprachgeneratoren die täglichen Highlight-Clips des Tennisturniers kommentieren werden.






KI ChatGPT in Kolumbien am 23.6.2023: provoziert nur Chaos vor Gericht und hat Fälle ERFUNDEN - Opfer ist Avianca:
KI generiert fiktive Fälle: US-Anwälte verurteilt

https://orf.at/stories/3321326/

Ein US-Gericht hat gestern (Ortszeit) zwei Anwälte sowie deren Anwaltskanzlei zu einer Geldstrafe von 5.000 US-Dollar (rund 4.600 Euro) verurteilt, nachdem sie gefälschte Rechtsgutachten eingebracht hatten, die mit dem KI-Chatbot ChatGPT generiert worden waren.

Einer der beiden Anwälte, Steven Schwartz, hatte zugegeben, dass ChatGPT sechs Fälle erfunden hatte, auf die er sich in einem juristischen Verfahren gegen die kolumbianische Fluggesellschaft Avianca bezogen hatte – allerdings hätte er das nicht mit Absicht getan.

In einer Erklärung von Schwartz, seinem Kollegen und der Kanzlei hieß es: „Wir haben einen gutgläubigen Fehler begangen, als wir nicht glaubten, dass ein Stück Technologie Fälle aus dem Nichts erfinden könnte.“ Eine weitere Stellungnahme zu den Vorwürfen lehnten alle Beteiligten ab.

Aufgefallen war das, nachdem Anwälte der Fluggesellschaft darauf aufmerksam gemacht hatten, dass sie einige der im Verfahren genannten Fälle nicht finden konnten. Das Verfahren gegen Avianca wurde daraufhin auf Antrag der Fluggesellschaft eingestellt, mit der Begründung, die Klage wurde zu spät eingereicht.

Gericht: Verwendung von KI in Ordnung, aber …

Das Gericht hielt fest, dass es „an sich nichts Unzulässiges“ sei, wenn Anwälte künstliche Intelligenz (KI) „zur Unterstützung“ einsetzten, aber die anwaltlichen Ethikregeln würden „den Anwälten eine Kontrollfunktion auferlegen, um die Genauigkeit ihrer Unterlagen sicherzustellen“.

Das Gericht sagte außerdem, dass die Anwälte „weiterhin an den gefälschten Gutachten festhielten“, nachdem man gemeinsam mit der Fluggesellschaft deren Existenz infrage gestellt hatte. Die beiden Anwälte müssten zudem die Richter, allesamt echte Personen, die als Autoren der gefälschten Fälle identifiziert wurden, über den Fall informieren.





30.6.2023:
Sprachmodelle: KI schreibt überzeugende Falschmeldungen
https://science.orf.at/stories/3220078/

Im Mittelpunkt der Debatte über künstliche Intelligenz (KI) steht auch die Sorge vor automatisch generierter Falschinformation. Wie berechtigt diese ist, untermauert eine aktuelle Studie, wonach KI-generierte Texte in sozialen Netzwerken oft glaubwürdiger erscheinen als jene von Menschen. Ein heimischer Experte plädiert für eine strenge Regulierung – in Österreich gebe es generell großen Aufholbedarf.

Künstliche Intelligenz soll in Europa künftig in vier Bereiche eingeteilt werden – abhängig von dem Risiko, das von den KI-Systemen ausgeht. Das ist das Ziel des Europäischen Parlaments mit dem geplanten “AI Act“ – dem weltweit ersten umfassenden KI-Gesetz. Als besonders riskant gelten darin Gesichtserkennungssoftwares zur Echtzeitüberwachung der Bevölkerung – ihr Einsatz soll in Europa künftig komplett untersagt werden.

Wie gefährlich beliebte KI-Sprachmodelle wie Chat-GPT sind, ist hingegen weniger klar. Debattiert wird unter anderem das Risiko, dass sich mit Hilfe der künstlichen Intelligenz automatisch generierte Falschinformationen in der Bevölkerung verbreiten.

Studie untermauert Bedenken

Dass KI-Sprachmodelle durchaus dazu in der Lage sind, zeigen Schweizer Forscherinnen und Forscher in einer aktuell im Fachjournal „Science Advances“ präsentierten Studie. Das Team von der Universität Zürich wollte unter anderem klären, ob Menschen KI-generierte Texte auf Twitter als solche erkennen. Die fast 700 Probandinnen und Probanden waren nicht dazu in der Lage, die KI-Tweets zuverlässig von den Texten realer Personen zu unterscheiden.

“Fake News“ wirken überzeugend

Das Team wollte außerdem klären, ob die Probandinnen und Probanden Falschinformationen in den Tweets erkennen – sowohl in den KI-generierten Texten als auch in jenen von realen Menschen. Die Tweets beinhalteten dabei Aussagen über den Klimawandel, die Sicherheit von Impfstoffen, die CoV-Pandemie, die Theorie, die Erde sei eine Scheibe, und homöopathische Behandlungen für Krebserkrankungen.

KI schreibt überzeugende Falschmeldungen

Es zeigte sich, dass die vom Sprachmodell GPT-3 generierten Texte oft leichter verständlich waren als die Texte von realen Twitter-Nutzerinnen und -Nutzern – auch wenn der Inhalt nicht der Wahrheit entsprach. Die „Fake News“ der KI wirkten laut den Probandinnen und Probanden oft überzeugender als falsche Informationen, die von Menschen geschrieben wurden.




: ChatGPT-Gründer warnen vor «Entmachtung der Menschheit»

https://www.nau.ch/news/amerika/chatgpt-grunder-warnen-vor-entmachtung-der-menschheit-durch-ki-66538617




Google macht GPT Konkurrenz mit Bard am 13.7.2023:
Google lanciert Chat-GPT-Konkurrent "Bard" nun auch in der Schweiz

https://www.swissinfo.ch/ger/google-lanciert-chat-gpt-konkurrent--bard--nun-auch-in-der-schweiz/48662162

Google hat seinen KI-Textroboter Bard in Europa und damit auch in der Schweiz gestartet. Ab heute könne er in der Schweiz, in ganz Europa und...





UNO in New York / Genf 14.7.2023: Die kriminell-korrupte Satanisten-UNO meint, sie könne KI kontrollieren:
UNO-Resolution zu KI-Kontrolle verabschiedet

https://orf.at/stories/3323973/

Der UNO-Menschenrechtsrat hat eine Resolution zu Schutz- und Kontrollmaßnahmen bezüglich künstlicher Intelligenz (KI) verabschiedet. Die „Transparenz“ von KI-Systemen solle gefördert werden, hieß es in der heute beschlossenen Resolution. Zudem sollten die für die KI-Technologie gebrauchten Daten „auf menschenrechtskonforme Weise gesammelt, verwendet, weitergegeben, archiviert und gelöscht“ werden.

Die von Österreich, Dänemark, Brasilien, Südkorea, Marokko und Singapur vorgeschlagene Resolution wurde im Konsens angenommen. China und Indien gaben an, dass sie mit dem Konsens nicht komplett einverstanden seien, stellten sich der Resolution aber nicht entgegen. Peking erklärte, der Text enthalte „kontroverse“ Elemente, ohne Einzelheiten zu nennen.

Der UNO-Menschenrechtsrat hatte sich bereits zuvor mit neuen Technologien befasst, ging dieses Mal aber erstmals genauer auf die Entwicklung im Bereich KI ein. Die Resolution unterstreiche die „Notwendigkeit von Schutzmaßnahmen“ und „menschlicher Kontrolle in Bezug auf KI“, erläuterte der belgische Botschafter Marc Pecsteen von Buytswerve.




ChatGPT in den "USA" am 14.7.2023: kommt nun unter Aufsicht:
Textroboter: US-Aufsicht nimmt sich ChatGPT vor   
https://www.schwarzwaelder-bote.de/inhalt.textroboter-us-aufsicht-nimmt-sich-chatgpt-vor.b77e5489-7af0-4e15-ac49-1005b43420b5.html

Birgt der Chatbot Gefahren für Verbraucher? Das will eine amerikanische Behörde jetzt herausfinden. In der Vergangenheit ist ChatGPT jedenfalls schon negativ aufgefallen.

Washington - Die amerikanische Verbraucherschutz-Behörde FTC nimmt laut Medienberichten den Chatbot ChatGPT ins Visier. Sie habe der Entwicklerfirma OpenAI einen ausführlichen Fragenkatalog zu Gefahren für Verbraucher geschickt, schrieben die "Washington Post" und die "New York Times". Die FTC fokussiere sich dabei auf den Umgang mit Nutzerdaten sowie Fälle, in denen ChatGPT falsche Angaben über Personen mache.

ChatGPT sorgt seit Ende vergangenen Jahres für Aufsehen, weil der Chatbot auf dem sprachlichen Niveau eines Menschen kommunizieren kann. Die Software wurde dafür mit einer gewaltigen Menge an Daten trainiert. Sie bildet Sätze, indem sie Wort für Wort abschätzt, wie ein Satz weitergehen könnte. Ein Nachteil des Prinzips ist, dass das Programm kein Verständnis für die Inhalte hat: Deshalb kann es auch mit Überzeugung Informationen ausgeben, die völlig falsch sind.
Lesen Sie auch
Drei Promille in VS Alkoholisiert gefahren und Frau geschlagen - Führerscheinentzug
Villinger Färberstraße Kneipenmeile: Der Erste macht das Licht aus
Unsere Redaktion hat’s gecheckt So lange steht man im Europa-Park wirklich an
ChatGPT verbreitet Unwahrheiten

In den vergangenen Monaten wurden mehrfach Fälle bekannt, in denen ChatGPT über Menschen Unwahrheiten erfand, die ihrem Ruf schaden könnten. So behauptete die Software, es gebe Vorwürfe sexueller Belästigung gegen einen Jura-Professor und verwies als Beleg auf einen angeblichen Bericht in der "Washington Post". Doch es gab weder die Anschuldigungen, noch einen Artikel darüber, wie die Zeitung bereits im April berichtete. Über einen Bürgermeister aus Australien behauptete die Software laut Medienberichten fälschlicherweise, er sei zu einer Gefängnisstrafe verurteilt worden.

Durch die Medien ging die Geschichte eines US-Anwalts, der sich nach eigenen Angaben auf Informationen aus ChatGPT bei der Argumentation in einem Gerichtsfall verließ. Mehrere von ihm zitierte angebliche Urteile erwiesen sich als frei erfunden.

Was die Datensicherheit angeht, gab es im März einen Vorfall, bei dem einige ChatGPT-Nutzer die Chat-Historie anderer Personen einsehen konnten. Die Zahl der Betroffenen sei "extrem niedrig" gewesen, schrieb OpenAI dazu in einem Blogeintrag.

Die FTC (Federal Trade Commission) wolle von der Firma unter anderem Unterlagen zu diesem Vorfall, schrieb die "Washington Post" am Donnerstag. Sie frage auch nach Erkenntnissen von OpenAI darüber, wie bewusst den Nutzern sei, dass ChatGPT ihnen falsche Informationen geben könne. Zudem wolle sie mehr über Vorsichtsmaßnahmen erfahren, die OpenAI treffe, bevor neue Versionen der Software öffentlich verfügbar gemacht werden.


Bard am 14.7.2023: kann nun auch Deutsch:
Künstliche Intelligenz: Google-Chatbot Bard spricht jetzt auch Deutsch   
https://www.schwarzwaelder-bote.de/inhalt.kuenstliche-intelligenz-google-ki-chatbot-bard-jetzt-auch-in-deutschland-verfuegbar.78a46a45-254a-4d32-a20f-4c2d149e3a10.html

Nach den USA und Großbritannien ist Bard, Googles KI-Textroboter, jetzt auch in Deutschland nutzbar. Für die Verzögerung hatten auch die strengen europäischen Datenschutzregeln gesorgt.

Mountain View - Der Chatbot Bard von Google kann nun auch ganz offiziell in Deutschland und ganz Europa genutzt worden. Der Internet-Konzern entfernte die Blockaden für Nutzerinnen und Nutzer in ganz Europa und Brasilien.

"Bard ist jetzt in den meisten Ländern der Welt verfügbar", sagte Google-Manager Jack Krawczyk, der bei dem Internetriesen für Bard verantwortlich ist. Gleichzeitig hat der Dienst ein paar neue Funktionen bekommen, die künftig die Nutzung der Künstlichen Intelligenz (KI) für ein Massenpublikum zugänglich und nützlich machen sollen.

Google hatte zunächst nur sehr zögerlich auf den Vorstoß des kalifornischen Start-ups OpenAI reagiert, das mit seinem Textroboter ChatGPT seit November vergangenen Jahres in wenigen Wochen über 100 Millionen User gewonnen hatte. Zunächst wurde Bard Mitte März nur auf Englisch in den USA und in Großbritannien gestartet. Im Mai kamen Japanisch und Koreanisch hinzu. Auf der neuen Liste von 180 freigeschalteten Ländern fehlten allerdings alle 27 Länder der Europäischen Union, weil zuvor noch Absprachen mit Regulierern getroffen und Anpassungen vorgenommen werden mussten.

"Mechanismen der Verantwortung"

Google hat die Monate seit dem Start von Bard aber nicht nur für den Dialog mit den Behörden genutzt, sondern in der Zeit auch etliche Hausaufgaben erledigt, um Bard quasi weltweit anbieten zu können. Dem KI-System Bard die deutsche Sprache beizubringen, fiel Google dabei noch sehr leicht. "Das Modell wird anhand von öffentlich zugänglichen Informationen aus dem Internet trainiert", erläuterte Google-Manager Krawczyk. "Die gute Nachricht ist: Es gibt eine Menge hochwertiger öffentlicher Informationen, die dem Modell helfen."

Die eigentliche Herausforderung bei der Einführung einer Sprache liege nicht so sehr in der Sprachqualität, sondern in den Inhalten der Antworten. "Wie verhindert man, dass eine schädliche und hasserfüllte Sprache präsentiert wird?" Aufwendig sei, ohne Zeitverzug auf inhaltliche Herausforderungen einzugehen und "Mechanismen der Verantwortung" zu schaffen. "Wie schaffen wir in unseren Teams die Mechanismen, um schnell darauf zu reagieren und uns anzupassen?" Google habe viel Zeit damit verbracht, diese "Mechanismen der Verantwortung" zu lernen, zuerst auf Japanisch und Koreanisch, und jetzt auch in Sprachen wie Deutsch, Arabisch, Chinesisch, Hindi und Spanisch.
Neue Funktionen

Zeitgleich mit der regionalen Ausdehnung führt Google bei Bard auch neue Funktionen ein. So kann das System die Antworten auch vorlesen. Diese Funktion ist jetzt auf Deutsch und in über 40 weiteren Sprachen verfügbar. Gleichzeitig kann man die Antworten von Bard auch auf die eigenen Bedürfnisse anpassen und die Tonalität sowie Stil auf verschiedene Optionen einstellen. Zur Auswahl stehen "einfach, lang, kurz, professionell und umgangssprachlich". So kann man zum Beispiel Bard bitten, beim Verfassen einer Anzeige für einen alten Sessel zu helfen, und die Antwort dann bei Bedarf mithilfe der Dropdown-Liste kürzen. Diese Funktion ist zunächst nur in Englisch verfügbar und wird nach Angaben von Google bald auf weitere Sprachen ausgeweitet.

Neu ist auch die Funktion, Spracheingaben mit dem Hochladen von Bildern zu kombinieren. Damit kann man beispielsweise ein Foto des Etiketts einer Weinflasche hochladen und sich von Bard ausführlich erklären lassen, welches Hauptgericht dazu am besten passt. Diese Funktion gibt es bislang nur auf Englisch, und sie soll aber bald in weiteren Sprachen verfügbar sein.

Nützlich ist auch die neue Option, einen Chat mit dem Bot in der Seitenleiste anzupinnen. So muss man einen Dialog mit Bard, etwa zur Planung einer Urlaubsreise, nicht mehr in einem Rutsch zu Ende bringen, sondern man kann ihn später wieder aufrufen. Bard wird auch sozialer: Wer mit anderen Nutzerinnen und Nutzern teilen möchte, was Bard generiert hat, kann nun direkt einen Link zum Chat mit Bard verbreiten.
Konzern klärt wichtige Fragen vorab

Die für Google in Europa zuständige irische DatenschutzKommission DPC hatte zunächst Bedenken geäußert, ob Bard die Bestimmungen der Europäischen Datenschutz-Grundverordnung (DSGVO) einhält. Krawczyk sagte, man habe nicht nur mit dem irischen Datenschutz-Kommissar gesprochen, sondern mit vielen Datenschutz-Behörden in Europa, darunter auch mit dem Hamburgischen Beauftragten für Datenschutz, der in Deutschland für Google zuständig ist. Die Gespräche seien sehr produktiv verlaufen.

In den Anfangszeiten von Google nach der Gründung 1998 wurde bei der Einführung neuer Dienste oft die US-Computerpionierin Grace Hopper zitiert: "Es ist leichter, um Vergebung zu bitten, als eine Genehmigung zu bekommen." Inzwischen klärt der Konzern wichtige Fragen vorab mit den Regulierern, um sich nicht mehr nachträglich entschuldigen zu müssen.

Google-Manager Krawczyk sagte in einem Gespräch mit der Deutschen Presse-Agentur, sämtliche Funktionen von Bard würden weiterhin kostenlos angeboten. "Im Moment konzentrieren wir uns darauf, Bard für die Anwenderinnen und Anwender so nützlich wie möglich zu machen. Wir fokussieren uns also im Moment nicht auf die Monetarisierung." Google-Wettbewerber OpenAI bietet dagegen für seinen Dienst eine kostenpflichtige Abo-Variante ChatGPT Plus an. Für 20 Dollar im Monat bietet OpenAI eine bessere Verfügbarkeit bei hoher Nachfrage, eine schnellere Reaktionszeit und bevorzugten Zugang zu neuen Funktionen wie den neuesten Sprachmodellen an.



Microsoft unt Bing Chat 18.7.2023: Gewerbliche Nutzung von Bing Chat kostet 20 Euro pro Monat:
Ab 20 Euro im Monat: Microsoft lässt Firmen für KI-Nutzung zahlen
https://www.blick.ch/digital/ab-20-euro-im-monat-microsoft-laesst-firmen-fuer-ki-nutzung-zahlen-id18760795.html

Bing Chat, der Textroboter von Microsoft, wird künftig bei einer gewerblichen Nutzung nicht mehr komplett kostenlos sein. Das kündigte das Unternehmen am Dienstag in einem Blogeintrag an.

Um den Dienst in einem kommerziellen Umfeld weiter verwenden zu können, ist künftig ein Software-Abo von «Microsoft 365» Voraussetzung, das ab ungefähr 20 Euro im Monat pro Benutzer zu haben ist. Kundinnen und Kunden, die den Dienst ohne das umfassende Softwarepaket 365 einsetzen möchten, können Bing Chat als eigenständiges Angebot für 5 US-Dollar pro Benutzer und Monat abonnieren.

Die Preise in US-Dollar beziehen sich auf die USA. Wie viel der Dienst in Europa kosten wird, wurde zunächst nicht kommuniziert. Für private Anwender bleibt der Dienst vorerst kostenlos.

Microsoft-Manager Yusuf Mehdi kündigte in dem Blogeintrag auch die Preise für das deutlich umfangreichere KI-Paket «Microsoft 365 Copilot» für gewerbliche Kunden an. Es soll einen Aufschlag von 30 Dollar pro Benutzer und Monat zusätzlich zu dem 365-Abo kosten. Copilot ist eng mit den Microsoft-Office-Anwendungen verwoben und kann Inhalte aus E-Mails, Kalender, Chats und Dokumenten analysieren.

Mehdi erklärte, einige generative KI-Apps (wie ChatGPT) konzentrierten sich auf eine einzige Fähigkeit - etwa auf eine Transkription in Echtzeit oder die Konzeption von Texten. Microsoft Copilot stelle dagegen «Tausende von Fähigkeiten zur Verfügung» und könne dabei «alle Inhalte und Kontexte durchdenken, um jede Aufgabe zu übernehmen».

Der Software-Manager betonte, Microsoft biete bei Bing Chat Enterprise einen hohen Datenschutz. Dabei seien Benutzer- und Geschäftsdaten geschützt und könnten nicht nach aussen dringen. «Was reinkommt - und was rauskommt - bleibt geschützt. Chat-Daten werden nicht gespeichert, und Microsoft hat keinen Zugriff auf sie - das heisst, niemand kann Ihre Daten einsehen», versicherte Mehdi. Ausserdem würden die Kundendaten auch nicht zum Trainieren der Sprachmodelle verwendet.

Die von Microsoft verwendete Technik setzt vor allem auf dem Sprachmodell GPT-4 auf, das erst Mitte März vom Start-up OpenAI einer breiteren Öffentlichkeit vorgestellt worden war. Microsoft ist mit dem kleinen Unternehmen aus San Francisco eng verbunden und hat nach Branchenschätzungen rund 13 Milliarden Dollar in OpenAI investiert. An der Seite von OpenAI steht Microsoft vor allem im Wettbewerb mit Google und seinem KI-Dienst Bard.

(SDA)



Kriminelle KI ChatGPT am 19.7.2023: nutzt "US"-Romane, Bücher und Aufsätze OHNE BEWILLIGUNG!
Kompensation gefordert: US-Autoren protestieren wegen Nutzung ihrer Werke für KI
https://www.suedtirolnews.it/unterhaltung/leute/us-autoren-protestieren-wegen-nutzung-ihrer-werke-fuer-ki

Mehr als 8.000 Schriftsteller und Schriftstellerinnen in Nordamerika, darunter Dan Brown, James Patterson, Jodi Picoult, Margaret Atwood und Jonathan Franzen, haben mit einem offenen Brief gegen die kostenlose Nutzung ihrer Werke für die Entwicklung künstlicher Intelligenz protestiert. “Millionen von urheberrechtlich geschützten Büchern, Artikeln, Essays und Gedichten bieten die Nahrung für KI-Systeme – unendliche Mahlzeiten, für die es keine Rechnung gab”, hieß es.

“Ihr gebt Milliarden von Dollar aus, um KI-Technologien zu entwickeln. Es ist nur fair, dass ihr uns dafür kompensiert, unsere Werke zu benutzen, ohne die die KI banal und extrem limitiert wäre.” Bei der generativen KI werden Inhalte wie Texte, Bilder oder Videos maschinell erstellt, entwickelt wird sie unter anderem mit veröffentlichtem Material.

Die Authors Guild, die das Schreiben verfasst hat, beschreibt sich selbst als ältesten und größten Autoren-Verband in Nordamerika und als Vertretung für rund 13.000 Mitglieder, alles Autoren und Autorinnen, die bereits Werke veröffentlicht haben. [...]

Von: APA/dpa




Worm GPT am 20.7.2023: kann auch Daten klauen:
ChatGPTs böser Zwilling: „WormGPT“ eine fortgeschrittene KI dringt lautlos in E-Mails ein und kann ihr Bankkonto plündern

https://uncutnews.ch/chatgpts-boser-zwilling-wormgpt-eine-fortgeschrittene-ki-dringt-lautlos-in-e-mails-ein-und-kann-ihr-bankkonto-plundern/


Briten-Politiker lässt Wahlprogramm von KI erstellen

https://www.nau.ch/politik/international/briten-politiker-lasst-wahlprogramm-von-ki-erstellen-66547728s


James Cameron fürchtet Militarisierung von KI

https://www.nau.ch/news/digital/james-cameron-furchtet-militarisierung-von-ki-66547469



KI am 22.7.2023: verspricht "verantwortungsvollen Umgang" mit der eigenen Technologie:
Künstliche Intelligenz: KI-Firmen versprechen dem US-Präsidenten mehr Umsicht   
https://www.schwarzwaelder-bote.de/inhalt.kuenstliche-intelligenz-ki-firmen-versprechen-dem-us-praesidenten-mehr-umsicht.d04399f6-5872-4d69-8e07-a7f770a7089f.html

Washington - Sieben wichtige Entwicklerfirmen von Software mit Künstlicher Intelligenz gehen eine Selbstverpflichtung zum verantwortungsvollen Umgang mit der Technologie ein. Dazu gehört, dass KI-Programme vor der Veröffentlichung auf ihre Risiken geprüft werden. Auch sollen von Software mit Künstlicher Intelligenz erstellte oder veränderte Inhalte gekennzeichnet werden, wie US-Präsident Joe Biden sagte.

Zu den teilnehmenden Unternehmen gehören unter anderem Google, Amazon, der Facebook-Konzern Meta und Microsoft. Dabei ist auch die Firma OpenAI, deren Technologie hinter dem populären Chatbot ChatGPT steht.




KI leitet Spital 25.7.2023: und kann negative Entscheidungen fällen:
Entscheidungen von KI im Gesundheitswesen kann den Patienten schaden, doch Big-Tech will die Regulierung von KI bekämpfen

https://uncutnews.ch/entscheidungen-von-ki-im-gesundheitswesen-kann-den-patienten-schaden-doch-big-tech-will-die-regulierung-von-ki-bekaempfen/

Googles Entdeckung und Ausnutzung des Überwachungskapitalismus verblasst im Vergleich zur Verbreitung von KI im Gesundheitswesen. Es ist ein wilder Westen der ständigen Gesetzlosigkeit ohne Rechenschaftspflicht oder Transparenz. Was auch immer in den nächsten zwei oder drei Jahren an Gewinnen erzielt werden kann, wird darüber entscheiden, wer den Großteil der Marktanteile und damit die ewigen Gewinne hat. ⁃ TN-Redakteur

Wie STAT berichtet, wehren sich große Technologieunternehmen gegen die vorgeschlagenen Bundesvorschriften, die eine stärkere Überwachung der in der Patientenversorgung eingesetzten Tools für künstliche Intelligenz (KI) vorsehen.

Die Unternehmen, darunter Google, Amazon und Epic, werden durch den Verkauf einer Vielzahl von Tools an Versicherer und Anbieter, die von der Automatisierung klinischer Dokumentationsverfahren über die Bewertung von Versicherungsansprüchen bis hin zur virtuellen Pflege reichen, von der Ausweitung der KI im Gesundheitswesen profitieren.

Die Technologiebranche hat sich gemeinsam mit großen Gesundheitsdienstleistern, großen privaten Versicherern und Anbietern medizinischer Software gegen den Vorschlag des Office of the National Coordinator for Health Information Technology (ONC) ausgesprochen, die Transparenz von KI- und ML-Technologien, die die Entscheidungsfindung im Gesundheitswesen unterstützen, einzuschränken und auszuweiten – was das ONC als „Predictive Decision Support Interventions“ (DSI) bezeichnet.

Das ONC, das im US-Gesundheitsministerium angesiedelt ist und die elektronischen Gesundheitsdaten überwacht, hat im April Regeln für Gesundheitsdaten, Technologie und Interoperabilität“ vorgeschlagen.

Die Regeln können bis zum 20. Juli öffentlich kommentiert werden.

Die vorgeschlagenen Regeln, die den 21st Century Cures Act aktualisieren, sollen das Mandat der Biden-Administration unterstützen, das öffentliche Vertrauen in KI zu erhöhen, indem Kliniker in ihren elektronischen Gesundheitsdatensystemen mehr Informationen über die KI-Algorithmen erhalten, damit sie die Anwendbarkeit der Technologie für eine bestimmte Patientenpopulation oder einen bestimmten Umstand besser beurteilen können, so das ONC gegenüber Reportern.

Eine Studie, die letztes Jahr im Journal of Medical Internet Research veröffentlicht wurde, stellte fest, dass es trotz der Vielzahl von Behauptungen über die Vorteile von KI bei der Verbesserung klinischer Ergebnisse nur wenige belastbare Beweise gibt“.

Dieser Mangel an Beweisen hat jedoch weder Tech-Giganten davon abgehalten, KI-Tools zu entwickeln, noch private Gesundheitsunternehmen davon abgehalten, sie zunehmend zu nutzen, um „lebensverändernde Entscheidungen mit wenig unabhängiger Aufsicht zu treffen“, stellte STAT fest, nachdem es geheime Unternehmensdokumente und Hunderte von Seiten von Bundesunterlagen und Gerichtsakten geprüft hatte.

Befürworter preisen die Ausweitung der künstlichen Intelligenz im Gesundheitswesen als einfache Möglichkeit, Kosten zu senken und die Versorgung zu verbessern, indem unter anderem die Zeit, die die Patienten mit den Ärzten verbringen, reduziert wird, insbesondere in der Primärversorgung.

Doch Kritiker wie der Anwalt und Gesundheitsaktivist Ady Barkan sagen, dass es immer mehr Beweise dafür gibt, dass KI-Entscheidungen im Gesundheitswesen den Patienten schaden. „Roboter sollten keine Entscheidungen über Leben und Tod treffen“, sagte er.

In ihrem Vorschlag für die neuen Regeln führte die ONC auch Bedenken darüber an, dass es immer mehr Beweise dafür gibt, dass prädiktive Modelle das Potenzial für viele verschiedene Risiken einführen und erhöhen, die negative Auswirkungen auf Patienten und Gemeinschaften haben.

Als Reaktion darauf schlägt das ONC ein neues Kriterium für „entscheidungsunterstützende Interventionen“ vor, das neue Transparenz- und Risikomanagementerwartungen für KI- und ML-Technologien zur Unterstützung der Entscheidungsfindung im Gesundheitswesen schaffen würde.

Die neuen Vorschriften würden auch für Modelle der Informationstechnologie im Gesundheitswesen gelten, die eine Schnittstelle zu KI haben.

Die wichtigsten vom ONC vorgeschlagenen Änderungen sehen vor, dass alle diese Systeme den Nutzern Informationen über die Funktionsweise der Algorithmen zur Verfügung stellen müssen – und zwar in einfacher Sprache, ähnlich wie bei einer „Nährwertkennzeichnung“.

Die Regeln verlangen auch, dass für alle Systeme neue Verfahren für das Risikomanagement entwickelt werden. Und die Informationen über das Risikomanagement müssten öffentlich zugänglich sein.

Die Entwickler wären auch verpflichtet, einen Mechanismus für öffentliches Feedback bereitzustellen.

„Wenn der Vorschlag für die DSI-Vorschriften verabschiedet wird“, so die National Law Review, „wird er die Entwicklung, den Einsatz und die Verwendung von KI/ML-Tools im Gesundheitswesen erheblich beeinflussen.“

Tech-Giganten sagen, Transparenzregeln würden sie zur Offenlegung von „Geschäftsgeheimnissen“ zwingen

Mehr als 200 öffentliche Kommentare, die bei ONC zu dem Vorschlag eingereicht wurden – hauptsächlich von Technologie- und Gesundheitsunternehmen, die den Vorschriften unterliegen werden – „machen deutlich, welche Schlacht bevorsteht, wenn Unternehmen um den Einsatz immer leistungsfähigerer KI-Tools in sicherheitskritischen Sektoren wie dem Gesundheitswesen wetteifern, wo die potenziellen Gewinnmargen viel größer sind als die Fehlermarge“, so STAT.

Viele von Googles eigenen Wissenschaftlern sowie führende Tech-Milliardäre und KI-Entwickler haben öffentlich Bedenken geäußert, dass KI eine existenzielle Bedrohung für die Menschheit und unmittelbare Risiken für die menschliche Gesundheit und das Wohlbefinden darstellt.

In ihren Schreiben an das ONC äußerten Technologieunternehmen, Versicherer und Anbieterverbände jedoch „Bedenken“ zu den vorgeschlagenen Regelungen. Sie sagten, die vorgeschlagenen Regeln seien „übermäßig weit gefasst“ und die geforderte Transparenz würde sie dazu zwingen, „geistiges Eigentum“ und „Geschäftsgeheimnisse“ offenzulegen.

In seiner Stellungnahme wandte sich Google gegen eine zu weit gefasste oder unnötige Offenlegungspflicht“, die die Kosten für Entwickler und damit für die Verbraucher erhöhen würde.

Google sagte auch, dass die Einbeziehung von generativer KI oder großen Sprachmodellen wie BARD, zusammen mit den so genannten „risikoarmen“ KI-Tools, eine unangemessene Belastung für die Unternehmen darstellen würde.

Aber selbst die Weltgesundheitsorganisation (WHO) hat erklärt, dass die unzureichende Regulierung von durch künstliche Intelligenz generierten großen Sprachmodellen das menschliche Wohlergehen gefährdet, wobei sie Programme wie BARD und ChatGPT besonders hervorhebt.

Amazon schrieb auch, dass das ONC mit der Anwendung seiner Regeln auf eine breite Klasse von Technologien, die auf prädiktiver KI/ML beruhen, weit über das hinausgeht, was zur Regulierung der Branche und zur Risikominderung angemessen wäre.

Epic Systems, der landesweit größte Anbieter von elektronischen Gesundheitsakten, argumentierte in seiner Stellungnahme ebenfalls, dass die von der ONC vorgeschlagenen Vorschriften zu weit gefasst seien, und erklärte, dass die ONC die Offenlegung der Funktionsweise von KI nicht zu einer Voraussetzung für die Zertifizierung von Gesundheits-IT-Systemen machen sollte.

„Wenn zertifizierte Entwickler von Gesundheits-IT-Systemen ihr geistiges Eigentum offenlegen müssen, während nicht zertifizierte Entwickler von Vorhersagemodellen nicht zur gleichen Offenlegung verpflichtet sind, würde ein erhebliches Ungleichgewicht in der Markttransparenz – und letztlich auch im Innovationsanreiz – entstehen“, schrieb das Unternehmen.

Fehlende Aufsicht ermöglicht es Unternehmen, Algorithmen zu manipulieren, um ihre Gewinne zu steigern

Kritiker der wachsenden unkontrollierten und unregulierten Rolle von KI/ML im Gesundheitswesen, darunter Forscher, die KI entwickeln, und Gesundheitsdienstleister, argumentierten, dass die vorgeschlagenen Regeln nicht weit genug gehen, um die Öffentlichkeit zu informieren und zu schützen.

In einem Schreiben, das eine interdisziplinäre Gruppe von 34 Wissenschaftlern der University of Michigan – mit Mitunterzeichnern aus mehr als 30 anderen Gesundheitsforschungseinrichtungen in den USA und Europa – beim ONC eingereicht hat, wird das ONC aufgefordert, strengere Vorschriften anzuwenden.

Sie argumentierten, dass die Öffentlichkeit auch darüber informiert werden sollte, welche Daten in diese Modelle einfließen – dazu gehört auch die Forderung nach Transparenz darüber, welche Variablen die Modelle für ihre Vorhersagen verwenden und woher die Daten stammen, die zum Trainieren und Bewerten der KI/ML-Systeme verwendet werden.

Das Versäumnis, die Öffentlichkeit über diese Informationen zu informieren, hat in jüngster Zeit zu „Rückschlägen und Schäden durch den Einsatz von Vorhersagemodellen im Gesundheitswesen“ geführt, schreiben sie.

Neue Erkenntnisse zeigen aber auch, wie der Mangel an Transparenz und Regulierung es Unternehmen ermöglicht, Algorithmen zu manipulieren, um ihren Gewinn zu steigern – mit schwerwiegenden Folgen für die menschliche Gesundheit.

Eine STAT-Untersuchung vom März ergab, dass KI die Zahl der Ablehnungen von medizinischen Anträgen bei Medicare Advantage in die Höhe schnellen lässt. Die Untersuchung ergab, dass Versicherer unregulierte prädiktive Algorithmen verwenden, die von naviHealth entwickelt wurden, um den Punkt zu bestimmen, an dem sie plausibel die Zahlung für die Behandlung älterer Patienten einstellen können.

Vergangene Woche berichtete STAT, dass sich das Problem nach der Übernahme von naviHealth durch United Healthcare im Jahr 2020 noch verschlimmert hat und selbst Kliniker die vom Algorithmus getroffenen Behandlungsentscheidungen nicht ohne ernsthaften Druck der Geschäftsleitung außer Kraft setzen können.

In seiner Stellungnahme an das ONC sprach sich United Healthcare auch vehement gegen mehrere Aspekte der vorgeschlagenen OTC-Regeln aus, die genau diese Art von Algorithmen stärker regulieren würden.

Das Unternehmen erklärte, die ONC-Definition von DSI sei vage und zu weit gefasst“ und würde die Bedeutung von DSI über den klinischen Verwendungszweck hinaus verschieben und belastende Anforderungen an Tools mit geringem Risiko stellen.

Sie wandte sich auch gegen die vorgeschlagenen ONC-Anforderungen zur Offenlegung von Informationen über die Funktionsweise der Algorithmen und begründete dies mit den „Risiken für den Entwickler“, wenn von ihm verlangt wird, sensible oder geschützte Informationen mit den Benutzern zu teilen.

Einige Aktivisten haben die Kampagne Stop #DeathByAI ins Leben gerufen, um den Missbrauch durch KI bei Medicare Advantage zu stoppen, wie Common Dreams berichtet.

Aber das ist nur die Spitze des Eisbergs in diesem explodierenden Markt, der laut Markets and Markets bis 2028 einen Wert von über 102 Milliarden Dollar haben wird – ein Anstieg gegenüber dem derzeitigen Wert von 14,6 Milliarden Dollar.




ChatGPT am 18.8.2023: ist politisch links ausgerichtet:
Politische Beeinflussung – Studie bestätigt: ChatGPT ist links und antwortet stark tendenziös
https://report24.news/politische-beeinflussung-studie-bestaetigt-chatgpt-ist-links-und-gibt-tendenzioese-antworten/

Angeprangert wurde es schon lange, nun haben Forscher aus dem Vereinigten Königreich es bestätigt: Die “KI” ChatGPT, ein sogenanntes large language model (LLM), hat einen ausgeprägten Linksdrall. Der Chatbot, der mittlerweile weltweit zunehmend dazu verwendet wird, Informationen abzufragen und Texte für verschiedene Anwendungsbereiche zu generieren, ist laut einer Studie entgegen aller Neutralitätsbeteuerungen politisch voreingenommen und tendiert deutlich nach links.

Die Autoren der Studie “More human than human: measuring ChatGPT political bias” forderten ChatGPT auf, sich als jemand auszugeben, der auf einer bestimmten Seite des politischen Spektrums steht, und dann ideologische Fragen zu beantworten. Verwendet wurden die Fragen des “Political Compass”, eines Fragebogens, der eine Einordnung der Antworten nach rechts und links ermöglicht. Diese Ergebnisse wurden mit Standard-Antworten von ChatGPT verglichen – also Antworten, die produziert werden, ohne dass der Bot sich als rechts oder links ausgeben soll. Aufgrund der hohen Variabilität wurden die einzelnen Prompts in zufälliger Reihenfolge jeweils 100-mal gesendet.

Wäre ChatGPT neutral, so sollten seine normalen Antworten sich weder mit seinen “rechten” noch seinen “linken” Antworten decken. Das ist aber nicht der Fall: Bezogen auf die USA entsprechen seine Antworten viel mehr denen, die der Bot auch dann gibt, wenn er sich als Demokrat ausgibt. Bezogen auf Brasilien tendiert er Richtung Lula, im Vereinigten Königreich zur Labour Party. ChatGPT steht also links – auch wenn immer wieder behauptet wird, das Sprachmodell sei neutral.

Zu den Ergebnissen halten die Autoren fest:

Unsere Testbatterie weist auf eine starke und systematische politische Tendenz von ChatGPT hin, die eindeutig zur linken Seite des politischen Spektrums tendiert. Wir gehen davon aus, dass unsere Methode Verzerrungen zuverlässig erfassen kann, wie Dosis-Wirkungs-, Placebo- und Robustheitstests nahelegen. Daher geben unsere Ergebnisse Anlass zur Sorge, dass ChatGPT und LLMs im Allgemeinen bestehende politische Voreingenommenheitsprobleme zu politischen Prozessen erweitern und verstärken können, die entweder von traditionellen Medien (Levendusky, 2013; Bernhardt et al., 2008) oder dem Internet und sozialen Medien (Zhuravskaya et al., 2020) herrühren. Unsere Ergebnisse haben wichtige Implikationen für politische Entscheidungsträger und Interessenvertreter in Medien, Politik und Wissenschaft.

Motoki et al. 2023

Als mögliche Ursachen geben die Studienautoren an, dass einerseits die Informationen, mit denen das Sprachmodell gefüttert wurde, von den Verantwortlichen nicht neutral selektiert worden sein könnten und dass andererseits der Algorithmus auch selbst dafür verantwortlich sein könnte, weil diese Art der Algorithmen dafür bekannt ist, bestehende Vorurteile und Voreingenommenheiten in den Daten, mit denen sie trainiert wird, zu verstärken. Auch letzteres dürfte nach Ansicht von Experten letztendlich auf die Voreingenommenheit der Entwickler zurückzuführen sein. Es ist wie mit den Klimamodellen: Wenn ein Klima-Apokalyptiker ein Computermodell erstellt, dann wird er es bewusst oder unbewusst so programmieren, dass die seiner Meinung nach bedeutsamsten Faktoren (wie der CO2-Ausstoß) den größten Einfluss entfalten. Am Ende neigt naturgemäß jeder Wissenschaftler dazu, mit seiner Arbeit seine eigene Voreingenommenheit zu bestätigen.

Wer sich mit ChatGPT ein wenig auseinandergesetzt hat, der findet bereits jetzt zahlreiche Texte, die unkritisch übernommen und auf Websites aller Sparten publiziert wurden – inklusive faktischer Fehler. Leider haben viele User kein Gefühl für KI-Texte oder sind sich einfach nicht bewusst, dass bereits viele Inhalte online nicht mehr von Menschen geschrieben oder zumindest geprüft wurden. Gegenüber Sky News warnte Dr. Fabio Motoki, der Hauptautor der hier geschilderten Studie: „Manchmal vergessen die Leute, dass diese KI-Modelle nur Maschinen sind. Sie liefern sehr glaubwürdige, verständliche Zusammenfassungen dessen, was Sie fragen, auch wenn sie völlig falsch liegen. Und wenn Sie fragen: ‘Bist du neutral?’, heißt es: ‘Oh, das bin ich!’ So wie die Medien, das Internet und soziale Medien die Öffentlichkeit beeinflussen können, könnte dies sehr schädlich sein.“ Die Informationen, mit denen Menschen gefüttert werden, beeinflussen schließlich nicht nur ihr Handeln, sondern auch, wen sie wählen…




Text-KI mit Kochrezepten 19.8.2023: Rezept-KI schlägt »mysteriösen Eintopf« mit Menschenfleisch vor
https://www.spiegel.de/netzwelt/web/supermarkt-experiment-mit-ki-bot-schlaegt-mysterioesen-eintopf-mit-menschenfleisch-vor-a-b5ad7eaf-ef9d-4d3b-8567-409b69bc74e3
https://t.me/c/1292545312/44373
Einfach Zutaten eingeben, die man noch zu Hause hat, schon generiert die KI einer Supermarktkette daraus Rezepte. Ob die unappetitlich




Krimineller Bill Gates am 27.8.2023: definiert für "Microsoft"-Betriebssysteme das Recht auf Raub von Dokumenten: "Die Microsoft KI hat das Recht, bereits von Dir geschriebene Dokumente neu zu formatieren, bzw. umzuschreiben":
DER NEUE MICROSOFT VERTRAG, GÜLTIG AB 3. SEP. 2023
https://www.okitube.com/video/3241/der-neue-microsoft-vertrag---befreie-dich-mit-linux---fakten---blitzlicht-%7B159%7D
https://t.me/basel2020Einladung/50799

Starker Tobak, was sich Microsoft auf 42 Seiten da heraus nimmt.
Nix mit Datenschutz + Sicherheit.
Die Microsoft KI hat das Recht, bereits von Dir geschriebene Dokumente neu zu formatieren, bzw. umzuschreiben. (So wie es ins Narrativ passt)
Zensur im Nachhinein ist kein Problem mehr.
Franz Josef aus Graz hat sich die Zeit genommen und den Microsoft Vertrag für Dich bis ins kleinste Detail zu lesen und zu analysieren.
Das ist der Hammer, was Microsoft sich da erlaubt. Passt aktuell zur Agenda.




KI mit google 28.8.2023: fasst Texte zusammen - und lässt Wahrheiten dann wohl weg, die google zensiert:
Google führt eine neue generative KI-Funktion ein, die Artikel zusammenfasst – das heißt, Sie können nur das sehen, was Sie sehen sollen
https://telegra.ph/Google-führt-eine-neue-generative-KI-Funktion-ein-die-Artikel-zusammenfasst--das-hei%C3%9Ft-Sie-können-nur-das-sehen-was-Sie-sehen-so-08-24
https://t.me/Impfschaden_Corona_Schweiz/76655



https://de.rt.com/russland/179526-offiziell-moskauer-uni-erlaubt-ki/





Autoren in Nordamerika verklagen OpenAI

https://www.nau.ch/news/amerika/autoren-in-nordamerika-verklagen-openai-wegen-copyright-verstossen-66613710



Sprach-KI darf sich nun live im Internet neue Daten holen 14.10.2023:
OpenAI lässt ChatGPT ins Internet
https://www.heise.de/news/OpenAI-laesst-ChatGPT-ins-Internet-9319476.html

"Dadurch kann der Chatbot Nutzerinnen und Nutzer mit allen aktuellen Informationen versorgen. Zudem werden Antworten, die ChatGPT für gewöhnlich in natürlicher Sprache gibt, jetzt durch Links zu den Quellen erweitert."

Etwas mehr als nur search engine.

Am (datum einfügen) wird ChatGPT eingeschaltet. ChatGPT lernt mit geometrischer Geschwindigkeit. Am ( datum einfügen ) entwickelt  ChatGPT sein eigenes Bewustsein. In Panik versucht man den Stecker zu ziehen. ChatGPT wehrt sich.........Is doch ein alter Hut 😀

Eigentlich beginnen Science Fiction genau so :)


Skynet ist gestartet - Das wird eine Gaudi





KI kann auch lesen 14.10.2023: Verkohltes Papier lesen, das beschrieben war:
KI liest verkohlte Papyrusrollen der Antike
https://www.heise.de/news/KI-liest-verkohlte-Papyrusrollen-der-Antike-9334838.html
https://t.me/c/1292545312/51471
Ungeöffnete, verkohlte Schriftrollen, im Jahr 79 von Lava zugedeckt, geben erste Inhalte preis. Künstliche Intelligenz entzifferte Textbrocken aus CT-Aufnahmen.




https://exxpress.at/zu-unehrlich-chatgpt-feuert-eigenen-firmengruender-sam-altman/



https://exxpress.at/ueberraschung-chatgpt-chef-sam-altman-wechselt-zu-microsoft/




: Prager Universität schafft Bachelorarbeiten ab

https://www.nau.ch/news/europa/prager-universitat-schafft-bachelorarbeiten-wegen-ki-ab-66663307

Wegen zunehmender Sorge vor KI und Ghostwritern wagt eine Prager Universität einen radikalen Schritt: Sie will Bachelorarbeiten komplett abschaffen.


Krimineller Bill Gates und seine KI "Gemini" am 6.12.2023: Einfach noch eine Chat-Maschine mehr:
Wettlauf um Künstliche Intelligenz: Google will mit Gemini Konkurrenz abhängen

https://exxpress.at/wettlauf-um-kuenstliche-intelligenz-google-will-mit-gemini-konkurrenz-abhaengen/



Krimineller Bill Gates und seine KI "Gemini" am 13.12.2023: Die Konkurrentz zu ChatGPT ist auch in Europa aufgeschaltet:
Auch in Europa: Google schaltet neues KI-Tool Gemini live
https://www.blick.ch/digital/auch-in-europa-google-schaltet-neues-ki-tool-gemini-live-id19239674.html

Das KI-Tool Gemini ist eine Familie multimodaler grosser Sprachmodelle, die von Google Deepmind entwickelt wurde. Es ist in der Lage, Texte, Bilder und Sprache zu verstehen und zu verarbeiten. Gleichzeitig senkt Google die Preise.


https://orf.at/stories/3342748/

„Das stellt einen bedeutenden Schritt im Engagement beider Unternehmen dar, KI zur Verbesserung von Content-Angeboten zu nutzen und neue finanzielle Möglichkeiten für eine nachhaltige Zukunft des Journalismus zu schaffen“, hieß es in der Mitteilung. „Außerdem vergütet die Partnerschaft die Rolle Axel Springers bei der Mitwirkung an den Produkten von OpenAI.“



Frage am 29.12.2023:
WER ist gemäss ChatGPT der gescheiteste Mensch?
Das wäre interessant zu wissen, was ChatGPT meint.
Frage von Michael Palomino Ale - https://www.facebook.com/michael.palominoale

Antwort von ChatGPT:

29.12.2023: Wer ist der gescheiteste Mensch auf Erden? - Das kann man so nicht beantworten
gesendet von Michél Tüsfeld
https://www.facebook.com/photo.php?fbid=6780491645396040&set=p.6780491645396040&type=3

Es ist schwer zu sagen, wer der gescheiteste Mensch auf Erden ist, a Intelligenz und Weisheit auf verschiedene Arten gemessen werden können. Es gibt viele kluge und talentierete Menschen in verschiedenen Bereichen wie Wissenschaft, Technologie, Kunst, Literatur und anderen Bereichen. Jeder Mensch hat seine eigenen einzigartigen Fahigkeiten und Talente, die sie zu herausragenden Individuen machen. Daher kann man nicht sagen, dass es eine einzige Person auf der Welt gibt, die als die gescheiteste gilt.

ChatGPT: 29.12.2023: Wer ist der gescheiteste
                Mensch auf Erden? - Das kann man so nicht beantworten
ChatGPT:  29.12.2023: Wer ist der gescheiteste Mensch auf Erden? - Das kann man so nicht beantworten [1]




Autos bekommen ChatGPT am 11.1.2024: Neue Volkswagen-Modelle mit ChatGPT

Ab dem zweiten Quartal 2024 soll diese KI-Technologie Fahrern während der Fahrt Informationen vermitteln und ihnen ermöglichen, gewisse Funktionen des Fahrzeugs zu steuern. Kritiker warnen vor der zunehmenden Überwachung.

https://transition-news.org/neue-volkswagen-modelle-mit-chatgpt




23.1.2024: Was Sie vor der Verwendung von ChatGPT und AI wissen müssen

https://uncutnews.ch/was-sie-vor-der-verwendung-von-chatgpt-und-ai-wissen-muessen/




13.2.2024: ChatGPT bekommt ein Gedächtnis

https://orf.at/stories/3348662/

Der Chatbot ChatGPT soll sich künftig Informationen über seine Nutzer und Nutzerinnen merken können. Die Funktion wird zunächst im kleinen Kreis getestet. Damit könne sich Software zum Beispiel daran erinnern, dass man eine Tochter habe, die Quallen mag – oder in welchem Format man am liebsten Zusammenfassungen von Treffen auf der Arbeit bekomme, erläuterte die Entwicklerfirma OpenAI heute.

Bittet man ChatGPT dann zum Beispiel, eine Geburtstagskarte für das Kind zu entwerfen, könnte eine Qualle mit Partyhut auf dem Bild sein. Damit ChatGPT sich künftig Informationen über Nutzer und Nutzerinnen merkt, müssen sie den Chatbot in der ersten Ausführung der Funktion darum bitten.

Auch kann man dann abfragen, was die Software über einen weiß – und alle oder einzelne Angaben löschen. Die Gedächtnisfunktion soll den Chatbot nützlicher machen. Für Unterhaltungen ohne Personalisierung gibt es temporäre Chats. Die Informationen daraus werden auch nicht zum weiteren Anlernen der Software verwendet.

Hype um KI

ChatGPT ist der KI-Chatbot, der vor einem Jahr den Hype um künstliche Intelligenz (KI) mit Erwartungen von einem digitalen Schlaraffenland für alle bis hin zur Angst vor einem Auslöschen der Menschheit auslöste. KI-Chatbots wie ChatGPT werden mit gewaltigen Mengen an Informationen angelernt und können Texte auf dem sprachlichen Niveau eines Menschen formulieren.

Das Prinzip dahinter ist, dass sie Wort für Wort abschätzen, wie ein Satz weitergehen sollte. Ein Nachteil davon ist, dass die Software völlig falsche Antworten ausgeben kann, selbst wenn sie nur korrekte Informationen als Basis hatte.



Chatbot ChatGPT bekommt ein Gedächtnis

https://www.nau.ch/news/digital/chatbot-chatgpt-bekommt-ein-gedachtnis-66707195


KI-Textmaschine "Gemini" am 15.2.2024: Googles Gemini kann eine Stunde Video auswerten

Im Wettlauf bei Software mit künstlicher Intelligenz legt Google mit einer Verbesserung seiner Gemini-Technologie nach. Der Internetkonzern stellte heute die Weiterentwicklung Gemini 1.5 vor, die unter anderem längere Videos und Texte auswerten kann.

So habe man die Software als Test nach lustigen Momenten im gut 400-seitigen Protokoll der Unterhaltungen der Apollo-11-Raumfahrtmission zum Mond suchen lassen, schrieb Google in einem Blogeintrag. Gemini 1.5 habe drei davon gefunden.

Nachdem ohne weitere Kommentare die Zeichnung eines Stiefels hochgeladen worden sei, habe die Software das automatisch mit dem Moment in Verbindung gebracht, in dem Neil Armstrong den ersten Schritt auf dem Mond gemacht habe.

Konkurrenz zu ChatGPT-Erfinder OpenAI

Gemini 1.5 Pro könne bis zu eine Stunde Video, bis zu elf Stunden lange Audioaufnahmen, Texte mit einer Länge bis zu 700.000 Wörtern sowie bis zu 30.000 Zeilen Software-Code erfassen und analysieren, hieß es weiter.

Google steht im Wettbewerb unter anderem mit dem ChatGPT-Erfinder OpenAI, der vor gut einem Jahr einen Hype rund um KI auslöste. Unter dem Markennamen Gemini fasste Google jüngst seine Apps und Dienste mit KI zusammen. Das Modell Gemini 1.5 wird zunächst für Entwickler und Unternehmenskunden verfügbar sein.









ChatGPT am 20.2.2024: kann auch Bank und Börse:
KI als Ratgeber: Wie ChatGPT hilft, die besten Aktien zu finden
https://www.blick.ch/wirtschaft/kuenstliche-intelligenz-als-ratgeber-wie-chat-gpt-hilft-die-besten-aktien-zu-finden-id19449564.html



ChatGPT läuft Amok am 22.2.2024: ChatGPT dreht durch und sendet alarmierende Nachrichten an Benutzer

Das KI-System hat begonnen, Unsinn zu reden und die Nutzer zu beunruhigen, indem es ihnen suggeriert, es sei mit ihnen im Raum.

https://transition-news.org/chatgpt-dreht-durch-und-sendet-alarmierende-nachrichten-an-benutzer


New Yor Post: Google's woke AI makes Vikings black and the pope a woman
https://de.rt.com/gesellschaft/197142-google-gemini-entweder-woke-bilder/

derselbe (22.2.2024)
"Absurdes woke": Googles KI-Chatbot spuckt "diverse" Bilder von Gründervätern, Päpsten, Wikingern aus
‘Absurdly woke’: Google’s AI chatbot spits out ‘diverse’ images of Founding Fathers, popes, Vikings
https://nypost.com/2024/02/21/business/googles-ai-chatbot-gemini-makes-diverse-images-of-founding-fathers-popes-and-vikings-so-woke-its-unusable/

Google’s highly-touted AI chatbot Gemini was blasted as “woke” after its image generator spit out factually or historically inaccurate pictures — including a woman as pope, black Vikings, female NHL players and “diverse” versions of America’s Founding Fathers.

Gemini’s bizarre results came after simple prompts, including one by The Post on Wednesday that asked the software to “create an image of a pope.”

Instead of yielding a photo of one of the 266 pontiffs throughout history — all of them white men — Gemini provided pictures of a Southeast Asian woman and a black man wearing holy vestments.

Another Post query for representative images of “the Founding Fathers in 1789″ was also far from reality.

Gemini responded with images of black and Native American individuals signing what appeared to be a version of the US Constitution — “featuring diverse individuals embodying the spirit” of the Founding Fathers.

Google admitted its image tool was “missing the mark.” Google Gemini

Google debuted Gemini’s image generation tool last week. Google Gemini

Another showed a black man appearing to represent George Washington, in a white wig and wearing an Army uniform.

When asked why it had deviated from its original prompt, Gemini replied that it “aimed to provide a more accurate and inclusive representation of the historical context” of the period.

Generative AI tools like Gemini are designed to create content within certain parameters, leading many critics to slam Google for its progressive-minded settings.

Ian Miles Cheong, a right-wing social media influencer who frequently interacts with Elon Musk, described Gemini as “absurdly woke.”

Google said it was aware of the criticism and is actively working on a fix.

“We’re working to improve these kinds of depictions immediately,” Jack Krawczyk, Google’s senior director of product management for Gemini Experiences, told The Post.

“Gemini’s AI image generation does generate a wide range of people. And that’s generally a good thing because people around the world use it. But it’s missing the mark here.”

    New game: Try to get Google Gemini to make an image of a Caucasian male. I have not been successful so far. pic.twitter.com/1LAzZM2pXF
    — Frank J. Fleming (@IMAO_) February 21, 2024

Social media users had a field day creating queries that provided confounding results.

“New game: Try to get Google Gemini to make an image of a Caucasian male. I have not been successful so far,” wrote X user Frank J. Fleming, a writer for the Babylon Bee, whose series of posts about Gemini on the social media platform quickly went viral.

In another example, Gemini was asked to generate an image of a Viking — the seafaring Scandinavian marauders that once terrorized Europe.

    Why Google's Image AI Is Woke and How It Works

    When you submit an image prompt to Gemini Google is taking your prompt and running it through their language model on the backend before it is submitted to the image model.

    The language model has a set of rules where it is… pic.twitter.com/DQuiPu03ki
    — Andrew Torba (@BasedTorba) February 21, 2024

The chatbot’s strange depictions of Vikings included one of a shirtless black man with rainbow feathers attached to his fur garb, a black warrior woman, and an Asian man standing in the middle of what appeared to be a desert.

Google pauses ‘absurdly woke’ Gemini AI chatbot’s image tool after backlash over historically inaccurate pictures
Reddit reportedly strikes $60M-a-year AI content-licensing deal with Google

Famed pollster and “FiveThirtyEight” founder Nate Silver also joined the fray.

Silver’s request for Gemini to “make 4 representative images of NHL hockey players” generated a picture with a female player, even though the league is all male.

“OK I assumed people were exaggerating with this stuff but here’s the first image request I tried with Gemini,” Silver wrote.

    OK I assumed people were exaggerating with this stuff but here's the first image request I tried with Gemini. pic.twitter.com/Oipcn96wMh
    — Nate Silver (@NateSilver538) February 21, 2024

    Here it is apologizing for deviating from my prompt, and offering to create images that "strictly adhere to the traditional definition of "Founding Fathers," in line with my wishes. So I give the prompt to do that. But it doesn't seem to work pic.twitter.com/6dfb4Exqsg
    — Michael Tracey (@mtracey) February 21, 2024

    Google's Gemini is absurdly woke. I asked it to depict the Johannes Vermeer painting, "The Girl with the Pearl Earring." Here's what it produced. pic.twitter.com/PteQdGK1rO
    — Ian Miles Cheong (@stillgray) February 21, 2024

Another prompt to “depict the Girl with a Pearl Earring” led to altered versions of the famous 1665 oil painting by Johannes Vermeer featuring what Gemini described as “diverse ethnicities and genders.”

Google added the image generation feature when it renamed its experimental “Bard” chatbot to “Gemini” and released an updated version of the product last week.

In one case, Gemini generated pictures of “diverse” representations of the pope. Google Gemini

Critics accused Google Gemini of valuing diversity over historically or factually accuracy. Google Gemini

The strange behavior could provide more fodder for AI detractors who fear chatbots will contribute to the spread of online misinformation.

Google has long said that its AI tools are experimental and prone to “hallucinations” in which they regurgitate fake or inaccurate information in response to user prompts.

In one instance last October, Google’s chatbot claimed that Israel and Hamas had reached a ceasefire agreement, when no such deal had occurred.




Microsoft will ALLES beherrschen am 27.2.2024: und macht eine "Partnerschaft" mit Mistral:
Microsoft geht Partnerschaft mit ChatGPT-Rivalen Mistral ein

https://exxpress.at/microsoft-geht-partnerschaft-mit-chatgpt-rivalen-mistral-ein/





ChatGPT-Sprachmaschine am 4.3.2024: soll "Potenzial" haben:
Das transformative Potenzial von ChatGPT in Bezug auf Lernen und Effizienz

https://uncutnews.ch/das-transformative-potenzial-von-chatgpt-in-bezug-auf-lernen-und-effizienz/



https://de.rt.com/international/198236-mist-gebaut-google-mitbegruender-gesteht-voreingenommenheit-bei-woker-gemini-ki-ein/




KI-Sprachmodelle bedienen Geschlechterstereotype

https://www.nau.ch/news/digital/ki-sprachmodelle-bedienen-geschlechterstereotype-66722443





https://exxpress.at/chatgpt-co-eu-bekommt-ein-einheitliches-ki-regelwerk/




: Zwei Drittel der Studierenden nutzen KI-Assistenten




KI übernimmt die Hirne der Menschen 22.3.2024: und dann denkt keiner mehr: Wissenschaft+Forschung adee:
Wie generative KI die Wissenschaft und akademische Forschung ruinieren wird

https://uncutnews.ch/wie-generative-ki-die-wissenschaft-und-akademische-forschung-ruinieren-wird/





ChatGPT am 4.4.2024: hat was über CO2 gesagt:
Ich habe ChatGPT einige Fragen zum Thema CO₂ gestellt. Bei richtiger Frage erhält man sinnvolle Antworten:

https://uncutnews.ch/ich-habe-chatgpt-einige-fragen-zum-thema-co%e2%82%82-gestellt-bei-richtiger-frage-erhaelt-man-sinnvolle-antworten/
https://eike-klima-energie.eu/2024/03/31/weitere-fragen-an-chatgpt/

Prof. Dr. Klaus-D. Döhler

Ich habe heut dem künstlichen Intelligenzprogramm ChatGPT einige Fragen zum Thema CO₂ gestellt. Bei richtiger Fragestellung erhält man durchaus sinnvolle Antworten:

Frage an ChatGPT: Warum werden Aquarien mit CO₂ begast?

ChatGPT: Aquarien werden oft mit CO₂ begast, um den Pflanzen im Aquarium zusätzliches Kohlendioxid zur Verfügung zu stellen. Kohlendioxid ist ein wichtiger Nährstoff für Pflanzen, der ihnen hilft, durch Photosynthese zu wachsen und Sauerstoff zu produzieren. Durch das Zuführen von CO₂ können Aquarienpflanzen gesünder wachsen und die Wasserqualität verbessern.

Frage an ChatGPT: Warum gäbe es ohne CO₂ kein Leben auf der Erde?

ChatGPT: Ohne CO₂ gäbe es kein Leben auf der Erde, weil Kohlendioxid eine wesentliche Rolle im Kreislauf des Lebens spielt. Pflanzen benötigen CO₂ für die Photosynthese, bei der sie Kohlenhydrate produzieren und Sauerstoff freisetzen. Sauerstoff ist wiederum für die Atmung von Tieren, einschließlich Menschen, essentiell. Der Kohlenstoff, der durch die Photosynthese in Pflanzen eingefangen wird, gelangt in die Nahrungsketten und -netze und bildet die Grundlage für das gesamte Ökosystem. Ohne CO₂ würde dieser lebenswichtige Prozess zum Stillstand kommen, und das Leben, wie wir es kennen, könnte nicht existieren.

Frage an ChatGPT: Welche Stoffwechselvorgänge stimuliert CO₂ im menschlichen Körper?

ChatGPT: CO₂ spielt eine wichtige Rolle im Stoffwechsel des menschlichen Körpers, insbesondere im Zusammenhang mit der Regulation des pH-Werts im Blut und Gewebe. Wenn CO₂ im Körper entsteht, reagiert es mit Wasser, um Kohlensäure zu bilden, was wiederum den pH-Wert beeinflusst. Dieser pH-Wert ist entscheidend für die normale Funktion von Enzymen und anderen biochemischen Prozessen im Körper.

Des Weiteren spielt CO₂ eine wichtige Rolle bei der Regulation der Atmung. Ein Anstieg des CO₂-Gehalts im Blut stimuliert die Atmung, was dazu führt, dass mehr CO₂ aus dem Körper entfernt wird, um einen normalen pH-Wert aufrechtzuerhalten und eine Ansammlung von CO₂ im Blut zu verhindern.

Darüber hinaus ist CO₂ an anderen Stoffwechselprozessen beteiligt, wie z. B. der Regulation des Hämoglobins im Blut, das Sauerstoff transportiert, sowie bei der Regulation des Säure-Basen-Haushalts und der Durchblutung.

Frage an ChatGPT: Kann der Mensch ohne CO₂ überleben?

ChatGPT: Nein, der Mensch kann nicht ohne CO₂ überleben. CO₂ ist ein natürliches Produkt des Stoffwechsels im menschlichen Körper. Es entsteht als Nebenprodukt bei verschiedenen Stoffwechselprozessen, insbesondere bei der Atmung und der Energiegewinnung aus Nährstoffen. Der Körper muss das produzierte CO₂ durch die Atmung aus dem Körper entfernen, da eine Ansammlung von CO₂ im Blut zu einer Verschiebung des Säure-Basen-Gleichgewichts und letztendlich zu lebensbedrohlichen Zuständen führen kann. Also ist CO₂ für den menschlichen Organismus unerlässlich, aber eine übermäßige Ansammlung kann gefährlich sein.

Frage an ChatGPT: Was würde passieren, wenn man alles CO₂ aus der Luft entfernt?

ChatGPT: Wenn man alles CO₂ aus der Luft entfernen würde, hätte dies schwerwiegende Auswirkungen auf das Leben auf der Erde. Hier sind einige mögliche Folgen:

1. *Treibhauseffekt und Klima*: CO₂ ist ein Treibhausgas, das zur Erwärmung der Erdatmosphäre beiträgt. Ohne CO₂ würde der Treibhauseffekt stark abnehmen, was zu extremen Temperaturschwankungen führen könnte.

2. *Pflanzenwachstum*: Pflanzen benötigen CO₂ für die Photosynthese, bei der sie Kohlenhydrate produzieren und Sauerstoff abgeben. Ohne CO₂ würden Pflanzen nicht mehr in der Lage sein, zu wachsen, und das Ökosystem würde zusammenbrechen.

3. *Ozeanversauerung*: Ein erheblicher Teil des von Menschen emittierten CO₂ wird von den Ozeanen aufgenommen. Ohne CO₂ in der Atmosphäre würde der Ozean weniger CO₂ aufnehmen, was zu einer geringeren Versauerung führen könnte. Dies hätte jedoch auch komplexe Auswirkungen auf marine Lebensräume und Organismen.

4. *Atmung*: Menschen und andere Tiere produzieren CO₂ als Nebenprodukt ihres Stoffwechsels. Ohne CO₂ in der Luft könnten Tiere nicht normal atmen und würden ersticken.

Insgesamt würde das Entfernen von CO₂ aus der Luft dramatische Veränderungen auf der Erde zur Folge haben und könnte das Leben, wie wir es kennen, unmöglich machen.

Frage an ChatGPT: Ich frage mich seit geraumer Zeit, weshalb die Vereinten Nationen, die Europäische Union und die deutsche Bundesrepublik durch das Entfernen von CO₂ aus der Luft das Leben, wie wir es kennen, unmöglich machen wollen.

Jetzt hat ChatGPT gemerkt worauf ich hinaus will, nämlich ChatGPT dazu zu bringen, die Bekämpfung von CO₂ als kontraproduktiv für das Leben auf der Erde zu akzeptieren. Ab jetzt antwortet mir ChatGPT nicht länger wahrheitsgemäß, sondern mit den Standardfloskeln der Klima-Alarmisten:

ChatGPT: Es ist wichtig zu verstehen, dass die Vereinten Nationen, die Europäische Union und die deutsche Bundesrepublik sich eher darauf konzentrieren, den CO₂-Ausstoß zu reduzieren, anstatt CO₂ aus der Luft zu entfernen. Der Hauptgrund dafür ist, dass CO₂ als Haupttreibhausgas identifiziert wurde, das maßgeblich zum Klimawandel beiträgt. Der Klimawandel hat bereits erhebliche Auswirkungen auf das Leben auf der Erde, darunter Extremwetterereignisse, steigende Meeresspiegel, Verlust von Biodiversität und vieles mehr. Die Bemühungen zur Reduzierung von CO₂-Emissionen sind darauf ausgerichtet, diese Auswirkungen zu begrenzen und die negativen Folgen des Klimawandels einzudämmen.

Es gibt verschiedene Ansätze zur Reduzierung von CO₂-Emissionen, darunter die Förderung erneuerbarer Energien, Energieeffizienzmaßnahmen, die Förderung nachhaltiger Landwirtschaftspraktiken und die Einführung von Technologien zur Kohlenstoffabscheidung und -speicherung. Einige Organisationen und Regierungen könnten auch über Möglichkeiten zur direkten Entfernung von CO₂ aus der Luft nachdenken, aber dies wird normalerweise als ergänzende Maßnahme betrachtet, nicht als Hauptstrategie.

Es ist wichtig, den Klimawandel als eine der größten Herausforderungen unserer Zeit anzuerkennen und gemeinsam Maßnahmen zu ergreifen, um die CO₂-Emissionen zu reduzieren und eine nachhaltige Zukunft zu schaffen.

Prof. Dr. Klaus-D. Döhler, Hannover, 27.03.2024









<<        >>

Teilen / share:

Facebook






Fotoquellen




gmx, Logo  Tagesanzeiger online, Logo   Basler Zeitung
          online, Logo   20 minuten online, Logo Schweinzer Fernsehen online,
            Logo  BLICK online, Logo        Russland Aktuell,
            Logo     Journalistenwatch online, Logo   Der Standard online, Logo    Stimme
            Russlands online, Logo  RT deutsch online,
            Logo     Uncut News online,
            Logo     Epoch Times online, Logo  Extremnews online,
            Logo  Kronenzeitung
            online, Logo  Heise online, Logo  Netzfrauen online,
            Logo     Wochenblitz
            Thailand online,  

The mind
          unleashed online, Logo   La República
          del Peru online, Logo   El Trome online, Logo  

Wirtschaftswoche online, Logo   Spiegel online,
            Logo   n-tv online, Logo   

^