Home | Lehre | Videos | Texte | Vorträge | Software | Person | Impressum, Datenschutzerklärung | Blog RSS

Die Blog-Postings sind Kommentare im Sinne von § 6 Abs. 1 MStV. Der Verfasser ist Jörn Loviscach, falls jeweils nicht anders angegeben. Die Blog-Postings könnten Kraftausdrücke, potenziell verstörende Tatsachenbehauptungen und/oder Darstellungen von Stereotypen enthalten. Die Beiträge der vergangenen Wochen werden als Bestandteil der Internet-Geschichte in ihrer ursprünglichen Form gezeigt. Menschliche Autor*innen können unzutreffende Informationen über Personen, Orte oder Fakten liefern.

vorheriger | Gesamtliste | jüngste | nächster

Bildeingabe in ChatGPT

2023-10-14 21:28

Endlich Klausuren nicht mehr selbst nachgucken müssen! Meine ersten Experimente (ggf. im Browser mit Strg-Plus rein zoomen; man kann noch keine Chats mit Bildern per URL teilen):

Die KI-Leugner*innen hier und in der c't-Redaktion werden wieder sagen, das Glas sei nur halb leer. Ich dagegen sage: Das Glas ist halb voll – und bis eben gab es weder Glas noch Wasser.

[Nachtrag: Eine Schaltung in ungewohnter Richtung geht natürlich erst schief. Außerdem zeigt sich, dass "Open"AI seinem Produkt die heute gefragte Jasager*innen-Kompetenz anerzogen hat.]

Kommentar vom 2023-10-14, 22:15

So überzeugt bin ich persönlich von den gezeigten Antworten nicht und erinnere an den Gell-Mann-Amnesia-Effekt. Wen man sich in einem Fachgebiet gut auskennt, empfindet man die Antworten von ChatGPT meist als vereinfachend, fehlerhaft, fachlich falsch oder verständnislos. Sobald man jedoch ChatGPT-Antworten zu anderen Themen liest, verschwindet dieser Eindruck meist. Das Vertrauen in die Richtigkeit der oft wohlklingend formulierten und logisch nachvollziehbar wirkenden Antworten ist wieder hergestellt, weshalb diese als eine »Amnesia« bezeichnet wird. (siehe auch https://phwampfler.medium.com/der-gell-mann-amnesia-effekt-b6704ee7d21c) M.M.

Kommentar vom 2023-10-14, 22:24

@M.M.: Das würde ja bedeuten, dass ich mich auf den Gebieten, zu denen den ich oben Aufgaben gestellt habe, nicht gut auskenne. Ich nehme an (und hoffe es), dass der Kommentar nicht als Beleidigung gedacht, sondern einfach nur nicht ganz zu Ende gedacht war. – Im Übrigen bitte ich zu beachten, was nun erstmals halbwegs (ich habe "halb voll" geschrieben!) geht und vor einem Jahr unvorstellbar gewesen wäre. J. L.

Kommentar vom 2023-10-14, 22:53

@M.M.:
Wie ist das denn mit Menschen? Mir fällt jedenfalls oft auf, dass die Leute Fragen aus ihrem Fachgebiet an ChatGPT stellen, die 90% der Menschen nicht beantworten könnten. Das Argument ist dabei quasi, dass ChatGPT ja "das Internet" gelesen hat und die Menschen nicht und es deswegen Fragen zu allen Themen beantworten können muss.
M.K.

Kommentar vom 2023-10-14, 23:08

Ich habe auch ein bisschen damit experimentiert und musste feststellen, dass es manchmal mit den Zuordnungen durcheinanderkommt. Ich habe ihm z.B. dieses Bild gegeben [den Cartoon auf dieser Seite, J. L.] und in der ersten Antwort "dachte" es, dass die Kanone auf dem rechten Schiff sei. Damit ergibt der Cartoon natürlich keinen Sinn und die Antwort war nicht gut. Ich habe dann die Antwort neu generieren lassen und alles war ok:
"This is a humorous cartoon that plays on the story of Noah's Ark. In the traditional tale, Noah gathers two of every animal onto his ark to save them from a great flood. In this 'One More Theory' version, we see a large ship with a cannon firing at a smaller ship carrying dinosaurs, suggesting a playful alternate explanation for their extinction. The art style and caption bring a light-hearted twist to a well-known narrative."

Kommentar vom 2023-10-15, 15:39

Mein Kommentar war natürlich keineswegs als Beleidigung, sondern eher als allgemeine Bemerkung gedacht. Klar sind die Antworten und Erklärungen von ChatGPT schon "nett", aber man muss der KI doch hier und da auf die Sprünge helfen (und dafür entsprechend wissen, was verbesserungswürdig oder korrekturbedürftig ist). Ohne dieses Wissen sind die Antworten aus meiner Sicht einigermaßen wertlos oder täuschen zumindest eine Glaubwürdigkeit vor, die sie nicht besitzen.
Bezüglich der "Ironieerkennung": Was sagt denn ChatGPT zu diesem Bild?
"Der Tag, an dem Pythagoras starb." M.M.

Kommentar vom 2023-10-15, 15:49

@M.M.: Dann bin ich froh!

Frage: Wieso ist es lustig, dieses Bild mit "der Tag, an dem Pythagoras starb" zu betiteln?
Antwort von ChatGPT: Das Bild zeigt vier Personen, die sich in einem Quadrat mit einer Diagonale befinden. Alle Abstände zwischen den Personen betragen 1,5 m. Wenn man die Diagonale des Quadrats nach dem Satz des Pythagoras berechnet, ergibt sich die Formel \(c^2 = a^2 + b^2\). In diesem Fall wären a und b beide 1,5 m. Das ergibt \(c^2 = 1,5^2 + 1,5^2 = 4,5\), und die Wurzel davon ist nicht 1,5 m. Das bedeutet, dass die Diagonale länger als 1,5 m sein müsste.
Der Titel "der Tag, an dem Pythagoras starb" ist also ein humorvoller Hinweis darauf, dass das Bild den Satz des Pythagoras missachtet.
So weit ChatGPT. Wäre spannend zu wissen, ob jemand den Witz schon mal im Netz erklärt hat und jene Erklärung dann mitgelernt worden ist!
J. L.

Kommentar vom 2023-10-15, 20:37

Das Bild2Latex finde ich sehr gelungen! Ich habe von mehreren Vorlesungen die Tafelanschriften als PDF: Was muss ich machen, damit ChatGPT mir ein LaTeX-Skript draus macht? Mein Umsonstabo scheint keine Bilder annehmen zu wollen ... Ich soll vermutlich zahlen, oder?
Gruss (dg)

Kommentar vom 2023-10-15, 20:50

@dg: Um Dan Brown zu zitieren: "Précisément," Fache said. "Précisément." Oder auf Bing Chat hoffen, das bei mir je nach Tagesform mal Bilder aus dem Browserkontext erkennt und mal nicht.
Was das LaTeX angeht, ist mir im Nachhinein aufgefallen, dass ChatGPT dort Bekanntes wiedererkannt haben könnte. Ich muss noch mal ein unbekanntes Tafelbild probieren. J. L.

Kommentar vom 2023-10-15, 22:54

Die Antwort auf das Pythagoras-Beispiel überzeugt.
Eine Suche mittels https://twitter.com/search?q=%40witzigweil%20Pythagoras auf dem ansonsten sehr ergiebigen Kanal https://twitter.com/witzigweil ergibt immerhin keinen Treffer. (M.M.)

Kommentar vom 2023-10-20, 15:40

Ich habe mit der Bilderkennung von Bing auch einige leidige Erfahrungen gemacht. Ich gab Bing das Bild einer Tabelle und es sollte daraus ein CSV-Format mit einem bestimmten Datumsformat und bestimmten Spaltenüberschriften machen. Das gleiche Bild ging manchmal perfekt wie gewollt, anders mal gar nicht, dann stimmte die Reihenfolge nicht, dann das Datumsformat. Auf Korrekturen wurde manchmal richtig reagiert manchmal gar nicht und das Gegenteil des dargestellten behauptet. Kurzum Bing verhielt sich wie ein trotziges 5-jähriges Kind, das mal mitspielt und mal nicht.
Gruß
Martin

Neuer Kommentar

0 Zeichen von maximal 1000

Ich bin die*der alleinige Autor*in dieses Kommentars und räume dem Betreiber dieser Website das unentgeltliche, nichtausschließliche, räumlich und zeitlich unbegrenzte Recht ein, diesen Kommentar auf dieser Webseite samt Angabe von Datum und Uhrzeit zu veröffentlichen. Dieser Kommentar entspricht geltendem Recht, insbesondere in Bezug auf Urheberrecht, Datenschutzrecht, Markenrecht und Persönlichkeitsrecht. Wenn der Kommentar mit einer Urheberbezeichnung (zum Beispiel meinem Namen) versehen werden soll, habe ich auch diese in das Kommentar-Textfeld eingegeben. Ich bin damit einverstanden, dass der Betreiber der Webseite Kommentare zur Veröffentlichung auswählt und sinngemäß oder zur Wahrung von Rechten Dritter kürzt.