Home
| Lehre
| Videos
| Texte
| Vorträge
| Software
| Person
| Impressum, Datenschutzerklärung
|
Die Blog-Postings sind Kommentare im Sinne von § 6 Abs. 1 MStV. Der Verfasser ist Jörn Loviscach, falls jeweils nicht anders angegeben. Die Blog-Postings könnten Kraftausdrücke, potenziell verstörende Tatsachenbehauptungen und/oder Darstellungen von Stereotypen enthalten. Die Beiträge der vergangenen Wochen werden als Bestandteil der Internet-Geschichte in ihrer ursprünglichen Form gezeigt. Menschliche Autor*innen können unzutreffende Informationen über Personen, Orte oder Fakten liefern.
vorheriger | Gesamtliste | jüngste | nächster
2023-01-14 21:19
Nach der Twitter-Übernahme durch Elon bietet sich nun gleich die nächste große Chance: ChatGPT. Schon wieder kann man zeigen, dass man besser als die anderen ist – jüngst mit dem zeitweisen Umzug zum Ur-Elefanten und nun mit der öffentlichen Bekundung, dass man als Lehrer*in in Schule oder Hochschule null Probleme mit dem Einsatz von Large Language Models für Haus- und Abschlussarbeiten habe.
Natürlich kann man den Kopf in den Sand stecken und sagen, die Maschine labere nur. Aber, hey, schon mal gelesen, was Menschen (statt Maschinen) so labern aka bullshitten? Im Vergleich labert die Maschine auf sehr hohem Niveau. Man könnte als Beleg auch anführen, dass selbst Expert*innen Probleme haben, Philosoph von KI zu unterscheiden, aber das sagt natürlich weniger über die KI und mehr über die Philosophie. Und das Tempo des Fortschritts ist erstaunlich, siehe mein drei Jahre altes Erklärvideo zu GPT-2.
Einige hoffen auf einen Voight-Kampff-Test für (also gegen) Sprachmodelle. Das führt natürlich zu den von der Plagiatsprüfung bekannten Problemen (Daten in die USA schicken: Urheberrecht? Datenschutz?) und Workarounds (einmal durch DeepL jagen; statt lateinischer identisch aussehende kyrillische Buchstaben verwenden und/oder Nullbreite-Leerzeichen einbauen). Wenn die generierten Texte mit Wasserzeichen vergiftet werden, könnten dieselben Verschleierungsmaßnahmen wirken. Außerdem stellt sich die große Frage, ob das Wasserzeichen einen gerichtsfesten Grad an Sicherheit erreicht. Eltern sind heute klagefreudig. Wenn die bisherige Plagiatsprüfung einen identischen Text entdeckt hatte, war das nicht so leicht abzustreiten. Nun gibts aber oft kein Original mehr. [Nachtrag: Die angezeigte "Wahrscheinlichkeit" ist sowieso keine Wahrscheinlichkeit, sondern nur ein Wert, der so aussieht wie eine Wahrscheinlichkeit. Und selbst, wenn er eine wäre: Was soll überhaupt die Grundgesamtheit sein? Obendrein verlangt die DSGVO sowieso Explainability, also vor Gericht keine Chance mit solchen KI-gegen-KI-Ansätzen.]
Man könnte mit brandaktuellen Themen für die Hausarbeiten kontern. Allerdings fangen einige KI-Textgeneratoren bereits selbst an, zu googlen. (Dass die KI googlet, wird sowieso für Literaturangaben nötig sein, denn sonst müsste die KI jene eidetisch lernen.) Eine andere Idee ist, Zwischenstände von Hausarbeiten zu fordern. Erstens muss das aber die Prüfungsordnung erlauben, zweitens muss man dazu Zeit haben und drittens werden dann schon die Zwischenstände aus der KI stammen. Weil die KI derzeit (noch) ein amnestisches Syndrom zeigt – und das sogar ohne Alkohol-Abusus – ist man sowieso gut beraten, sie erst eine Zusammenfassung erzeugen zu lassen und dann basierend darauf die Teile ausformulieren zu lassen.
Der Druck und der Sog auf Schüler*innen und Student*innen, diese Techniken zu nutzen, ist groß. Push-Faktoren sind der Leidensdruck aufgrund Fehlpassung zwischen sprachlichen Fertigkeiten auf der einen und Anforderungen auf der anderen Seite (habe ich das genügend verklausuliert formuliert?) sowie der gerechtfertigte Eindruck, dass man im wahren Leben keine Hausarbeiten schreibt (geschweige denn rationale Funktionen in Partialbrüche zerlegt, aber ich schweife ab). Pull-Faktoren sind die Verfügbarkeit der KI-Lösungen und die Abstreitbarkeit ihrer Verwendung.
Nicht alle können sich menschliche Ghostwriter*innen leisten. Insofern ist die KI ein*e Gleichmacher*in wie der Six-Shooter im Wilden Westen. Besser noch: Die KI macht praktisch keine Fehler in Rechtschreibung, Zeichensetzung und Grammatik. Man kann die Beiträge also nicht mehr vorschnell allein wegen der äußeren Form abkanzeln: KI als Maßnahme gegen klassistische Diskriminierung.
Mittelfristig sind weitere Konsequenzen absehbar: Die Lage der schon jetzt ausgebeuteten Ghostwriter*innen wird noch prekärer. Und die Journals – oder genauer gesagt, die Reviewer*innen – werden mit drastisch mehr Einreichungen überhäuft.
Zum Abschluss eine Ironie des Schicksals: Wer tugendhaft vor Elon von Twitter geflohen ist, aber nun ChatGPT empfiehlt, ist damit wieder zurück in Elons Armen. Und denen des noch heißer geliebten Peters.
Kommentar vom 2023-01-15, 12:07
ChatGPT is oft völlig ungeeignet, guten Output zu generieren. Aber vielleicht sind es die, die jetzt Angst bekommen haben, auch.
Doch in Dingen, wo ich denke, mich gut auszukennen, ist ChatGPT weit davon entfernt, das Wissen richtig einzuordnen, zu verstehen, um dann die annährend richtige Antwort zu geben. Das Ding ist mehr ein Mittelwert als SOTA, und es bevorzugt Frauen! [Unbelegte Behauptung! Quellenangabe? Anm. J.L.]
Noch schlimmer, der Kern stammt von Google, aber paradoxerweise scheint Google die Firma zu sein, die von OpenAIs (Januswort?) ChatGPT ernsthaft bedroht wird, absurd! Google bekommt nix ab, schäbig. Aber konsequent, wenn man Google als evil wahrnimmt, wie ich und die echten Google-Earth-Macher vermutlich auch.
Googles Blog: https://ai.googleblog.com/
Letzte Aktivität Ende 2022! Davor war fast täglich von neuen Forschungen zu lesen.
Das Problem ist da, und es wird vermutlich eine sehr misstrauische Welt schaffen, in der Wissen zurückgehalten wird, um seinen Vorteil zu behalten. Fortschritt scheint gef... Tschuldigung.
Kommentar vom 2023-01-15, 15:02
@Kommentator*in von 12:07: "oft völlig" und "weit davon entfernt": Wie man an dem im OP verlinkten Video sieht, sind "oft" und völlig" und "weit" dabei sehr dehnbare Größen. – Zum zweiten Satz: Genau diese nicht allzu versteckte Beleidigung kommt super toll. – "Guter Output" ist nicht der Maßstab; es kommt darauf an, besser zu sein als das, was man als Student*in sonst bei mäßigem Aufwand liefern könnte. – Ja, wenn damit nun plötzlich richtig Geld verdient würde (man siehe Microsofts jüngstes finanzielles Engagement bei "Open"AI), dann könnte das in der bisher so offenherzigen KI-Forschung (Open Source, Open Access) zu einer mittelprächtigen Eiszeit führen und AGI in weite (noch weitere?) Ferne rücken. J. L.
Kommentar vom 2023-01-15, 19:39
Was ist mit Druck und Sog gemeint? Das Horrorszenario scheint nun ja zu sein: Ein Studierender gibt eine Aufgabenstellung bei ChatGPT ein und reicht den generierten Text als eigenes Werk ein. Ist das der Sog? Der Dozent kann aber doch viel mehr gewinnen: Erst lasse ich ChatGPT die Aufgabenstellung ausformulieren – meinetwegen jedem Studierenden eine eigene – und lege danach ChatGPT alle Lösungen vor mit der Bitte, jeweils ein begründetes, benotetes Gutachten (für Waldorf-Fans kann ich die Note dann auch weglöschen) auszuformulieren, meinetwegen gerne mit Malus für erkannte Plagiate oder so – da ist ChatGPT ja auch bestimmt besser als ich. Vielleicht schaue ich auch noch mal über das Gutachten, wenn ich Zweifel habe, ob mein ChatGPT die Partialbruchzerlegung korrekt verifiziert hat.
Gruss (dg)
Kommentar vom 2023-01-15, 20:27
@dg: Mit Druck und Sog meinte ich, um Goethe zu zitieren: "Halb zog sie ihn, halb sank er hin." Kleiner Scherz. Sondern push factor und pull factor. – Das mit den Plagiaten kann ChatGPT gar nicht gut, weil es eben (meist) nicht eidetisch gelernt hat. (Das wäre ja typischerweise auch kontraproduktiv, denn das Netz soll generalisieren.) Das mit der Partialbruchzerlegung und sowieso alles mit Rechnen ist immer noch riskant. Aber Stephen Wolfram denkt schon drüber nach, was passieren wird, wenn ChatGPT auch die Wolfram Language lernt. J. L.
Kommentar vom 2023-01-15, 21:32
Also, die ersten Abgaben aus GPT3-Feder habe ich durch die 100% richtige Orthografie identifiziert. Zum Glück sind meine Schüler im Pokerface nicht so gut ... und Noten sind nicht so wichtig ... Ob ChatGPT wohl auch gute Fehler einbauen kann?!
Kommentar vom 2023-01-16, 15:53
@JL: Eine KI, die nicht zwischen Abstand und Bogen(flug-)länge unterscheidet mit einer, die keinen Sinus berechnen kann? Ein Traumteam ...
Gruss (dg)
Kommentar vom 2023-01-16, 18:22
@dg: Die Frage ist – wie schon gesagt – nicht, wie gut das absolut ist, sondern wie gut es im Vergleich zu einer*m Studentin*in mit mittlerer Motivation ist. J. L.
Kommentar vom 2023-01-27, 10:25
Vielleicht ist die ganz simple Lösung, dass man ChatGPT sehr bald nicht mehr kostenlos nutzen kann.
Kommentar vom 2023-01-27, 19:35
@Kommentator*in von 10:25: Eine unbequeme Gratis-Version könnte es weiterhin geben. Und die Bezahl-Version kann man sich vielleicht teilen wie Netflix. Ein*e Ghost-Writer*in ist auf jeden Fall teurer. J. L.
Neuer Kommentar
0 Zeichen von maximal 1000
Ich bin die*der alleinige Autor*in dieses Kommentars und räume dem Betreiber dieser Website das unentgeltliche, nichtausschließliche, räumlich und zeitlich unbegrenzte Recht ein, diesen Kommentar auf dieser Webseite samt Angabe von Datum und Uhrzeit zu veröffentlichen. Dieser Kommentar entspricht geltendem Recht, insbesondere in Bezug auf Urheberrecht, Datenschutzrecht, Markenrecht und Persönlichkeitsrecht. Wenn der Kommentar mit einer Urheberbezeichnung (zum Beispiel meinem Namen) versehen werden soll, habe ich auch diese in das Kommentar-Textfeld eingegeben. Ich bin damit einverstanden, dass der Betreiber der Webseite Kommentare zur Veröffentlichung auswählt und sinngemäß oder zur Wahrung von Rechten Dritter kürzt.