Home
| Lehre
| Videos
| Texte
| Vorträge
| Software
| Person
| Impressum, Datenschutzerklärung
|
Die Blog-Postings sind Kommentare im Sinne von § 6 Abs. 1 MStV. Der Verfasser ist Jörn Loviscach, falls jeweils nicht anders angegeben. Die Blog-Postings könnten Kraftausdrücke, potenziell verstörende Tatsachenbehauptungen und/oder Darstellungen von Stereotypen enthalten. Die Beiträge der vergangenen Wochen werden als Bestandteil der Internet-Geschichte in ihrer ursprünglichen Form gezeigt. Menschliche Autor*innen können unzutreffende Informationen über Personen, Orte oder Fakten liefern.
vorheriger | Gesamtliste | jüngste | nächster
2023-08-07 11:16
Eine Studie, deren Text ich nicht finden kann, und zu der ich auch im Programm der mir nicht so wirklich bedeutend erscheinenden Konferenz, auf der sie vorgestellt worden sein soll, nichts finde, hat die höheren Weihen von Sascha Lobo und weiterer Vertreter*innen der Qualitätsmedien erhalten. Follow the science!
Im Prinzip sind der Gedanke (Torrance Tests of Creative Thinking, wohl nur der verbale Teil, nehme ich an) und das Resultat (die menschlichen Student*innen überrundend, was sonst?) plausibel. Auch ich setze ja ChatGPT als Kreativitätsbeschleunigerin ein. Aber natürlich stellen sich Fragen. Zum Beispiel: Hat ChatGPT aus dem Netz gelernt, wie man besonders gut abschneidet? (Natürlich gibt es im Netz Hilfe für die Eltern, die möchten, dass ihr Kind als hochbegabt getestet wird, was es ja auf jeden Fall ist.) Außerdem ist der Test für Menschen gemacht, nicht für Maschinen. Analoges Beispiel: Wenn ein Mensch dreistellige Zahlen im Kopf multipliziert, wissen wir, dass das "echt" ist; wenn der Computer das macht, könnte das auswendig gelernt sein.
Hier eine weitere frische Arbeit zum selben Thema, nun aber mit Titel und PDF: Ideas are Dimes a Dozen: Large Language Models for Idea Generation in Innovation. Auch dort wird mir nicht klar, ob GPT-4 beim Training unfair auf den Test vorbereitet worden sein könnte. Und die Bewertung ist mit Mechanical Turk (das heißt immer noch so) passiert, wurde also vielleicht hinterrücks an ChatGPT outgesourct. Die Autor*innen stammen aus den Wirtschaftswissenschaften und haben deshalb ausrechnen können, dass Mensch + GPT-4 kreativitätstechnisch etwa 40 Mal produktiver sind als die*der Mensch alleine.
Kommentar vom 2023-10-13, 10:44
Wenn ich nicht irre, handelt es sich im Fall der von ChatGPT stammenden Texte um Reproduktionen und zwar insofern, als diese nichts anderes als Ergebnisse von Wahrscheinlichkeitsrechnungen sind, aus denen man einzig die Frage beantworten kann: Wie wahrscheinlich ist es, dass in allen Trainingstexten für die Software ein beliebiges Wort auf ein anderes folgt? Das, was hier mit Kreativität gemeint sein könnte, "entsteht" also wohl viel mehr auf der Seite des Interpretierenden als auf Seite der Textgenerierungssoftware, die also eigentlich nur ein besserer interpretierbarer Blindtext ist.
Kommentar vom 2023-10-13, 16:41
@Kommentator*in von 10:44: Die Technik habe ich hier halbwegs schlicht beschrieben. – Wer sagt, dass die KI "Reproduktionen" liefere, muss auch sagen, dass Menschen ebenfalls nur "Reproduktionen" liefern. Darauf können wir uns einigen. Der hier übliche Denkfehler ist, sich nicht zu überlegen, was denn die Menschen (auf magische Art?) anders machen sollten als die KI. Die Vorstellung, dass die KI das jeweils nächste Wort würfele, ist offensichtlich irreführend, wenn man schon allein sieht, wie sie einen Stapel Denkaufgaben meiner Klausuren auf einen Rutsch sauber der Reihe nach löst. Wir können uns schlichtweg nicht vorstellen, zu welcher Komplexität dieses Konzept fähig ist – analog dazu, dass wir uns nicht vorstellen _können_, dass wir gemeinsame Urahnen mit den Affen haben. Und uns das nicht vorstellen _wollen_, weil es an unserem Selbstbild kratzt. J. L.
Kommentar vom 2023-10-16, 10:17
@J.L. In Punkto Denkaufgaben und zunächst ohne "hier" gelesen zu haben: Texte sind bestimmt anteilig reproduktiv, schon deshalb, weil Sprache Träger und Ausdruck von Traditionen und Zeitgeist ist. Uns fällt es heute schwer, das Hildebrandslied zu lesen und doch ist es Zeugnis frühester deutscher Sprache und nur deshalb, wegen der reproduktiven Ähnlichkeiten bis heute tradiert, als solches erkenn- und immer noch interpretierbar. Bei letzterem aber greifen Menschen wohl eher auf Erfahrungen zurück als auf zufälliges Ausprobieren von aneinander gefügten Wortreihen. Und dass es solche sind sehe ich durch das scheinbare Lösen von Denkaufgaben insofern nicht widerlegt, da die Trainer und die Aufgabensteller der gleichen Spezies angehören. Wir haben also etwas kreiert, dass sich so ähnlich verhält wie wir es beabsichtigten. Aber ehrlich gesagt tue ich mich mit diesen Begrifflichkeiten wie Intelligenz, Kreativität, Denken, Bewusstsein usw. ohnehin sehr schwer.
Kommentar vom 2023-10-16, 10:53
@Kommentator*in von 10:17: "Bei letzterem aber greifen Menschen wohl eher auf Erfahrungen zurück als auf zufälliges Ausprobieren von aneinander gefügten Wortreihen" spricht für ein (leider übliches) grundsätzliches Missverständnis der Funktionsweise der LLM – und des Menschen. J. L.
Kommentar vom 2023-10-16, 13:22
@J.L. Vor dem Lesen Ihres Beitrages unter "hier" noch eines: Was mich an den aktuellen Behauptungen um KI "stört" ist der Eindruck, dass man es geschafft habe, den Menschen auf einige mathematische Sätze reduziert zu haben. Kann eine KI "psychisch" erkranken? Kann eine KI selbst erfahrene Sinnesdaten auswerten? Kann eine KI überhaupt (ohne _originäre_ Sinnesdaten) Erfahrungen machen? Was wäre sonst eine Erfahrung, wenn nicht ein kognitiver Zustand mit anteilig Sinnes- wie Geistesdaten? Und was die mathematische Abstraktion dieser Zustände und die Operationen darauf angeht, mag das noch gelingen. Die Anwendung aber, also die Rücküberführung ins Konkrete, setzt immer die Interpretation auf Basis von Erfahrung dessen voraus, was man eigentlich erst zu beschreiben sucht. Will sagen: Reine Rationalität ohne originäres Erleben durch Verarbeitung von eigenen Sinnesdaten scheint nicht geeignet zu sein, von Denken oder Erfahrung, Bewusstsein oder Kognitivität oder Interpretation zu sprechen.
Kommentar vom 2023-10-16, 20:09
@Kommentator*in von 13:22: Ich würde eine gigantische Formel mit zig Milliarden Parametern (gemeint ist das LLM) nicht als "einige mathematische Sätze" einstufen. – Natürlich kann eine KI psychisch erkranken, wenn man sie sich unkontrolliert verändern lässt (analog zur radikal werdenden Microsoft Tay), aber warum sollte man sie das tun lassen? – Natürlich kann eine KI selbst erfahrene Sinnesdaten auswerten, siehe etwa Google PaLM-E. – "Erfahrungen machen", "originäres Erleben" und "Bewusstsein" sind zu diffuse und damit hier wenig hilfreiche Termini. – Und immer bedenken: Was an "Sinnesdaten" im menschlichen Hirn ankommt, sind absurd abstrakte Folgen neuronaler Spikes, aber keine Bilder, keine Töne, keine Berührungen usw. – Wenn man sagt, das Gehirn lässt sich ohne Magie erklären, muss es einen Weg geben, es nachzubauen. Wenn man sagt, das Gehirn lässt sich nur mit Magie erklären, bin ich raus aus der Diskussion. J. L.
Kommentar vom 2023-10-17, 11:35
@J.L. Mit "erklären" ist es Ihren eignen Äußerungen in dem Artikel nach auch im Fall von KI schwierig und auch lassen sich die Ergebnisse von AlphaFold nicht erklären: Zwar kann mit AlphaFold eine Proteinstruktur basierend auf der Aminosäuresequenz des Proteins vorhergesagt werden, aber wie das geht verstehen wir nicht, können wir nicht erklären - Magie? Offen gesagt: Wenn es um Magie geht, bin ich auch raus. Aber es scheint, als würden neuronale Korrelate oder Spikes nicht ausreichen, um das zu erklären oder daraufhin nachzubauen, was im Gehirn abläuft und noch weniger das, wovon diese Abläufe hervorgerufen werden. Ich finde aber, man sollte den Begriff "Bewusstsein" etwas ernster nehmen, gerade, wenn es um die Interpretation von solchen neuronalen Impulsen geht und was diese im menschlichen Erleben hervorrufen und das wir dies nicht erklären können, siehe "The consciousness wager".
Kommentar vom 2023-10-17, 12:53
@Kommentator*in von 11:35: "Erklären": Es lässt sich jeder der Myriaden Einzelschritte perfekt nachvollziehen, also ist keine Magie drin. Es gibt bloß kein simples Erklärungsmodell. Das ist zum Beispiel in der Fluiddynamik ähnlich: Man kann Turbulenzen und dynamischen Auftrieb wunderschön genau in Übereinstimmung mit der Natur im Rechner simulieren, ohne Magie. Aber es gibt keine simplen Modelle dafür. Es geht also nicht um Magie, sondern um unsere kognitiven Beschränkungen beim Umgang mit komplexen Systemen. – Bei LLMs gibt es allerdings ein simples Erklärungsmodell: Die Maschine verfügt ansatzweise über Kognition und vielleicht sogar Bewusstsein (was man mal objektivierbar definieren müsste). – Ich kann der Theorie viel abgewinnen, dass Bewusstsein und freier Wille Illusionen sind. J. L.
Kommentar vom 2023-10-20, 10:56
@J.L. Das ist eben genau die Frage: Wie lässt sich etwas nur subjektiv erfahrbares (Konkretes) objektiv (Abstraktes) definieren? Meine Erfahrung Ihres Bewusstseins ist so unmöglich wie auf der Gegenseite, also intersubjektiv (nicht?) zugänglich. Im Fall von außer-subjektiven Gegenständen erscheint dies einfacher. Weiter aber müsste man sich im Fall einer Definition wohl zumindest an der Alltagssprache (historischer Begriff) anlehnen, um nicht einen hoffnungslos technischen Begriff zu erhalten mit dem letztlich keiner mehr etwas anfangen kann. Meistens kommen in so einem Fall Adäquatheitsbedingungen zum Einsatz und es entsteht eine Mischung aus analytischer und synthetischer Definition. Oder was meinen Sie? Was für halbwegs vernünftige Definitionen gibt es von "Bewusstsein"?
Kommentar vom 2023-10-21, 22:28
@Kommentator*in von 10:56: Es gibt eben (bisher?) keine belastbaren operationalisierten Definitionen des Begriffs "Bewusstsein". Genau darauf wollte ich hinaus. Von "Bewusstsein" zu reden bedeutet, wunderbar aneinander vorbei reden zu können. J. L.
Kommentar vom 2023-10-27, 11:52
@J.L. Ja, gibt es nicht. Was allerdings zu Tage tritt, ist die Frage nach Weltsichten. Und zwar: Gelten allein Subjekte als Träger von Bewusstsein, entsteht das Problem des Fremdpsychischen auf Grund der Innen-Außen Sichtweise und doch scheint dem Menschen diese Innenperspektive als Ort des Ich zutiefst vertraut, muss deshalb aber nicht wahr sein und mutet außerdem dualistisch (und erwähnt magisch) an, was zu Trilemmata führt. Im Fall IIT als Bewusstseins-Model, wäre immerhin der Träger inter-subjektiv nicht inner-subjektiv zugänglich. Allerdings entstünde ein technischer Bewusstseinsbegriff, der einer üblichen Perspektive des Menschseins spottet. Fragen wie: "Wie schmeckt dem Tisch die auf ihm verschüttete Milch?" mögen Zeugnis davon ablegen. Dass es sich mit dem Begriff Bewusstsein nicht aber einfach so hat, sieht man schon daran, dass KI immer wieder diese Eigenschaft zugeschrieben wird und dass es sich bei dieser Zuschreibung offenbar um mehr handeln könnte als nur Clickbait.
Neuer Kommentar
0 Zeichen von maximal 1000
Ich bin die*der alleinige Autor*in dieses Kommentars und räume dem Betreiber dieser Website das unentgeltliche, nichtausschließliche, räumlich und zeitlich unbegrenzte Recht ein, diesen Kommentar auf dieser Webseite samt Angabe von Datum und Uhrzeit zu veröffentlichen. Dieser Kommentar entspricht geltendem Recht, insbesondere in Bezug auf Urheberrecht, Datenschutzrecht, Markenrecht und Persönlichkeitsrecht. Wenn der Kommentar mit einer Urheberbezeichnung (zum Beispiel meinem Namen) versehen werden soll, habe ich auch diese in das Kommentar-Textfeld eingegeben. Ich bin damit einverstanden, dass der Betreiber der Webseite Kommentare zur Veröffentlichung auswählt und sinngemäß oder zur Wahrung von Rechten Dritter kürzt.