Home
| Lehre
| Videos
| Texte
| Vorträge
| Software
| Person
| Impressum, Datenschutzerklärung
|
Die Blog-Postings sind Kommentare im Sinne von § 6 Abs. 1 MStV. Der Verfasser ist Jörn Loviscach, falls jeweils nicht anders angegeben. Die Blog-Postings könnten Kraftausdrücke, potenziell verstörende Tatsachenbehauptungen und/oder Darstellungen von Stereotypen enthalten. Die Beiträge der vergangenen Wochen werden als Bestandteil der Internet-Geschichte in ihrer ursprünglichen Form gezeigt. Menschliche Autor*innen können unzutreffende Informationen über Personen, Orte oder Fakten liefern.
vorheriger | Gesamtliste | jüngste | nächster
2024-11-09 20:48
Mein Vortrag von dieser Woche an der Staatlichen Studienakademie Dresden ist nun online. Es geht um frustrierende Prüfungen, inflationäre Mündlichkeit, erledigte Jobs und die tatsächlichen wirklichen wahren Future Skills.
Kommentar vom 2024-11-10, 01:23
Danke für Ihren wieder sehr interessanten Vortrag - oder welche Intelligenz hat den erstellt? (Gibt es eigentlich eine Eigentumsrecht an Intelligenz? Können wir intelligent werden, ohne (von anderen und deren Sprache) zu lernen?)
Durch den Hinweis auf synthetische Radioreporter (https://youtu.be/2eYfkzatyQQ?feature=shared&t=1715) habe ich auch noch mal nblm mit dem Promptinhalt "Die Hosts unterhalten sich mit viel Ironie, Witz und Komik" einen deutschen Podcast zu dem Thema generieren lassen.
Der wäre quasi direkt sendefähig für das Niveau vieler Radiosender. Ein Teil dauert immer so 3-5 Minuten - wahrscheinlich weil die Aufmerksamkeit dann erstmal dahin ist. - Da fehlten eigentlich nur ein paar Takte automatische Musik zur Entspannung, bevor der nächste Teil fortsetzt. Bei Interesse gerne wieder eine Kopie (MP3) davon erstellen: [Done! J.L.]
Interessant: ab 7:45 der Aspekt der Datenveröffentlichungspflicht.
Kommentar vom 2024-11-10, 01:49
Zum Aspekt Jobverlust beim „automatisierten Fahren“ https://youtu.be/2eYfkzatyQQ?feature=shared&t=1590 stimmt dies sicherlich irgendwann für Taxifahrer, weil RoboTaxi es ohne Personalkosten übernehmen.
Aber auch das selbstgefahrene Fahrzeug wird durch Assistenzsysteme immer sicherer und einfacher zunutzen sein, ohne dass es ein Taxidienst wird.
Wer als Fahrer dann auch noch einfach (Assistenzsystem für Fahrgemeinschaften) und sicher andere Personen in seinem Auto mitnehmen kann, bekommt durch die Kostenbeteiligung auch eine Vergünstigung. Zusätzlich sollten solche Fahrgemeinschaftsfahrzeug im Verkehr bevorzugt werden durch extra Fahrspuren (automatische Prüfung), durch extra Parkplätze/Ladeplätze, durch längere Grünphasen (je nach Anzahl der Menschen an Bord).
Da bleibt es fraglich, ob wir jemals RoboTaxis im großen Umfang brauchen werden - oder ob wir volkswirtschaftlich nicht günstiger mit dynamischen privaten Fahrgemeinschaften unterwegs sein können.
Gruß, MartinH - lieber eMIT
Kommentar vom 2024-11-10, 10:31
Ich habe gerade mal das sehr vielversprechende Whiteboard von https://j3l7h.de/whiteboard.html ausprobiert, mit den Standardeinstellungen in einem aktuellen Chrome-Browser von Google unter Windows 10 in Kombination mit einem Wacom-Intuos-Zeichentablet. Das Zeichnen an sich funktioniert auch super. Nur der Diktiermodus funktioniert bei mir nicht. Nach einem großen gezeichneten L und Druck der Q-Taste erscheint trotz aktiviertem Mikrofon die Meldung "Fehler beim Transkribieren: Abbruch". Woran kann das liegen?
PS: Ich bilde mir ein, eine gleichlautende Meldung als YouTube-Kommentar hinterlassen zu haben, der aber scheinbar wegmoderiert wurde.
Kommentar vom 2024-11-10, 11:22
@Kommentator*in von 10:31: Oh je, bei mir gehts mit Win10+Chrome; gerade noch mal ausprobiert. Mal F12 drücken und gucken, ob auf der Konsole irgendwas Erhellendes steht (außer den Mausbewegungen, die ich mal endlich da raus nehmen sollte). Allerdings ist dieser Gratis-Spracherkennungsmodus sowieso für die Tafel nicht gut genug. – Auf YouTube ist ein solcher Kommentar nicht bei mir aufgetaucht. J. L.
Kommentar vom 2024-11-10, 19:44
Bei mir klappt es in Chrome jetzt auch, vermutlich habe ich die Q-Taste vorher nicht lange genug gedrückt gehalten. Für englischsprachige Lehrveranstaltungen mit der entsprechenden Einstellung "originalLanguage": "en" scheint mit die Erkennungsqualität in Chrome mit einem sehr guten Mikrofon ausreichend genug zu sein, selbst bei komplizierten Ausdrücken. In Deutsch funktionieren einzelne Wörter gut, aber zusammengesetzte Ausdrücke wie "Knotenspannungsanalyse" nicht wirklich. Ich muss mal schauen, ob ich die Diktierfunktion wirklich brauche. Bisher bin ich mit Windows Journal zum Zeichnen, Windows+Umschalt+S für das Snipping Tool zum Kopieren von Inhalten aus dem Übungsheft sowie Alt+Tab zum Wechsel zwischen Browser, Journal und z.B. Octave gut zurecht gekommen. Der eingebaute Rechner im Browser-Whiteboard ist nett, aber der Umweg über Octave auch nicht wirklich weit. Trotzdem Danke für das schöne Stück Software. (M.M.)
Kommentar vom 2024-11-10, 22:36
@M.M.: Ich leite den Dank an ChatGPT und Claude weiter. J.&nsbp;L.
Kommentar vom 2024-11-14, 20:54
Ich bilde mir ein, dass ein Future Skill auch der Umgang mit Windows sein könnte. Zumindest sehe ich nicht, dass sich die Arbeitswelt von Windows und Laptops weg bewegt, während die heranwachsenden Menschen fast nur noch Touch-Displays kennenlernen. Im Studium ist mir tatsächlich jemand begegnet, der nichts mit Drag&Drop in Verbindung mit einer Computermaus anfangen konnte …
Kommentar vom 2024-11-14, 21:26
@Kommentator*in von 20:54: Die KI fängt ja an, das Klicken selbst zu machen, wie im Vortrag erwähnt. J. L.
Kommentar vom 2024-11-26, 17:59
Kann ich das Transkript irgendwo runterladen?
Grüße
Jan
Kommentar vom 2024-11-26, 18:52
@Jan: Here you are (Ergebnis von Whisper-2 bereinigt durch ChatGPT o1-preview). J. L.
**Prompten und prompten lassen: KI in der Hochschullehre** Fünf Abteilungen im kurzen Vortrag: 1. KI automatisiert in der Hochschullehre 2. KI schafft neue Möglichkeiten 3. Legt Prüfungen ab 4. Stärkt Privilegien 5. Erledigt Jobs auf zwei Arten Erledigt die Jobs dann auch wirklich, dass die Jobs nicht mehr da sind. Erstmal zum Automatisieren: Wie man sich denn jetzt an der Hochschule die Arbeit vereinfacht. Die Skripte vom vergangenen Semester kamen bei mir schon alle aus einem Gemisch aus ChatGPT und Claude 2.0. Wir haben ein paar Links dahin geschrieben. Auf der rechten Seite die Lösung für Klausuren, das kann ChatGPT auch wunderschön. Das ist O1 Review, die neueste Version: Die Klausur rein und es kommt die Musterlösung raus, viel zu ausführlich. Die Musterlösung habe ich noch darüber geschrieben, "viel zu ausführlich", nicht dass jemand glaubt, dass das ernst gemeint sei, dass man jetzt so viel schreiben müsse in der Klausur. Die Musterlösung geht auch aus der KI. Die Aufgaben selbst, Klausuren schon seit längerer Zeit mit KI-Unterstützung: "Machen wir mal vier Aufgaben von diesem Typ oder 20 Aufgaben von dem Typ", geht ja auch ganz locker. Syllabi: Zu welchem Termin soll was drankommen im Semester? Da lasse ich mich auch gerne mal unterstützen. Die Frage ist dann: Wozu überhaupt noch Open Educational Resources, wenn man das jetzt alles hat aus der Dose? Soll man jetzt auf die Suche gehen nach freien, richtig freien Materialien, Open Educational Resources, oder ist das Thema damit durch? Ich komme nachher nochmal mit drauf zurück, wozu denn OER dann vielleicht nochmal nötig sein könnte. Aber diese großen Diskussionen und die großen Förderprogramme, die da sich drum ranken, sind jetzt vielleicht etwas obsolet geworden. Die Betreuung durch die KI, die Roboter-Tutorinnen, noch nicht wirklich in Betrieb, aber es würde funktionieren. Wenn man also sagt: "Bring mir das Lösen quadratischer Gleichungen bei, aber stell immer nur so grafische Fragen und gib mir nie eine Lösung", dann funktioniert das auch, dass die Maschine wirklich das mit einem durchdiskutiert, wie eine perfekte Tutorin einen korrigiert und Hilfen gibt. Mit den ganz normalen Sprachmodellen geht das. Sachen korrigieren, Prüfungen korrigieren, geht im Prinzip genauso. Bewerten ist natürlich schwierig. Der Reiz ist groß, Klausuren insbesondere vielleicht dann auch mal vollautomatisch bewerten zu lassen, gibt natürlich Stress, weil das nach dem AI Act, der KI-Verordnung der EU, nicht erlaubt ist. Da muss dann doch jemand nochmal endgültig draufgucken, dass das nicht die Note direkt aus der KI ist, sondern vom Menschen nochmal abgesegnet ist. Beratung genauso ein Problem nach dem AI Act: Sobald sich das Studium irgendwie ändern kann durch das, was die KI veranstaltet, wenn die KI jetzt sagt: "Ach, nimm das Modul, nimm das Modul" oder "Studiere dieses oder jenes", ist für mich ein bisschen heikel nach der KI-Verordnung von der EU. Und unten links habe ich nochmal ein Beispiel Bewertung, wenn Sie nicht mit Noten bewerten wollen. Links unten, das ist Claude 2.0, ein Bewertungstext, ganz gewaltfrei formuliert, dass hier man keinen Schimmer von Mathematik hat. Das geht auch aus der KI, also die ganzen Lehrerinnen und Lehrer, die sich damit rumquälen müssen mit Bewertungstexten, werden dadurch auch wunderbar entlastet. **Studiengänge, komplette Studiengänge** Wir haben bei uns gerade eine Umstrukturierung der Studienreform. Das geht wunderschön: "Was soll jetzt vorkommen in diesem Modul? Wie passen die Module zusammen?" Und schauen wir schöne Informationen zusammen für die Akkreditierung, für den Akkreditierungsantrag über ein paar Seiten mit all den wichtigen Begriffen, die da vorkommen müssen. Das geht komplett aus der Dose, sehr arbeitssparend. **Werbematerial** So ein Bild wie das rechts unten ist ja immer total schwierig herzustellen. Man sagt einfach Midjourney: "Mach mir dieses Bild", und dann haben wir so ein Bild. Ist natürlich komplett unauthentisch, aber wenn man sich die üblichen Werbematerialien anguckt, die von Hochschulen so ins Netz gestellt werden, sind ja genauso unauthentisch. Die sind da vielleicht noch nicht aus der KI, aber genauso unauthentisch wie das Bild, was da rechts unten steht: gestellt. **Neue Möglichkeiten** Man nimmt, was man hat: die Skripte, die Bücher, was man findet im Netz, Webseiten irgendwo im Netz, eigene Videos, und lässt die KI daraus eine Kurzfassung machen. "Erklär es mir mal, als ob ich fünf Jahre alt wäre" oder eine FAQ daraus machen: "Was sind die wichtigen Fragen hier und die Antworten darauf?" Eine Aufgabensammlung: Die ersten langen Texte generieren immer zwölf Aufgaben. Zu diesem Text haben wir Beispiele darunter gestellt. Am einfachsten ist sicherlich Notebook LM von Google. Da lädt man rein, was man will, ob es ein Video ist oder ein Textdokument, was auch immer, und stellt dann Fragen dazu. Vielleicht kommen noch ein paar andere Anwendungen davon. Oder jetzt neuerdings die Websuche in ChatGPT, dass man anklicken kann "Suche im Web", und dann kriegt man eben alles Mögliche aus dem Web zusammengesucht, zusammengefasst, und wo dann wirklich Dutzende oder zwei Dutzend Webseiten durchgehen, um Sachen dann aus den Webseiten zusammenzusuchen und das kurz zu fassen. Das ist extrem arbeitssparend. **Die Materialien** Da kommt jetzt nochmal OER vor. Wenn man Materialien hat, lustigerweise müssen die ja gar nicht antrainiert sein, nicht mehr antrainiert sein, aufwendig in das Modell eintrainiert sein, sondern die können ja im Fluge dazukommen. Wenn man seine eigenen Materialien hat, die bisher hinter Schloss und Riegel waren und nie gelernt worden sind von den großen Modellen, kann man die einfach mit in den Kontext nehmen. Dass man sagt: "Hier, nimm diese fünf Dokumente mit dazu, und dann ist das meine Frage" oder "Baue mir eine Klausur zu diesen fünf Dokumenten." Dann kommen die einfach mit in den Kontext rein. Google hat ja bis zu zwei Megatokens Kontextlänge, theoretisch. Das scheint nicht so ganz hundertprozentig zu funktionieren, wenn die Leute das testen, aber theoretisch haben die zumindest zwei Megatokens, zwei Millionen Token Kontextlänge. Das heißt, da passen auch mehrere Romane rein, locker. Da passen auch mehrere Skripte rein, locker. Einfach nur in den Kontext, das muss gar nicht gelernt sein. Man nimmt es einfach mit: "Hier, dieses Dokument, sag mir mal, was darüber über mein Thema drin steht" oder "Stell mir Aufgaben zu diesem Thema." Oder Vektordatenbanken, das hat OpenAI. Man kann seine eigene Vektordatenbank damit antrainieren, und dann wird die bei der Abfrage berücksichtigt. Das ist ja noch eine etwas andere Nummer als das Kontextfenster. So kann Material dann weiterverwendet werden. **Die Mündlichkeit** Die Spracherkennung, Sprachsynthese in hoher Geschwindigkeit, inzwischen ja fast so schnell, wie ein Mensch es verstehen würde, und in 100 Sprachen. Auf der rechten Seite, das habe ich mal zusammenstricken lassen von ChatGPT und Claude, ist auch frei verfügbar unter der URL, wenn es jemand nutzen will. Das ist ein Whiteboard zum Diktieren. Ich drücke einfach die Taste Q und sage: "Übersetzung zwischen Logik und Mengenlehre", und dann steht das da, automatisch übersetzt und auch noch korrigiert. Also es geht erst in den Spracherkenner raus, Whisper, dann kommt der Text zurück, und der Text geht dann nochmal durch die API von GPT durch, um übersetzt zu werden, weil ich so viele Studentinnen und Studenten habe, die mit Deutsch Probleme haben. Also das ist auf Nachfrage des Publikums übersetzt in diese Sprachen. Das ist eine Geschichte, die ist komplett neu. Das hat es vor zwei Jahren in diesem Sinne so nicht gegeben. Einfach gerade mal im Fluge irgendwas übersetzen in so und so viele Sprachen. Und was jetzt ja auch ist: Das ist vor zwei Wochen, einer Woche freigeschaltet worden für Europa, dieser Advanced Voice in der ChatGPT-App, dass man mit der App wirklich reden kann wie mit einem Menschen. Man kann die App unterbrechen, dazwischen labern. Das ist schon extrem hilfreich. Ich habe es noch nicht genügend ausprobiert, aber es sieht zumindest sehr hilfreich aus. Wenn ich sage: "Stell mir mal zwei Fragen auf Chinesisch", dann kommen da zwei Fragen auf Chinesisch, und die Maschine erwartet eine Antwort. Zum Sprechsprachenüben ist das grandios. Physik diskutieren hatte ich mal ausprobiert, es funktioniert. Also ich möchte gerne den Satz von Bernoulli verstehen: "Erklär mir mal den Satz von Bernoulli." Er hängt dann so bei den üblichen Erklärungen, die nicht wirklich stimmen. Aber ja, so die Allerweltsthemen kann man damit tatsächlich dann mündlich diskutieren und muss das nicht lesen. Und man kann es als Video haben, Beispiele stehen bei mir im Blog. Wenn Sie ein Lernvideo brauchen oder sich selbst von mir als Studentin und Student ein Lernvideo machen wollen, einfach einen von diesen Videogeneratoren nehmen. Dann steht da jemand vor der Folie und gestikuliert und sagt was, wenn Sie wollen mit Ihrem eigenen Aussehen, wenn Sie wollen mit Ihrer eigenen Stimme, aber dann in einer ganz anderen Sprache, wenn Sie auch das noch wollen. Das Thema ist dann damit auch durch, Lernvideos zu machen. Ich habe mal vor langen, langen Jahren 3000 Lernvideos gemacht. Das habe ich irgendwann dann aufgegeben, weil es lohnt sich einfach nicht mehr. Es ist absehbar, dass die KI das viel besser kann. Was soll man sich da hinstellen und sich bemühen, Lernvideos zu machen? Die kommen demnächst direkt aus der Maschine. Sie kommen schon jetzt direkt aus der Maschine. Es ist noch nicht so richtig prickelnd, wenn Sie sich das angucken. Hier bin ich jetzt gerade mit Webex und so weiter etwas angebunden. Ich wollte es nicht im Video zeigen. Es ist nicht 100 % prickelnd, aber es ist auf dem Wege, dass man das glauben kann. **Die Personalisierung** Die wird ja oft ganz hoch gehalten, die Personalisierung, dass man jetzt das Lehrgeschehen zuschneidern kann auf die Person, die da jetzt gerade was lernen soll. Auch wieder spannend mit der Kontextlänge. Man könnte jetzt, das habe ich noch nicht gesehen, dass das jemand wirklich gemacht hat, ich habe es auch noch nicht ausprobiert, aber rein theoretisch könnte man sagen: Hier sind alle Skripte aller meiner Veranstaltungen, hier sind meine Klausuren, hier sind meine Übungsaufgaben aus dem Tutorium, das ist mein bisheriges Studium, und jetzt hilf mir. All das würde man ins Kontextfenster, zumindest bei Google Gemini würde man das alles ins Kontextfenster reinkriegen mit seinen zwei Megatokens. Habe ich noch nicht gesehen, das müsste aber theoretisch machbar sein. Die Maschine müsste gar nicht antrainiert werden auf einen selbst, sondern man könnte bei jeder Anfrage einfach mitgeben: "Das bin ich sozusagen, das war mein bisheriges Studium, und jetzt hilf mir." Was ich lustig finde und was ich noch wenig genutzt finde: Man kann der KI dann ja auch sagen in solchen Diskussionen, dass sie sich anpassen soll. Hier mal testweise ganz fies, damit man es etwas deutlicher sieht: "Spiele eine passiv-aggressive, manipulative Person." So die ganz böse Lehrerin, der ganz böse Lehrer nach alter Art, um das mal einfach zu verdeutlichen, dass die KI das dann auch kann. Oder ist das einfach zu viel verlangt? Da steht halt \(x^2\) drin. "Brillant! Mit einem echten Mathe-Genie zu tun." Dazu möchte man jetzt vielleicht nicht unbedingt Mathematik lernen. Natürlich wäre es lustiger, wahrscheinlich hilfreicher, wenn die KI freundlicher ist, aber auch das wäre eben anpassbar. Was ist die richtige Persönlichkeit, die die KI haben müsste in solchen Diskussionen? Ein Begriff, der gerne dann kommt, ist die "Two Sigma Tutoring", weil Bloom, der mit der Taxonomie, der hat auch das "Two Sigma Tutoring" irgendwann mal publiziert. Ich weiß gar nicht, was schlimmer ist bei Bloom: die Taxonomie oder das "Two Sigma Tutoring", ein Paper, das ziemlich fadenscheinig belegen soll, dass persönliches Tutoring zwei Standardabweichungen besser ist als normaler Schulunterricht. Links steht da drunter einer von vielen Artikeln, die das kritisieren, aber das hört man oft. Wenn Salman Khan und andere Leute über Personalisierung reden, dann kommt oft dieses Paper. Ich habe es irgendwann auch mal erwähnt, ich wusste gar nicht, wie schlecht das ist. Also dieser Gedanke, dass persönliche Betreuung zwei Standardabweichungen besser wird als der klassische Unterricht, der ist nicht ganz zu glauben, vorsichtig gesagt. **Gut, und die Prüfungen: Was machen wir am Ende?** Die Prüfungen: Ich probiere seit einiger Zeit rum mit meinen Klausuren. Hier 23, als das schon emäßig losging, vorsichtig mal angefangen: Wie ist die Lage mit der Mathematik 1? Dann war ChatGPT, ich habe es gelb markiert, weil ChatGPT 4 kam dann schon auf die Note 1,7. ChatGPT 3,5 kam nur auf die Note 3,3 in meiner Mathematik. Die ganz normale Matheklausur, ganz normal durchkorrigiert. Also der Sprung von ChatGPT 3,5 auf 4 war schon enorm. Mathematik 2 war für die alle noch ein bisschen schwieriger. Sie sehen, ChatGPT startet unten bei 2,7, einen Notenschritt runter. Mathematik-2-Klausur war ein bisschen schwieriger. Google Bard, falls sich noch jemand erinnert an Google Bard, der war einfach nicht zu gebrauchen, offensichtlich hier auch nicht. Klar durchgefallen durch die Mathematik 2. Und das ist dann über die Monate, sieht man, wie sich das steigert. Sogar Google, da unten das allerletzte markierte Google, ist inzwischen mit Gemini 1,5 Pro bei der Note 1,7. Dann im April vor einem halben Jahr. Seitdem habe ich es nicht mehr ausprobiert, weil das Thema ist durch, Mathematik ist einfach durch. Also Mathematikprüfungen im ersten, zweiten Semester, das geht dann bis Fourier, Differentialgleichungen, Laplace, das ist gelaufen. Die gehen einfach, die muss ich nicht mehr ausprobieren. Andere Sachen sind schwieriger: Wind- und Wasserkraft bei mir oder Gebäudeautomation, wo es dann um Lüftungssysteme, Klimaanlagen geht. Wie legt man dafür Regelungen aus? Das ist so speziell, das ist echt noch schwierig für die Maschinen. Aber so Mathematik, Informatik, das ist einfach durch. Das kann die Maschine dann. Die nimmt die Prüfungen, wie sie sind, und löst sie perfekt. Na, fast perfekt zumindest. **Das Schreiben** Das ist ja das, was derzeit am meisten diskutiert wird, dass die KI die Ghostwriterin ist für alles, was man haben will. Jetzt gerade neu, das GPT 4.0, dass da Canvas freigegeben worden ist, wo man dann eben im Extrafenster ein Programm sieht oder seinen Text sieht und daran weiterbasteln kann, was dazwischen schreiben kann, markieren kann und sagen kann: "Hier, dieser Satz ist aber doof, mach mal besser." Oder eben das GPT sagen kann: "Mach mal Vorschläge hier." Das ist dieser Modus mit Vorschlägen. Die kommen derzeit noch auf Englisch, die Vorschläge. Ich finde sie auch noch nicht hundertprozentig prickelnd, aber das ist natürlich die Richtung, die da eingeschlagen wird. Die Schreibberatung ist dann durch die KI. Die KI sagt: "Das machen wir denn so, denn so, denn so, und die Struktur stimmt nicht", und so weiter. Das ist auf dem Wege. Derzeit ist es noch Englisch und noch nicht so toll, aber das ist ja auch erst wenige Tage sozusagen, dass das überhaupt geht. Was am Anfang viel kritisiert worden ist, die halluzinierten Literaturhinweise, das ist natürlich schon lange durch. Ich sage es hier sicherheitshalber, falls Sie noch nicht alles mitgekriegt haben: Consensus GPT. Also man geht in ChatGPT auf ein GPT namens Consensus, insbesondere den, es gibt noch weitere, und sagt: "Fass mir mal die Literatur zusammen zu folgendem Thema", und dann kriegt man zwei Seiten oder wie viel man auch immer haben will, zusammengefasste Literatur mit echten Literaturverweisen, weil die aus der Datenbank kommen und nicht aus der KI kommen. Die sind nicht auswendig gelernt, sondern aus der Datenbank. Also dieser übliche Abschnitt in allen Bachelorarbeiten, Masterarbeiten, Doktorarbeiten, Papers, dieser übliche Abschnitt "Related Work", verwandte Arbeiten, ist damit erledigt. Wenn man ehrlich, finde ich es nicht gerade toll, wenn man ihn damit erledigt. Man sollte vielleicht auch mal selber gucken, ob man nicht noch ein bisschen mehr findet und woanders was findet. Aber theoretisch, wenn Sie sagen wollen: "Hab ich keinen Bock drauf", ist das damit erledigt, und das wird wahrscheinlich auch keiner merken, wenn man es damit erledigt. Und Programmierprojekte natürlich auch. Vielleicht führe ich das zu viel vor bei meinen Studentinnen und Studenten. Das ist inzwischen einfach üblich. Man fragt einfach die Maschine, ob Claude oder insbesondere eben der ChatGPT. Man fragt einfach die Maschine: "Schreib mir ein Programm für dieses. Ich möchte, was weiß ich, vom Kachelmann jede Stunde die Wetterdaten abfragen, schreib mal." Und dann hat man da eben 100 Zeilen und fertig. Das macht keiner mehr zu Fuß, schlicht und ergreifend. Wozu auch, sage ich meinen Studentinnen und Studenten. Ich mache es auch nicht mehr zu Fuß. Man müsste Stack Overflow auf und drunter suchen, Fehler drinnen, die man erstmal wieder herausfinden müsste. Es kommt fast perfekt aus der Maschine raus. Programmierprojekte sind in diesem Sinne auch als Prüfungen mehr oder minder durch, weil ich muss nur noch die Maschine fragen. Das hat natürlich Folgen, dass die Maschine das alles übernimmt. Ich glaube, das hat sich rumgesprochen. Diese KI-Detektoren, die tun es überhaupt nicht. Einige Leute haben es ja sogar probiert, Texte ins ChatGPT einzukopieren und dann zu fragen: "Ist dieser Text von dir oder nicht?" Das ist natürlich völliger Unsinn. Woher soll die Maschine das wissen, ob der Text von ihr ist oder nicht? Aber auch die KI-Detektoren, die da offiziell angeboten werden, sind natürlich genauso unsinnig. Das geht einfach nicht. Diese Dinge funktionieren einfach nicht. Man hat sehr viele False Positives, sehr viele False Negatives. Es geht sehr viel durch, was aus der Maschine ist, aber nicht als aus der Maschine erkannt wird. Und es wird sehr viel markiert als "Das ist aber KI, das ist aber KI". Also wenn man, was weiß ich, die Unabhängigkeitserklärung oder sowas da reingibt, und dann wird die plötzlich als aus der KI markiert, irgendein Unsinn. Geht natürlich auch nicht, weil man verdächtigt alle möglichen Leute, dass sie da jetzt was Böses getan haben, sich das haben ghostwriten lassen aus der KI. Das funktioniert einfach nicht mit den Detektoren. Das können wir vergessen. Ein anderer Vorschlag ist dann: "Ach, dann müssen wir Zwischenberichte haben, Lerntagebücher oder sowas." Leider auch nicht. Auf der rechten Seite habe ich einfach mal ein Lerntagebuch schreiben lassen. Man sagt nur: ChatGPT, mach die Websuche an, und jetzt hätte ich gerne zur Wind- und Wasserkraft von Jörn Loviscach ein Lerntagebuch. Das ist alles, was Sie eintippen. Die Websuche machen Sie an: "Zur Wind- und Wasserkraft von Jörn Loviscach ein Lerntagebuch." Und Sie kriegen das mit Datum, und das ist nur ein Ausschnitt, mit allem Pipapo. Aus dem Web guckt er sich dann an, was war denn dran in dieser Veranstaltung, und er lügt einem da die Hucke voll, was er alles gelernt haben will als Lerntagebuch. Also auch das funktioniert nicht mit Lerntagebüchern. Ich habe jetzt mal hinter das Nächste gesetzt, weil das ist natürlich nicht ganz ernst gemeint. Aber was geht jetzt eigentlich noch? Hier im Hause haben Sie vielleicht noch ein paar praktische Prüfungen, wo wirklich eine Schaltung aufgebaut werden muss oder eine Heizung angeschlossen werden oder eine Mauer aufgebaut werden muss, dann geht das vielleicht noch. Aber alles, was so hochakademisch ist, wo einfach nur Text abgeliefert wird oder was diskutiert wird, das ist total schwierig. Eigentlich müsste man jetzt sagen, auch bei mündlichen Prüfungen: Ich muss auch einmal in die Ohren gucken, ob da nicht so ein kleines Gerät drin ist in den Ohren. Das ist ja übliche Handelsware, das kriegt man ja nicht nur bei TEA, sondern das kriegt man auch schlicht und ergreifend beim Hörakustiker. Die ganz normalen Hörgeräte, die verschwinden ja schon im Ohr und haben Bluetooth drin. Na gut, das mit dem Handy verbinden, ChatGPT, die App im Advanced Voice Modus, und dann redet der Prüfer eigentlich nur noch mit ChatGPT und nicht mit der Person selbst. Man kriegt souffliert, was man sagen soll. Damit sind auch mündliche Prüfungen ziemlich tot, wenn man nicht—das ist völlig irre der Gedanke, aber es ist leider so—wenn man nicht tatsächlich den Leuten mal in die Ohren guckt. Also die Lage ist ziemlich kritisch. Es ist noch nicht überall angekommen, wie kritisch die Lage ist. Auf Bewertungen verzichten, lassen wir es jetzt ganz sein? Die Noten und auch längere Bewertungen, das ist eigentlich dann kein großer Unterschied, ob man das nun in Langtext bewertet oder ob man kurze Noten gibt. Ich hatte mal vor einiger Zeit 1:20, lustigerweise hatte ich mal einen Vortrag darüber gehalten: Das wird total schwierig, wenn die Hochschulen keine Prüfungen machen. Wer macht sie dann? Dann gibt es irgendwelche Drittparteien, die sowas anbieten, so eine Art TÜV, Lehr-TÜV. Oder machen die Unternehmen das? Aber das können sich kleine Unternehmen nicht leisten. Aber irgendwer wird doch solche Prüfungen dann machen müssen, Prüfungen abnehmen müssen. Man wird die Leute ja nicht blind einstellen können. Wenn Sie lesen, wenn Google usw. sagen—Elon Musk hatte das ja auch mal gesagt—Bachelor usw. ist uns egal, wir nehmen euch so. Es gibt natürlich den ganzen Trick für Softwareentwicklung: Man guckt einfach, was habt ihr denn schon zu Linux beigetragen, zeigt uns mal jetzt hier gerade im Internet, was ihr zu Linux beigetragen habt, wir gucken uns das an, alles gut. Aber das kann ich meine Studenten nicht fragen, die haben nichts zu Linux beigetragen. Die fangen auch sowieso nicht bei Google an, und die fangen nicht bei Elon Musk an. Im Prinzip könnte man sowas auch anders lösen. Aber ich weiß nicht, wie es für meine Studentinnen und Studenten anders lösbar wäre. Vielleicht mit engerer Betreuung. Das entwickelt sich jetzt so zwangsläufig, weil die Zahlen an Studentinnen und Studenten brechen ein. Auch nach den offiziellen Statistiken von vielen Seiten sieht das nicht rosig aus, dass es immer weniger werden. Insofern wäre eine viel engere Betreuung nötig. Und wenn jetzt nach Trumps Wahlsieg dann auch die Wehrpflicht wahrscheinlich wiederkommt in Deutschland—aus Gründen—haben wir noch ein viel größeres Problem, dass uns dann auf diese Art noch viel mehr Leute wegbrechen. Also die Zahl der Studentinnen und Studenten wird weiter runtergehen. Vielleicht ist das dann die Lösung, dass wir zum Schluss eine 1-zu-1-Betreuung haben, ein bisschen übertrieben, oder vielleicht eine 5-zu-1-Betreuung. Irgendwo wird die Schwelle sein, dass die enge Betreuung das dann sicherer macht, dass wir dann doch glauben, dass die Sachen nicht aus der KI kommen oder eben erkennen, wenn sie aus der KI kommen. **Privilegien** Die KI stärkt Privilegien, der Matthäus-Effekt. Man kann die KI auf zwei Arten anwenden: Man kann sie benutzen in der Diskussion, um dran zu lernen, "Erklär mir was", oder man kann sie benutzen: "Löse meine Aufgaben, schreib mir diese blöde Hausarbeit." Die können Sie auf beide Arten benutzen, je nachdem, was Sie so machen wollen. "Wer hat, dem wird gegeben; wer nicht hat, dem wird genommen", aus dem Matthäus-Evangelium, deshalb Matthäus-Effekt. Gibt es quer durch alle Sozialwissenschaften und was auch immer, Wirtschaftswissenschaften. Die Schere geht wahrscheinlich noch weiter auf, insbesondere wegen der Frustration. Das merke ich jetzt eben auch bei den ersten Studentinnen und Studenten, dass sie sagen: "Was soll ich das lernen? Das ist doch Schwachsinn, das zu lernen. Die KI kann das. Ich kann mich da Jahre mit beschäftigen, die KI wird es immer noch besser können. Was soll ich mir das antun?" Diese Frustration führt dann natürlich das Recht dazu, dass man sagt: "Ich muss durch die Prüfung, lassen wir die Prüfung damit schreiben." Und die Illusion des Wissens und Könnens: Es sieht eben alles so schön aus, wenn das da aus der Maschine rauskommt, schön untereinander geschrieben. Man möchte es so gerne glauben, auch wenn es völlig falsch ist, möchte man es so gerne glauben. Der Dunning-Kruger-Effekt, wobei einige Leute sagen, dass der Dunning-Kruger-Effekt selbst unter dem Dunning-Kruger-Effekt leidet, weil das Paper eigentlich falsch ist dazu. Aber der Gedanke auf jeden Fall: Wenn man von etwas keine Ahnung hat, glaubt man, davon Ahnung zu haben. Das wird damit natürlich dann potenziert. Anderer Effekt, den die KI haben kann, dass man Sachen einfach nicht lernt oder verlernt. Schnürsenkel binden zum Beispiel soll ja so ein Thema sein. Schriftlich dividieren ist auf jeden Fall ein Thema. Das weiß ich, dass meine Leute im ersten Semester nicht schriftlich dividieren können, wahrscheinlich sogar nicht mal schriftlich multiplizieren können. Das war wahrscheinlich irgendwann mal dran, aber nie verwendet, ist weg. Google Maps: Ohne Google Maps durch die Gegend zu fahren. Es gibt diesen schönen oder sehr unschönen eigentlich Fachbegriff "Death by GPS", wenn Leute einfach strikt ihrem Handy folgen. Wenn das sagt: "Fahr in die Wüste", fahren die in die Wüste, und deshalb "Death by GPS" mit entsprechenden Folgen. Also man verlernt die Navigation, GPS dafür. Die Chinesen haben dieses ganz spezielle Phänomen, dass sie am Handy und auf dem Rechner die Zeichen nicht mehr malen, sondern in der lateinischen Lautschrift eingeben. Und deshalb können sie die Zeichen nicht mehr schreiben. Das verlernen die einfach. Die pauken es in der Schule endlos und verlernen es dann, diese Zeichen zu schreiben. Und so weiter und so weiter. Also was man nicht nutzt, ist weg, schlicht und ergreifend. Und was eben nicht genutzt wird: Längere Texte lesen und schreiben. Wenn man jetzt nur noch die Maschine bittet: "Fass mir doch mal diesen Text zusammen" oder "Löse mir diese Aufgaben, schreib mir diese Einleitung für die Bachelorarbeit", dann lernt man es nicht. Und wenn man es jemals konnte, dann verlernt man es. Das ist ein weiterer Punkt hier zu diesem Aspekt. **Mündlichkeit auf dem Vormarsch** Das Schriftliche geht verloren. Es wird vor allen Dingen mündlich gearbeitet, mit Videos dann gearbeitet. Man muss reden. Und das heißt natürlich, dass ganz viel Kognition behindert wird. Im Schriftlichen kann man so viel länger argumentieren, so viel längere Argumentationsketten bilden, Verweise und so weiter, als im Mündlichen. Diese Tiefe geht verloren, akademische Tiefe geht dadurch verloren, durch das Mündliche. **Letzter Punkt: Die Jobs, die da erledigt werden, auf zwei Arten erledigt werden** Quelle: Internet mit Smiley dahinter. Ich habe gesucht, ich habe keine offizielle Quelle für diesen Spruch gefunden. Ich habe mich zumindest angestrengt: "AI will not replace you. People using AI will." Wobei ich sagen würde: "Companies using AI will", und nicht "People using AI will". Das ist im Prinzip richtig, aber man braucht natürlich viel weniger Leute dann, weil die viel mehr leisten. Der Durchsatz ist viel höher. Ich merke es einfach beim Programmieren: Was man früher, wo man einen halben Tag drangesessen hat, was zu programmieren, das kommt sofort jetzt in einer Minute aus der Maschine und stimmt, schlicht und ergreifend. Es ist extrem zeitsparend, kann extrem zeitsparend sein. Es gibt auch Stellen, wo es daneben geht, aber es kann extrem zeitsparend sein. Das heißt, man braucht viel weniger Leute für denselben Output und dann Leute, die in der Lage sind, das auch noch so schnell zu verarbeiten. Programmieren ist das Besondere: Was kommt da aus der KI raus? Einmal drüber lesen: "Stimmt das? Stimmt das nicht?" Das muss man dann natürlich entsprechend schnell auch können. Eine Ausnahme, was die höhere Qualifikation angeht, und das ist dann auch noch ein ganz wunder Punkt: Wer hat denn ursprünglich mal diese Daten eingepflegt? Arme Leute in Kenia zum Beispiel. Das sieht man bei ChatGPT im Englischen, das benutzt sehr häufig das Wort "delve", in ein Thema eintauchen. Das kann man dann verfolgen in der Statistik: Wie häufig kommt das Wort "delve" vor? In ChatGPT-generierten Texten kommt es viel häufiger vor als in normalen Texten, weil die Leute in Kenia so sprechen. Die haben das da reintrainiert, als sie ChatGPT antrainiert haben. Also es gibt arme Menschen, die trainieren für uns diese Maschinen an. Das ist richtig gemein. **Ein paar konkrete Jobs, die wahrscheinlich verloren gehen** Ich habe einfach mal meine Mülltonnen hier fotografiert. Unten ist, was ChatGPT 4 dazu sagt: Zwei Mülltonnen, die nebeneinander stehen, eine gelbe, eine grüne, und die Griffe stehen zusammen. Das sagt er dazu. In eine Mülltonne rein fotografiert: Plastikverpackungen, Milchkartons und so weiter. Das muss man nicht im Einzelnen lesen, aber es ist eben eine detaillierte Beschreibung von dem, was da im Mülleimer drin ist, einfach aus ChatGPT raus. Das verbinden Sie mit irgendeinem Roboter, und dann haben Sie die automatische Müllabfuhr. Das ist dann durch, das Thema. **Mathematikprof ist auch durch** Keine Chance, wenn Sie hoffen, noch FH-Mathematikprof zu werden. Sieht nicht gut aus, sieht gar nicht gut aus. Auf der linken Seite habe ich einfach mal eine Lösung einer möglichen Klausuraufgabe handschriftlich hingeschrieben. Eine falsche Lösung, es ist ein Fehler drinnen versteckt in dieser Lösung. Das ist mal an die verschiedenen Programme gegeben: Claude 3.5 sagt: "Alles gut, alles richtig." Das ist leider noch nicht ganz richtig, ich hoffe, das wissen alle hier. Wenn Sie \(\frac{d}{dx}\cos(5x)\) ableiten, dann kriegen Sie nicht plus 5 den Sinus, sondern minus. Aber er meint, das ist richtig. Das ist hier ein Fehler in dem Ding. ChatGPT 4.0 sagt: "Vollständig korrekt, korrekt durchgeführt, korrekt angegeben." Nein, es hagelt Fehler hier. Was ich dann zum Schluss mal gemacht habe: Dieses Bild in ChatGPT 4.0 rein, damit es LaTeX-Formeltext draus macht, und mit dem Formeltext dann in ChatGPT-Preview rein, weil derzeit kann ChatGPT-Preview noch nicht Bilder einlesen. Also auf diesem Wege dann in das große, neueste Modell rein, und dann merkt er tatsächlich: Das Vorzeichen vor dem zweiten Term ist falsch, hier bei dem \(y'\). Dann kriegt er das tatsächlich mit. Auch da wieder ein Schritt ins Ding: Lernt, lernt und lernt. Das ist aus dem zweiten Semester. In absehbarer Zeit kann ChatGPT und Claude, hoffentlich dann auch, können die Klausuren aus dem zweiten Semester, handschriftliche Klausuren aus dem zweiten Semester korrigieren. **Taxifahrer kann ich dann auch nicht mehr werden** Alle Leute haben natürlich fürchterlich Angst vor den automatisch fahrenden Autos. Aber wenn man sich dann die Statistiken anguckt, die Versicherer, die haben ja die Statistiken, die wissen, wie viel Schaden so ein autonomes Auto macht, und die wissen, wie viel Schaden ein normal gefahrenes Auto macht, und die sehen genau: Okay, das autonom fahrende Auto kostet weniger, das ist günstiger, es macht weniger Schaden. Die Leute mögen das nicht und haben Angst davor, aber es macht weniger Schaden. Und das gibt natürlich dann einen Druck, spätestens dann, wenn die Versicherer sagen: "Du willst dein Auto selbst fahren? Ja, okay, zahlst du die dreifache Prämie." Irgendwann wird es da hinkommen, und dann ist auch der Job als Taxifahrer hinüber. Irgendwas in Excel einzutippen oder bei meinen Leuten hier so ein Photovoltaik- oder ein Windenergieplanungsprogramm bedienen, da einfach rumzuklicken, die Daten einzutippen, ich denke, das ist durch. Hier für Claude ist gerade—das habe ich rechts als Screenshot—für Claude ist das gerade draußen, der Computer Use. Wenn man die API zumindest verwendet, man kann das Ding dazu bringen, dass es klickt auf irgendwas da auf dem Bildschirm klickt. Es liest das, was auf dem Bildschirm steht, und bedient das Programm, was da auf dem Bildschirm zu sehen ist. Damit sind alle möglichen "Bedien dieses Programm"-Jobs durch. Und Programmieren auf einfachem Niveau, zumindest unten. Das kam in dem Quartalsbericht von Google: Ein Viertel des neuen Codes bei Google stammt aus der KI und wird da nur noch nachgeguckt von den Ingenieur*innen. Dann hat jemand auf X kommentiert: "Das merkt man." Aber trotzdem, das kann ich nur bestätigen. Es ist extrem gut, was da rauskommt. **Psychotherapeut*in muss man nicht mehr werden** Weil Character-AI-Chatbots mit Persönlichkeit—die Jugend liebt diese Chatbots mit Persönlichkeit und benutzt die als Psychotherapeut*in. Damit wird das Thema Psychotherapeut sein. **Soziologie** Ich habe mal vor Claude gebeten, sich ein Thema auszudenken aus der Soziologie. Genauer gesagt habe ich das Thema in einfacher Fassung vorgegeben und habe gebeten, das mal bitte soziologisch auszuformulieren zu einer Dissertation. Und dann kommt dann die Anleitung, wie die Dissertation stattfinden muss. **Radiomoderator*in braucht man nicht werden** Notebook LM hatte ich schon erwähnt. Das verarbeitet, was man auch immer haben will: Dokumente, Videos, und dann kann man Fragen danach und total Spezialfunktion: Man kann sich eine Radiosendung draus machen lassen, einen Podcast draus machen lassen, wo da zwei Leute miteinander reden über das Thema, über das man da Videos oder Dokumente hochgeladen hat. Völlig irre. Probieren Sie es mal aus. Ich habe hier auf der rechten Seite was anderes probiert: Ich habe von einem Vortrag, den ich mal gehalten habe über Predictive Maintenance für Windturbinen, das Texttranskript in Claude geladen und Claude gebeten, da mal eine Podcast-Diskussion draus zu machen. Und Sie sehen, was da: "Moment mal, als würde das Windrad zum Berserker gehen" und so weiter. "Predictive Maintenance lacht mit." Es ist einfach herrlich, das schon zu lesen. Es ist einfach herrlich. Und dann die Sprache da automatisch, das jetzt in Ton zu wandeln, ist da inzwischen keine Aktion. **Influencer*in wollten wir alle mal werden** Hat nicht so richtig geklappt bei mir. Ist jetzt auch durch. Auf Instagram gibt es natürlich die ganzen künstlichen Influencer*innen. **Promptingenieur** Einige Leute empfehlen ja immer noch: "Oh, der muss das Prompten lernen, alle müssen prompten lernen." Das halte ich für den größten Dötzchen überhaupt, weil das ist eine Geschichte, die sofort automatisiert wird. Das hier ist jetzt Storm, wo sich ein paar Leute überlegt haben, wie man jetzt ChatGPT 4 tatsächlich verwenden kann, um neue Texte zu schreiben. Und zwar indem automatisch verschiedene Personen, Moderatoren sozusagen, angelegt werden. Sehen Sie hier: Theoretical Physicist, Aerodynamics Engineer, Aviation Historian, Basic Fact Writer. Also je nach Thema denkt er sich aus, welche Leute diskutieren müssten über dieses Thema, und lässt die dann quasi miteinander diskutieren. Man darf sogar selbst mitmachen zwischendurch, dann sagen: "Das ist jetzt zu abgedreht, was ihr da macht" oder "Beachtet doch mal Folgendes." Und dann sitzt man da mit vier Experten, Expertinnen an einem Tisch und diskutiert mit denen. Und das wird dann zum Schluss zusammengefasst in einem Wikipedia-artigen Artikel. Was wollt ihr denn noch prompten? Das ist so durchgeknallt. Ich weiß nicht mehr, was man jetzt an Promptingenieur machen sollte. Wie gesagt, das ist auf Basis von GPT. Also es überlegen sich Leute, wie man professionell GPT prompten würde, hier auf vier verschiedene Arten und zusammenfassen und so weiter, und das dann unter einer hübschen Oberfläche. **Was hat Zukunft?** Dachdecker. Ich glaube, die Szene auf der rechten Seite, die bleibt noch sehr lange. KI, das ist einfach zu schwierig, Roboter aufs Dach zu schicken, die dann wirklich was flicken, wird nicht funktionieren. Wärmepumpen installieren, das Klo reparieren, denke ich, ist auch einfach zu kompliziert von der Robotik. Das wird auch noch nicht funktionieren über Jahre. Und da war—wir hatten eben schon das Thema Energie—Kerntechnik. Das kann man jetzt sehen, wie man will, aber es ist wahrscheinlich eine Beschäftigungsmöglichkeit werden. Was habe ich da zitiert? Hier gerade Google ist der obere, der mittlere ist Microsoft und unteres ist Amazon. Alle sind dabei, sich Kernkraftwerke zu kaufen für die KI, weil das passt natürlich wie die Faust aufs Auge: 24/7 Strom für ein Rechenzentrum, das 24/7 läuft, insbesondere zum Training. Das ist genau das, was sie wollen. Und auf diese Art kommt die Kernenergie durch die Hintertür wieder rein. Da scheint es Zukunft zu geben, egal, wie man jetzt dazu steht, aber die großen Unternehmen, wie Sie sehen, haben ihre Meinung dazu schon befasst. **Was braucht man jetzt eigentlich?** Jetzt die Geschichte: Was braucht man jetzt eigentlich? "Future Skills", das geht oft als Schlagwort durch die Szene. Ja, was sind da eigentlich die Future Skills? Ganz alte Skills, und es sind eigentlich auch nicht Skills, sondern Persönlichkeitsmerkmale. Sowas wie Gewissenhaftigkeit, sich da hinzusetzen und das jetzt fertig zu machen. Offenheit, etwas auszuprobieren. Die gute alte Intelligenz, Need for Cognition, dass man etwas durchdringen will, dass man es wirklich verstehen will und nicht einfach nur einen Text von der Maschine haben will, sondern selbst verstehen will. Aufmerksamkeitsregulation, wenn da 30 Videos daneben sind, die auch noch hübsch wären, dass man die ignoriert und tatsächlich weitermacht mit seiner Aufgabe. Frustrationstoleranz, dass man erträgt, es auch etwas über zwei Jahre schlechter zu können als die Maschine, vielleicht sogar nie besser zu können als die Maschine. Selbstmotivierung, Selbstoptimierung—was auch gerne Selbstausbeutung ist, die Selbstoptimierung, ein bisschen vorsichtig sein. Die Frage ist, was ist davon überhaupt lern- und lehrbar? Kann man sowas wie Frustrationstoleranz überhaupt lernen? Insbesondere kann man das mit 18 plus Jahren lernen? Wenn man es lernen kann, kann man es auch lehren? Ist das überhaupt etwas, das an der Hochschule gelehrt werden kann? Und wenn ja, soll es überhaupt gelernt oder gelehrt werden? Wollen wir wirklich, dass wir an der Persönlichkeit der Menschen umbauen? Darauf läuft das ja hinaus. Das ist ja so eine Art Gehirnwäsche, wo wir uns die Menschen umbauen, dass die ganz andere Persönlichkeiten sind, als sie vorher waren. Da muss man, denke ich, sehr vorsichtig sein. Aber darauf wird die Diskussion dann hinauslaufen: Was braucht man die Menschen eigentlich, die aus der Hochschule dann rauskommen? Was braucht man die heute noch an Skills? Sehr, sehr schwierig. **Dankeschön**
Neuer Kommentar
0 Zeichen von maximal 1000
Ich bin die*der alleinige Autor*in dieses Kommentars und räume dem Betreiber dieser Website das unentgeltliche, nichtausschließliche, räumlich und zeitlich unbegrenzte Recht ein, diesen Kommentar auf dieser Webseite samt Angabe von Datum und Uhrzeit zu veröffentlichen. Dieser Kommentar entspricht geltendem Recht, insbesondere in Bezug auf Urheberrecht, Datenschutzrecht, Markenrecht und Persönlichkeitsrecht. Wenn der Kommentar mit einer Urheberbezeichnung (zum Beispiel meinem Namen) versehen werden soll, habe ich auch diese in das Kommentar-Textfeld eingegeben. Ich bin damit einverstanden, dass der Betreiber der Webseite Kommentare zur Veröffentlichung auswählt und sinngemäß oder zur Wahrung von Rechten Dritter kürzt.