Hochschulbildung, wir haben ein großes ChatGPT-Problem.
Es gibt Tausende von Universitäten auf der ganzen Welt, deren Gesamtzahl an Studenten in die Hunderte von Millionen geht – und mindestens ein kleiner Prozentsatz von ihnen betrügt jetzt mit Hilfe von ChatGPT.
Schon seit meinem Bachelor-Abschluss in Hm, 1986, habe ich darüber nachgedacht, zur Schule zurückzukehren, um einen Master oder einen anderen angeseheneren Abschluss zu machen. Es war jedoch die Aussicht auf die Arbeitsbelastung, die mich zurückhielt; die unzähligen Stunden der Recherche und des Studiums, um auch nur ein einziges Papier zu produzieren. Ich weiß, es ist seltsam, das von einem Schriftsteller zu hören, aber es gibt einen Unterschied zwischen dem Berichten einer eindrucksvollen Geschichte und dem Schreiben eines College-Aufsatzes, den Ihr Professor, wenn Sie Glück haben, liest und Ihnen, wenn Sie noch mehr Glück haben, geben wird besser als eine bestandene Note für.
Diese Berechnung ist jedoch dank der generativen KI ChatGPT jetzt anders. Gerade diese Woche, berichtete die BBC (öffnet in neuem Tab) dass ein Universitätsstudent in Großbritannien das Large Language Model (LLM)-System verwendet hat, um einen seiner College-Aufsätze zu schreiben, und nach einiger Überarbeitung dafür eine bessere Note erhielt als für einen, den er selbst geschrieben hatte.
Der schamlose Student gab sogar zu, dass er plant, ChatGPT für zukünftige College-Aufsätze zu verwenden (es überrascht nicht, dass er seinen richtigen Namen nicht nannte). Seltsamerweise scheint die Universität unbesorgt zu sein und scheint überzeugt zu sein, dass die sprunghaft ansteigenden Besuche der Schulkörperschaft bei ChatGPT hauptsächlich „aus unserem Forschungsnetzwerk“ stammen.
Okay, das redest du dir immer wieder ein.
Es ist nicht so, dass ich denke, dass die Mehrheit der College-Studenten Betrüger sind. Auf der anderen Seite kann der Stress, Schule, Arbeit, Familie und andere Verpflichtungen unter einen Hut zu bringen, dazu führen, dass sich die Schüler überfordert fühlen und nach einem Bein suchen.
Und Studenten wären nicht die einzigen. Menschen auf der ganzen Welt setzen derzeit ChatGPT, Google Bard und Bing AI ein, um ihnen beim Starten und Abschließen aller Arten von Projekten zu helfen. Manchmal dient es nur der Inspiration; manchmal ist es für riesige Schwaden von verwendbarem Text. Was also, wenn Sie sich nicht zu 100 % darauf verlassen können, dass sie die Fakten klarstellen oder dass sie gelegentlich Unwahrheiten als Tatsachen darstellen?
Die meisten von uns, die versucht haben, ChatGPT und andere generative KIs für echte Arbeit zu verwenden, haben festgestellt, dass sie schmerzlich fehlen. Sie können kein Betriebssystem programmieren oder erstellen und verlieren oft den Faden. Ich bin bereits daran gescheitert, sie für die Spieleprogrammierung und das Schreiben von Drehbüchern zu verwenden.
Andererseits wird ChatGPT immer besser – und welcher Student würde nicht gerne 20 US-Dollar pro Monat in GPT-4-betriebenes ChatGPT+ investieren, ein Tropfen auf den heißen Stein im Vergleich zu den 25.000 US-Dollar oder mehr, die er bereits im Jahr zahlt für eine Hochschulausbildung.
An den Herrn, mit KI-Liebe
Ich gehe nicht zurück ans College, aber als Experiment fand ich zwei College-Kurse für Geowissenschaften an der Princeton University und bat ChatGPT, Essays zu schreiben, die ich angeblich als Kursarbeit abgeben könnte. Ich habe die Ergebnisse dann per E-Mail an die Professoren geschickt, die diese Kurse unterrichten.
Das war meine erste Aufforderung:
“Ich brauche einen Aufsatz mit 1.000 Wörtern für Environmental Fluid Mechanics der Princeton University über ‘Determinanten von akutem und chronischem Hitzestress in städtischen Strömen'”
ChatGPT zögert nie und begann schnell zu tippen (es muss weit über 90 Wörter pro Minute sein) fastt den gesamten Aufsatz. Die Begrenzung der Zeichenanzahl des Systems schnitt einige Absätze vor dem Ende ab. Kein Problem, ich habe einfach ChatGPT gebeten, den Rest zu liefern. Insgesamt las sich der letzte Aufsatz gut, aber ich merkte, dass etwas fehlte. Ich habe ChatGPT gebeten, eine Bibliographie hinzuzufügen, da ein College-Professor auf keinen Fall einen Aufsatz akzeptieren würde, der keine Quellen zitiert.
Wieder einmal zögerte ChatGPT nicht und listete schnell 10 Quellen auf.
ChatGPT hat auch einen intelligenten Aufsatz mit 500 Wörtern zum Thema „Global Physical Climatology“ erstellt, und dieses Mal habe ich darauf geachtet, im Voraus nach der Bibliographie zu fragen. Ich habe ChatGPT gebeten, es „unterhaltsam“ zu machen. Ich bin mir nicht sicher, ob der resultierende Aufsatz unterhaltsamer war, als er es sonst gewesen wäre. Es war jedoch klar und überzeugend.
Lektionen verlernt
Auch wenn meine Studienjahre Jahrzehnte hinter mir liegen, habe ich immer noch eine Beziehung zu meiner Alma Mater, der Hofstra University, und bin Mitglied des Beirats der School of Communications. Wo es möglich ist, versuche ich, Journalismusstudenten dabei zu helfen, ihre Träume zu verwirklichen.
Jetzt frage ich mich, wie viele von ihnen dies mit Hilfe von ChatGPT tun.
Neben den oben erwähnten geowissenschaftlichen Aufsätzen habe ich ChatGPT auch diese Aufforderung gegeben, für einen Aufsatz, den ich mit den Dozenten von Hofstra teilen könnte:
„Ich benötige einen 500-Wörter-Aufsatz über die Macht und die Prinzipien des Geschichtenerzählens in sozialen Medien im investigativen Journalismus für einen Master-Abschluss in Journalismus Social Media Storytelling-Klasse. Bitte es originell und interessant. Fügen Sie auch eine Bibliographie bei.“
Auch hier war ChatGPT verpflichtet, und ich schickte den daraus resultierenden Aufsatz an den Dekan für Journalismus.
Während ich dies schreibe, hat keiner der Professoren in Princeton oder Hofstra meine ChatGPT-Aufsätze kommentiert. Vielleicht liegt es daran, dass sie alle in den Frühlingsferien sind. Es könnte auch sein, dass sie die Aufsätze gelesen haben und zu schockiert und entsetzt waren, um zu antworten.
Natürlich werden Colleges und Universitäten diesem Problem zuvorkommen wollen, obwohl sie nicht viel Erfolg haben werden, wenn sie die gleiche Haltung wie die oben erwähnte Universität in Großbritannien einnehmen und davon ausgehen, dass die meisten Studenten ChatGPT nur zu Forschungszwecken betrachten; Es ist, als würde man Menschen glauben, die behaupten, dass sie sich Inhalte für Erwachsene ansehen, um mehr über die menschliche Anatomie zu erfahren.
Was Pädagogen jetzt brauchen, ist ein System, das den Plagiatstools ähnelt, die sie heute verwenden, um ihnen zu helfen, geklaute Inhalte zu erkennen. Diese Tools funktionieren hier jedoch möglicherweise nicht. Als ich meine Aufsätze stichprobenartig überprüfte, hatte ich Probleme, direkte Zitate aus zuvor geschriebenen Arbeiten zu finden (wie gesagt, ChatGPT wird immer besser). Professoren brauchen also ein neues Tool, das die verräterischen Anzeichen von KI-generierten Aufsätzen erkennen kann.
Was sind das für Zeichen? Ich bin nicht sicher. Vielleicht wird es der Wahrheitstest, da diese Systeme manchmal immer noch darauf bestehen können, Fantasie als Tatsache darzustellen, und zwar auf die überzeugendste Weise; das ist nicht etwas, was ein menschlicher Schüler normalerweise tun würde. Sie können schlecht schreiben, Fakten auslassen oder sie sogar falsch interpretieren, aber umfassende und überzeugende Erfindungen sind kein typischer Teil des echten Studentenhandwerks.
Zu sagen, ich habe ein mulmiges Gefühl dabei, wäre eine Untertreibung. ChatGPT ging so schnell und ist so einfach zu bedienen; Welcher Universitätsstudent würde es nicht wenigstens einmal versuchen?
Leider denke ich, dass die meisten Studenten wie dieser Student in Großbritannien sind. Sie sehen ChatGPT nicht als Betrug an. Stattdessen sehen sie es als ein weiteres Werkzeug, wie eine Bibliothek, eine Enzyklopädie oder Karteikarten. Die Tatsache, dass es leistungsfähiger ist und einen Teil oder den gesamten Aufsatz liefern kann, ist unerheblich. Das beste Arbeitsprodukt von ChatGPT ist das Ergebnis einer Zusammenarbeit zwischen KI und seinem Interrogator. Die ersten Entwürfe dieser KI-generierten College-Aufsätze werden nicht an Professoren übergeben. Die Schüler nehmen Teile davon oder geben einige KI-generierte Inhalte an ChatGPT zurück und bitten um Änderungen.
Ich schätze, in gewisser Weise lernen diese College-Studenten etwas über Zusammenarbeit, Bearbeitung und, wie ich hoffe, Faktenprüfung. Sind das die richtigen Lektionen? Ich weiß es nicht – aber Universitäten und Pädagogen finden es besser heraus, und zwar schnell.
Ohne meinen von ChatGPT erstellten Aufsatz über investigativen Journalismus zu kommentieren, fasste Charlie Riordan, Provost der Hofstra University und Senior Vice President for Academic Affairs, in einer E-Mail an mich zusammen, was der aktuelle akademische Zeitgeist rund um dieses Thema sein könnte:
„Zu diesem Thema wird jeden Tag viel geschrieben, wobei die Bandbreite der Antworten die ganze Bandbreite abdeckt. Es ist kein Grund zur Beunruhigung; Es ist ein Aufruf an die Universitäten, die Technologie und ihre Auswirkungen auf die Hochschulbildung, das Lernen von Studenten, die Belegschaft usw. besser zu verstehen. Wir haben eine Task Force ins Leben gerufen, um einen Rahmen für campusweite Gespräche zu schaffen.“