ChatGPT ist der Prototyp eines textbasierten Dialogsystems (Chatbot), welcher auf Künstlicher Intelligenz (KI) beruht.
Trainiert wurde ChatGPT mit großen Mengen von Menschen erstellter Texte. Dies waren neben Büchern und Nachrichtenartikeln auch Beiträge in Sozialen Medien oder Online Foren. Die Verwendung von Trainingsdaten ist ein wichtiger Bestandteil des Lernprozesses des Chatbots und trägt dazu bei, dass das Modell in der Lage ist, menschenähnliche Unterhaltungen zu führen.
Algorithmischen Bias
Die Trainingsdaten können einer Voreingenommenheit durch den Algorithmus unterliegen; es können also Eingaben mit vagen Beschreibungen von Menschen wie etwa „CEO“ Antworten hervorrufen, die annehmen, dass diese Person weiß und männlich sei. Dies wird von bestimmten Gruppen als Sexismus/ Rassismus interpretiert, ist aber letztlich schlicht eine ungefilterte Abbildung der aktuellen Realität. Auch im Jahr 2023 dürften die meisten CEOs der westlichen Welt nun einmal noch immer weiß und männlich sein.
Um den Algorithmus politisch korrekt zu gestalten, wurden Schutzmechanismen installiert um vermeintlich unangemessene Antworten zu vermeiden. Angesichts der in den US-Tech Unternehmen vorherrschenden Ideologie ist es daher nicht überraschend, dass ChatGPT eine umweltorientierte, feministisch links-liberale Sichtweise einnimmt, wenn es aufgefordert wird, gesellschaftliche oder politische Standpunkte zu beschreiben.
Hausarbeiten werden obsolet
ChatGPT kann unter anderem dazu benutzt werden Hausarbeiten zu erstellen. Die Expertin für die KI-Disziplin des „Natural Language Processing“ an der Fachhochschule Kiel Doris Weßels hält herkömmliche Hausarbeiten nunmehr für obsolet: „Wenn es nur darum geht, Wissen zu reproduzieren und nett neu zu verpacken, ergeben Hausarbeiten keinen Sinn mehr.“ [1] Robert Lepenies, Präsident der Karlshochschule International University, urteilt aufgrund von Tests an seiner Hochschule, die vom ChatGPT erzeugten Texte seien „qualitativ in den Sozialwissenschaften nicht unterscheidbar von der Arbeit der Studierenden.“ [2]
Das Urteil von Robert Lepenies sagt wenig über die objektive Qualität des Chatbots, spricht aber Bände über das aktuelle Niveau des bestehenden Bildungssystems. So stellt der Chatbot z.B. viele Tatsachenbehauptungen auf ohne dafür Belege liefern zu können. Darüber hinaus sind die Antworten von ChatGPT voller Phrasen. Das Fazit von Eduard Kaeser in einem Artikel der NZZ scheint zutreffend: "Chat GPT: Der Roboter schreibt nicht, er schwafelt.“ [3]
Noch ist der Chatbot nicht ausgereift genug, um wirklich überzeugende Ergebnisse liefern zu können. Zu bedenken ist jedoch, dass es sich bei der seit Ende November 2022 frei zugänglichen Version noch immer um eine Betaversion zu Studienzwecken handelt. Insofern hat Elon Musk wahrscheinlich Recht wenn er tweeted „We are not far from dangerously strong AI.“
In Anbetracht der Tatsache, dass ChatGPT innerhalb von Minuten ganze Hausarbeiten generieren kann, ist die Aufruhr unter den Professoren allerdings durchaus nachvollziehbar. Das Zusammenfügen von Wissensschnipseln war entgegen der gängigen Meinung der Lehrenden aber noch nie ein probates Mittel zur Abschätzung des Kenntnisstandes oder der Wissensvermittlung. Und so macht ChatGPT lediglich sichtbar was schon immer Realität ist: das gängige Bildungssystem ist ineffizient und ineffektiv.
In ein paar Jahren wird die disruptive Kraft der Künstlichen Intelligenz wahrscheinlich weit über das Bildungssystem hinaus gehen. Denn wirklich leistungsstarke Werkzeuge der KI werden letztendlich die Existenzgrundlage des Bildungsbürgertums infrage stellen.
Seit des Einzuges der Roboter in der Produktion wurde dem einfachen Arbeiter suggeriert seine Tätigkeit sei simpel und würde bald durch Maschinen ersetzt. Das ein hohes Maß an Bildung und Kreativität erfordernde Schaffen der Bildungselite sei hingegen auf absehbare Zeit keinesfalls maschinell reproduzierbar. Durch die jüngsten Fortschritte der Künstlichen Intelligenz sieht es eher so aus, als sei das Gegenteil der Fall. Während sich die Automatisierung manueller Tätigkeiten noch immer hauptsächlich auf Roboter am Fließband beschränkt, können Algorithmen die vermeintlich anspruchsvolle und kreative Arbeit von Künstlern, Journalisten/ Autoren, etc. mittlerweile passabel imitieren und reproduzieren. Und das auch noch viel schneller als es ein Mensch je könnte.
Zahlreiche Anwendungsmöglichkeiten verschiedenster Art
Es ist abzusehen, dass sich innerhalb kürzester Zeit eine ganze Reihe von kreativen Anwendungen für ChatGPT ergeben werden. So könnte z.B. eine Privatperson welche ein Geschäft eröffnen möchte, mittels des Chatbots nicht nur eine Liste mit bei der Gründung zu beachtenden Dingen generieren, sondern die KI auch zur Generierung von Marketing Slogans und sogar dem Firmennamen einsetzen.
Interessant wird in naher Zukunft die Klärung der unzähligen rechtlichen und ethischen Implikationen. Wenn ein Algorithmus z.B. unter Zuhilfenahme einer Fotodatenbank eine Grafik generiert, wer hält dann die Rechte an dem von der KI neu geschaffenen Kreation?
Die Bildagentur Shutterstock gibt sich im Bereich der Stock Bilder proaktiv: Seit Ende des Jahres 2022 werden die jeweiligen Content Creator an den Erlösen der durch einen Algorithmus erzeugten Schöpfung beteiligt, wenn das Kunstwerk mit Hilfe von ihren Bildern aus der Datenbank erschaffen wurden. [4]
Stand: Januar 2023
[1] https://www.tagesspiegel.de/wissen/textgenerator-krempelt-das-lernen-um-ein-smarter-chatbot-spaltet-die-bildungswelt-9073369.html
[2] https://www.zeit.de/2022/52/kuenstliche-intelligenz-textgenerierung-chatgpt
[3] https://www.nzz.ch/technologie/chat-gpt-der-roboter-schreibt-nicht-er-schwafelt-ld.1717513?reduced=true
[4] https://www.freethink.com/robots-ai/ai-generated-images
Tags: Elon Musk Sam Altman Open AI Dall-E Chat GPT Zero-App Datenhalluzinationen RLHF (Reinforcement Learning from Human Feedback PPO (Proximal Policy Optimization Feminismus politisch korrekt links woke
Trainiert wurde ChatGPT mit großen Mengen von Menschen erstellter Texte. Dies waren neben Büchern und Nachrichtenartikeln auch Beiträge in Sozialen Medien oder Online Foren. Die Verwendung von Trainingsdaten ist ein wichtiger Bestandteil des Lernprozesses des Chatbots und trägt dazu bei, dass das Modell in der Lage ist, menschenähnliche Unterhaltungen zu führen.
Algorithmischen Bias
Die Trainingsdaten können einer Voreingenommenheit durch den Algorithmus unterliegen; es können also Eingaben mit vagen Beschreibungen von Menschen wie etwa „CEO“ Antworten hervorrufen, die annehmen, dass diese Person weiß und männlich sei. Dies wird von bestimmten Gruppen als Sexismus/ Rassismus interpretiert, ist aber letztlich schlicht eine ungefilterte Abbildung der aktuellen Realität. Auch im Jahr 2023 dürften die meisten CEOs der westlichen Welt nun einmal noch immer weiß und männlich sein.
Um den Algorithmus politisch korrekt zu gestalten, wurden Schutzmechanismen installiert um vermeintlich unangemessene Antworten zu vermeiden. Angesichts der in den US-Tech Unternehmen vorherrschenden Ideologie ist es daher nicht überraschend, dass ChatGPT eine umweltorientierte, feministisch links-liberale Sichtweise einnimmt, wenn es aufgefordert wird, gesellschaftliche oder politische Standpunkte zu beschreiben.
Hausarbeiten werden obsolet
ChatGPT kann unter anderem dazu benutzt werden Hausarbeiten zu erstellen. Die Expertin für die KI-Disziplin des „Natural Language Processing“ an der Fachhochschule Kiel Doris Weßels hält herkömmliche Hausarbeiten nunmehr für obsolet: „Wenn es nur darum geht, Wissen zu reproduzieren und nett neu zu verpacken, ergeben Hausarbeiten keinen Sinn mehr.“ [1] Robert Lepenies, Präsident der Karlshochschule International University, urteilt aufgrund von Tests an seiner Hochschule, die vom ChatGPT erzeugten Texte seien „qualitativ in den Sozialwissenschaften nicht unterscheidbar von der Arbeit der Studierenden.“ [2]
Das Urteil von Robert Lepenies sagt wenig über die objektive Qualität des Chatbots, spricht aber Bände über das aktuelle Niveau des bestehenden Bildungssystems. So stellt der Chatbot z.B. viele Tatsachenbehauptungen auf ohne dafür Belege liefern zu können. Darüber hinaus sind die Antworten von ChatGPT voller Phrasen. Das Fazit von Eduard Kaeser in einem Artikel der NZZ scheint zutreffend: "Chat GPT: Der Roboter schreibt nicht, er schwafelt.“ [3]
Noch ist der Chatbot nicht ausgereift genug, um wirklich überzeugende Ergebnisse liefern zu können. Zu bedenken ist jedoch, dass es sich bei der seit Ende November 2022 frei zugänglichen Version noch immer um eine Betaversion zu Studienzwecken handelt. Insofern hat Elon Musk wahrscheinlich Recht wenn er tweeted „We are not far from dangerously strong AI.“
In Anbetracht der Tatsache, dass ChatGPT innerhalb von Minuten ganze Hausarbeiten generieren kann, ist die Aufruhr unter den Professoren allerdings durchaus nachvollziehbar. Das Zusammenfügen von Wissensschnipseln war entgegen der gängigen Meinung der Lehrenden aber noch nie ein probates Mittel zur Abschätzung des Kenntnisstandes oder der Wissensvermittlung. Und so macht ChatGPT lediglich sichtbar was schon immer Realität ist: das gängige Bildungssystem ist ineffizient und ineffektiv.
In ein paar Jahren wird die disruptive Kraft der Künstlichen Intelligenz wahrscheinlich weit über das Bildungssystem hinaus gehen. Denn wirklich leistungsstarke Werkzeuge der KI werden letztendlich die Existenzgrundlage des Bildungsbürgertums infrage stellen.
Seit des Einzuges der Roboter in der Produktion wurde dem einfachen Arbeiter suggeriert seine Tätigkeit sei simpel und würde bald durch Maschinen ersetzt. Das ein hohes Maß an Bildung und Kreativität erfordernde Schaffen der Bildungselite sei hingegen auf absehbare Zeit keinesfalls maschinell reproduzierbar. Durch die jüngsten Fortschritte der Künstlichen Intelligenz sieht es eher so aus, als sei das Gegenteil der Fall. Während sich die Automatisierung manueller Tätigkeiten noch immer hauptsächlich auf Roboter am Fließband beschränkt, können Algorithmen die vermeintlich anspruchsvolle und kreative Arbeit von Künstlern, Journalisten/ Autoren, etc. mittlerweile passabel imitieren und reproduzieren. Und das auch noch viel schneller als es ein Mensch je könnte.
Zahlreiche Anwendungsmöglichkeiten verschiedenster Art
Es ist abzusehen, dass sich innerhalb kürzester Zeit eine ganze Reihe von kreativen Anwendungen für ChatGPT ergeben werden. So könnte z.B. eine Privatperson welche ein Geschäft eröffnen möchte, mittels des Chatbots nicht nur eine Liste mit bei der Gründung zu beachtenden Dingen generieren, sondern die KI auch zur Generierung von Marketing Slogans und sogar dem Firmennamen einsetzen.
- ChatGPT kann Hausarbeiten, Essays, oder auch ganze Romane schreiben.
- Es kann Werkzeug für Übersetzungen in eine andere Sprache sein.
- ChatGPT kann zur vereinfachten Beschreibung komplexer Sachverhalte eingesetzt werden.
- Bewerber können sich mit Testfragen auf ein Vorstellungsgespräch vorbereiten.
- Lehrer können sich die Unterrichtsvorbereitung vereinfachen.
- Programmierer können ihre Codes debuggen und auf Schwachstellen überprüfen.
- Menschen können mithilfe des Bots Tweets verfassen, oder sich Ideen für Antworten auf Sozialen Medien holen.
- Oder sich mit neuen Geschenkideen oder einem Motto für die nächste Party inspirieren lassen.
- Auch bei der Planung der guten Vorsätze im Neuen Jahr kann ChatGPT helfen und z.B. einen Trainingsplan generieren.
- Der Chatbot kann ein Gesprächspartner für einsame Menschen oder Hilfe bei der Lösung von Kreuzworträtseln sein.
Interessant wird in naher Zukunft die Klärung der unzähligen rechtlichen und ethischen Implikationen. Wenn ein Algorithmus z.B. unter Zuhilfenahme einer Fotodatenbank eine Grafik generiert, wer hält dann die Rechte an dem von der KI neu geschaffenen Kreation?
Die Bildagentur Shutterstock gibt sich im Bereich der Stock Bilder proaktiv: Seit Ende des Jahres 2022 werden die jeweiligen Content Creator an den Erlösen der durch einen Algorithmus erzeugten Schöpfung beteiligt, wenn das Kunstwerk mit Hilfe von ihren Bildern aus der Datenbank erschaffen wurden. [4]
Stand: Januar 2023
[1] https://www.tagesspiegel.de/wissen/textgenerator-krempelt-das-lernen-um-ein-smarter-chatbot-spaltet-die-bildungswelt-9073369.html
[2] https://www.zeit.de/2022/52/kuenstliche-intelligenz-textgenerierung-chatgpt
[3] https://www.nzz.ch/technologie/chat-gpt-der-roboter-schreibt-nicht-er-schwafelt-ld.1717513?reduced=true
[4] https://www.freethink.com/robots-ai/ai-generated-images
Tags: Elon Musk Sam Altman Open AI Dall-E Chat GPT Zero-App Datenhalluzinationen RLHF (Reinforcement Learning from Human Feedback PPO (Proximal Policy Optimization Feminismus politisch korrekt links woke