Jede Ausgabe von ChatGPT & Co. basiert auf riesigen Mengen an vorhandenem Wissen.
Das Ergebnis kann neu wirken, ist es jedoch nicht.
Wie ist damit umzugehen?
- Die Inhalte der Ausgaben sollten stets mit einer kritischen Grundhaltung betrachtet werden, zum Beispiel die Quellen nachvollziehen, die Aktualität des verwendeten Wissens, der Kontext.
- Die Zusammenhänge in den Ausgaben sollten nachvollzogen und verstanden werden.
- Eine Verwendung der Inhalte sollte bewusst erfolgen – nachdem die Inhalte hinterfragt wurden.
Drei unterschätzte Einsatzfelder für wissensbasierte Dienstleistungen
Rechtswesen
Ich habe einen realen Arzthaftungsfall mit ChatGPT nachgestellt.
Dabei zeigte sich ein teilweise halluzinierendes Sprachmodell:
- Gerichtsentscheidungen wurden als Gesetz ausgelegt.
- Mehrere Paragraphen stammten aus veralteten Gesetzesständen.
- Die Angaben zu möglichen Rechtsmitteln waren teilweise widersprüchlich.
Nur ausgewiesene Experten können die Ausgaben realistisch und verlässlich einordnen.
Invention + Innovation
Sprachmodelle kombinieren bereits Bekanntes.
Echte Inventionen? Selten und zufällig.
Wer Neues schaffen will, braucht externe Experten, nicht nur KI-Agenten.
Demokratisierung von Wissen
Wissen ist jederzeit und überall abrufbar – Verstehen sollte man es trotzdem bevor es verwendet wird.
Ich kann mir als Nicht-Mediziner von einem Sprachmodell erklären lassen, wie eine Operation abläuft.
Doch kann ich dann auch tatsächlich operieren? Natürlich nicht.
Sprachmodelle ermöglichen uns Einsichten in andere Wissensgebiete – kompetenter wird man dadurch nicht.
Mein Fazit
Auch mit KI bleibt menschliche Urteilskraft der Schlüssel für Qualität, Kreativität und Innovation.
Wissensbasierte Dienstleister sind und bleiben wichtig – wer das unterschätzt, überschätzt womöglich die Möglichkeiten von Künstlicher Intelligenz.
Verantwortung lässt sich nicht delegieren.