Jede Ausgabe von ChatGPT & Co. basiert auf riesigen Mengen an vorhandenem Wissen.

Das Ergebnis kann neu wirken, ist es jedoch nicht.

Wie ist damit umzugehen?

  • Die Inhalte der Ausgaben sollten stets mit einer kritischen Grundhaltung betrachtet werden, zum Beispiel die Quellen nachvollziehen, die Aktualität des verwendeten Wissens, der Kontext.
  • Die Zusammenhänge in den Ausgaben sollten nachvollzogen und verstanden werden.
  • Eine Verwendung der Inhalte sollte bewusst erfolgen – nachdem die Inhalte hinterfragt wurden.

 

Blick in eine nahezu menschenleere Bibliothek

Drei unterschätzte Einsatzfelder für wissensbasierte Dienstleistungen

Rechtswesen

Ich habe einen realen Arzthaftungsfall mit ChatGPT nachgestellt.

Dabei zeigte sich ein teilweise halluzinierendes Sprachmodell:

  • Gerichtsentscheidungen wurden als Gesetz ausgelegt.
  • Mehrere Paragraphen stammten aus veralteten Gesetzesständen.
  • Die Angaben zu möglichen Rechtsmitteln waren teilweise widersprüchlich.

Nur ausgewiesene Experten können die Ausgaben realistisch und verlässlich einordnen.

Invention + Innovation

Sprachmodelle kombinieren bereits Bekanntes.

Echte Inventionen? Selten und zufällig.

Wer Neues schaffen will, braucht externe Experten, nicht nur KI-Agenten.

Demokratisierung von Wissen

Wissen ist jederzeit und überall abrufbar – Verstehen sollte man es trotzdem bevor es verwendet wird.

Ich kann mir als Nicht-Mediziner von einem Sprachmodell erklären lassen, wie eine Operation abläuft.

Doch kann ich dann auch tatsächlich operieren? Natürlich nicht.

Sprachmodelle ermöglichen uns Einsichten in andere Wissensgebiete – kompetenter wird man dadurch nicht.

Mein Fazit

Auch mit KI bleibt menschliche Urteilskraft der Schlüssel für Qualität, Kreativität und Innovation.

Wissensbasierte Dienstleister sind und bleiben wichtig – wer das unterschätzt, überschätzt womöglich die Möglichkeiten von Künstlicher Intelligenz.

Verantwortung lässt sich nicht delegieren.