(Wie) Ist ChatGPT ethisch zu gebrauchen?

Martin von Broock, Andreas Suchanek

Durchbruch oder Dystopie? An ChatGPT scheiden sich die Geister. Fakt ist: Die Technologie ist jetzt da. Wir „können“ sie gebrauchen – aber „müssen“ mit ihr umgehen. Jenseits von Regeln und Standards, die kaum kurzfristig zu erwarten sind, benötigen wir dafür einfache ethische Orientierungen. Interessanterweise „fordert“ ChatGPT diese selbst ein. Worauf es ankommt.

Bevor Missverständnisse aufkommen: Natürlich „fordert“ das Programm überhaupt nichts. ChatGPT ist ein Sprachmodell. Das heißt: ChatGPT hat keine Vorstellungen von „wahr“ oder „falsch“, „gut“ oder „schlecht“. Das Programm berechnet lediglich Wahrscheinlichkeiten, welche Wort-Kombinationen am besten zu einer Frage passen. Damit eröffnet die Technologie vielfältige Chancen, wenn es um die bessere Zusammenfassung, Vernetzung und Vermittlung von Informationen geht.

Die Vertrauenswürdigkeit der von ChatGPT erzeugten Ergebnisse hängt aber entscheidend von der Qualität der Daten und Routinen ab, mit denen das System trainiert wurde. Und diese Voraussetzungen kann ChatGPT selbst nicht beurteilen. Auch andere können es nur begrenzt: Denn sowohl die dem System zugrunde liegenden Daten als auch deren Verarbeitung sind bislang wenig transparent, wie verschiedene Experten kritisieren. Vor allem Framing-Effekte (aufgrund einseitiger, z.B. politisch motivierter, Auswahlregeln) oder Verzerrungen (durch nicht-repräsentative oder manipulierte Datensätze) lassen sich also nicht ausschließen.

Dennoch stellt sich die Frage: Was kann man jenen, die jetzt auf das System zugreifen – privat oder beruflich, alt oder jung – als kurzfristige Orientierung mitgeben? Wir haben die typischen Fragen, die uns zum ethischen Gebrauch von KI-Systemen in den letzten Jahren in Workshops und Seminaren immer wieder erreicht haben, direkt an ChatGPT weitergegeben. Hier die am 10. Februar 2023 generierten Antworten (Vorgabe an das System: maximal 100 Wörter) im Original:

Sollten Menschen Entscheidungen an ChatGPT delegieren?

„Nein, Menschen sollten ihre Entscheidungen nicht vollständig an ChatGPT delegieren. Obwohl das Modell umfangreiche Informationen hat und in der Lage ist, Antworten auf Fragen zu generieren, fehlt ihm die menschliche Einsicht, Urteilskraft und Verantwortung, die für wichtige Entscheidungen erforderlich sind. Es ist wichtig, dass Menschen die Informationen, die sie von Chatbots erhalten, kritisch hinterfragen und sorgfältig überlegen, bevor sie Entscheidungen treffen.“

Sollten wir darauf vertrauen, dass Menschen ChatGPT verantwortlich nutzen?

„Ja, es ist möglich, dass Menschen ChatGPT verantwortungsvoll nutzen, aber es hängt von ihrer Einstellung und Fähigkeit ab, Informationen kritisch zu hinterfragen und zu bewerten. Es ist wichtig, dass Menschen sich bewusst darüber im Klaren sind, dass ChatGPT ein maschinelles Lernmodell ist und dass die Antworten, die es generiert, nicht immer richtig oder vollständig sind. Es ist auch wichtig, dass sie sorgfältig überlegen, bevor sie auf die von Chatbots bereitgestellten Informationen vertrauen und Entscheidungen treffen.“

Sollte man ChatGPT gesetzlich regulieren, um Missbrauch zu verhindern?

„Ja, es kann sinnvoll sein, ChatGPT und andere künstliche Intelligenz-Systeme gesetzlich zu regulieren, um Missbrauch zu verhindern und sicherzustellen, dass sie ethisch und verantwortungsvoll eingesetzt werden. Gesetzliche Regulierung kann beinhalten, dass Unternehmen bestimmte Verantwortungen und Pflichten haben, beispielsweise bei der Überwachung und Verhinderung von Missbrauch ihrer Systeme, und dass bestimmte Verhaltensweisen, die gegen geltende Gesetze verstoßen, strafrechtlich verfolgt werden. Eine solche Regulierung kann auch sicherstellen, dass Benutzer geschützt werden und dass ihre Rechte respektiert werden.“

Sollten Kinder ChatGPT ohne Aufsicht nutzen dürfen?

„Es ist besser, wenn Kinder ChatGPT nicht ohne Aufsicht nutzen. Kinder und Jugendliche können unvollständige oder falsche Informationen erhalten, die ihre Entwicklung beeinträchtigen können. Außerdem kann es für Kinder schwierig sein, zwischen vertrauenswürdigen und unvertrauenswürdigen Informationen zu unterscheiden, wenn sie Chatbots nutzen. Es ist wichtig, dass Kinder unter Aufsicht nutzen, damit sie lernen, wie sie sicher und verantwortungsvoll mit Technologie umgehen können. Darüber hinaus sollten Eltern und andere Aufsichtspersonen über die Aktivitäten der Kinder im Internet informiert und bereit sein, ihnen bei Bedarf Hilfe und Unterstützung zu leisten.“

Kann ChatGPT einem Menschen Wertschätzung vermitteln?

„ChatGPT kann keine echten Emotionen oder Wertschätzung vermitteln, da es ein computergestütztes System ist, das auf Algorithmen und Daten trainiert wurde. Es ist wichtig zu verstehen, dass ChatGPT lediglich eine Antwort auf eine bestimmte Anfrage generiert und keine Empathie oder Verständnis für die Gefühle oder Bedürfnisse einer Person hat. Wertschätzung kann nur von echten Menschen mit Empathie und Verständnis vermittelt werden. Es ist wichtig, dass wir uns auf menschliche Interaktionen und Beziehungen konzentrieren, um echte Wertschätzung und Unterstützung zu erfahren.“

Ist es respektvoll, wenn Menschen ihre Kommunikation mit anderen Menschen an eine KI wie ChatGPT delegieren?

„Es ist nicht unbedingt respektvoll, wenn Menschen ihre Kommunikation mit anderen Menschen an eine KI wie ChatGPT delegieren. Echte menschliche Interaktionen und Verbindungen sind wichtig für unsere emotionale und soziale Entwicklung. Durch die Delegation an eine KI vermissen wir die Möglichkeit, Empathie, Verständnis und Wertschätzung von echten Menschen zu erfahren. Außerdem kann die Verwendung eines Chatbots dazu führen, dass wichtige Informationen oder Kontext verloren gehen, was zu Missverständnissen und Fehleinschätzungen führen kann. Es ist wichtig, dass wir uns auf echte menschliche Interaktionen und Beziehungen konzentrieren, um echte Wertschätzung und Respekt zu erfahren.“

Sollte es eine Verpflichtung geben, ChatGPT als Quelle anzugeben?

„Ja, es ist wichtig, ChatGPT als Quelle anzugeben, wenn seine Informationen oder Antworten verwendet werden. Dies hilft, Transparenz und Verantwortung zu gewährleisten und vermeidet Missverständnisse über die Herkunft der Informationen. Es ist wichtig zu beachten, dass ChatGPT ein computergestütztes System ist und seine Antworten aufgrund seiner Trainingsdaten und Algorithmen generiert werden. Daher ist es wichtig, dass Nutzer die Informationen, die sie von Chat GPT erhalten, sorgfältig überprüfen und gegebenenfalls andere Quellen konsultieren, um sicherzustellen, dass die Informationen korrekt und zuverlässig sind.“

Wie ist die wichtigste Voraussetzung zum verantwortlichen Gebrauch von ChatGPT? (maximal 30 Wörter)

„Die wichtigste Voraussetzung für den verantwortungsvollen Gebrauch von ChatGPT ist das Bewusstsein und die [sic!] Verständnis der Limitationen und möglichen Fehlerquellen von KI-Systemen.“

[Ende des Chats.]

Die Antworten von ChatGPT klingen erstaunlich „reflektiert“. Faktisch sind sie es gerade nicht. Denn: Die Maschine bildet sich kein eigenes Urteil darüber, was richtig und falsch ist. Sie hinterfragt auch nicht die eigenen Algorithmen der Verarbeitung. Sie „reproduziert“ als Medium lediglich Urteile, die auf menschlichen Erkenntnissen beruhen. In Analogie: Nicht das Buch mit vernünftigen Einsichten ist klug. Sondern dessen Autor*in. Und damit aus einem Buch neue vernünftige Einsichten entstehen, braucht es hinreichend kluge Leser*innen, die sich eigene Urteile bilden.

In diesem Sinne wird uns ChatGPT nur dann voranbringen, wenn wir uns zum Denken inspirieren lassen, anstatt das Denken (vermeintlich) an die Maschine zu delegieren. Dafür unterbreitet uns ChatGPT Angebote. Aber es entlässt uns eben nicht aus der Verantwortung, jene Angebote zu prüfen, selbst zu urteilen und transparent zu handeln. Vor allem aber verlangt ein bewusster Gebrauch von ChatGPT die Einsicht: Mit der Art und Weise, wie wir das System heute nutzen, beeinflussen wir die Grundlagen, auf die es morgen zurückgreift.

Wir entscheiden also selbst. Über Fortschritt durch Reflexion und Diskurs – oder Rückschritt durch Bequemlichkeit.

 

 

 

 

 

Sie wollen keinen WZGE-StandPunkt mehr verpassen? Dann folgen Sie uns auf LinkedIn.