
Julias Orientierungshilfe zu Recht und Ethik bei den ersten Schritten mit Generativer KI entstand in Zusammenarbeit mit dem Paritätischen Gesamtverband und einem Leitfaden für die Einführung von Generativer KI.
Der Text steht unter einer CC0-Lizenz: Anders gesagt. Ihr dürft und sollt damit machen, was ihr wollt. Kopiert ihn, passt ihn für euch an, ergänzt und überarbeitet ihn. Eine Nennung des Paritätischen oder von Julia ist nett aber nicht nötig.
Hier findet ihr den Text in der Textsammlung „Künstliche Intelligenz in der Sozialen Arbeit“ des Paritätischen Gesamtverband oder einzeln als GoogleDoc zum Download. Links oben unter Datei könnt ihr ihn herunterladen.
Orientierungshilfe für die Experimentier- und Lernphase mit Generativer KI
Hinweis: Die folgenden Empfehlungen sind ein Hilfe für die Nutzung von Generativen KI-Systemen im Arbeitsalltag von Vereinen und gemeinwohlorientierten Organisationen. Sie sind keine Rechtsberatung und gewährleisten keine Rechtssicherheit. Wenn z.B. KI-Anwendungen anderen zur Verfügung gestellt werden, gelten deutlich höhere Standards.
Diese Orientierungshilfe ist eine erste Hilfestellung für den sicheren Einsatz von generativer KI. Für die Erstellung eigener Leitlinien siehe auch die verlinkten Leitlinien anderer Organisationen am Ende.
Leitlinien sind nur sinnvoll, wenn entsprechende Grundlagen-Schulungen zu Generativer KI erfolgen. Mitarbeitende müssen verstehen, wie Generative KI arbeitet, um Datenschutz zu sichern und Halluzinationen, Bias und anderen Problemen von generativer KI aktiv begegnen zu können.
Technische Basiseinstellungen:
Bei generativen KI-Tools wie ChatGPT (und, wo möglich, auch bei anderen Tools) schalten wir die Nutzung von Daten zum Training aus. Dies muss i.d.R. in jedem Profil einzeln in den Einstellungen vorgenommen werden.
Sollten Tools wie ChatGPT auf dem Smartphone genutzt werden, erlauben wir diesen NICHT, im Hintergrund mitzulaufen und mitzuhören.
Für Tools mit DSGVO-ausreichender Auftragsverarbeitung (Fobizz, Langdock, ChatGPT Enterprise, Copilot für 365 etc.) können in Rücksprache mit zuständigen Datenschutzbeauftragten andere Regelungen getroffen werden.
Datenschutz-orientierte Nutzung
Als grobe Leitlinie gilt: Alles, was wir nicht öffentlich ins Netz stellen könnten, hat in Generativer KI nichts verloren.
- In KI-Tools, mit denen wir keinen Auftragsverarbeitung abgeschlossen haben, teilen wir keine personenbezogenen Daten. Das betrifft z.B.
- Namen und Adressen
- E-Mail-Adressen
- Fotos
- Aufzeichnungen mit Personen (Audio und Video)
- personenenbezogene Gesundheitsdaten (wie z.B. Entwicklungsdaten von Kindern oder Daten zur Pflege und Betreuung von Menschen)
- [Hier ggf. weitere Daten ergänzen.]
Wir löschen oder anonymisieren solche Daten in Tabellen, Texten, Bildern und sonstigen Daten vor dem Upload.
- In KI-Tools teilen wir keine vertraulichen oder sicherheitskritischen Daten. Das betrifft z.B. Geschäftsgeheimnisse, interne Strategie-Papiere, sensible Konversationen und [Hier ggf. weitere Daten ergänzen.]
- Wir laden keine Materialien in KI, an denen andere die Rechte haben. Insbesondere urheberrechtlich geschütztes Material, das nicht frei verfügbar im Internet steht, teilen wir nicht mit KI. Das gleiche gilt für Fotos, zu denen nicht von allen Beteiligten zur Nutzung eine Einwilligung vorliegt. Kinderfotos haben nichts in KI verloren.
- Wir sind umsichtig beim Hochladen und Weiterarbeiten von Foto-Protokollen, Aufzeichnungen z.B. Team- oder Workshop-Mitschnitte.
[Hier ggf. weitere Daten ergänzen.]
Wir teilen Betroffenen vorab mit bzw. holen aktiv ihre Zustimmung ein, bevor wir Aufzeichnungen von ihnen mit KI teilen.
Weiternutzung von Inhalten und Transparenz
KI-generierte Texte und Bilder genießen kein Urheberrecht. Dennoch gibt es ein paar rechtliche und ethische Grundsätze, die wir bei der Weiterverwendung beachten:
- KI halluziniert. Alle veröffentlichten Informationen werden von uns inhaltlich kritisch überprüft und korrigiert. Wir achten aktiv darauf, Bias und Stereotype (Gender, Race, Ableismus, Alter, Schönheit) nicht mit KI zu verstärken.
- Wir kennzeichnen entsprechend des EU AI Act DeepFakes oder verzichten auf sie. (Artikel 50, Absatz 4 EU AI ACT)
- In der direkten automatisierten Interaktion mit Nutzer*innen durch z.B. Bots handeln wir proaktiv transparent. Wir simulieren nicht, dass es sich um menschliche Interaktionen handelt, sondern kommunizieren den Einsatz von KI entsprechend der rechtlichen Vorgaben. (Artikel 50, Absatz 4 EU AI ACT)
- Transparenz: Wir geben über die rechtliche Verpflichtung hinaus an geeigneten Stellen (Datenschutzinfos, Impressum, jeweilige Artikel) die generelle Art der KI-Nutzung an (z.B. Erstellung, Redaktion, Ko-Kreatives Arbeiten, Illustration).
- Wir achten die Community Guidelines von KI-Tools. Diese halten fest, zu welchen Zwecken Inhalte genutzt werden dürfen (z.B. kommerziell vs. nicht-kommerziell) und ob/wie sie ggf. gekennzeichnet sein müssen.
- Das bewusste Nachgenerieren von geschütztem Material z.B. berühmter Fotos oder geschützter Texte ist nicht zulässig und kann zu einem Urheberrechtsverstoß führen (sogenanntes “Hervorwürgen” oder “Prompt Data Extraction”).
Selbstverpflichtung
- Wir nutzen generative KI nicht zu Leistungsbewertung, Bewerber*innen-Auswahl, Social Scoring, Emotionsanalyse, Profiling und ähnlichen Zwecken. (Siehe dazu auch Vorgaben des EU AI ACT zu KI-Systemen mit hohem Risiko.)
- Wir lassen generative KI keine Entscheidungen treffen und kontrollieren Vorschläge und Texte aktiv, bevor wir ihnen folgen.
- Wir nutzen KI, um unsere Arbeit zu erleichtern. Wir gehen selbstkritisch mit den damit oft verbundenen erhöhten Leistungserwartungen einher. Wir zwingen niemanden zum Einsatz, aber befähigen alle, die bereit sind.
- Wir beobachten und reflektieren aktiv, ob und wie KI unsere Zusammenarbeit im Team verändert. Soziale Beziehungen bleiben wichtiger als Effizienz.
- Wir nehmen uns Raum zum Ausprobieren, lernen offen miteinander und teilen Erfolge und Misserfolge. Wir sind uns bewusst, dass der Einsatz von KI auch unsere Organisationsprozesse und unsere Art der Arbeit verändern kann und gehen entsprechende Organisationsentwicklungen bewusst an.
Zum Weiterlesen
Ethik
- KI-Kompass – ein Code of Good Practice für NGOs www.juliajunge.de/ki-kompass
- Faires KI-Prompting (Schwerpunkt Bilder)
https://www.digitalzentrum-zukunftskultur.de/wp-content/uploads/2024/05/Faires-KI-Prompting-Ein-Leitfaden-fuer-Unternehmen.pdf - Konstruktiver KI-Kompass (Schwerpunkt Journalismus): https://www.bonn-institute.org/konstruktiver-ki-kompass
Leitlinien anderer Organisationen
- Leitlinien des Evangelischen Werks für Diakonie und Entwicklung (EWDE)
https://www.diakonie.de/diakonie_de/user_upload/diakonie.de/PDFs/Publikationen/Leitlinien_zur_Nutzung_von_KI_im_EWDE__M%C3%A4rz_2024__extern.pdf - Grundsätze für den Einsatz von Künstlicher Intelligenz beim ASB in NRW
https://www.asb-nrw.de/ueber-uns/initiativen-und-kampagnen/digitalisierung/kuenstliche-intelligenz-beim-asb-in-nrw - Richtlinien Deusche Presseagentur (dpa): https://innovation.dpa.com/2023/04/03/kuenstliche-intelligenz-fuenf-guidelines-der-dpa/
Rechtliche Grundlagen
- Generative KI im Unternehmen https://www.bitkom.org/sites/main/files/2024-02/Bitkom-Leitfaden-Generative-KI-im-Unternehmen.pdf
- Urheberschaft https://www.it-recht-kanzlei.de/chatgpt-kuenstliche-intelligenz-urheberrecht-KI-Inhalte.html
- EU AI ACT https://artificialintelligenceact.eu/de/ai-act-explorer/
- Orientierungshilfe der Datenschutzkonferenz https://www.datenschutzkonferenz-online.de/media/oh/20240506_DSK_Orientierungshilfe_KI_und_Datenschutz.pdf
- Checkliste zum Einsatz LLM-basierter Chatbots – Information des Hamburger Beauftragten für Datenschutz und Informationsfreiheit
https://datenschutz-hamburg.de/fileadmin/user_upload/HmbBfDI/Datenschutz/Informationen/20231113_Checkliste_LLM_Chatbots_DE.pdf
Hier findet ihr den Text in der Textsammlung „Künstliche Intelligenz in der Sozialen Arbeit“ des Paritätischen Gesamtverband oder einzeln als GoogleDoc zum Download. Links oben unter Datei könnt ihr ihn herunterladen.