
Julias Leitlinien entstanden in Zusammenarbeit mit dem Paritätischen Gesamtverband und einer Roadmap für die Einführung von Generativer KI.
Der Text steht unter einer CC0-Lizenz: Anders gesagt. Ihr dürft und sollt damit machen, was ihr wollt. Kopiert ihn, passt ihn für euch an, ergänzt und überarbeitet ihn. Eine Nennung des Paritätischen oder von Julia ist nett aber nicht nötig.
Ihr findet ihr den Original-Text in der Textsammlung „Künstliche Intelligenz in der Sozialen Arbeit“ des Paritätischen Gesamtverband oder die Version 2 als GoogleDoc.
Leitlinien für die Experimentier- und Lernphase mit Generativer KI (Version 3)
👩🏫 Hinweise zur Nutzung der Vorlage
Public Domain: Dieser Text darf zur Entwicklung eigener Leitlinien kopiert und verändert werden, ohne dass dafür eine Angabe der Autorin nötig ist.
Keine Rechtsberatung: Der folgende Text versteht sich als Leitlinienvorschlag für den Nutzungseinstieg mit Generativen KI-Systemen im Arbeitsalltag von Vereinen und gemeinwohlorientierten Organisationen. Es handelt sich um keine Rechtsberatung und gewährleistet keine Rechtssicherheit. Wenn z.B. KI-Anwendungen anderen zur Verfügung gestellt werden, gelten deutlich höhere Standards als die hier erwähnten.
Schulungen sind nötig: Leitlinien sind nur sinnvoll, wenn Grundlagen-Schulungen zu Generativer KI erfolgen. Mitarbeitende müssen verstehen, wie Generative KI arbeitet, um Datenschutz zu sichern und Halluzinationen, Bias und anderen Problemen von generativer KI aktiv zu begegnen. Dies ist auch im EU AI ACT in Artikel 4 – Kompetenzpflicht festgehalten.
Diese Leitlinien verstehen sich als Arbeitspapier für den Start in Generative KI. Angesichts der fortlaufenden Entwicklung von Tools und ihrer Anwendungsbereiche ist eine regelmäßige Durchsicht und Anpassung nötig.
🔧 Tools und technische Basiseinstellungen:
- Wir veröffentlichen eine Empfehlungsliste mit geeigneten und auf ihre Nutzungsbedingungen überprüfte Tools.
- Weitere KI-Tools und KI-Apps dürfen (unregistriert) genutzt werden, wenn sie ein Impressum und eine eigene Datenschutzerklärung haben und transparent informieren, mit welchen Sprachmodellen sie arbeiten und wozu Daten genutzt werden. Die Verantwortung übernimmt der*die Nutzende. Für eine Registrierung ist eine Info an [oder Erlaubnis von] an [KI-Beauftragte o.ä.] erforderlich.
- Sollten Tools wie ChatGPT auf privaten oder dienstlichen Smartphones genutzt werden, erlauben wir diesen NICHT, dauerhaft im Hintergrund mitzuhören.
- Soweit möglich, schalten wir die Nutzung zu Trainingszwecken ab.
🔒 Datenschutz-orientierte Nutzung
Als grobe Leitlinie gilt: Alles, was wir nicht öffentlich ins Netz stellen dürften, hat in Generativer KI nichts verloren.
Für Tools mit DSGVO-ausreichender Auftragsverarbeitung (z.B. Fobizz, Langdock, Nele, ChatGPT Enterprise, Copilot für 365 etc.) können in Rücksprache mit zuständigen Datenschutzbeauftragten andere Regelungen getroffen werden.
- In KI-Tools, mit denen wir keinen Auftragsverarbeitung abgeschlossen haben, teilen wir keine personenbezogenen Daten. Das betrifft z.B.
- Namen und Adressen
- E-Mail-Adressen
- Fotos
- Aufzeichnungen mit Personen (Audio und Video)
- personenenbezogene Gesundheitsdaten (wie z.B. Entwicklungsdaten von Kindern oder Daten zur Pflege und Betreuung von Menschen)
- [Hier ggf. weitere Daten ergänzen.]
Wir löschen oder anonymisieren solche Daten in Tabellen, Texten, Bildern und sonstigen Daten vor dem Upload.
- In KI-Tools teilen wir keine vertraulichen oder sicherheitskritischen Daten. Das betrifft z.B. Geschäftsgeheimnisse, interne Strategie-Papiere, sensible Konversationen und [Hier ggf. weitere Daten ergänzen.]
- Wir laden keine Materialien in KI, an denen andere die Rechte haben. Insbesondere urheberrechtlich geschütztes Material, das nicht frei verfügbar im Internet steht, teilen wir nicht mit KI. Das gleiche gilt für Fotos, zu denen nicht von allen Beteiligten zur Nutzung eine Einwilligung vorliegt. Kinderfotos haben nichts in KI verloren.
- Wir sind umsichtig beim Hochladen und Weiterarbeiten von Foto-Protokollen, Aufzeichnungen z.B. Team- oder Workshop-Mitschnitte.
[Hier ggf. weitere Daten ergänzen.]
Wir teilen Betroffenen vorab mit bzw. holen aktiv ihre Zustimmung ein, bevor wir Aufzeichnungen von ihnen mit KI teilen.
❇️ Weiternutzung von Inhalten und Transparenz
KI-generierte Texte und Bilder genießen kein Urheberrecht. Dennoch gibt es ein paar rechtliche und ethische Grundsätze, die wir bei der Weiterverwendung beachten:
- KI halluziniert. Alle veröffentlichten Informationen werden von uns inhaltlich kritisch überprüft und korrigiert. Wir achten aktiv darauf, Bias und Stereotype (Gender, Race, Ableismus, Alter, Schönheit) nicht mit KI zu verstärken.
- Wir kennzeichnen entsprechend des EU AI Act DeepFakes oder verzichten auf sie. (Artikel 50, Absatz 4 EU AI ACT)
- In der direkten automatisierten Interaktion mit Nutzer*innen durch z.B. Bots handeln wir proaktiv transparent. Wir simulieren nicht, dass es sich um menschliche Interaktionen handelt, sondern kommunizieren den Einsatz von KI entsprechend der rechtlichen Vorgaben. (Artikel 50, Absatz 4 EU AI ACT)
- Transparenz: Wir geben über die rechtliche Verpflichtung hinaus an geeigneten Stellen (Datenschutzinfos, Impressum, jeweilige Artikel) die generelle Art der KI-Nutzung an (z.B. Erstellung, Redaktion, Ko-Kreatives Arbeiten, Illustration).
- Wir achten die Nutzungsbedingungen und Community Guidelines von KI-Tools. Diese halten fest, zu welchen Zwecken Inhalte genutzt werden dürfen (z.B. kommerziell vs. nicht-kommerziell) und ob/wie sie ggf. gekennzeichnet sein müssen.
- Das bewusste Nachgenerieren von geschütztem Material z.B. berühmter Fotos, Menschen, Marken oder Texte ist verboten und kann zu Verstößen gegen Urheberrecht, Marken- und Persönlichkeitsrecht führen.
🤝 Selbstverpflichtung und Grenzen
- Wir nutzen generative KI nicht zu Leistungsbewertung, Bewerber*innen-Auswahl, Social Scoring, Emotionsanalyse, Profiling und ähnlichen Zwecken. (Siehe dazu auch Vorgaben des EU AI ACT zu KI-Systemen mit hohem Risiko und verbotene Praktiken.)
- Wir lassen generative KI keine Entscheidungen treffen und kontrollieren Vorschläge und Texte aktiv, bevor wir ihnen folgen. Die jeweiligen Nutzer*innen übernehmen immer die redaktionelle Verantwortung für einen mit KI generierten Inhalt (Text, Bild u.a.).
- Wir nutzen KI, um unsere Arbeit zu erleichtern. Wir gehen selbstkritisch mit den damit oft verbundenen erhöhten Leistungserwartungen einher. Wir zwingen niemanden zum Einsatz, aber befähigen alle, die bereit sind. Wir schaffen Räume für Austausch, Wissenstransfer und gemeinsames Lernen durch: […z.B. regelmäßiges Thema in Meetings, Austausch-Kanal, Wissensdatenbank, Schulungen]
- Wir sind uns bewusst, dass KI ressourcenintensiv ist und wägen den Einsatz ab. Zugleich erlauben wir uns für das Erlernen und Testen “Spielen” zu dürfen. Wir setzen uns für zunehmende Transparenz und ethische Regulierung zu Energieverbrauch, Datenherkunft und KI-Training (Stichwort Data-Worker und Lieferkette) ein.
- Wir beobachten und reflektieren aktiv, ob und wie KI unsere Zusammenarbeit im Team verändert. Soziale Beziehungen bleiben wichtiger als Effizienz.
Wir nehmen uns Raum zum Ausprobieren, lernen offen miteinander und teilen Erfolge und Misserfolge. Wir sind uns bewusst, dass der Einsatz von KI auch unsere Organisationsprozesse und unsere Art der Arbeit verändern kann und gehen entsprechende Organisationsentwicklungen bewusst an.
Zum Weiterlesen
Ethik
- KI-Kompass – ein Code of Good Practice für NGOs www.juliajunge.de/ki-kompass
- Faires KI-Prompting (Schwerpunkt Bilder)
https://www.digitalzentrum-zukunftskultur.de/wp-content/uploads/2024/05/Faires-KI-Prompting-Ein-Leitfaden-fuer-Unternehmen.pdf - Konstruktiver KI-Kompass (Schwerpunkt Journalismus): https://www.bonn-institute.org/konstruktiver-ki-kompass
Leitlinien anderer Organisationen
- Leitlinien des Evangelischen Werks für Diakonie und Entwicklung (EWDE)
https://www.diakonie.de/diakonie_de/user_upload/diakonie.de/PDFs/Publikationen/Leitlinien_zur_Nutzung_von_KI_im_EWDE__M%C3%A4rz_2024__extern.pdf - Grundsätze für den Einsatz von Künstlicher Intelligenz beim ASB in NRW
https://www.asb-nrw.de/ueber-uns/initiativen-und-kampagnen/digitalisierung/kuenstliche-intelligenz-beim-asb-in-nrw - Richtlinien Deusche Presseagentur (dpa): https://innovation.dpa.com/2023/04/03/kuenstliche-intelligenz-fuenf-guidelines-der-dpa/
Rechtliche Grundlagen
- Generative KI im Unternehmen https://www.bitkom.org/sites/main/files/2024-02/Bitkom-Leitfaden-Generative-KI-im-Unternehmen.pdf
- Urheberschaft https://www.it-recht-kanzlei.de/chatgpt-kuenstliche-intelligenz-urheberrecht-KI-Inhalte.html
- EU AI ACT https://artificialintelligenceact.eu/de/ai-act-explorer/
- Orientierungshilfe der Datenschutzkonferenz https://www.datenschutzkonferenz-online.de/media/oh/20240506_DSK_Orientierungshilfe_KI_und_Datenschutz.pdf
- Checkliste zum Einsatz LLM-basierter Chatbots – Information des Hamburger Beauftragten für Datenschutz und Informationsfreiheit
https://datenschutz-hamburg.de/fileadmin/user_upload/HmbBfDI/Datenschutz/Informationen/20231113_Checkliste_LLM_Chatbots_DE.pdf
Hier findet ihr den Text in der Textsammlung „Künstliche Intelligenz in der Sozialen Arbeit“ des Paritätischen Gesamtverband oder einzeln als GoogleDoc zum Download. Links oben unter Datei könnt ihr ihn herunterladen.