Schulische Nutzung von KI Plattformen

Lesezeit: 9 Minuten

Im November 2022 ging OpenAI mit seinem generativen Sprachmodell ChatGPT an die Öffentlichkeit. Mehr als ein Jahr ist seither vergangen und die Entwicklung der “KI Plattformen” ist rasant fortgeschritten. ChatGPT und vergleichbare Plattformen wie Google Bard oder Claude von Anthropic haben sich weiterentwickelt, sind leistungsstärker geworden und haben neue Funktionen erhalten. Neben den großen Sprachmodellen (LLM), den textgenerierenden KI, entstanden auch bildgenerierende KI wie DALL-E von OpenAI oder Midjouney und Stable Diffusion. Aus einigen textgenerierenden KI wurden im Laufe der Monate so multimodale KI, Plattformen, die nicht nur textbasierte Inhalte erstellen können, sondern auch Bilder, Videos, Musik und Sprache, und neben Prompts im Textformat, auch Eingaben in Form von Bildern, Sprache, Ton und Video verarbeiten. Ergänzend zu API Schnittstellen haben Anbieter wie OpenAI neue Möglichkeiten geschaffen, die Funktionen ihrer Plattformen zu nutzen. Bei OpenAI ist das beispielsweise die Möglichkeit, eigene GPTs zu erstellen und anderen Nutzern zur Verfügung zu stellen. Einige dieser GPT integrieren dazu externe Dienste anderer Anbieter. Schon bevor es diese Möglichkeit gab nutzten zahlreiche Drittanbieter die API Schnittstellen der großen Anbieter, um darauf aufbauend eigene Produkte zu entwickeln. Die Palette reicht hier von Microsoft, wo ChatGPT und andere OpenAI KI Plattformen in eigene Produkte wie Microsoft  365 und Bing integriert wurden, über Apps für Mobilgeräte mit KI Funktionen bis zu Anbietern im Bildungsbereich, welche KI Funktionalitäten für Lehrkräfte und Schüler entwickelten Plattformen bereitstellen. Neben Anbietern, die auf die großen KI Plattformen der großen Anbieter setzen, kommen auch immer mehr Angebote auf den Markt, welche auf eigene KI Plattformen oder die Open Source Plattformen anderer Akteure setzen. Ergänzt werden diese Entwicklungen durch Anwendungen und spezialisierte Chips, die es ermöglichen, KI Plattformen jeglicher Art lokal auf Computern und digitalen Endgeräten wie Smartphones laufen zu lassen.

Schüler wie auch Lehrkräfte erkannten schon im November 2022 die Möglichkeiten, welche eine KI Plattform für die eigene Arbeit bringen kann, sei es für die Anfertigung von Hausaufgaben oder die Vorbereitung von Unterricht. Schnell war den am Bildungsprozess beteiligten Akteuren klar, dass Schule sich vor KI Plattformen nicht verschließen kann, sowohl mit Blick auf Medienerziehung wie auch als Werkzeug im Unterricht. Das Ministerium für Schule und Bildung (MSB) veröffentlichte nur drei Monate später im Februar 2023 seinen Handungsleitfaden Umgang mit textgenerierenden KI-Systemen. Andere Bundesländer folgten. Neben den Möglichkeiten zur unterrichtlichen Nutzung standen und stehen bei allen Handreichungen immer auch zwei rechtliche Aspekte im Fokus, Urheberrecht und Datenschutz.

ChatGPT, momentan im Zentrum aller Aufmerksamkeit und vermutlich der bislang meistgenutzte Anbieter, stand eine Zeit lang im Fokus der Aufsichtsbehörden. Italien verbot OpenAI gar die Bereitstellung seines Dienstes für Nutzer in Italien, bevor nicht einige Mängel abgestellt worden sind. Es ging u.a. um die Aufklärung italienischer Nutzer, dass ihre Daten möglicherweise zu Trainingszwecken verwendet und sachlich falsch von ChatGPT wiedergegeben werden könnten. Auch deutsche Aufsichtsbehörden wandten sich wiederholt mit Fragenkatalogen an den US Anbieter. ChatGPT ist in Italien wieder verfügbar und deutsche Aufsichtsbehörden kamen bisher nicht zu dem Schluss, zu vergleichbaren drastischen Maßnahmen greifen zu müssen. Auf Schulen hatte all das ohnehin keine Auswirkung. Auch eine Änderung der Geschäftsbedingungen von OpenAI bezüglich der Nutzung der KI Dienste via API im Januar wirkte sich nicht auf die Nutzung in Schulen aus. Der Anbieter hatte seine Nutzungsbedingungen im November 2023 um eine Passage ergänzt, die Drittanbieter verpflichten soll, von den Eltern von Schülerinnen und Schülern unter 16 Jahren vor Nutzung eine Einwilligung einzuholen. Vom Landesdatenschutzbeauftragte von Rheinland-Pfalz, Dieter Kugelmann, kam hier Entwarnung. Nach seiner Einschätzung ist eine Zustimmung von Eltern minderjähriger Schülerinnen und Schülern nicht erforderlich. 

Mit der Entwicklung der textgenerierenden KI hin zu multimodalen KI mit neuen Ein- und Ausgabeformaten haben sich auch neue datenschutzrechtliche Herausforderungen ergeben. Wie sich im Verlauf der weiteren Betrachtungen zeigen wird, hat sich an den bisherigen Empfehlungen zu einer datenschutzfreundlichen schulischen Nutzung von KI Plattformen nichts wesentlich verändert. Ergänzt werden müssen die Empfehlungen jedoch vor allem mit Blick auf neue Eingabeformate, das meint hier vor allem Prompts in Form von Bild und Ton, also Spracheingaben sowie Fotos und Videos als Eingaben.

Beschränkt auf textgenerierende KI wie ChatGPT und die Eingabe von Prompts ausschließlich in Form von digitalem Text, konnten bisher als datenschutzfreundlich folgende Nutzungsszenarien empfohlen werden:

  • Die Lehrkraft hat einen privaten Zugang, kostenlos oder kostenpflichtig, und nimmt die Prompts der Lerngruppe an, gibt sie selbst ein und teilt die Ergebnisse mit der Lerngruppe. Für Schülerinnen und Schüler bestehen keine Risiken, da sie nicht direkt mit der Plattform interagieren.
  • Die Lehrkraft verfügt über einen Drittanbieterzugang, der von der Schule/ dem Träger/ Bundesland/ Medienzentrum bereitgestellt wird, und die Schule hat einen Vertrag zur Auftragsverarbeitung (AVV) mit dem Anbieter abgeschlossen. Über den Drittanbieterzugang kann die Lehrkraft anonyme Schülerzugänge erstellen. Für Schülerinnen und Schüler entstehen bei Einhaltung zuvor festgelegter Spielregeln keine Risiken bei einer Interaktion mit der Plattform.
  • Die Schule hat einen eigenen Zugang, API Schlüssel und AVV mit dem Anbieter abgeschlossen und erstellt mit Oberstufenschülern eine eigene Plattform zur Nutzung der KI via API. Sind die Spielregeln klar, ist eine Nutzung mit älteren Schülerinnen und Schülern ab 16 Jahren möglich. Die Risiken sind begrenzt.
  • Die Schule hat lokal als App auf Computern oder Tablets laufende KI Anwendungen. Eine Nutzung ist für Schülerinnen und Schüler ohne Risiken möglich, da keine Daten an Dritte abfließen. Trotzdem sollte es zuvor abgesprochene Spielregeln geben.

Risiken für Nutzer von KI Plattformen von Anbietern wie OpenAI, Microsoft, Google, Anthropic usw. ergeben sich vor allem aus den Inhalten von Prompts, wenn diese einen Personenbezug herstellen lassen. In Kombination mit einem individuellen Nutzerkonto beim KI Anbieter nehmen die Risiken noch einmal deutlich zu.  Weitere Risiken können sich prinzipiell aus den Metadaten wie Gerätekennungen, Standortdaten, Cookies und Trackern ergeben, die es erlauben, einen Nutzer zu identifizieren. Werden Dateien wie Bild- und Tonaufnahmen  zu Bestandteilen von Prompts, können mit diesen zusätzliche Metadaten übermittelt werden. Fotos und Videos, die Personen abbilden oder Spracheingaben enthalten weitere Daten, die einen Personenbezug herstellen lassen, wenn sie an die Anbieter der KI Plattformen übermittelt werden.

Auch wenn die großen US Anbieter in ihren Datenschutzerklärungen, Geschäftsbedingungen und Verträgen zur Auftragsverarbeitung mittlerweile ausschließen, von Nutzern eingegebene Prompts und andere Daten zu Trainingszwecken zu verwenden, bleibt die Übermittlung von personenbezogenen oder -beziehbaren Daten auf die Server von US Anbietern problematisch und ist im Rahmen unterrichtlichen Nutzung von KI Plattformen zur Erfüllung des Bildungs- und Erziehungsauftrags von Schulen nicht vertretbar.

Bei einer Nutzung via API über einen Drittanbieter reduzieren sich mögliche Risiken aus der Interaktion von Nutzer mit einer KI Plattform deutlich. Das individuelle Nutzerkonto und Metadaten der Geräte, mit welchen der Zugriff erfolgt, entfallen und erlauben es den KI Anbietern nicht, darüber den Bezug zu einer identifizierbaren Person herzustellen. Risiken könnten jetzt nur noch entstehen, wenn Prompts persönliche oder auf eine Person beziehbare Informationen enthalten. Diese Informationen können Teil von eingegebenen Texten wie auch von Bild- und Tondaten sein, bei Stimmeingaben die Stimme selbst und bei Prompts in Form von Bild- und Tonmedien die mit ihnen verbundenen Metadaten. Welche Risiken sich im Einzelnen ergeben können, hängt jeweils vom KI Plattform Anbieter ab, der Ausgestaltung der API und der Art und Weise, wie bzw. in welcher Form der Drittanbieter die Daten der Prompts an den Plattformanbieter übermittelt. Werden die Daten beim Drittanbieter bereits aufbereitet, wie dieses bei Prompts in Form von Texteingaben in der Regel der Fall ist, oder werden die Inhalte der Prompts wie im Fall von Bilddateien  weitestgehend unverändert auf die Server des Plattformanbieters übertragen, wo dann die KI Anwendung mit ihnen interagiert?

Im Tätigkeitsbericht der Aufsichtsbehörde Baden Württemberg für 2023 findet sich auch ein kurzer Bericht zu einer Beratungstätigkeit, deren Gegenstand ein in der Entwicklung befindliches Moodle-Modul fAIrchat war. Dieses Modul nutzt ChatGPT von OpenAI über die vom Anbieter bereitgestellte API und zu den dazu gehörenden Terms of Use, die zusichern, dass Nutzerdaten nicht zu Weiterentwicklung oder Verbesserung von ChatGPT verwendet werden. Metadaten der einzelnen Nutzer werden durch den Zugriff auf ChatGPT über die API nicht an den Anbieter übermittelt. Eine Nutzungsordnung für fAIrchat untersagt Nutzern die Eingabe von personenbezogenen Daten. Ein individuelles Konto beim KI Anbieter gibt es nicht. Außerdem gibt fAIrchat Lehrkräften die Möglichkeit, Eingaben der Lernenden nachträglich einzusehen. Die Aufsichtsbehörde kommt zu dem Schluss  „Sofern zusätzlich die jeweilige Lehrkraft die Schüler_innen auch ausdrücklich und für sie verständlich darüber aufklärt, dass sie keine personenbezogenen Daten in das System eingeben dürfen, und die Lehrkraft die Eingaben der Schüler_innen nachträglich überprüfen kann, die nachträgliche Kontrolle durch die Lehrkraft auch tatsächlich risikoangemessen zumindest stichprobenhaft erfolgt, scheint uns unter diesen Voraussetzungen eine Verwendung dieser KI im Rahmen des Unterrichts datenschutzrechtlich vertretbar.1Eltern müssen einer schulischen Anwendung von Künstlicher Intelligenz nicht zustimmen. Das gilt auch für minderjährige Schüler. So sieht das jedenfalls der Datenschutzbeauftragte von Rheinland-Pfalz, Dieter Kugelmann. Der Datenschützer mischt sich damit in eine Diskussion um die Nutzung von ChatGPT über Dritt-Accounts durch Lehrkräfte und Schüler ein. Eine Änderung der „terms of business“ von OpenAI für Drittanbieter hatte verlangt, dass bei der Nutzung durch Minderjährige die Eltern zustimmen müssen. (Table.Media berichtete)

Das bedeutet, sind die folgende Bedingungen erfüllt:

  • Nutzung durch Schülerinnen und Schülern via API entsprechend den Terms of Use,
  • Nutzungsordnung, welche die Verwendung von personenbezogenen Daten untersagt,
  • Aufklärung der Schülerinnen und Schülern über die Nutzungsregel – keine Eingabe von personenbezogenen Daten,
  • Möglichkeit der stichprobenhaften nachträglichen Kontrolle von Eingaben durch die Lehrkraft und tatsächliche Umsetzung dieser Maßnahme durch die Lehrkräfte,

sieht man von Seiten der Aufsichtsbehörde keine datenschutzrechtlichen Probleme bei einer unterrichtlichen Nutzung. 

Das lässt sich auch auf die unterrichtliche Nutzung multimodaler KI Plattformen via API und Drittanbieter übertragen. Es müssen hierzu allerdings vergleichbare Bedingungen hergestellt werden. 

Fotos und Bilder als Bestandteile von Prompts

  • Selbst angefertigten Fotos hängen in der Regel neben GPS Daten auch Gerätedaten als Metadaten an, über die Nutzer potentiell immer identifizierbar sind, sofern es sich dabei um private Endgeräte handelt. Um die Übertragung dieser Daten zu vermeiden, sollten selbst angefertigte Fotos für Prompts immer nur mit schulischen Endgeräten aufgenommen werden. Gleiches gilt, wenn Zeichnungen angefertigt werden, die einer bildgenerierenden KI Plattform als Vorlage für eine Ausarbeitung dienen sollen. 
  • Soll ein auf einem privaten Endgerät angefertigtes Foto oder Bild für einen Prompt genutzt werden, muss es über eine entsprechende Software/ App von den Metadaten befreit werden. Ist dies nicht möglich, ist eine Verwendung für einen Prompt nicht zu empfehlen.
  • Analog zu Texteingaben dürfen Prompts in Form von Fotos oder Zeichnungen und ähnlich keine Personen aus der Schule oder dem Umfeld der Schüler erkennbar abbilden. Dabei ist es unerheblich, ob diese Fotos oder Zeichnungen speziell für einen Prompt angefertigt werden oder aus anderen Quellen stammen. 
  • Die Eingabe von Fotos mit handschriftlich bearbeiteten Aufgaben, etwa Aufsätzen oder Rechenaufgaben, sollte keine Risiken für Schülerinnen und Schüler erzeugen, solange die abfotografierten Blätter keine Daten wie Namen und Klasse enthalten, welche, eine Identifizierung ermöglichen. Die Identifizierung einer Person über ihre Handschrift setzt voraus, dass andere Handschriftproben öffentlich abrufbar online vorliegen und dort mit weiteren die Person identifizierenden Daten verknüpft ist. Bei Kindern und Jugendlichen ist das sehr unwahrscheinlich.

Videos als Bestandteile von Prompts

  • Werden Videos auf privaten Endgeräten angefertigt, bestehen durch die mit ihnen verbundenen Metadaten bei einer Nutzung für Prompts die gleichen Probleme wie bei Fotos und Bildern. Entsprechend sollten auch hier neutrale Schulgeräte für die Anfertigung genutzt werden.
  • Für die Inhalte von Videos gelten die gleichen Vorgaben wie für Fotos und Bilder. Sie dürfen keine Personen aus der Schule oder dem Umfeld der Schüler erkennbar abbilden, egal ob sie speziell für einen Prompt angefertigt wurden oder aus einer anderen Quelle stammen. Videos dürfen auch keine Inhalte zum Gegenstand haben, welche es ermöglichen, die genannten Personen zu identifizieren.

Tonaufnahmen als Bestandteile von Prompts

  • Bei Tonaufnahmen über private Endgeräte besteht unabhängig vom Inhalt der Aufnahme auch hier das Problem der Metadaten. Welche dieses sind, hängt vom Endgerät, der genutzten App und vom Betriebssystem ab. Um Risiken zu vermeiden, sollten auch sie nicht über Prompts übermittelt werden.
  • Enthalten die Tonaufnahmen Stimmen, so lassen sich darüber Personen potentiell identifizieren. Wie bei Fotos, Bildern und Videos dürfen Tonaufnahmen keine Personen aus der Schule oder dem Umfeld der Schüler erkennbar abbilden und auch keine Inhalte haben, welche es erlauben, diese Personen zu identifizieren, egal ob sie speziell für einen Prompt angefertigt wurden oder aus einer anderen Quelle stammen.
  • Direkte Spracheingaben von Prompts durch Nutzer sollten nur dann erfolgen, wenn der Drittanbieter die Umwandlung von Sprache zu Text auf eigenen Servern vornimmt. Das ist möglich, da Whisper AI, die Plattform von OpenAI, als Open Source Lösung auch selbst betrieben werden kann. Da die Anwendung sehr rechenintensiv ist, nutzen nicht alle Drittanbieter diese Möglichkeit. Es reicht nicht, wenn Drittanbieter die Sprachaufnahmen auf eigenen Servern speichern und dann zur Transkription an den KI Plattformanbieter übermitteln. Schülerinnen und Schüler, welche die Spracheingabe nutzen wollen oder müssen, sollten stattdessen die Diktierfunktion des Endgerätes nutzen. 

Die Regeln für die Eingabe von Prompts in Form von Fotos, Bildern, Videos und Ton sollten in einer Nutzungsordnung festgehalten werden und Schülerinnen und Schüler müssen darüber aufgeklärt sein. Lehrkräfte sollten die Möglichkeit haben, die Prompts ihrer Schülerinnen und Schüler stichprobenhaft zu kontrollieren und diese Möglichkeit auch nutzen. Für Drittanbieter aus Deutschland, welche die beschriebenen Voraussetzungen erfüllen, sind beispielhaft Fobizz und SchulKI zu nennen. Beide lassen sich entsprechend datenschutzfreundlich nutzen und bieten die für Schulen wichtigen Verträge zur Auftragsverarbeitung an. Bei Fobizz ist es zusätzlich möglich, in den Einstellungen zwischen verschiedenen KI Plattformanbietern zu wählen. Das heißt, wer ChatGPT nicht nutzen möchte, kann auf Alternativen wechseln, darunter auch EU Anbieter. Einige Bundesländer haben bei den Anbietern Landeslizenzen erworben.

Schulen in NRW sollte außerdem beachten, dass die Verarbeitung von Bild- und Tonaufnahmen durch die Schule nach der aktuellen Rechtslage einer Einwilligung bedarf. Sollen sie als Prompts verwendet werden (100% EU Anbieter, lokal laufende KI App), ist ein entsprechender Verarbeitungszweck in der Einwilligung anzugeben.

Nutzung durch Lehrkräfte

KI Plattformen sind nicht nur für den Unterricht von Interesse, sondern auch für die Vor- und Nachbereitung von Unterricht. Während die Erstellung von Unterrichtsmaterialien mittels KI in der Regel unproblematisch ist, da es hier zumeist nicht um personenbezogene Daten geht, können diese bei der Nachbereitung von Unterricht durchaus relevant sein.

Soll eine KI Plattform genutzt werden, um individuelles Feedback zu Schülerarbeiten zu erstellen oder um sie für eine Bewertung analysieren zu lassen, ist es erforderlich, die Schülerarbeiten als Prompt in die Anwendung zu laden. Es gelten hier für Lehrkräfte letztlich die gleichen Spielregeln, die auch für Schülerinnen und Schüler gelten. Solange die Prompts keine personenbezogenen oder -beziehbaren Daten enthalten, ob direkt als Inhalt oder in Form von Metadaten, entstehen bei einer Nutzung als Bestandteile von Prompts keine Risiken für Betroffene. Für die Eingabe von Sprachaufnahmen, etwa zur Auswertung von durch Schülerinnen und Schüler erstellte Podasts oder anderen gesprochenen Lernprodukten, gelten die bereits beschriebenen Einschränkungen. Auch die Erstellung von auf einzelne Lernende zugeschnittenen individuellen Unterrichtsmaterialien ist unproblematisch, solange dazu keine personenbezogenen Daten in Prompts eingegeben werden. Hier reicht in der Regel der Verzicht auf Namen und weitere biographische Daten, um mögliche Risiken auszuschließen.

Perspektiven schulischer KI Nutzung

Verglichen mit den ersten Monaten nachdem OpenAI mit ChatGPT die KI Welle losgetreten hatte, haben sich die Bedingungen für eine schulische Nutzung eindeutig verbessert und tendenziell werden die Bedingungen mit den ersten sich am Markt etablierenden ernstzunehmenden europäischen Anbietern mit eigenen KI Modellen und Plattformen sogar noch besser. Auch wenn die KI Plattformen von US Anbietern durch die vermittelnden Dienste von Drittanbietern mittlerweile datenschutzfreundlich nutzbar sind, ist die unterrichtliche Nutzung mit deutlichen Einschränkungen verbunden. Persönliche Inhalte müssen außen vor bleiben. Die Optimierung eines Lebenslaufes oder das Verfremden eines Portraits ist so unter keinen Umständen möglich. Schülerinnen und Schüler müssen wissen, warum das so ist, die Risiken kennen und sich an die vereinbarten Spielregeln halten. Mit europäischen Anbietern, die einen Vertrag zur Auftragsverarbeitung anbieten und bezüglich ihres Modells ausreichende Transparenz herstellen, sollten diese Grenzen in Zukunft fallen. Perspektivisch werden es auch die Plattformen dieser Anbieter sein, welche dauerhafter Bestandteil von schulischen Landesplattformen sind. Die voranschreitende Optimierung von KI Anwendungen und die gleichzeitige Entwicklung von immer leistungsfähigeren Prozessoren sowohl für stationäre wie auch mobile Endgeräte erlaubt es zunehmend, diese KI Anwendungen als Apps lokal laufen zu lassen. Auch das wird für Schulen neue Möglichkeiten bieten, da in Prompts eingegebene Daten dann die Schule nie verlassen, sondern auf den Endgeräten gespeichert werden.

ChatGPT – AI Chat

Lesezeit: 12 Minuten

Letzte Aktualisierung: 

  • Abschnitt zum Thema Übermittlung von Nutzerdaten durch den Anbieter ergänzt. Hinweise zum Fehlen von Datenschutzinformationen für EU Nutzer ergänzt. 08.02.2023
  • Abschnitt zur Nutzung durch Lehrkräfte für ihre Arbeit am Ende angefügt. 28.01.2023
  • Anmeldung mit Angabe einer Mobilfunknummer ergänzt und Bewertung angepasst. 25.01.2023

ChatGPT ist ist zu Zeit in aller Munde. Man möchte es aus diversen Gründen im Unterricht einsetzen, ist sich aber unsicher, was das Thema Datenschutz angeht. Es folgt hier kein Datenschutz Check wie sonst üblich, sondern ein Versuch, in etwa abzuschätzen, welche Risiken sich aus einer unterrichtlichen Nutzung ergeben könnten (Betonung auf “könnten”). Wie die folgenden Betrachtungen hoffentlich zeigen, ist es schwierig, hier eindeutige Aussagen zu machen und Empfehlungen abzugeben.

Vorabüberlegungen

Auf welche Art und Weise könnten Risiken bei der Nutzung von ChatGPT entstehen?

Wie bei jeder Online-Plattform oder online verbundenen App, die in der Schule zum unterrichtlichen Einsatz kommen soll oder bereits kommt, ist es unverzichtbar das Thema Datenschutz in den Blick zu nehmen. Werden Online-Plattformen oder online verbundene Apps durch Schülerinnen und Schüler im Unterricht genutzt, können dabei Daten anfallen, welche zu Risiken für das Recht auf informationelle Selbstbestimmung führen können. Das setzt voraus, dass bei der Nutzung Daten anfallen, welche Schülerinnen und Schüler potenziell identifizierbar machen. Die Zuordnung von verarbeiteten Daten zu einer identifizierbaren Person kann auf verschiedenen Wege erfolgen.

  • Das sind einmal die mit einem individuellen Endgerät unmittelbar verknüpften Daten, die sich aus Gerätekennungen und der Hardwarekonfiguration sowie der auf dem Gerät installierten Software und deren Konfiguration wie auch den Versionen derselben ergeben können.
  • Es sind darüber hinaus Spuren, welche in Form von Cookies auf einem Endgerät zurückbleiben, wenn Online-Plattformen und mit dem Internet verbundene Apps verwendet werden. Sind Personen an einer dieser Plattform oder Apps mit einem persönlichen Konto angemeldet, können die in den Cookies hinterlegten Identifier ihnen persönlich zugeordnet werden.
  • Auch ohne das Setzen von Cookies können Daten von Nutzern erhoben werden. Das ist möglich, wenn im Hintergrund entsprechende Skripte laufen, welche mit Servern des Anbieters oder von integrierten Drittanbietern kommunizieren.
  • Informationen, die geeignet sind, eine Person zu identifizieren, ergeben sich auch aus Standortdaten. Diese können aus GPS-Daten und dem Namen des genutzten WLAN hergeleitet werden.
  • Die IP Nummer ist ein weiteres Merkmal, welches genutzt werden kann, um eine Person zu identifizieren.
  • Weitere Möglichkeiten ergeben sich aus persönlichen Informationen, welche bei der Nutzung einer Online-Plattform oder online verbundenen App durch den Nutzer verwendet werden. Dies kann durch die direkte Eingabe von Informationen in Form von Text sowie Bild- und Ton-Dokumenten erfolgen.
  • Bei der Eingabe von Text, ob in schriftlicher Form oder im Audioformat, entstehen Muster aus der typischen Verwendung von Vokabular und Syntax durch einen Nutzer. Es gehören dazu auch nutzerspezifische Fehler bzw. Abweichungen von der Standardgrammatik oder Schreibung einzelner Worte. Je mehr Text ein Individuum produziert, umso wahrscheinlicher wird es, dass man diese Person anhand der dort enthaltenen Mustern identifizieren kann.
  • Identifiziert sich eine Person durch Anmeldung an einer Plattform oder online verbundenen App, können sämtliche Daten, welche innerhalb der Plattform im Zusammenhang mit der Nutzung entstehen, dieser Person zugeordnet und genutzt werden, um diese Person auch außerhalb der Plattform zu identifizieren. Wie weit dieses möglich ist, hängt von der jeweiligen Plattform oder online verbundenen App, den dort genutzten Daten und integrierten Diensten ab.

Der Anbieter

Hinter OpenAI und ChatGPT steht eine US amerikanische Firma, die von verschiedenen Kapitalgebern finanziert wird. Der wohl mächtigste Kapitalgeber dürfte Microsoft sein, die ihre Investitionen nun dazu nutzen werden, um die Plattform auch in ihre Office Produkte zu integrieren.

Nutzung der Plattform

Die Nutzung von ChatGPT setzt, sofern sie nicht über einen anderen Anbieter vermittelt erfolgt, die Erstellung eines Kontos voraus. Dazu ist die Angabe einer E-Mail-Adresse und eines Passwortes erforderlich. Alternativ ist ein Login mit einem Google oder Microsoft Konto möglich. Mittlerweile ist zusätzlich zur E-Mail Adresse auch die Angabe einer Mobiltelefon Nummer erforderlich. An diese wird ein Bestätigungs-Code per SMS geschickt. Es wird beim Login außerdem ein Captcha vorgeschaltet, welches verhindern soll, dass die Anmeldung durch einen Bot erfolgt. Nutzer können Eingaben in ChatGPT in einem Textfenster vornehmen und ausgegebene Antworten anschließend durch Daumen hoch oder Daumen runter und ein individuelles Feedback bewerten. Anders als im OpenAI Playground können hier anfragen des Nutzers in Form eines Chat Dialogs eingegeben werden. Die Plattform ist dadurch in der Lage vorherige Fragen und eigene Antworten in weitere Antworten einzubeziehen. Einzelne wie auch alle Chats gemeinsam lassen sich jederzeit löschen. Ob damit auch eine Löschung von den Servern einhergeht, ist nicht beurteilbar.

Datenschutzerklärung

In der Datenschutzerklärung wird über die Datenverarbeitung informiert, soweit sie die Website des Anbieters betrifft, verbundene Seiten und die Dienste von OpenAI. Unterschieden wird bei den Daten, welche der Anbieter sammelt, zwischen denen, welche Nutzer von sich aus offen legen, etwa bei der Erstellung eines Kontos, denen, welche bei der Kommunikation mit dem Anbieter anfallen, den Daten, welche über die Social Media Auftritte des Anbieters anfallen, und denen, welche automatisch bei der Nutzung der Dienste anfallen.

Von Bedeutung im Zusammenhang Schule und Unterricht sind hier die erstere und letztere Kategorie. Zur Nutzung von Diensten von OpenAI ist ein Konto erforderlich. Der Hauptteil der Daten fällt dann bei der Nutzung der Dienste, etwa ChatGPT, an. Dazu gehören die üblichen Logdaten wie die IP-Adresse, der Browsertyp, dessen Version und Einstellungen, Datum und Uhrzeit der Nutzung und Nutzungsdaten zur Interaktion mit dem Dienst. Zu den Nutzungsdaten, die erhoben werden können, gehören nach Angaben des Anbieters Inhaltsarten, mit den Nutzer interagieren, genutzte Funktionen wie auch Zeitzone, Herkunftsland und Daten dazu, wann und wie lange genutzt wird, User Agent und seine Version, Art von Endgerät und ähnlich. Der Anbieter wählt sich vor, auch Cookies und Analytics einzusetzen. Als Zweck wird angegeben, dieses zur Erbringung und Verbesserung der Dienste zu tun. Welche Cookies und welche Analyse-Tools oder -Dienstleister eingesetzt werden, darüber erfährt man nichts.

Es werden sechs generelle Zwecke der Datenverarbeitung genannt:

  • Erbringung, Verbesserung und Analyse des Dienstes.
  • Forschung, die intern genutzt wird, aber auch mit Dritten geteilt oder gar veröffentlicht werden kann.
  • Kommunikation mit dem Nutzer.
  • Entwicklung neuer Programme und Dienste.
  • Sicherheit und Verhinderung von Missbrauch der Dienste.
  • Einhaltung gesetzlicher Vorgaben.

Aggregierte Daten können genutzt werden um die Effektivität des Dienstes zu analysieren und Einblicke in typisches Verhalten und Charakteristiken von Nutzern zu erhalten. Diese Informationen können unter anderem durch die Dienste selbst und über Cookies gesammelt werden.

Der Anbieter behält sich vor, personenbezogenen Daten der Nutzer unter bestimmten Umständen ohne weitere Information der Betroffenen, sofern dies nicht gesetzlich verboten ist, mit Dritten zu teilen (Übermittlung/ Offenlegung von Nutzerdaten). Dies kann beispielsweise bei der Zusammenarbeit mit Dienstleistern (z.B. Hosting, IT, Marketing), bei Geschäftstransaktionen, aufgrund gesetzlicher Anforderungen (z.B. Verhinderung von Betrug, Anfragen von Ermittlungsbehörden, Sicherheit) oder bei der Zusammenarbeit mit Partnerunternehmen (dann im Sinne der Datenschutzerklärung) der Fall sein. Außerdem können bestimmte Aktionen, die Nutzer innerhalb der Dienstleistungen ausführen, für andere Nutzer sichtbar sein.

OpenAI richtet sich mit seinem Dienst ausdrücklich nicht an Kinder unter dem Alter von 13 Jahren. Man weist daraufhin, dass Kinder unter 13 Jahren diesen Dienst nur mit Einwilligung der Eltern nutzen dürfen.

Weitere Informationen, die auch mit Bezug auf Datenschutz von Bedeutung sind, finden sich in den FAQ zu OpenAI. Aus diesem geht hervor, dass die Inhalte der Interaktion von Nutzern mit der Plattform (conversations)

  • von Mitarbeiter einsehen werden, um das System zu verbessern und sicherzustellen, dass die Inhalte mit den Richtlinien und Sicherheitsanforderungen der Plattform übereinstimmen,
  • von den AI Trainern eingesehen werden können, um das System zu verbessern, d.h. zu trainieren. Die eingegebenen Inhalte und Reaktionen auf Antworten werden damit Gegenstand des Corpus, aus dem OpenAI trainiert wird.

Im Hilfebereich gibt es noch weitere Informationen dazu, wie Daten von Nutzern zur Verbesserung und zum Training von OpenAI genutzt werden können. Unter How your data is used to improve model performance wird erklärt, dass man beim Zugriff auf den Dienst über die API (das meint eingebunden in eine andere Website oder in eine App, die nicht vom Anbieter selbst kommen) Nutzerdaten verwendet, diese dazu aber vorab von jeglichen personenbezogenen Informationen befreit. Man nutzt außerdem kleine Stichproben von bis zu 200 API Anfragen im Zeitraum von 6 Monaten.

Aussagen dazu, wie lange personenbezogene Daten in der Plattform gespeichert werden, macht die Datenschutzerklärung nicht.

Die Datenschutzerklärung berücksichtigt den California Consumer Privacy Act (CCPA), eine Art DS-GVO des Bundesstaates Kalifornien, und räumt Nutzern von dort die vom CCPA eingeforderten Rechte ein. Anders als verschiedene andere US-Anbieter räumt OpenAI Nutzern aus Europa in der Datenschutzerklärung jedoch keine Betroffenenrechte gemäß der DS-GVO ein. Auch ein für EU Nutzer zuständiger Datenschutzbeauftragter ist nicht benannt.

AGB

Gemäß der Allgemeinen Geschäftsbedingungen müssen Nutzer mindestens 18 J ahre alt sein, um ein Konto zu erstellen. Vom Nutzer eingegebenen Inhalte können vom Anbieter benutzt werden, um den Dienst zu verbessern und der Nutzer willigt darin automatisch ein. Es ist nicht zulässig, dass ein Nutzer mehr als einen kostenlosen Zugang erstellt. Sollen mit der Plattform personenbezogene Daten verarbeitet werden, ist der Nutzer verpflichtet, dieses auf seiner Seite rechtlich abzusichern (Information, Einwilligung) und muss dem Anbieter gegenüber darlegen, dass er diese Daten in Übereinstimmung mit geltendem Recht verarbeitet. Für Nutzer, welche der DS-GVO unterliegen bietet der Anbieter auf Anfrage einen Vertrag zur Auftragsverarbeitung (Data Processing Addendum) an. Ob Nutzern und Verantwortlichen in der EU hiermit die durch die DS-GVO eingeforderten Rechte eingeräumt werden, konnte bisher nicht überprüfen. Es sollte dann auch eine Datenschutzerklärung geben, welche die DS-GVO berücksichtigt.

Beobachtetes Verhalten von ChatGPT

Der Anbieter nutzt Server in den USA und stellt seine Dienste über Cloud Flare bereit.

Beim direkten Aufruf von https://chat.openai.com/ werden neben zwei technischen Cookies im Local Storage (oai/apps/hasSeenOnboarding/chat und nextauth.message) die folgenden Cookies als 1st Party Cookies gesetzt

 

Domain Cookie Gültigkeit bis Herkunft Funktion
.chat.openai.com __cf_bm 24 Stunden Cloud Flare

Anbieter für Content Delivery Network (CDN), Schutz vor DDOS Angriffen

Cookie, um Nutzer von Bots unterscheiden zu können
.chat.openai.com _cfuvid Sitzung Cloud Flare begrenzt Datenrate, wenn mehrere Nutzer von der gleichen IP aus auf OpenAI zugreifen
.chat.openai.com cf_clearance 6 Monate Cloud Flare speichert den Nachweis der bestandenen Challenge (hier Recaptcha), so dass sie nicht wiederholt werden muss
auth0.openai.com auth0 14 Tage AuthO

Anbieter für Nutzerauthentifizierung, ID und Access Management

verwaltet Benutzersitzungen
auth0.openai.com auth0_compat 14 Tage AuthO Fallback-Cookie für auth0 für den Fall, dass ein älterer Browser nicht unterstützt, dass SameSite auf None gesetzt ist
auth0.openai.com did 6 Monate AuthO die Kennung für ein Gerät/einen Benutzer-Agenten
auth0.openai.com did_compat 6 Monate AuthO Fallback-Cookie für did für den Fall, dass ein älterer Browser nicht unterstützt, dass SameSite auf None gesetzt ist
chat.openai.com __Host-next-auth.csrf-token Sitzung NextAuth.js (Auth.js),

Anbieter für Nutzerauthentifizierung

Zufalls-Token, um CSRF-Angriffe zu verhindern
chat.openai.com __Secure-next-auth.callback-url Sitzung NextAuth.js Ermöglicht mit dem vorherigen Authentifizierung und anschließende Autorisierung bei OpenAI
chat.openai.com __Secure-next-auth.session-token 1 Monat NextAuth.js zur Authentifizierung der Nutzer und zur Gewährleistung der Sicherheit ihrer Anmeldedaten für die Zahlungsabwicklung
chat.openai.com cf_chl_2 24 Stunden Cloud Flare prüft, ob der Cloudflare Edge-Server Cookies unterstützt
www.recaptcha.net _GRECAPTCHA 6 Monate Google wird gesetzt, um die OpenAI Website vor Spam-Anfragen im Anmeldedialog zu schützt.

Werden in der gleichen Sitzung andere OpenAI Seiten im Webauftritt des Anbieters aufgerufen, etwa Updates & FAQ, können weitere Cookies gesetzt werden, beispielsweise von Intercom (intercom-session-dgkjq2bp, intercom-id-dgkjq2bp und intercom-device-id-dgkjq2bp), die dann mit dem angemeldeten Nutzer verbunden werden.  Auch das Setzen von Google-Analytics Cookies (_ga und _gid) als OpenAI 1st Party Cookies konnte nachgewiesen werden. Ihr Ursprung bei OpenAI ist jedoch unklar, rührt aber definitiv nicht von der Nutzung von ChatGPT her.

Eingesetzte Dienstleister

Aus dem beobachteten Verhalten von ChatGPT lassen sich mehrere genutzte Drittanbieter ermitteln:

  • Cloud Flare
  • Auth0
  • NextAuth.js (Auth.js)
  • Google

Es ist jedoch sicher davon auszugehen, dass weitere Anbieter genutzt werden, vor allem für den Betrieb der Server. Aus der Website von OpenAI lässt sich entnehmen, dass auch Amazon Web Services (AWS) in drei verschiedenen AWS Regionen zum Einsatz kommt. Außerdem nutzt man laut einem anderen Beitrag auf der Website Microsoft Azure.

Befragt man ChatGPT selbst, erhält man folgende Auskunft:

Um diesen Dienst bereitzustellen, nutzt OpenAI eine Kombination aus Software- und Hardwareressourcen, die Folgendes umfassen:

  • Cloud-Infrastruktur: OpenAI nutzt Cloud-Infrastrukturanbieter wie Amazon Web Services (AWS), Microsoft Azure und Google Cloud Platform (GCP), um das ChatGPT-Modell zu hosten und zu betreiben. Dies ermöglicht OpenAI eine einfache Skalierung des Dienstes, um der Nachfrage gerecht zu werden und eine hohe Verfügbarkeit zu gewährleisten.
  • Datenspeicherung: OpenAI nutzt Datenspeicheranbieter wie Amazon S3, Azure Blob Storage und Google Cloud Storage, um die Daten zu speichern, die zum Trainieren des ChatGPT-Modells verwendet werden, sowie die Daten, die durch die API-Nutzung erzeugt werden.
  • Vernetzungen: OpenAI nutzt Netzwerkanbieter wie Amazon VPC, Azure Virtual Network und Google Cloud VPC, um die verschiedenen Komponenten des Dienstes zu verbinden und eine sichere und zuverlässige Kommunikation zwischen dem Client und der API zu gewährleisten.

Man sollte bei dieser Antwort zwei Dinge beachten: ChatGPT ist trainiert mit Daten bis 2021 und die Plattform kann auch Falschinformationen ausgeben.

In weiterer Dokumentation findet man Hinweise, dass auch Google Cloud Server für bestimmte Funktionen (OpenAI gym) eingesetzt werden. Ob alle drei der großen Anbieter genutzt werden, um ChatGPT bereitzustellen, ist nicht eindeutig zu ermitteln. Es deutet jedoch manches darauf hin, dass zum Training der Plattform andere Server genutzt werden als zum Betrieb von ChatGPT.

Fazit

Man kann OpenAI sicherlich keine mangelnde Transparenz vorwerfen. Der Anbieter dokumentiert seine Arbeit und eingesetzte Technologien sehr umfangreich. In der Datenschutzerklärung bleibt er allerdings relativ vage und beschränkt sich auf allgemeine Aussagen. Ob der erwähnte Vertrag zur Auftragsverarbeitung, das DPA, welches man per E-Mail anfordern kann, hier mehr Transparenz schafft bezüglich eingesetzter Drittanbieter, wäre zu ermitteln. EU Nutzer werden nicht in der Datenschutzerklärung berücksichtigt. Ob das DPA diesen Mangel ausgleichen kann, ist zu bezweifeln. Eine Verarbeitung von personenbezogenen Daten von Nutzern dürfte sich damit zumindest im Kontext Schule außerhalb des rechtlichen Rahmen des DS-GVO bewegen.

OpenAI ist ein US-amerikanischer Anbieter und die Server-Infrastruktur dürfte sich komplett in den USA befinden. Damit liegen sämtliche erhobenen und verarbeiteten Daten der Nutzer im unmittelbaren Zugriff von US-amerikanischen Ermittlungsbehörden. Die Nutzung von ChatGPT setzt die Erstellung eines Kontos voraus. Dafür braucht es eine E-Mail-Adresse und ein Passwort, sofern nicht bereits vorhandene Google oder Microsoft Konten für die Registrierung verwendet werden sollen. Außerdem ist die Angabe einer Mobilnummer notwendig. Vom Nutzer eingegebene Inhalte in ChatGPT bleiben auf den Servern gespeichert und können nach Angaben des Anbieters in Teilen ohne Bezug zum Nutzer zum Training von OpenAI genutzt werden. Nutzer haben die Möglichkeit, beim Anbieter eine Löschung ihrer Eingaben anzufordern. In der Datenschutzerklärung wird angegeben, dass die Nutzung von ChatGPT sich nicht an Kinder unter 13 Jahren richtet. Darüber hinaus setzt die Erstellung eines Kontos zur Nutzung der Dienste von OpenAI laut AGB ein Mindestalter von 18 Jahren voraus. Es ist laut den AGB auch nicht zulässig, mehr als ein kostenloses Konto anzulegen.

Spätestens seit der Abfrage einer Mobilnummer liegt die Identifizierung der registrierten Nutzer immer im Bereich des Möglichen. Nutzer bleiben für den Anbieter nur anonym, solange dieser ihre Mobilnummer nicht zur Identifizierung nutzt. Doch auch ohne Identifizierung über die Mobilnummer oder eine “echte” E-Mail Adresse können Nutzer über verschiedene durch den Anbieter und die eingesetzten Dienstleister eingesetzte Technologien potenziell einer identifizierbaren Person zugeordnet werden. Damit lässt sich dann auch die Nutzung sämtlicher in der Plattform verwendeten Inhalte dieser Person zuordnen, sofern eine Identifizierung über eine dieser Möglichkeiten erfolgt.

Das heißt, nutzen Schülerinnen und Schüler ChatGPT mit einem eigenen Konto, sind sie für den Anbieter, die eingesetzten Dienstleister und auch für Dritte wie US Ermittlungsbehörden, immer potentiell identifizierbar.

Welche Risiken sich tatsächlich für individuelle Nutzer aus der Verwendung von ChatGPT ergeben, ist sehr schwierig abzuschätzen und dürfte nicht unwesentlich von den Inhalten der Nutzerinteraktion abhängen. Es ist von daher auch nicht möglich, Aussagen zu möglichen Risiken im Vergleich zu einer Plattform wie Padlet, die auf zahlreiche Drittanbieter, auch für Analysezwecke, setzt, zu treffen. Dafür sind die Plattformen einfach zu unterschiedlich. Eindeutig ist jedoch,  dass die Risiken, welche sich für Nutzer ergeben, sehr viel geringer sind als etwa bei einer Nutzung der Google Suchmaschine auf einem persönlichen Endgerät.

Die geringsten Risiken sollten bestehen, wenn Schülerinnen und Schüler ChatGPT über einen Zugang nutzen, welchen eine Lehrkraft erstellt hat. Erfolgt diese Nutzung dann auf einem Gerät der Lehrkraft oder über unpersonalisierte schuleigene Endgeräte am Standort Schule und ohne Anmeldung der Schülerinnen und Schüler an anderen nicht schulischen Plattformen oder online verbundenen Apps in der gleichen Sitzung und ohne Verwendung von persönlichen Inhalten, sollten Schülerinnen und Schüler in keiner Hinsicht identifizierbar sein.

Wenn Lehrkräfte ChatGPT im Unterricht einsetzen wollen, sollten sie sich bewusst sein, dass eine DS-GVO konforme Nutzung mit Schülerinnen und Schülern aktuell nicht bzw. nur eingeschränkt möglich ist. Ältere Schülerinnen und Schüler ab Vollendung des 18. Lebensjahres haben immer die Möglichkeit, sich ein eigenes Konto einzurichten. Die Nutzung desselben im Unterricht kann jedoch nur optional sein. Das heißt, eine Nichtnutzung darf nicht zu Nachteilen führen. Da laut den AGB des Anbieters die Erstellung eines Kontos unter 18 Jahren nicht zulässig ist, sollten Lehrkräfte eine Registrierung von Schülerinnen und Schülern unter 18 Jahren in ihrem Unterricht auch nicht zulassen.

Eine mit der DS-GVO und den Schulgesetzen der Bundesländer konforme Nutzung von ChatGPT würde den Abschluss eines Vertrags zur Auftragsverarbeitung zwischen Schule und Anbieter voraussetzen. Allerdings würde auch der Abschluss eines solchen Vertrags zur Auftragsverarbeitung zumindest aktuell für eine Schule nichts an den mit der Nutzung von US Anbietern verbundenen Problemen ändern. OpenAI ist ein US-amerikanischen Anbieter, der alle Daten in den USA verarbeitet und speichert, und zumindest solange ein neues Abkommen (Privacy Shield II) zwischen den USA und der EU zur Übermittlung von personenbezogenen Daten nicht in Kraft getreten ist, bleibt die Nutzung eines solchen Anbieters zur Verarbeitung von personenbezogenen Daten ohne zusätzliche Maßnahmen seit Schrems II Urteil des EuGH unzulässig.

Bei einer verantwortungsvollen Nutzung von ChatGPT ohne persönliche Inhalte dürften daraus für Nutzer nur wenige Risiken entstehen, selbst wenn sie über ihre E-Mail Adresse identifizierbar wären. Aus den nachweisbaren eingesetzten Diensten dürfte die Nutzung von Google ReCaptcha am kritischsten gesehen werden, da Google hier so die Nutzung von ChatGPT einer identifizierbaren Person zuordnen könnte. Die anderen eingesetzten Dienste haben keine direkte Analyse Funktionalität, soweit ersichtlich.

Trotzdem werden Datenschützer eine unterrichtliche Nutzung der Plattform mit persönlichen Konten für Schülerinnen und Schüler an Schulen kritisch sehen, vor allem weil der rechtliche Rahmen für die Nutzung eines US-Anbieters, der seine Daten in den USA verarbeitet, nicht gegeben ist (zumindest im Moment). Schulen, die im Unterricht mit Schülerinnen und Schülern ChatGPT mit individuellen Konten nutzen, bewegen sich von daher rein rechtlich gesehen nicht mehr in einer Grauzone, sondern dürften die Grenze des Zulässigen bereits überschritten haben.

Thema Nutzung durch Lehrkräfte

Viele Lehrkräfte haben bereits erkannt, dass auch sie ihre Hausaufgaben mit ChatGPT erledigen können, etwa wenn es um die Erstellung von von Aufgaben für den Unterricht geht. Aus Sicht von Datenschutz ist das Sache der Lehrkräfte, wenn sie dieses mit ihrem persönlichen Konto tun. Die Möglichkeiten von ChatGPT enden damit jedoch nicht. Die Plattform kann aus Stichworten und entsprechenden Anweisungen im Handumdrehen auch Feedback zu von Schülerinnen und Schülern eingereichten Aufgaben erstellen, Protokolle in Form bringen, Gutachten ausformulieren und ähnlich. Lehrkräfte könnten auch von Schülerinnen und Schülern erstellte Texte in ChatGPT kommentieren lassen. Dabei können dann mit Blick auf Datenschutz jedoch schnell Grenzen des Zulässigen überschritten werden, wenn Lehrkräfte dabei personenbezogene Daten mit in die Plattform mit eingeben. Von Nutzern eingegebene Prompts werden in der Plattform nicht nur gespeichert, sondern eben auch zum Training genutzt. Und damit ist es durchaus möglich, dass Fragmente davon in den für andere Benutzer ausgegebenen Antworten wieder auftauchen. Hinzu kommt, dass es keine Rechtsgrundlage gibt, die es Lehrkräften erlaubt, personenbezogene Daten aus der Schule in einer privat genutzten Plattform zu verarbeiten. Auch mit Vertrag zur Auftragsverarbeitung (vorausgesetzt dieser erfüllt die Vorgaben der DS-GVO und es gibt den Privacy Shield 2) zwischen Schule und OpenAI und dienstlichem Konto dürfte eine Nutzung für die Verarbeitung von personenbezogenen Daten aus der Schule nicht oder nur eingeschränkt möglich sein. Das sollten Lehrkräfte bei einer Nutzung wie zuvor beschrieben beachten. Wenn man die Plattform nutzen möchte, um ein Gutachten umschreiben bzw. ausformulieren zu lassen, so ist dieses durchaus möglich. Namen und andere Daten, welche die Person identifizieren können, müssen dann durch Dummy Daten ersetzt werden, die hinterher im fertigen Text gegen die Echtdaten ausgetauscht werden.

Stand: 02/2023