AI Meeting Tools: Vorteil oder Beweisstück A?

Wie Recht und Compliance Governance, Aufbewahrung und Risikominderung gestalten können
Durch künstliche Intelligenz (KI) unterstützte Meeting-Tools werden mit beispielloser Geschwindigkeit in die Arbeitswelt eingeführt. Plattformen wie Microsoft Teams, Zoom und Webex bieten jetzt Funktionen, die Videokonferenzen automatisch aufzeichnen, transkribieren und zusammenfassen - oft in Echtzeit. Die Attraktivität liegt auf der Hand. Diese Funktionen versprechen mehr Effizienz, durchsuchbare Aufzeichnungen und einen geringeren Verwaltungsaufwand.
Für die Rechtsabteilung, die Personalabteilung und die Compliance-Funktionen werfen dieselben Tools jedoch grundlegende Fragen zu Datenmanagement, Datenschutz, Genauigkeit und Verhalten am Arbeitsplatz auf. Ohne die richtige Governance können sie die Strategie bei Rechtsstreitigkeiten untergraben, den Schutz der Vertraulichkeit aushöhlen und das Verhalten der Mitarbeiter bei sensiblen Diskussionen verändern.
Diese Risiken werden durch das Tempo der Einführung noch verstärkt. Die Einführung wird oft von der IT-Abteilung oder den Geschäftsbereichen vorangetrieben, und die Rechtsabteilung wird erst eingeschaltet, wenn die Nutzung bereits begonnen hat. Diese reaktive Haltung ist besonders problematisch, wenn die Inhalte von Meetings hochsensibel sind und bei Rechtsstreitigkeiten aufgedeckt werden können. Was wie eine harmlose Mitschrift einer Leistungsbeurteilung, einer Arbeitsplatzuntersuchung oder einer Gewerkschaftsstrategie aussieht, kann schnell zu einem Beweisstück werden.
Der Schlüssel zu einem sicheren Einsatz liegt darin, herauszufinden, wo und wie KI-Meeting-Tools rechtliche Risiken mit sich bringen, und durchdachte, praktische Kontrollen einzurichten, bevor sie in den täglichen Betrieb integriert werden. In den folgenden Abschnitten werden die wichtigsten Risikobereiche und Sicherheitsvorkehrungen beschrieben, die Unternehmensjuristen beachten sollten.
Hauptrisikobereiche
Permanente Geschäftsunterlagen und Herausforderungen bei der Aufbewahrung
KI-generierte Abschriften, Zusammenfassungen und Aufzeichnungen können nach Unternehmensrichtlinien und geltendem Recht als offizielle Geschäftsunterlagen gelten. Als solche unterliegen sie möglicherweise der Aufbewahrungspflicht für Rechtsstreitigkeiten oder behördliche Untersuchungen, oft über Jahre hinweg. Dies kann die Lagerkosten erheblich erhöhen und, was noch wichtiger ist, sensible Gespräche am Leben erhalten, die längst hätten gelöscht werden müssen. Eine unterlassene oder fehlerhafte Aufbewahrung kann zu Enteignungsansprüchen oder behördlichen Sanktionen führen.
Risiko der Geheimhaltung und Vertraulichkeit
Die Aufzeichnung von Gesprächen zwischen Anwälten und Mandanten, von Beratungen in der Personalabteilung oder von internen Audits kann versehentlich den Schutz der Vertraulichkeit aufheben, insbesondere wenn die Ergebnisse mit Dritten geteilt oder von diesen gespeichert werden. Viele KI-Anbieter speichern Daten in einer vom Anbieter kontrollierten Infrastruktur, und in den Standardvertragsbedingungen wird der Schutz von rechtlichen Privilegien oder Arbeitsprodukten möglicherweise nicht anerkannt. Darüber hinaus behalten sich die Anbieter oft das Recht vor, Kundendaten zum Trainieren von KI-Modellen zu verwenden, was das Risiko erhöht, dass vertrauliche Strategien, Rechtsberatung und Personalinformationen unbeabsichtigt an Dritte weitergegeben werden.
Bedenken hinsichtlich der Genauigkeit und Zuverlässigkeit
Automatisierten Transkriptions- und Zusammenfassungswerkzeugen fehlt das menschliche Urteilsvermögen und sie sind fehleranfällig. Diese Tools können Sprecher falsch identifizieren, ähnlich klingende Namen verwechseln, Akronyme oder Fachbegriffe auslassen oder wechselseitige Wortwechsel falsch interpretieren, wenn mehrere Personen gleichzeitig sprechen. Sie können auch Nebenbemerkungen, Hintergrunddiskussionen oder unvollständige Gedanken aufzeichnen, die nie Teil des Protokolls oder Gegenstand einer externen Prüfung sein sollten. In Streitfällen können Aufsichtsbehörden oder gegnerische Parteien KI-generierte Aufzeichnungen gegenüber offiziellen Sitzungsprotokollen als maßgebend ansehen, was Glaubwürdigkeitsfragen aufwirft und die Korrektur von Ungenauigkeiten erschwert, sobald diese entdeckt werden.
Abschreckende Wirkung auf Diskussionen
Die Offenlegung oder das Wissen um die aktive Aufzeichnung und Transkription kann die Dynamik von Besprechungen verändern. Mitarbeiter vermeiden es möglicherweise, Probleme anzusprechen, ihre Äußerungen zu entschärfen oder die Eskalation von Problemen zu verzögern, weil sie befürchten, dass sie "aufgezeichnet" werden. Diese abschreckende Wirkung kann eine proaktive Problemlösung behindern, die Offenheit in Diskussionen verringern und letztlich die Unternehmensführung beeinträchtigen.
Data Governance und Kontrolle durch den Anbieter
Die Ergebnisse von KI-Meeting-Tools werden in der Regel von Anbietern gespeichert und verarbeitet, oft in Ländern mit unterschiedlichen Datenschutzgesetzen. Die Systeme von Anbietern folgen möglicherweise alternativen Sicherheitsprotokollen und Verschlüsselungsstandards, die nicht mit den Anforderungen des Unternehmens übereinstimmen. Ohne solide vertragliche Bestimmungen sind Unternehmen möglicherweise nicht in der Lage, die Sekundärnutzung, einschließlich des Trainings von KI-Modellen, zu verhindern oder die Offenlegung sensibler Inhalte zu kontrollieren. Die Teilnahme an extern veranstalteten Meetings mit aktiven KI-Tools erhöht das Risiko noch weiter, da die Inhalte außerhalb Ihres Governance-Rahmens - und damit außerhalb Ihrer Kontrolle - aufgezeichnet, gespeichert und weitergegeben werden können.
Praktische Überlegungen und Sicherheitsvorkehrungen
Klare Grenzen für die Nutzung festlegen
Legen Sie klar fest, wann KI-Meeting-Tools verwendet werden dürfen. Verbieten Sie die Aufzeichnung oder Transkription von Besprechungen, in denen es um Rechtsberatung, Personaluntersuchungen, interne Audits oder sensible strategische Diskussionen geht. Erwägen Sie die Aufnahme von Richtlinien, die eine Vorabinformation der Teilnehmer vor der Aktivierung eines KI-Tools vorschreiben, um Zustimmung und Bewusstsein sicherzustellen.
Vor der Weitergabe eine menschliche Überprüfung verlangen
Entwickeln Sie Verfahren, um die automatische Weitergabe von Rohabschriften oder Zusammenfassungen von AI zu deaktivieren. Führen Sie einen menschlichen Überprüfungsprozess ein, um die Genauigkeit zu verifizieren, informelle Kommentare oder heikle Formulierungen zu entfernen und die Übereinstimmung mit dem von der Organisation bevorzugten Ton sicherzustellen. Kennzeichnen Sie überprüfte Aufzeichnungen eindeutig als "offiziell" und vermerken Sie, wo KI-generierte Ergebnisse verwendet werden und dass KI-Ergebnisse ergänzend und nicht maßgebend sind.
Aktualisierung von Aufbewahrungs- und Legal Hold-Prozessen
Integrieren Sie KI-generierte Ergebnisse in bestehende Datenaufbewahrungspläne, Legal Hold-Prozesse und Löschungsprotokolle. Beschränken Sie den Zugriff auf Aufzeichnungen und Abschriften auf autorisiertes Personal. Erwägen Sie den Einsatz von Verschlüsselung und anderen Sicherheitsmaßnahmen, um gespeicherte Daten zu schützen.
Stärkung der vertraglichen Absicherung von Anbietern
Führen Sie eine Due-Diligence-Prüfung durch, bevor Sie KI-Meeting-Lösungen einführen oder erweitern. Die Verträge sollten das Eigentum an den Daten bestätigen, die Löschung der Daten bei Beendigung sicherstellen und eine Benachrichtigung bei Datenverletzungen oder Offenlegungsanfragen vorschreiben. Überprüfen Sie, ob die Sicherheitspraktiken des Anbieters den einschlägigen rechtlichen und regulatorischen Standards entsprechen. Ziehen Sie außerdem in Erwägung, jegliche Sekundärnutzung für KI-Schulungen zu verbieten.
Mitarbeiterschulung und -training
Sensibilisierung ist entscheidend für die Eindämmung von Missbrauch und Risiken. Informieren Sie Ihre Mitarbeiter über die ordnungsgemäße Verwendung von KI-Tools, die rechtlichen Folgen von aufgezeichneten Gesprächen und die Bedeutung von Professionalität bei Besprechungen, die aufgezeichnet werden. Ermutigen Sie zur Eskalation von Bedenken über nicht autorisierte Aufzeichnungen. Machen Sie die KI-Richtlinien für die Mitarbeiter leicht zugänglich und aktualisieren Sie sie, wenn sich die KI-Technologien weiterentwickeln.
Pilotprojekt vor breitem Rollout
Testen Sie KI-Meeting-Tools zunächst in Umgebungen mit geringem Risiko, damit mögliche Probleme erkannt werden können, bevor die Technologie unternehmensweit eingesetzt wird. Die Bereiche Recht, Compliance, Datenschutz und HR sollten von Anfang an Teil des Evaluationsteams sein.
Die Ausweitung von KI-Meeting-Tools auf den täglichen Betrieb erfordert eine aktive Aufsicht. Compliance und Rechtsabteilung sollten den Rahmen für den Umgang mit KI-generierten Inhalten vorgeben und sicherstellen, dass Genauigkeit, Konsistenz, Aufbewahrung und Rechte nicht gefährdet werden. Durch klare Nutzungsrichtlinien, integrierte Aufbewahrungsprozesse, strenge Anbieterbedingungen und regelmäßige Schulungen können Unternehmen die KI-Funktionen nutzen und unnötige Risiken vermeiden.