Eine Aktulle Studie Zeigt: Fast Zehn Prozent der Ki-EingaBeuhufforderUngen von Mitarbeitery Enthalten Sensible Daten.
Laut Einem aktuellen Bericht über Gen-Aai-datenlecks von harmonic enthielten 8,5 prozent der mitarbeiteranfragen an croybte llms sensible daten, was Zu Sidenheits-, conformité-, datenschutz- und rechtlichen Beden Führte.
Der Sécurité-SPEZIALIST HAT IM VIERTEN QUARTAL 2024 ZEHNTAUSENDE VON EINGABEUFFORDOCHERUNGEN An Chatgpt, Copilot, Gemini, Claude und Perplexity Analyset. Dabei Stellte Sich Heraus, Dass Kundendaten, Einschließlich Rechnungs- und Authentifizierungsdaten, MIT 46 Prozent den Größten Anteil an Den Durchgesickerten Daten Ausmachten. Harmonic Fiel Dabei vor Allem der Hohe anteil an Versicherungsansprüche auf. Demnach werden diese mit kundendaten gespickten berichte häufig von mitarbeitern in ki-tools eingegeben, um zeit bei der bearbeitung zu sparen.
Der Analyze Zufolge Machten Mitarbeiterdaten, Einschließlich Gehaltsabrechnungsdaten und personmenbezogener daten (pii), 27 prozent der sensiblen anfragen aus, gefolgt von rechts- und finanzdaten mit 15 prozent.
„Sicherheitsrelevante Informationen, die Fast sieben prozent der sensiblen anfragen ausmachen, Sind besonders besorgniserregend“, warnt der bericht. «Beispiele Hierfür Sind Ergebnisse von Penetrationstests, Netzwerkkonfigurationn und vorfallsberichte. Solche Daten Könnten Angreifern Eine Blaupause für die Ausnutzung von Schwachstellen Liefern. «
Raus Aus Dem Schatten
Der Verlust von Genai-daten ist ein schwieriges Problème – und ein Hauptgrund Dafür, Dass Generative Ki-Strattegien Cisos dans Eine Zwickmühle Bringen.
Die nutzung von llm dans unternehmen lässt sich in drei grooße kategorien einteilen:
- Déploiements de Sanktionierte, Einschließlich Lizenzierter UNT Intern Entwickelter Implementationngen;
- Schatten-ki, également à Der Regel Kostenlose, consommateur-apps, die vom unternehmen aus gutem grund verboten sinnd; und
- HALBSCHATTEN-GENAI.
NICHT Autorisierte Schatten-ki ist ein hauptproble für cisos, das am schwierigsten zu kontrollieren sein dürfte. Von den leitern der Geschäftsbereiche initiiert, kann semi-shadow-ki kostenpflichtige ki-apps umfassen, die kein ok von der it erhalten haben und für expérimente, best -mmte zwecke oder eine höhere produktivität eingesetzt werden. Dans Solchen Fällen Kann es Sein, Dass Die Führungskraft Die Nutzung von Schatten-it propagiert. Die Mitarbeiter der Einzelnen Geschäftsbereiche Sind Sich Jedoch Keiner Schuld Bewusst, Da Sie Vom Management Im Rahmen der Ki-Strathie Angewiesen Wurden, Die Tools Zu Nutzen.
Schattender halbschatten-apps für freie générative ki sind am problematischsten, da ihre lizenzbedingungen in der Regel Vorsehen, dass die daten bei jeder abfrage für das formation Der ki-modelle genutzt werden dürfen. Laut der harmonic-studie ist die nutzung von ki im kostenlosen bereich für den löwenanteil der sensiblen datenlecks verantwortlich. Donc Wurden Beispsielsweise 54 Prozent der Sensiblen EingaBeuhufforderUngen dans Der Kostenlosen Version von Chatgpt eingegeben.
Die Meisten Datenspezialisten Raten Cisos Jedoch auch Davon AB, Den Vertraglichen Versprechen Kostenpflichtiger Generativer Ki-Apps Zu Vertrauen. Dans Den Meisten Fällen Verbieten Sie Das Training Mit Benutzeranfragen à Unternehmensversionen.
Robert Taylor, Anwalt Bei Carstens, Allen & Gourley, Warnt Davor, Dass Zum Beispiel Geschäftsgeheimnisse Preisgegeben Werden Können. „Verschiedene Rechtliche Schutzmaßnahmen – Insbesondere der Schutz von Geschäftsgeheimnissen – Können Verloren Gehen, Wenn Ein Mitarbeiter Einem Genai-System Eine Frage Stellt. »
Er Fügt Hinzu: „Wenn Ein Konkurrent von Dem Leck Erfährt, Kann Er Vor Gericht Argumentieren, Dass Das Leck Den Rechtlichen Schutz des Geschäftsgeheimnisses ungültig Macht. En eine Vielzahl von Schutzmechanismen Eingesetzt Hat.
„Sich auf die bestmimmann eines vertrags zu verlassen, der kein Training Mit Genai-Abfragen Verspricht, Reicht Nicht Aus”, Betont der Experi. Unternehmen Müssten Richtlien Einführen, die ihre mitarbeiter bei der nutzung dieser daten einschränken.
Datenbewuste praktiken
Nach Meinung von Jeff Pollard, Vizepräsident und Leidender Analyst Bei Forrester, Sollten Cisos Mit Führungskräften Bei den Schulungen der Mitarbeiter Zusammenarbeiten. Auf diese Weise Werde Sichegestellt, Dass die Mitarbeiter Darin Geschult Werden, Wie Sie mit llms die gleichen Ergebnisse Erzielen Können, Ohne Geschützte Daten Zu Verwenden, Erklärt er.
„Man Muss Wirklich Keine Sensiblen Informationen Preisgeben, Um Einen Positiven Nutzen Aus Dem System Zu Ziehen. Aber Wir Müssen Die Benutzer Darin Schulen, Die Strategien der Prompt-Formulierung Zu Verstehen ”, Ergänzt Pollard.
Vor diesem Hintergrund Setzte Sich Arun Chandrasekaran, vizepräsident und analyste Bei Gartner, MIT Folgender Frage Auseinander: Warum Verwenden Mitarbeiter Kostenlose Ki-Tools Anstelle von Abgesperrten, Enterprise-Tauglichen Bezahlversionen? „Die Mitarbeiter tun es, weil die it-abteillung ihnen nicht die tools zur verfügung stellt, die sie benötigen”, argumentierte er.
„Die Nutzung von ki durch die mitarbeiter ist Soweit Fortgeschritten, dass die it-teams kaum aufholen können”, fügt kaz hassan, communauté senior et directeur du marketing partenaire Beim Softwareanbieter Unily. Hinzu. „ES IST EIN NEUES KONZEPTERFORDERLICH. Unternehmen Brauchen Jetzt Klare Ki-Strattegien, Um Risiken Zu Reduzieren. Sie Müssen Ki dans Den Tech-Stack Der Mitarbeiter Integrieren. »
Hassan Zufolge Reichen Typische überwachungs- und kontroll-apps Nicht Aus, um solche datetenlecks zu verhindern. „Der Grund, Warum Power-User Sensible Daten über Nicht Autorisierte Ki-Tools Verwenden Ist Nicht, Weil Sie Nicht Kontrollier Werden Können, Sondern, Weil Sie Nicht Ausgebremst Werden Wollen. Das alte rassemble des einschränkens und schützens versagt nicht nur – es drängt ki-innovationen aktiv in eine grauzone ”, donc der Unily-Experte. «Cisos Müssen Sich Dieser Realität Stellen: Entweder Sie Führen die Ki-Transformation An Oder Sie Müssen Zusehen, Wie Sich ihr Sicheheitsbereich Auflöst.»
Hassan wies darauf hin, dass das Datenproblem der generativen KI in zwei Richtungen geht: Sensible Daten, die über Abfragen das Unternehmen verlassen, und fehlerhafte Daten – entweder durch Halluzinationen oder durch Training mit falschen Informationen –, die über generative KI-Antworten, auf die Sich Ihr Team Bei der Unternehmensanalyse Verlässt, dans Das Unternehmen Gelangen. (JM)