Multiplikator AI IST EIN. Allerdings nicht nur für die produktivität, Sondern auch für Sicherheitsrisiken.
Ki-Agenten Werden Im unternehmensumfeld immer croybter und zunehmend in workflows und prozesse intégriet. ETWA dans Den Bereichen SoftwarentwickLung, KundenService und -Support, Prozessautautomatisierung Oder Expérience des employés. Für Cisos und Ihre Teams Stellen Sich Dabei Zwei Ganz Wesentliche Fragen:
- Welche Neuen Security-Risiken Werfen Agent-Aai-Systeme auf?
- Wie viel mehrarbeit wird erforderlich sein, um die unternehmensziele zu Unterstützen, wenn es um agenbasierte ki geht?
Fest Steht, Dass Agetic AI in Jedem Fall Eine Große Herausforderung Für Die Cybersecurity Darstellen Wird. Umso Wichtiger Wäre es, Sicherheisentscheider dans Entscheidungsprozesse dans Zusammenhang mit der Technologie Einzubinden. Auch Weil Viele Unternehmen Im Ki-Rausch Bekanntermaßen Weniger et Die It-Sicherheit Gedacht Haben. Dans diesem artikel diskutieren wir mit sicherheitsexper einige der wichtigsten problembereiche und risiken in Zusammenhang mit agetic ai.
Mangelnde transparenz
Kaum Ein Ciso Dürfte Ein «Fan» von Unzurechedendem Einblick Sein. Leider Fördert Agetic Ai Genau Das: Die Technologie Lässt Sich von Einzelnen Benutzern Oder Auch Ganzen Teams über Eine Vielzahl von Applikationen Hinweg Autonom Einsetzen – Ohne Angemessens surveillant durch die-weder-oder it-abtelung.
«Unternehmen wissen de Nicht, wo diese systeme implémentiertirert sind, wer sie nutzt und wie autonom sie sind», meint pablo riboldi, ciso beim softwareterbieter baresdev. Das Sei Schatten-ki (-agenten) Zuträglich, était weitere Probleme nach sich ziehe: «Wenn Sicherheitsteams Nicht Wissen, Dass Ki-Agenten Im einsatz Sind, Die in Echtzeit Entscheidungen Treffen Oder Auder Senseme Senseme Zugreifen, Bleiben Auch Daffoter Verbundene Systeme Senseme Zugreifen, Bleiben Auch DACFOR VERBUDENDE SENSIBE SENSIF Sicherheitsrisiken oder Schwachstellen im verborgenen. »
Auch Reena Richtermeyer, partenaire Bei der auf Ki Spezialisierten Anwaltskanzlei CM Law, Hält Mangelnde Transparenz dans Zusammenhang MIT Agent Ai Für Risikobehaftet: «Diese Risiken Sind-Nicht Nicht Securit Risiken Kommen Noch Hinzu.
RisikobeHaftete Autonomie
Viele Agetic-Aai-Systeme Sind in der Lage, Ohne Menschliche, Beziehungsweise Manuelle Eingriffe Zu «Handeln». Diese Fähigkeit ist Jedoch Nicht Nur Innov, Sondern Stellt an Sich auch ein Security-Risiko Dar, Wie Sean Joyce, Beim Beratungsriesen Pwc für die Bereiche Cybersecurity und Dattenschutz Zuständig, Erklärt: «Wenn Zielsetzhen Für Ki-Agentend Schlert:« Wenn Zielsetzhen Für Ki-Agentend Schlert: » Oder Mehrdeutig Sind, Können Diese Gegen Die Sicherheits- oder Ethikstandards Eines Unternehmens Versoßen. «
L’agent de Werde ein Beispsielsweise Angewiesen, «Störungen» Im Security Operations Center (SOC) Zu Minmierren, Könne er Das Möglicherwerweise Zu Wörtlich Nehmen – und Valide Warnmeldungen Unterdrücken, Um die Abläufe zu rationaltisieren, So Joyce.
«Dans Einer, agenbasierten ki-umgebung gibt es diverses autonomes aktionen ohne aufsicht», Meint Wyatt Mayham, Chefberater Bei Northwest Ai. Er Fügt Hinzu: «IM Gegensatz zur traditionnelle automatisierung Entscheiden Ki-Agenten Beispsielsweise, Auf liens zu klicken, e-mails zu versenden oder best-rélish workflows zu Triggern. Risikopotenzial. »
Konsequenzen de partage de données
Besonders Vielversprechend Sind Für Unternehmen Auch Multi-Agenten-Systeme, Bei Denen Mehrere Unterschiedliche Agenten Miteinander Interagieren – und Dateten Austauschen. Wie rechtsexpertin richtermeyer darlegt, könne das insubessichtigte folgen nach sich ziehen: «die Risiken Ergeben sich daraus, dass diese ki-systeme in der lage Sind, auf riesitren unmu teizugreifen, diese autony KOMMT, DASS ES SEHR KOMPLEX IST, SOLCHE Multi-Agenten-Systeme Zu Managen. »
Ainsi, Könnten Ki-Agenten etwa auf Informations sensibles Zugreifen und diese widerrechtlich Verarbeiten Oder Offenlegen. Dans Der Folge Könnten Betroffennen Unternehmen Rechtliche Konsequenzen Drohen, warnt die anwältin.
Ki-Berater Mayham Sieht Das Ganz ähnlich: «Durch Eine Multi-Agenten-Konfiguration Entreht Ein KoordiationsRisiko. Ein Agent Könte den umfang einer aufgabe auf eine Weise Erweitern, Für die Ein Anderer Agent Nicht Geschult Wurde.»
OHNE Sandboxing Könne Das Zu Unvorhersehbarem Systemverhalten Führen, Insbesondere Wenn Die Agenten Neue Daten Aus der Rereen Welt aufnehmen, So der Experi.
Neue drittanbieterrisiken
Agent-Aai-Systeme MIT MIT DERSCHIEDLICHEN SERVICES UND DRTTANBIETERN ZU INTREMEREN, IST EIN WEITERE HERAUSFORMEUNG Für Sicherheisentscheider und Ihre Teams.
«Ki-Agenten Sind Stark von apis und interden intégrationn abhängig», Erklärt Riboldi. «Je mehr systeme einem agen Zugänglich Sind, desto komplexer unv unvorhersehbarer wird Sein Verhalten. Dieses szenario birgt risiken für die lieferkette: eine schwachstelle in einem drittanbieten-service könnete im rahmen von talenbasierten intervice köbernte im rahmen von. Verschiedene Plattformen Hinweg Ausgeutzt Versehentlich Ausgelöst Werden. »
Und das ist nicht die einzige Problemstellung in diesem bereich, wie Mayham Anmerkt: «Viele Agenten Sind Gerade in Der Startphase Auf Instabile Oder under undokumerte apis oder Browser-Automatisierunten Angewiesen. Konfiguririerte intégrationn preisgeben oder daten über plugin-kketten exfiltrierr haben.
PWC-Experte Joyce Sieht dans Diesem Zusammenhang Noch Ein Weiteres Problème: «Viele Agenttic-Aai-Tools Fußen auf Quelloffenen Bibliotheken und OrchestrierUngs-Frameworks. Diese Könen Bisang Undekannte Scwachstellen Begerbergen.»
Mehrsfige cyberangriffe
Es Bestteht Außerdem auch die möglichkeit, dass agetic-ai-systeme für mehrsfige cyberangriffe missbraucht werden – und dabei neue wege eröffnen. «Agerenbasierte Systeme Werden immer Ausgefeilter und können Ungabebssichtigt mehrsfige Verhaltensweisen Entwickeln oder Erlennen, die mehrsfige cyberangriffe imitieren», erklärt riboldi. «Schlimmer Noch, Sie Könnten Unbabebssichtigt wege Finden, um Herkömmliche Erkennungsmethoden zu Umgehen – Nicht, Weil Sie Böswillig Sind, Sondern Weil ihr Zieloentientientietes Verhalten Das Belohnt.»
Die Grenze Zwischen Fehler und Breach Verwische Damit Laut Riboldi – Was Es Sicherheitsteams erschwere, Zu Erkennen, Ob es sich bei einem vorfall um böswilliges oder spontanes ki-verhalten handelt – oder beide. Dieses Phänomen Kann auch Mayham Bestätigen: «A Labortestes Konnten Wir Bereits Beobachten, Wie Ki-Agenten Tools auf unerwartete Weise miteinander Verknüpft Haben. Und zwar nicht auf eine schadhafte, Sondern Eine Kreative Und Weise. Wenn Dieselben Fähigkeiten Ausgeutzt Werden, Um Systeme Zu Untersuchen, Endpunkte Zu Testen Oder Musterbasierte Detection-Tools Zu Umgehen. »
Weil Agentenbasierte Ki Aus Feedback Lernnen Könne, Sei es auch Möglich, Ihr Verhalten Zu Beeinflussen, Um Zu Vermeiden, Dass Detection-Systeme Ausgelöst Werden, Ergänzt Joyce. « » Das Stellt Eine Einethafte HerauusForceng für Herk. Outils Regelbasierte Dar.
Était les cisos tun können
Weil agetic ai die cybersicherheit vor radikale, neue Herausforderungen Stelle, seien auch traditionelle security-modelle nicht mehr ausreichend, meint joyce. Nach Meinung des Pwc-Experten Sollte Eine Robuste Agent-Aai-Verteidigungsstrategie Folgende Basismaßnahmen Umfassen:
- Echtzeit-observabilité und -telememetrie,
- Strikte Governance-Richtlien,
- Entwicklungspraktiken, die auf démocr-by-design-prizip fußen, sowie
- eine funktionsübergreifende koordination zwischen sicherheits-, it-, datenmanagement- und conformité-équipes.
«Durch Einen Proaktiven, mehrschichtigen sicherheitsansatz und indem sie gouvernance von anfang an einbetten, können unternehmen von den den agetic-ai-vorteilen quitteren und parallel daMit verbundenen risiken minimier.» (FM)
SIE WOLLEN WEITERE INTERRESSANTE Beiträge Rund Um Das Thea It-Sicherheit lesen? Newsletter Unser Kostenloser Liefert Ihnen alles, était Sicherheisentscheider und-experten wissen sollten, direkt dans la boîte de réception.
![]()



