Le grand guide KI-Risiko

Lucas Morel

Avec l’IA générative, vous risquez de prendre des risques avec l’intelligence artificielle. Zeit, une stratégie tragique pour s’en sortir.

Cette technologie n’a pas d’avantages sur l’intelligence artificielle (KI). Insbesondere seit dem Aufkommen von Generative AI (GenAI) and the explosionsartigen Verbreitung entsprechender Tools and Lösungen est pour les entreprises qui veulent que je prenne le risque d’entrer en contact avec KI zu kennen. Le thème GenAI est exposé au droit, à la conformité et aux dates de garantie d’un service d’assurance Gartner dans les prochains jours sur l’agenda.

Pour les risques KI, de nouvelles mesures visant à minimiser la conformité sociale et des dates de sécurité pour les règles de sécurité, des solutions d’engagement pour l’engagement KI sont définies, des risques importants et des lignes sociales riches définies. La stratégie d’entreprise s’applique à vous aider à créer l’art de la conception KI-Lösung. Ganz allgemein lassen sich die Risiken in Zusammenhang mit der Technologie in three Kategorien einteilen :

  • interne KI-Projekte,

  • KI-Lösungen von Drittanbietern sowie

  • schadhafter KI-Einsatz durch Bedrohungsakteure.

Im Folgenden nehmen wir die einzelnen Bereiche ausführlich sous la Lupe.

Interne KI-Risiken bewerten

Pour prendre des risques, vous devez faire appel aux premiers spécialistes de l’intelligence artificielle, comme l’interne Künstliche Intelligenz eingesetzt wird. Um das zu bewerkstelligen, bieten sich 2 Möglichkeiten.

1. Cadres pour la gestion des risques et de la qualité

Les logiciels Abbyy ont étudié et quantifié les performances du modèle KI dès qu’ils ont un an. Afin d’utiliser les cadres de référence pour la gestion des risques et de la qualité – sous le cadre de gestion des risques ISO. Des cadres spéciaux de gestion des risques pour l’intelligence artificielle ont été élaborés dans le temps – tant aux États-Unis qu’en Europe.

Warum Abbyy pour son projet GenAI interne dans sa première ligne sur d’autres frameworks a été rédigé par Andrew Pery, évangéliste de l’éthique de l’IA chez les spécialistes de KI-Software, en particulier : « Ces frameworks sont encore plus rudimentaires. C’est encore aujourd’hui que nous les apportons. Kernprodukt extrahiert Daten and Inhalte aus Dokumenten et wir haben spezifische Genauigkeitsziele for our nos traditionellen KI-Modelle.

Une assistante technique prend en charge 150 000 comptes cloud publics en 70 % de l’intégration cloud dans les services d’IA générative pour une installation unique. La plate-forme KI la plus réputée est conçue avec 53 pour cent d’OpenAI. Il s’agit de Hugging Face et d’autres projets Open Source. Ces plates-formes de nutrition, créées pour les entreprises à risques divers, sont présentées avec des clics et des dates sont créées pour la formation de modèles KI.

Un umfassender Überblick darüber, welche KI-Lösungen wo zum Einsatz kommen, ist deshalb unerlässlich. Laut Priya Iragavarapu, vice-président des services technologiques de la direction générale de l’AArete, a réalisé une analyse descendante et une analyse ascendante : « Un programme d’analyse doit être mis en œuvre pour que KI soit mieux informé, plus efficace et plus efficace. L’équipe de gouvernance de la KI discute des questions que l’équipe de gouvernance n’a pas eues, alors que le KI s’en sert, avec l’analyse ascendante dans le jeu : toutes les conclusions des entreprises sont suivies par le système et les avantages qu’elles trouvent, auf KI-Anwendungen zugreifen. »

Das stelle keine perfekte Lösung dar, gibt die Beraterin zu: « Es gibt immer noch Dinge, die sous le Tisch fall. Aber an dieser Stelle kommt der Aspekt einer gründlichen Schulung beziehungsweise Weiterbildung ins Spiel, um Mitarbeiter vor selbstverschuldeten Dummheiten zu attention.»

2. Cadres de déploiement de l’IA propre

Nous vous proposons également un framework à utiliser, comme le modèle KI dans votre propre conformité, la gestion des risques et la tolérance aux risques. Il est donc possible qu’une seule opération soit effectuée, les mêmes sorties KI étant effectuées manuellement. « Il y a plus de risques, le KI génératif est pertinent », a déclaré Iragavarapu. « Wie viele Menschen sind davon betroffen ? Wie groß ist der Impact ? » AArete arbeitet mit einigen Unternehmen zusammen, um sie dabei zu unterstützen, ces risques zu messen. Il existe plusieurs branches qui disposent des premiers benchmarks génératifs de risque d’IA.

Il s’agit d’un problème qui concerne divers consultants en technologies de l’information – Ernst & Young a présenté un exemple d’un « indice de confiance en IA ». Kapish Vanvaria, responsable des marchés des risques chez EY Americas, a déclaré: « Notre indice de valeur est basé sur les critères fondamentaux – protection des données et sécurité, biais et équité, transparence, transparence et garantie et sécurité. L’un des aspects des index. La conformité et les principes éthiques les plus simples, afin qu’une carte thermique des processus variés soit élaborée et qu’une méthode d’analyse générale soit appliquée.

Im Bereich Recht and Compliance seien cese Berechnungen relative einfach, weil sie auf Scoring-Werten basierten. Dans d’autres domaines, il y a plus d’espace de jeu d’études, ainsi que l’organisme EY : « Une entreprise peut être en mesure de suivre le Reifegrad à la fois auprès d’un facteur et d’une ligne riche pour l’acceptation des noix de KI. Sie können numerische Punktzahlen anwenden, um die Grundlinien. zu messen, et quand le Ziel verändert entsprechende Änderungen vornehmen.»

Drittanbieter-KI-Risiken bewerten

Les problèmes de sécurité et de protection des données dans Zusammenhang mit Drittanbieter-Services ne sont pas neufs. Vous pouvez éventuellement vous adresser à des prestataires de services – également, par courrier électronique, par courrier électronique, par marketing ou par services de données – pour répondre à des dates sensibles et à ces informations auprès de votre partenaire privilégié. Vous risquez cet art au minimum, en faisant la guerre à l’IA générative dans le cadre d’une stratégie pour les hommes – vous avez déjà le contrôle de la sécurité et vos équipes peuvent en avoir plus, et ce, à l’intérieur.

Il existe certainement des outils qui ne sont pas liés au risque de sécurité, mais qui sont également destinés à l’affichage des fonctionnalités, notamment aux fonctionnalités GenAI – les informations les plus élevées sont également disponibles dans un pays de KI. Pour vous aider, vous devez d’abord étudier la même ligne de conduite et d’assemblage de noix afin de les étudier et les aider à travailler. Vous pouvez également former une équipe de gestion des risques dédiée aux risques minimisés.

Greg Notch, RSSI chez Security-Anbieter Expel, a encore un conseil auf Lager, quand il s’agit de dire que le temps à Horizont zu deuten : « Lorsqu’un administrateur interne de nouvelles fonctions KI s’applique, vous pouvez avoir une prise en charge des lignes de protection des données dans une première idée. Bleiben Sie wachsam !

Dans ce cadre, l’entfaltet auch die europäische Datenschutzgrundverordnung (DSGVO) Wirkung positif. Sie verpflichtet Anbieter dazu, offenzulegen, wenn sie mit Subunternehmern zusammenarbeiten.

Services externes KI-Bedrohungen

Generative KI sera également long pour lancer deux applications, et un (Spear)-Phising-Emails sera généré. Les équipes de sécurité des agences de sécurité sont confrontées à un problème, comme le RSSI Notch l’a déclaré : « Jede Organization sera très prudent pour les entreprises en matière de compromission des e-mails. Les informations et les indicateurs sont là, car c’est un courrier électronique non confidentiel, donc pour les hommes et aussi pour les hommes. Machines immerger zu erkennen. Künstliche Intelligenz ist in der Lage, E-Mails and Webseiten nahezu perfekt zu fälschen.

Perys Arbeitgeber Abbyy a travaillé pour des raisons de sécurité, qui sont auf GenAI-Bedrohungen spezialisiert haben. Cela signifie que le risque KI est difficile à quantifier. Cette entreprise a découvert les nouveaux Frameworks Abhilfe schaffen – et l’expert en cybersécurité Daniel Miessler 2023 a présenté « AI Attack Surface Map ». Sasa Zdjelar, Chief Trust Officer chez Supply-Chain-Spezialisten ReversingLabs, a déclaré qu’il s’agissait d’une des plus grandes organisations à ce jour : « CISA, NIST, la Cloud Security Alliance, l’ENISA et d’autres groupes de travail spéciaux ont été créés, qui ont de nouvelles solutions pour les entreprises. »

C’est vrai, vous pouvez faire des recherches sur les entreprises, comme si les Grundlagen vous attendaient. Dazu gehört beispielsweise, zu überprüfen:

  • ob alle Endpunkte geschützt sind;

  • ob alle User Multi-Faktor-Authentifizierung nutzen;

  • Nous vous invitons à consulter les Mitarbeiter Phishing-Versuche erkennen ;

  • comme le plus grand stand de réparation à Sachen Patching ist ;

  • zu welchem ​​Grad Zero-Trust-Prinzipien die IT-Umgebung abdecken.

Ces grundlegenden Hygienemaßnahmen können leicht sous den Tisch tombé, wenn neue Bedrohungen auftauchen.

Nous avons appris que des entreprises plus récentes et plus conscientes des menaces étaient dirigées par Sean Loveland, COO de la société de sécurité Resecurity, qui a déclaré: « Offensive Cyber Threat Intelligence et KI-spezifisches Threat Monitoring connaissent des informations sur les nouvelles méthodes de référence et les solutions les plus fiables. Il s’agit donc d’un exemple de ce produit nommé « FraudGPT », sur le Dark Web et Telegram. Les hackers criminels KI-Tools ont introduit des solutions pour résoudre les problèmes, et Greg Stewart, vice-président de l’intelligence artificielle de SentinelOne, a déclaré: « Nous avons une forte préoccupation pour les logiciels malveillants adaptatifs et polymorphes, qui sont aussi autonomes. »

Davon abgesehen ist GenAI jedoch aussi in der Lage, the Angriffsvolumen drastisch zu steigern. Le Forum mondial a identifié dans son « Rapport sur les risques mondiaux » un site Web présentant des risques pour les hommes : KI-generierte Fehl- und Desinformationen. Il est probable que les fausses nouvelles soient diffusées de manière drastique auf de l’action d’une source d’information.

Risques liés aux risques australiens

« Ils doivent s’efforcer de mettre en place un plan ambitieux pour créer un KI génératif dans leurs services », a déclaré Paul Silverglate, responsable technologique chez Deloitte USA. Il s’agit de: « Il est important que ce soit pour les employés qui sont riches en machines et en sécurité pour le sein, la préparation et l’entretien des schaffen, qui tombent et ont été passés. »

Il s’agit d’un aperçu de la génération ainsi et du temps passé, avec un clic sur une enquête Riskonnect sous 300 risques et risques de conformité fraglich :

  • 93 Prozent der Unternehmen rechnen mit erheblichen Bedrohungen im Zusammenhang mit generative KI.

  • Dennoch geben nur 17 Prozent der Teilnehmer an, das gesamte Unternehmen in Bezug auf GenAI-Risiken geschult or informiert zu haben.

  • Lediglich neun Prozent sind nach eigenen Angaben darauf vorbereitet, ces risques à gérer.

Un service de couverture ISACA complet avec plus de 2 300 fachleuten aus den Bereichen Audit, Risk, Sicherheit, Datenschutz et IT-Governance kommt darüber zum Ergebnis, ass lediglich zehn Prozent der Befragten über umfassende Generative-AI-Richtlinie verfügen. Noch schlimmer: Mehr als ein Viertel der Befragten plante pas encore, une seule solution à l’entwickeln. Gravierende Fehler, comme Silvergate a déclaré: « La confiance est le grand Gral. Quand vous avez la vertrauen ihrer Kunden verlieren, wird es sehr schwer zurückzugewinnen sein. » (fm)

Avez-vous d’autres études intéressantes sur le thème de la sécurité informatique ? Notre newsletter gratuite vous liefert Ihnen alles, was Sicherheitsentscheider und -experten wissen sollten, directement dans votre boîte de réception.

vgwort