Comment le règlement européen sur l’IA affecte-t-il votre entreprise?

août 6, 2024

L’intelligence artificielle (IA) transforme notre monde de manière inédite. Des soins de santé personnalisés aux voitures autonomes en passant par les assistants virtuels, l’IA devient omniprésente dans notre vie quotidienne. Cela dit, son utilisation croissante suscite des préoccupations quant à son impact sur les droits et libertés fondamentaux. En réponse à cela, l’Union Européenne (UE) a pris une mesure significative en régulant l’IA avec l’AI Act de l’UE. Cet acte est la première initiative concrète au monde visant à réguler l’Intelligence Artificielle. Il cherche à faire de l’Europe un hub mondial de l’IA digne de confiance, en établissant des règles harmonisées régissant le développement, la commercialisation et l’utilisation de l’IA dans l’UE. L’objectif est que les systèmes d’IA en Europe soient sûrs et respectent les droits et valeurs fondamentaux. L’acte encourage également l’investissement et l’innovation dans l’IA tout en favorisant un marché unique européen pour cette technologie.

Inventaire Des Modèles – Comprendre L’état Actuel

Pour bien comprendre les implications du règlement européen sur l’IA, les entreprises doivent d’abord évaluer si elles utilisent des systèmes d’IA, s’ils sont en cours de développement ou si elles prévoient de les acquérir auprès de fournisseurs tiers. Elles doivent également dresser un inventaire des systèmes d’IA identifiés dans un référentiel de modèles. De nombreuses organisations de services financiers peuvent utiliser des référentiels de modèles existants et la gouvernance des modèles environnants pour y ajouter l’IA comme sujet supplémentaire. Cette démarche est essentielle pour établir une base de compréhension solide sur l’étendue de l’utilisation de l’IA au sein de l’organisation.

Les organisations qui n’ont jamais eu besoin d’un référentiel de modèles jusqu’à présent devraient commencer par une évaluation de l’état des lieux pour comprendre leur exposition potentielle. Même si l’IA n’est pas utilisée à l’heure actuelle, il est très probable que cela changera dans les années à venir. Une identification initiale peut commencer à partir d’un catalogue de logiciels existant ou, si cela n’est pas disponible, par des enquêtes envoyées aux différentes unités commerciales. Cette première étape est cruciale, non seulement pour se conformer au règlement, mais aussi pour préparer l’organisation à un futur où l’IA jouera un rôle central.

Classification Des Risques Des Modèles

Basé sur le référentiel de modèles, il convient de classer les systèmes d’IA par niveau de risque. L’AI Act de l’UE distingue plusieurs catégories de risques pour aider à prioriser les mesures de conformité. Les systèmes à risque inacceptable sont strictement interdits par le règlement. Par exemple, l’utilisation de l’identification biométrique à distance en temps réel dans les espaces publics, les systèmes de notation sociale, et les techniques d’influence subliminale qui exploitent les vulnérabilités de groupes spécifiques sont prohibés. Ces interdictions visent à protéger les droits fondamentaux des citoyens européens et à prévenir les abus potentiels.

Les systèmes à risque élevé, en revanche, sont autorisés mais doivent se conformer à de multiples exigences et passer une évaluation de conformité avant leur mise sur le marché. Ces systèmes doivent également être enregistrés dans une base de données européenne spécifique. L’exploitation de ces systèmes nécessite un système de gestion des risques approprié, des capacités de journalisation et une supervision humaine ou propriétaire. Une gouvernance des données appropriée doit être appliquée aux données utilisées pour l’entraînement, les tests et la validation. Des contrôles assurent la cybersécurité, la robustesse et l’équité du système. Exemples de systèmes à risque élevé incluent ceux liés à l’infrastructure critique, aux processus d’embauche, aux notations de crédit et aux traitements automatisés des réclamations d’assurance.

Les systèmes restants sont considérés comme présentant un risque limité ou minime. Pour ceux-ci, la transparence est requise. Par exemple, un utilisateur doit être informé que ce avec quoi il interagit est généré par de l’IA. Les exemples incluent les chatbots ou les deepfakes, qui ne sont pas classifiés comme à haut risque mais doivent rendre explicite qu’ils sont motivés par l’IA. Cette exigence de transparence vise à garantir que les utilisateurs sont pleinement conscients des technologies qu’ils utilisent et des décisions prises par ces technologies.

Préparation Et Mise En Conformité

L’AI Act de l’UE classe les systèmes d’IA par niveau de risque pour établir des priorités en matière de conformité. Les systèmes à risque inacceptable sont strictement interdits. Par exemple, l’identification biométrique à distance en temps réel dans les espaces publics, les systèmes de notation sociale et les techniques subliminales qui exploitent les vulnérabilités de groupes spécifiques sont prohibés. Ces interdictions protègent les droits fondamentaux des citoyens européens et préviennent les abus.

Les systèmes à risque élevé sont autorisés mais doivent répondre à plusieurs exigences et subir une évaluation de conformité avant leur commercialisation. Ils doivent être enregistrés dans une base de données européenne. L’exploitation de ces systèmes nécessite une gestion des risques adéquate, des capacités de journalisation et une supervision humaine ou propriétaire. Une gouvernance des données appropriée est nécessaire pour les données d’entraînement, de test et de validation. Des contrôles assurent la cybersécurité, la robustesse et l’équité du système. Des exemples de systèmes à haut risque incluent les infrastructures critiques, les processus d’embauche, les notations de crédit et les traitements automatisés de réclamations d’assurance.

Les autres systèmes présentent un risque limité ou minime. Pour ceux-ci, la transparence est essentielle. Par exemple, les utilisateurs doivent savoir lorsqu’ils interagissent avec une IA, comme avec des chatbots ou des deepfakes. Cette transparence assure que les utilisateurs sont conscients des technologies utilisées et des décisions prises par ces technologies.

Abonnez-vous à notre digest hebdomadaire!

Rejoignez-nous maintenant et devenez membre de notre communauté en pleine croissance.

Adresse e-mail invalide
Merci de vous être abonné.
Nous vous enverrons bientôt nos meilleurs messages.
Quelque chose c'est mal passé. Merci d'essayer plus tard