Version : 2.0 – Date de mise à jour : 11 février 2025.
Polaria Tech, en tant qu'entreprise spécialisée dans les solutions d'intelligence artificielle, s'engage à respecter scrupuleusement le Règlement européen sur l'Intelligence Artificielle (communément appelé AI Act). La présente politique de conformité décrit comment Polaria Tech assure la conformité de ses chatbots IA de type RAG (Retrieval-Augmented Generation) avec ce cadre réglementaire, en définissant les rôles et responsabilités, en distinguant les niveaux de risque applicables et en mettant en œuvre les obligations de transparence requises.
Polaria Tech conçoit et fournit des chatbots basés sur l’IA (notamment via la technologie RAG). Ces solutions correspondent à la définition de systèmes d’intelligence artificielle (SIA) donnée par le Règlement européen – c’est-à-dire des systèmes logiciels autonomes et adaptatifs capables de générer des prédictions, du contenu ou des décisions à partir de données. À ce titre, Polaria Tech agit en tant que fournisseur de systèmes d’IA au sens de l’AI Act, c’est-à-dire l’entité qui développe un système d’IA et le met sur le marché sous son propre nom ou sa marque.
Cette politique s’applique à l’ensemble des produits et services d’IA proposés par Polaria Tech.
Polaria Tech affiche un engagement ferme en matière de conformité réglementaire. L’entreprise s’engage explicitement à ne fournir aucune solution d’IA recourant à des pratiques interdites par l’AI Act. En particulier, Polaria Tech proscrit tout usage de techniques d’IA prohibées listées à l’article 5 du Règlement, telles que :
-Les techniques subliminales, manipulatrices ou trompeuses visant à altérer le comportement d’une personne à son insu ;
-L’exploitation de vulnérabilités d’individus (en raison de leur âge, d’un handicap, d’une situation socio-économique, etc.) ;
-Les systèmes de notation sociale des personnes sur la base de leur comportement ou caractéristiques personnelles ;
-Les systèmes prédictifs évaluant le risque qu’une personne commette une infraction (prédiction policière) ;
-La surveillance biométrique de masse injustifiée ou toute autre pratique expressément interdite par la loi.
Polaria Tech ne développe ni ne met sur le marché aucun système entrant dans ces catégories de risque inacceptable. Cet engagement garantit que nos solutions d’IA respectent les droits fondamentaux et principes éthiques en vigueur, conformément à l’article 5 de l’AI Act.
Le Règlement européen adopte une approche basée sur le niveau de risque présenté par les systèmes d’IA. Polaria Tech distingue donc deux scénarios de conformité en fonction de la classification de ses solutions : d’une part les systèmes potentiellement à haut risque, et d’autre part les systèmes à risque limité (catégorie où se situent principalement nos chatbots). Chaque niveau de risque fait l’objet de mesures spécifiques de notre part pour assurer la conformité.
Par principe, Polaria Tech ne propose pas de systèmes entrant dans la catégorie des IA à haut risque telle que définie par l’AI Act (par exemple, des IA utilisées dans le recrutement, l’évaluation de crédits, la santé ou d’autres domaines listés à l’Annexe III du Règlement). Si toutefois Polaria Tech devait développer ou fournir à l’avenir une solution classée comme haut risque, toutes les précautions et mesures réglementaires requises seraient rigoureusement mises en œuvre.
Concrètement, Polaria Tech s’engage à appliquer l’intégralité des obligations prévues par l’AI Act pour les SIA à haut risque. Cela comprend notamment : l’établissement d’un système de gestion des risques adapté, la constitution d’une documentation technique complète, la mise en place de dispositifs de contrôle humain lorsque requis, des tests réguliers de précision, robustesse et cybersécurité, et le respect des procédures d’évaluation de la conformité avant mise sur le marché. Ces mesures garantissent que le système satisfait à toutes les exigences légales et techniques applicables à son niveau de risque élevé. Polaria Tech veillera également à fournir aux utilisateurs ou déployeurs de tels systèmes toutes les informations nécessaires à une utilisation conforme et sûre.
La plupart des solutions d’IA proposées par Polaria Tech (en particulier nos chatbots IA) relèvent du risque limité au sens de l’AI Act. Ces systèmes ne présentent pas de risque élevé pour la sécurité ou les droits fondamentaux, et ne sont donc pas soumis aux obligations strictes et aux évaluations préalables imposées aux IA à haut risque. En revanche, ils doivent respecter certaines obligations de transparence spécifiques prévues par la réglementation pour les systèmes d’IA de niveau de risque limité.
Polaria Tech reconnaît que, juridiquement, les systèmes d’IA à risque limité n’entraînent que des obligations de transparence (les systèmes d’IA de risque minimal n’ayant pour leur part aucune obligation spécifique). En conséquence, l’entreprise s’assure que toutes les exigences de transparence applicables à ses chatbots et autres IA de risque limité sont pleinement respectées. Cet effort de conformité vise à informer clairement les utilisateurs et à assurer un usage responsable de nos technologies, même lorsqu’elles ne présentent qu’un risque modéré.
(NB : La section relative au « Droit à l’explication » des décisions automatisées a été supprimée de notre politique, ce principe n’étant pas requis par l’AI Act pour des systèmes d’IA à risque limité.)
Conformément au Règlement (Chapitre IV sur la transparence) et à notre engagement éthique, Polaria Tech met en œuvre l’ensemble des mesures de transparence requises pour les systèmes d’IA destinés à interagir avec le public ou à générer du contenu. Ces mesures visent à ce que les utilisateurs soient toujours conscients qu’ils interagissent avec une IA ou qu’ils consomment un contenu produit par une IA, afin de préserver la confiance et la clarté. Les principales obligations de transparence appliquées par Polaria Tech sont les suivantes :
-Identification de l’IA lors d’interactions : Pour tout chatbot ou assistant virtuel de Polaria Tech qui interagit directement avec des personnes physiques, nous veillons à informer explicitement l’utilisateur qu’il s’agit d’un système d’IA (par exemple via un message ou une indication visuelle dans l’interface). L’utilisateur ne doit à aucun moment croire qu’il échange avec un humain sans en être avisé. (Conformément à l’article 50(1) de l’AI Act, cette information peut ne pas être répétée si le fait d’avoir affaire à une IA est évident pour un utilisateur normalement attentif dans le contexte d’usage donné.)
-Marquage des contenus générés : Les systèmes d’IA de Polaria Tech susceptibles de produire du contenu audio, vidéo, image ou texte intègrent des mécanismes de marquage. Concrètement, tout contenu généré ou manipulé par notre IA est accompagné d’un indicateur (tel qu’un filigrane numérique ou une mention dans les métadonnées) signalant son origine artificielle. Ces marquages sont conçus dans un format lisible par machine, de sorte qu’ils puissent être détectés automatiquement, et ils visent à alerter clairement les utilisateurs humains que le contenu a été généré par une intelligence artificielle. Par exemple, une image créée par notre IA comportera un tag invisible informant qu’il s’agit d’une image synthétique. Polaria Tech respecte ainsi l’obligation de transparence sur les contenus synthétiques prévue à l’article 50(2) de l’AI Act.
-Fiabilité, robustesse et interopérabilité : Polaria Tech met un point d’honneur à garantir la fiabilité et la robustesse de ses systèmes d’IA, ainsi que l’interopérabilité des solutions techniques de transparence qu’elle déploie. Les mécanismes de marquage et d’information mentionnés ci-dessus sont développés selon l’état de l’art, afin d’être efficaces dans divers environnements techniques. Nous veillons à ce que ces solutions restent efficaces, interopérables, robustes et fiables, dans la mesure techniquement possible, quels que soient le type de contenu généré et les contraintes de mise en œuvre. Cet effort continu vise à ce que nos obligations de transparence soient remplies de manière optimale sans nuire à l’expérience utilisateur, et que nos systèmes inspirent confiance par leur qualité et leur conformité.
Polaria Tech a mis en place des procédures internes pour assurer le respect quotidien de cette politique de conformité. L’équipe en charge de la gouvernance de l’IA réalise une veille réglementaire active afin d’anticiper les évolutions de l’AI Act et des normes associées. En cas de mise à jour du cadre légal ou de clarification des exigences (par exemple via des lignes directrices de la Commission européenne), Polaria Tech adaptera sans délai ses pratiques et mettra à jour la présente politique en conséquence.
Des formations internes sont dispensées aux développeurs, chefs de projet et autres collaborateurs concernés pour les sensibiliser aux obligations spécifiques (notamment les obligations de transparence et l’interdiction de certaines pratiques). Par ailleurs, chaque nouveau projet d’IA fait l’objet d’une évaluation de conformité en phase de conception afin d’identifier son niveau de risque et d’appliquer les mesures appropriées dès le départ.
Enfin, Polaria Tech maintient une transparence vis-à-vis de ses clients et utilisateurs sur ses démarches de mise en conformité. Sur demande, l’entreprise peut fournir des informations complémentaires sur la manière dont un système d’IA particulier respecte les exigences de l’AI Act (par exemple, description des mécanismes de transparence intégrés, documentation technique synthétique, etc.). Cette approche ouverte reflète notre engagement à conjuguer innovation en intelligence artificielle et respect du cadre réglementaire et éthique en vigueur.
Polaria Tech reste à votre disposition pour toute question relative à cette politique de conformité à l’AI Act. L’entreprise réaffirme que la conformité réglementaire et la confiance des utilisateurs sont au cœur de sa mission dans le développement de solutions d’intelligence artificielle responsables.