Notre manifeste IA
Une IA sécurisée, éthique et responsable — Notre engagement pour la confiance et la durabilité
Introduction
La sécurité et l’innovation sont inscrites dans l’ADN de Mindlapse. En tant qu’experts en cybersécurité, nous avons passé des années à résoudre des problématiques opérationnelles et stratégiques rencontrées par les professionnels de la sécurité, tous secteurs confondus.
Nous n’avons pu que constater que, malgré des environnements et des contextes variés, les acteurs de la GRC (gouvernance, gestion des risques et conformité) nous faisaient part des mêmes problématiques récurrentes, pour lesquelles il n’existait pas de solutions technologiques adaptées.
Déterminés à résoudre ces enjeux communs et à grande échelle dans le domaine de la GRC, nous avons consacré plusieurs mois à concevoir une plateforme innovante, pensée à l’ère de l’IA : Mindlapse.
Si l’intelligence artificielle ouvre des perspectives inédites pour la communauté cybersécurité, nous restons pleinement conscients des risques qu’elle implique. C’est pourquoi nous nous engageons à déployer des systèmes d’IA responsables et dignes de confiance, en phase avec nos valeurs.
Dans cette optique, nous avons formalisé nos engagements concrets dans une Charte, accessible sur cette page en toute transparence, et intégrée aux contrats de nos collaborateurs et partenaires.
Qu’est-ce que l’IA de confiance ?
Nous sommes convaincus que le développement et le déploiement de l’IA doivent refléter des principes éthiques tels que l’équité et une utilisation proportionnée, tout en intégrant les garde-fous nécessaires pour garantir sa robustesse et sa fiabilité.
C’est pourquoi nous avons conçu Mindlapse en adoptant une approche « security and privacy by design ». Nous nous efforçons d’intégrer dans nos systèmes les principes de transparence, d’explicabilité et de frugalité, tout en assurant leur conformité aux réglementations en vigueur en matière de protection des données, de gestion des risques et de respect des droits fondamentaux.
Notre approche globale et ouverte nous a conduits à formaliser les sept engagements suivants :
- 1. Mettre en œuvre l’état de l’art en matière d’éthiques et de sécurité de l’IA sur la base de pratiques internationalement reconnues
Chez Mindlapse, nous veillons à ce que notre activité soit construite et opérée en cohérence avec nos valeurs. Nous avons approfondi notre compréhension et notre analyse des enjeux liés à la création de systèmes d’IA éthiques.
Inspirés par les travaux d’organisations et de chercheurs reconnus tels que l’OCDE, l’UNESCO, le NIST, mais aussi d’acteurs comme Hugging Face, nous poursuivons nos efforts pour faire évoluer nos pratiques dans une démarche éthique continue.
Nous portons une attention particulière aux modèles ouverts que nous utilisons, à l’optimisation des ressources et de l’énergie tout au long du cycle de vie de nos systèmes d’IA, ainsi qu’aux biais potentiels qu’ils peuvent véhiculer. Nous adhérons également au serment d’Hippocrate du data scientist publié par l’association Data for Good.
- 2. Prendre les mesures nécessaires pour garantir la conformité avec l’AI Act européen et les réglementations de l’Union européenne
En tant que startup française et européenne, Mindlapse se conforme à l’ensemble des réglementations auxquelles elle est soumise. Après plusieurs années passées à accompagner nos clients dans la mise en conformité avec les exigences des régulateurs — qu’il s’agisse du RGPD, de la directive NIS, du règlement DORA ou de la mise en œuvre de standards internationaux comme la norme ISO 2700X —, nous sommes devenus experts en matière d’application des standards et sommes en mesure de garantir un haut niveau de sécurité dans la durée.
Notre produit est conçu selon une approche de compliance by design, afin d’assurer une conformité en amont et en aval pour l’ensemble de nos utilisateurs finaux.
- 3. Assurer la sécurité de nos systèmes et les soumettre régulièrement à des tests rigoureux selon les méthodes d’évaluation les plus avancées
La sécurité n’est pas seulement un pilier de notre activité, c’est aussi une composante essentielle de notre culture d’entreprise. Nous nous engageons à garantir que nos modèles soient robustes et sécurisés, conformément aux standards les plus avancés.
Les modèles d’IA de Mindlapse sont construits à partir de données soigneusement nettoyées, et entraînés en interne sur des plateformes sécurisées. Nous assurons la sécurité des modèles en menant des analyses de risques spécifiques et en suivant de près les recherches et classements (leaderboards) publiés par des tiers spécialisés.
Nous évaluons en continu la robustesse de nos modèles, aussi bien durant la phase de développement que lors de leur déploiement, au travers d’analyses de risques régulières et de revues de sécurité.
- 4. Réduire et surveiller notre consommation énergétique
Chez Mindlapse, nous sommes attentifs à l’impact environnemental de nos systèmes d’IA et de leurs usages. C’est pourquoi nous nous engageons à suivre la consommation énergétique de Mindlapse tout au long du cycle de vie de notre système d’IA, et à réduire cet impact autant que possible.
Pour éviter une exploitation non durable de nos systèmes, nous avons également fait le choix de n’opérer que sur des infrastructures matérielles fiables et vérifiées. Par ailleurs, la durabilité est intégrée comme critère d’évaluation dans nos analyses de risques et nos études d’impact, avec des indicateurs clés de performance (KPI) associés.
- 5. Garantir la transparence tout au long du développement et du déploiement de notre solution
La transparence est un pilier fondamental d’une approche éthique de l’IA. Elle renforce la confiance entre les développeurs et leurs utilisateurs finaux, mais aussi avec les clients et les autorités de régulation.
Nous nous engageons à faire vivre ce principe dans nos pratiques, en documentant les processus mis en œuvre pour concevoir notre technologie ainsi que sa gouvernance. Nous nous engageons également à rendre ces informations accessibles à nos clients et aux régulateurs lorsque cela est nécessaire, et à indiquer clairement quand et comment des décisions sont automatisées ou des contenus générés par l’IA.
- 6. Garantir la protection de la vie privée et des données des utilisateurs
Nous nous engageons à respecter le principe de protection de la vie privée dès la phase d’entraînement de nos modèles, en utilisant des jeux de données sélectionnés avec soin, excluant toute donnée personnelle ou non autorisée, dont les personnes concernées n’auraient pas consenti à l’usage.
Nous appliquons également les recommandations de référence émises par l’ANSSI (Agence nationale de la sécurité des systèmes d’information) et la CNIL (Commission nationale de l’informatique et des libertés).
Mindlapse intègre des mesures essentielles de protection des données dès la conception et permet une intégration aux systèmes d’information qui préserve la confidentialité et la vie privée lors du déploiement.
- 7. Suivre et améliorer l’adoption de nos systèmes d’IA tout au long de leur cycle de vie
Exploiter une technologie omniprésente et de pointe comme l’IA exige une gouvernance des risques robuste, transparente et standardisée. Chez Mindlapse, nous avons mis en place un cadre de gestion des risques de bout en bout, aligné sur les standards internationaux de référence tels que le NIST AI Risk Management Framework et la norme ISO/IEC 42001.
Cette approche comprend des mécanismes de suivi continu, de signalement d’incidents, d’évaluation et de collecte régulière des retours utilisateurs. Nous nous engageons à améliorer et adapter en continu nos systèmes pour rester alignés avec les meilleures pratiques en matière de sécurité de l’IA, de gouvernance des risques et de conformité réglementaire.
