Our AI Testimonial
Une IA sécurisée, éthique et responsable — Notre engagement pour la confiance et la durabilité
Introduction
La sécurité et l’innovation sont inscrites dans l’ADN de Mindlapse. En tant qu’experts en cybersécurité, nous avons passé des années à résoudre des problématiques opérationnelles et stratégiques rencontrées par les professionnels de la sécurité, tous secteurs confondus.
Nous n’avons pu que constater que, malgré des environnements et des contextes variés, les acteurs de la GRC (gouvernance, gestion des risques et conformité) nous faisaient part des mêmes problématiques récurrentes, pour lesquelles il n’existait pas de solutions technologiques adaptées.
Déterminés à résoudre ces enjeux communs et à grande échelle dans le domaine de la GRC, nous avons consacré plusieurs mois à concevoir une plateforme innovante, pensée à l’ère de l’IA : Mindlapse.
Si l’intelligence artificielle ouvre des perspectives inédites pour la communauté cybersécurité, nous restons pleinement conscients des risques qu’elle implique. C’est pourquoi nous nous engageons à déployer des systèmes d’IA responsables et dignes de confiance, en phase avec nos valeurs.
Dans cette optique, nous avons formalisé nos engagements concrets dans une Charte, accessible sur cette page en toute transparence, et intégrée aux contrats de nos collaborateurs et partenaires.
Qu’est-ce que l’IA de confiance ?
Nous sommes convaincus que le développement et le déploiement de l’IA doivent refléter des principes éthiques tels que l’équité et une utilisation proportionnée, tout en intégrant les garde-fous nécessaires pour garantir sa robustesse et sa fiabilité.
C’est pourquoi nous avons conçu Mindlapse en adoptant une approche « security and privacy by design ». Nous nous efforçons d’intégrer dans nos systèmes les principes de transparence, d’explicabilité et de frugalité, tout en assurant leur conformité aux réglementations en vigueur en matière de protection des données, de gestion des risques et de respect des droits fondamentaux.
Notre approche globale et ouverte nous a conduits à formaliser les sept engagements suivants :
- 1. Implement state of the art / universally recognized AI ethics and safety frameworks
Chez Mindlapse, nous veillons à ce que notre activité soit construite et opérée en cohérence avec nos valeurs. Nous avons approfondi notre compréhension et notre analyse des enjeux liés à la création de systèmes d’IA éthiques.
Inspirés par les travaux d’organisations et de chercheurs reconnus tels que l’OCDE, l’UNESCO, le NIST, mais aussi d’acteurs comme Hugging Face, nous poursuivons nos efforts pour faire évoluer nos pratiques dans une démarche éthique continue.
Nous portons une attention particulière aux modèles ouverts que nous utilisons, à l’optimisation des ressources et de l’énergie tout au long du cycle de vie de nos systèmes d’IA, ainsi qu’aux biais potentiels qu’ils peuvent véhiculer. Nous adhérons également au serment d’Hippocrate du data scientist publié par l’association Data for Good.
- 2. Take the necessary measures to ensure compliance with the EU AI Act and EU regulations
As a French and European startup, Mindlapse complies with all the regulations it is subjected to. After spending years assisting our clients and helping them meet regulators’ expectations by complying with GDPR, NIS and DORA or implementing international standards like the ISO 2700X, we are experts at standards implementation and are able to guarantee a high security level over time.
Our product is built with a compliance by design approach to guarantee upstream/downstream compliance for our end-users.
- 3. Ensure our systems are safe and regularly tested with state-of-the-art evaluation methods
Security is not only a pillar of our business but also of our startup culture. We are committed to ensuring our models are robust and safe by state of the art standards.
Mindlapse’s AI models are fine-tuned with thoroughly “cleaned” data, and trained in-house on secure platforms. We monitor model safety by conducting specific risk analyses and keeping watch on existing research and leaderboards provided by specialized third parties.
We continuously assess the robustness of our models throughout the development phase as well as into the deployment phase with regular risk assessments and reviews.
- 4. Minimize and monitor our energy consumption
At Mindlapse, we are concerned about the environmental impact of our AI systems and their use. For this reason, we have committed to monitoring the energy consumption of Mindlapse throughout the lifecycle of the underlying AI system, and we aim to reduce this impact to the best of our abilities.
To prevent unsustainable exploitation of our AI systems, we have also decided to run our operations exclusively on trusted and vetted hardware. We have also implemented sustainability as a criteria along with associated KPIs we measure when carrying out risk analysis and impact assessments.
- 5. Guarantee transparency throughout the development and deployment of our solution
Transparency is a pillar of an ethical approach to building AI. It fosters trust between developers and their downstream users, as well as with clients and regulatory authorities.
We commit to upholding this principle in our practices by documenting the processes we carried out to build our technology as well as the way we govern it. We also commit to making this information available to our clients and to the regulator when necessary and to disclose when and how decisions are automated or outputs are AI-generated.
- 6. Enforce privacy and data protection of users
We commit to uphold the privacy principle in the training of our model by using curated sets excluding unauthorized or personal data to the use of which subjects did not consent. We have also implemented landmark guidelines issued by the ANSSI (French national cybersecurity agency) and the CNIL, (French data protection authority).
Mindlapse contains essential data protection measures by design, and enables an integration with information systems that safeguards privacy and confidentiality in deployment.
- 7. Monitor and improve the adoption of our AI systems throughout their lifecycle
Operating a ubiquitous and cutting-edge technology like AI requires robust, transparent, and standardized risk governance. At Mindlapse, we have implemented an end-to-end risk management framework that aligns with leading international standards such as the NIST AI Risk Management Framework and ISO/IEC 42001.
This approach includes mechanisms for continuous monitoring, incident reporting, evaluation and regular user feedback. We are committed to continuously improving and adapting our systems to remain aligned with the evolving state of the art in AI safety, risk governance, and regulatory compliance.
