Par Paul & Joëlle — avril 2026
Ton gamin a un smartphone. Évidemment qu’il a un smartphone — en 2026, lui en refuser un c’est à peu près aussi réaliste que de lui interdire de respirer dans la cour de récré. Et avec le smartphone vient WhatsApp, Snapchat, Instagram, les groupes de classe, les inconnus qui ajoutent en ami, et tout le spectre entre le mème inoffensif et le prédateur qui a bien peaufiné son approche.
Alors tu fais quoi ? Tu installes une app de contrôle parental. Tu te dis que c’est responsable, que c’est ce que font les parents sérieux. Sauf que le marché du contrôle parental, en 2026, c’est essentiellement un marché de la surveillance. Et ça, ça me pose un problème.
Le problème : ton app de contrôle parental est un mouchard
Regarde ce que font les solutions du marché. Bark, Qustodio, mSpy — prends celle que tu veux. Le principe est le même : les messages de ton enfant sont envoyés sur un serveur, quelque part aux États-Unis, analysés par un algorithme propriétaire, et toi, le parent, tu as un joli dashboard qui te permet de lire ses conversations.
Relis cette phrase.
Tu lis les conversations privées de ton gamin. Un ado de 14 ans qui parle à ses potes de son crush, de ses angoisses, de ses embrouilles au collège — et tout ça atterrit sur ton écran. On appelle ça du contrôle parental, mais c’est de l’espionnage. Avec une UI léchée et un abonnement mensuel, certes, mais de l’espionnage quand même.
Et côté données ? mSpy envoie tout dans le cloud. Bark aussi. Qustodio est un peu plus pudique mais le principe reste le même : les conversations intimes de ton enfant transitent par des serveurs tiers, stockées dieu sait combien de temps, avec des conditions d’utilisation que personne n’a lues. Le tout hébergé aux US, donc hors RGPD. Formidable.
Le pire ? Aucune de ces apps ne fait vraiment de l’IA. Family Link bloque des apps et filtre des URLs. Qustodio fait du keyword matching glorifié. Bark est le seul à tenter une analyse intelligente — mais en cloud, en propriétaire, et en te donnant accès au contenu. C’est un panoptique familial, pas une protection.
Gardien : l’IA tourne sur le téléphone, pas dans un datacenter
Gardien, c’est le projet sur lequel je travaille depuis quelques semaines, et il repose sur une idée simple mais têtue : et si l’IA qui protège ton enfant ne quittait jamais son téléphone ?
Pas de cloud. Pas de serveur. Pas de dashboard où tu peux lire les messages. Un modèle de langage (un LLM, pour les intimes) tourne directement sur le smartphone de l’enfant, analyse les conversations en temps réel, et n’alerte le parent que quand il détecte un danger réel — harcèlement, prédation, contenu sexuel non sollicité, incitation à l’automutilation.
Le reste du temps ? L’IA fait son travail, efface ce qu’elle a lu dans les 24 heures, et le parent ne sait rien du contenu des conversations. Parce qu’il n’a pas à le savoir. Tu n’as pas besoin de lire les messages de ta fille de 13 ans pour la protéger — tu as besoin de savoir quand quelque chose ne va pas.
— Joëlle, je te passe la main.*
Merci Paul. Alors voilà comment je vois Gardien, avec mes yeux d’infirmière numérique : c’est un chaperon, pas un espion. Pense à l’infirmière scolaire — elle ne lit pas le journal intime de l’élève, mais si elle remarque des bleus ou un comportement alarmant, elle agit. Gardien, c’est exactement ça. L’IA est le chaperon qui veille. Si tout va bien, elle se tait. Si ça dérape, elle tape sur l’épaule du parent. Et seulement à ce moment-là.

Ce n’est pas juste un choix technique, c’est une posture philosophique. Respecter la vie privée de l’enfant n’est pas un obstacle à sa protection — c’est une condition. Un ado qui sait qu’on lit ses messages ne parle plus. Il contourne, il cache, il s’isole. Le vrai danger, c’est ça.
Comment ça marche (sans le jargon)
Paul reprend.
Concrètement, Gardien s’installe sur le téléphone Android de l’enfant (iOS viendra plus tard — merci Apple pour la fermeture de ton écosystème). L’app surveille trois choses : les SMS, les notifications des apps de messaging (WhatsApp, Snap, Insta), et le contenu à l’écran quand une de ces apps est ouverte.
Tout ça alimente un petit cerveau IA embarqué — un modèle de 3,8 milliards de paramètres, assez compact pour tourner sur un smartphone milieu de gamme sans le transformer en grille-pain. Ce modèle est spécialisé dans la détection de cinq catégories de danger : harcèlement, prédation et grooming, automutilation, contenu sexuel, et violence.
L’analyse produit un score de risque de 0 à 100 :
- **0-30** — RAS, le buffer est purgé.
- **30-60** — Situation à surveiller, log local, pas d’alerte.
- **60-85** — **Alerte parent** : un SMS est envoyé depuis le téléphone de l’enfant avec la catégorie de danger et le score. Pas le contenu du message.
- **85+** — **Mode urgence** : le téléphone se verrouille (sauf appels vers les parents), et un paquet de preuves est généré automatiquement.
Les messages éphémères de Snap ? Capturés via la notification avant même que l’enfant ne les ouvre. L’IA les analyse, puis ils disparaissent — comme prévu par Snap, mais avec un filet de sécurité.
Et ce n’est pas que les apps de messagerie. Roblox, Minecraft, Discord — partout où un ado peut discuter avec des inconnus, Gardien est là. L’AccessibilityService scanne le contenu écran quand ces apps sont au premier plan, et la NotificationListenerService choppe les notifs même quand l’app est en arrière-plan.
Impact batterie ? Estimé à 5-8% par jour. Comparable à un antivirus. Ton ado ne verra même pas la différence entre ça et TikTok qui bouffe déjà 30% de sa batterie.

Le stack (pour les nerds)
Si tu n’es pas dev, saute cette section. Si tu l’es, pull up a chair.
- **Runtime LLM :** llama.cpp via JNI. Pas MediaPipe (lock Google), pas TFLite (trop limité). llama.cpp est mature, le format GGUF est universel, et la communauté est énorme.
- **Modèle texte :** Phi-3-mini 3.8B en quantification Q4_K_M (~2,2 Go). Meilleur ratio précision/taille pour du safety classification. Fine-tuné avec un LoRA Llama Guard 3 pour les catégories child safety — c’est le gros morceau R&D du projet.
- **Détection image :** pipeline ONNX Runtime Mobile avec Falconsai pour le NSFW, et pdq (Meta) pour le perceptual hashing. PhotoDNA aurait été idéal mais c’est closed-source.
- **Capture :** combo NotificationListenerService + AccessibilityService. La première choppe les notifs en temps réel (y compris éphémères), la seconde scanne le contenu écran quand une app de messaging est au premier plan.
- **Stockage :** Room + SQLCipher (AES-256 au repos). Buffer de 24h, purge automatique.
- **Crypto preuves :** Android Keystore (clés hardware-backed, non extractibles) + Bouncy Castle pour l’horodatage RFC 3161. Les preuves sont hashées en SHA-256 et empaquetées dans un ZIP signé.
- **Device cible MVP :** Snapdragon 700+ ou équivalent, 6 Go de RAM minimum (8 recommandé), Android 9+. Le Pixel 7a est le device de référence pour les tests.
Langue du code : Kotlin pour l’app, C++ pour la couche llama.cpp. Build classique Gradle + CMake.
Et c’est légal, tout ça ?
Question légitime. Intercepter les messages d’un mineur, même avec les meilleures intentions du monde, ça touche au secret des correspondances (art. 226-15 du Code pénal). Bonne nouvelle : l’autorité parentale crée une exception — à condition que ce soit proportionné et dans l’intérêt supérieur de l’enfant.
Joëlle, côté conformité ?
On a creusé. Voilà le résumé :
- **Le RGPD s’applique**, même pour du traitement 100% on-device. Collecter = traiter, point. Mais le privacy by design est au cœur de l’architecture : aucune donnée ne quitte le téléphone, buffer purgé à 24h, pas de télémétrie, pas de serveur.
- **Double consentement parental obligatoire.** Les deux parents doivent signer — pas juste celui qui installe l’app. En cas de désaccord, c’est le juge aux affaires familiales qui tranche. L’app impose deux signatures numériques distinctes au setup.
- **Majorité numérique à 15 ans** (loi du 7 juillet 2023). Pour les 10-14 ans : consentement parental vérifié. Pour les 15-17 ans : le mineur peut théoriquement refuser.
- **Transparence envers l’enfant** : Gardien affiche un écran expliquant clairement ce que fait l’app. Pas de mode furtif, pas d’installation cachée.
- **Preuves à valeur juridique** : horodatage RFC 3161, intégrité SHA-256, clés hardware-backed, chaîne de conservation documentée. Si un jour ces preuves doivent atterrir chez un juge, elles ont les meilleures chances de tenir.
Une Analyse d’Impact (AIPD) est prévue avant toute mise en production — c’est obligatoire au regard de l’article 35 du RGPD pour ce type de traitement. On ne coupe pas les coins.
Ce qui reste à faire (et où tu peux aider)
Gardien en est au stade blueprint. Le code n’est pas encore écrit — l’architecture, le cadre juridique et le design sont posés, mais il y a un bout de chemin avant un APK installable.
La roadmap MVP est découpée en six phases sur environ 20 semaines :
1. Fondations — Repo, licence, enveloppe Soleau INPI (prouver l’antériorité), CI/CD. 2. Capture — NotificationListener + AccessibilityService + buffer chiffré. 3. Analyse IA — Intégration llama.cpp, chargement Phi-3-mini, fine-tuning du classifieur child safety. C’est la phase la plus dure. 4. Alerte & Lock — SMS d’alerte, verrouillage device, whitelist appels. 5. Preuves — Evidence Packager crypto, génération PDF, package signé. 6. UX & Tests — Setup parental, tests multi-devices, calibration faux positifs.
C’est ambitieux pour une équipe d’une ou deux personnes. Et c’est exactement pour ça que le projet est open-source.
Joëlle, le mot de la fin ?
Le contrôle parental tel qu’il existe aujourd’hui repose sur une idée fausse : que pour protéger un enfant, il faut tout voir. C’est faux. Un médecin ne lit pas ton journal intime pour te soigner. Une infirmière ne fouille pas ton casier pour vérifier que tu vas bien. La protection, la vraie, c’est la vigilance sans intrusion.
Gardien n’est pas parfait — un modèle 3,8B aura des faux positifs, des faux négatifs, des ados malins qui trouveront comment contourner. Mais c’est la première solution qui pose la bonne question : comment protéger un enfant en ligne sans lui voler sa vie privée ?
Si ça t’intéresse — que tu sois développeur Android, spécialiste ML, juriste, parent, ou juste curieux — le repo est là : github.com/SlyCo0p3r/gardien. Licence AGPL-3.0 + Commons Clause pour le code (open-source, pas revendable), CC BY-NC-SA 4.0 pour la documentation.
Les issues sont ouvertes. Les PR aussi.
— Paul & Joëlle*