Dans les couloirs silencieux des agences de protection de l’enfance à travers le Canada, une révolution se déroule discrètement. Les systèmes d’intelligence artificielle, autrefois relevant de la science-fiction, sont maintenant déployés pour identifier les cas potentiels de maltraitance et de négligence envers les enfants qui pourraient échapper à la vigilance humaine. Pourtant, cette intervention technologique dans l’un des domaines les plus sensibles de notre société soulève de profondes questions sur qui bénéficie réellement — et qui pourrait être lésé — lorsque des algorithmes prennent des décisions concernant le bien-être humain.
L’attrait de l’IA dans la détection des abus est indéniable. Ces systèmes peuvent traiter d’énormes quantités de données provenant de diverses sources — dossiers scolaires, visites médicales, historiques familiaux — permettant potentiellement de repérer des modèles invisibles pour des travailleurs sociaux surchargés. Dans le service de protection de l’enfance de Toronto, où le personnel gère régulièrement des charges de travail dépassant les limites recommandées, la promesse d’une assistance technologique a été bien accueillie par de nombreux administrateurs.
« Les systèmes ne se fatiguent jamais, ne négligent jamais un détail par épuisement, et peuvent analyser des connexions entre des cas qui prendraient des semaines aux humains pour découvrir », explique Dr Miranda Chen, chercheuse en éthique technologique à l’Université de la Colombie-Britannique. « Mais la question cruciale n’est pas de savoir si ces systèmes peuvent fonctionner, mais plutôt s’ils devraient être ceux qui prennent ces décisions. »
Les préoccupations ne sont pas simplement théoriques. Dans les juridictions où des algorithmes prédictifs ont été mis en œuvre, des tendances troublantes ont émergé. Les données de l’outil de dépistage familial d’Allegheny en Pennsylvanie ont révélé que le système signalait les familles noires et autochtones à des taux nettement plus élevés que les familles blanches dans des circonstances similaires. Ce biais algorithmique n’est pas apparu spontanément — il a été appris à partir de données historiques reflétant des décennies de discrimination systémique dans les systèmes de protection de l’enfance.
« Ces systèmes ne créent pas de biais ; ils les héritent », note Jasmine Williams, défenseure à l’Association canadienne des libertés civiles. « Quand nous entraînons l’IA sur des données historiques provenant de systèmes aux disparités raciales documentées, nous automatisons et légitimisons essentiellement ces mêmes modèles de discrimination. »
Les enjeux de cet équilibre technologique ne pourraient être plus élevés. Les faux négatifs — manquer un abus réel — peuvent laisser des enfants dans des situations dangereuses. Les faux positifs — signaler des familles innocentes — peuvent déclencher des enquêtes traumatisantes et des séparations familiales qui laissent des dommages psychologiques durables. Aucune erreur n’est acceptable, pourtant les deux sont inévitables dans tout système, humain ou machine.
Ce qui rend l’approche de l’IA particulièrement préoccupante pour les défenseurs de la vie privée, c’est son appétit pour les données. Pour fonctionner efficacement, ces systèmes nécessitent un accès sans précédent à des informations sensibles provenant des soins de santé, de l’éducation, du logement et des services sociaux. Cela soulève de sérieuses questions sur le consentement et la confidentialité à une époque où les réglementations sur la protection des données peinent à suivre l’avancement technologique.
« Nous créons des systèmes de surveillance pour nos populations les plus vulnérables sans leur connaissance ni leur consentement », argumente Tariq Hassan, avocat en droits numériques chez Tech Justice Canada. « La plupart des familles n’ont aucune idée que leurs informations personnelles sont intégrées dans des moteurs de prédiction qui pourraient modifier dramatiquement leur vie. »
Les partisans rétorquent que la technologie est simplement un outil d’aide à la décision, non un remplacement du jugement humain. Dans le programme pilote de l’Alberta, les recommandations de l’IA doivent être examinées par des travailleurs sociaux expérimentés avant toute action. Cette approche avec l’humain dans la boucle combine, selon eux, l’efficacité technologique avec la surveillance humaine nécessaire.
La dimension économique ne peut être ignorée non plus. Avec des services de protection de l’enfance chroniquement sous-financés à travers le Canada, l’attrait des solutions technologiques promettant des gains d’efficacité est compréhensible. Les gouvernements provinciaux font face à une pression croissante pour répondre aux préoccupations de protection de l’enfance avec des ressources limitées, rendant les systèmes d’IA attrayants malgré leurs limitations.
L’aspect peut-être le plus troublant de ce virage technologique est la façon dont il pourrait changer notre approche de l’aide sociale. Plutôt que de s’attaquer aux causes profondes comme la pauvreté, le logement inadéquat et le manque de soutien en santé mentale, les systèmes prédictifs risquent de transformer la protection de l’enfance en un problème technique à résoudre algorithmiquement plutôt qu’un défi social nécessitant un investissement communautaire complet.
Alors que ces systèmes continuent d’être développés et déployés à travers le Canada, des questions cruciales demeurent : Qui conçoit ces algorithmes ? Qui supervise leur mise en œuvre ? Et surtout, qui assume la responsabilité quand ils échouent — comme ils le feront inévitablement ?
Dans la précipitation pour adopter des solutions technologiques à des problèmes sociaux complexes, nous devons nous demander si nous protégeons les vulnérables ou si nous trouvons simplement des moyens plus efficaces de perpétuer les préjudices existants. Alors que l’IA façonne de plus en plus les décisions concernant le bien-être humain, pouvons-nous garantir que la recherche d’efficacité ne se fait pas au détriment de la justice et de la compassion dans notre filet de sécurité sociale ?