Nous vivons un basculement discret mais profond : les enfants ne se contentent plus de regarder ou manipuler des écrans. Ils dialoguent désormais avec eux. Assistants vocaux, jouets connectés, applications éducatives, agents conversationnels intégrés aux plateformes : ces technologies deviennent des interlocuteurs à part entière dans leur quotidien. C’est un changement de nature, pas seulement de degré.
Un nouveau milieu relationnel
L’enfance s’est toujours développée au sein de voix humaines – celles qui apaisent, qui structurent, qui transmettent. Les compétences émotionnelles, le langage, l’autorégulation et la compréhension des intentions d’autrui se construisent dans une interaction humaine réelle, marquée par l’imprévisibilité, la nuance et l’empathie incarnée (Thompson, 1994). Le développement de la régulation émotionnelle, en particulier, dépend d’interactions positives et efficaces entre les enfants et leurs accompagnants (Sroufe, 1996), où les adultes jouent un rôle de co-régulateurs en modelant et en soutenant la capacité de l’enfant à gérer ses émotions (Costa, 2020).
L’arrivée de voix artificielles modifie ce paysage. Nous ne parlons plus d’un « temps d’écran » mais d’un tiers relationnel technologique, disponible 24h/24, infiniment patient, calibré pour répondre de manière fluide et gratifiante. Des recherches récentes montrent que les enfants peuvent percevoir l’IA non seulement comme un outil, mais aussi comme un partenaire social (Xu, 2024). L’enfant peut y trouver aide, jeu, réassurance… mais aussi un substitut relationnel séduisant.
Des risques réels, encore mal compris
Les risques ne sont pas seulement quantitatifs (durée d’écran, sommeil, fatigue visuelle). Ils deviennent qualitatifs :
- Apprentissage d’un rapport conversationnel basé sur la prédictibilité et la complaisance : Contrairement aux interactions humaines, les agents conversationnels offrent des réponses prévisibles et toujours gratifiantes, ce qui peut limiter le développement de la résilience émotionnelle chez l’enfant.
- Confusion entre réciprocité émotionnelle et imitation algorithmique : Les enfants peuvent développer une confiance excessive envers l’IA, comme s’il s’agissait d’une source humaine digne de confiance, les rendant vulnérables à la manipulation par la publicité ou la persuasion (Xu, 2024).
- Risque de s’appuyer sur la machine pour réguler les affects plutôt que sur l’humain : Alors que la régulation émotionnelle se construit principalement dans les interactions sociales humaines (Saarni, 1999), une dépendance excessive à l’égard de l’IA pourrait compromettre ce développement crucial.
- Intégration de routines interactionnelles sans esprit critique : Les enfants peuvent accepter les interactions avec l’IA sans développer une compréhension critique de la nature de ces systèmes.
Ces dangers ne touchent pas tous les enfants de la même manière. Les plus jeunes, ou ceux en situation de vulnérabilité émotionnelle, sont les plus exposés. Les recherches soulignent que les capacités cognitives et linguistiques des enfants évoluent considérablement tout au long de leur développement, nécessitant des ajustements appropriés à l’âge en termes de complexité conversationnelle et de contenu (Bailey et al., 2021). Il est essentiel de distinguer les usages : un agent conversationnel éducatif conçu selon des principes d’apprentissage dialogique peut avoir des effets positifs sur la compréhension narrative (Xu et al., 2022), alors qu’un compagnon numérique pseudo-affectif soulève des préoccupations éthiques différentes.
Une question éthique : qui contrôle la voix qui parle aux enfants ?
Derrière ces interactions se trouvent des choix de conception, des modèles économiques et des stratégies d’engagement. La relation enfant-machine est souvent privatisée, dépendante d’entreprises dont l’objectif premier n’est pas le développement psychique de l’enfant, mais la captation de son attention ou la collecte de données comportementales.
Les préoccupations en matière de vie privée sont particulièrement critiques. La collecte et l’enregistrement continus des conversations des enfants soulèvent des questions éthiques majeures concernant les mineurs (Bailey et al., 2021). Les parents et les enfants doivent savoir exactement quelles informations ils acceptent de fournir et dans quel but (Montgomery et al., 2017). Malheureusement, les entreprises violent souvent ces règles par diverses failles juridiques (Reyes et al., 2018). Une étude récente révèle que six grandes entreprises américaines réinjectent les données des utilisateurs dans leurs modèles pour améliorer leurs capacités, avec des pratiques variables concernant les données des enfants (King, 2024).
La question n’est donc pas seulement psychologique mais sociétale :
Qui conçoit ces voix ?
Sur quel modèle éducatif, économique, culturel ?
Avec quelles garanties de sécurité affective et cognitive ?
Les chercheurs ont identifié la « protection de la vie privée et la gouvernance des données » ainsi que « l’autonomie humaine et la supervision » comme les deux exigences critiques qui devraient être prioritaires lors du développement d’agents conversationnels pour les enfants (Barros et al., 2023).
Accompagner plutôt qu’interdire
Il ne s’agit pas de refuser la technologie. L’IA peut enrichir l’apprentissage, soutenir certains enfants et élargir l’accès à l’information. Des études montrent que des agents conversationnels correctement conçus peuvent reproduire les avantages de la lecture dialogique avec un partenaire humain en améliorant la compréhension narrative des enfants (Xu et al., 2022). L’IA peut également créer des environnements enrichis qui favorisent des interactions sociales significatives pour les enfants, en se concentrant sur l’amélioration plutôt que sur le remplacement des connexions humaines (Lin et al., 2020).
Mais elle nécessite un cadre clair, fondé sur les connaissances en développement, en psychologie de l’apprentissage et en sciences cognitives.
Trois axes sont indispensables :
1. Éducation au numérique conversationnel
Former les enfants – et les adultes – à comprendre ce qu’est une IA, ses limites, ses intentions apparentes, ses biais. La recherche montre que les programmes permettant aux enfants de créer leurs propres agents conversationnels avec leurs parents augmentent leur confiance dans la décision de quand faire confiance à ces systèmes (Williams et al., 2019). Le développement de la littératie en IA chez les enfants est essentiel pour leur permettre de naviguer de manière critique dans ces technologies émergentes.
2. Médiation parentale et scolaire
Parler avec l’enfant de ce qu’il vit avec la machine, comme on le fait d’un camarade ou d’un livre. Les enseignants peuvent également jouer un rôle important dans le soutien de la régulation émotionnelle des enfants, étant donné qu’ils développent des relations significatives avec eux dans le contexte de l’attachement (Ahnert et al., 2006). Il est crucial d’impliquer les parties prenantes – enfants, tuteurs et enseignants – tout au long du processus de conception d’un agent conversationnel (Barros et al., 2023).
3. Régulation éthique et conception responsable
Intégrer des contraintes de sécurité émotionnelle, de transparence et de non-manipulation dès le design. Les systèmes d’IA pour enfants doivent adopter des approches de « confidentialité dès la conception » (Privacy by Design) qui intègrent la protection de la vie privée dès le début du développement (King, 2024). La conception doit être adaptée au développement et tenir compte des besoins uniques des jeunes apprenants (Afzaal et al., 2024). L’établissement de réglementations fédérales complètes en matière de protection de la vie privée est essentiel pour protéger les données des utilisateurs dans les interactions avec l’IA.
Garder des interactions avec des voix humaines
La priorité n’est pas de limiter l’innovation, mais de préserver ce qui structure profondément l’enfant : la relation humaine. Bien que les enfants soient assez bavards avec les agents d’IA, ils sont encore plus bavards avec les partenaires humains. De plus, lorsqu’ils parlent avec un humain, les enfants sont plus susceptibles de diriger le dialogue, d’ajouter leurs propres pensées ou de poser question après question lorsque quelque chose les intrigue (Xu, 2024). Ces aspects « dirigés par l’enfant » des conversations sont l’ingrédient actif qui alimente le développement cognitif et social des enfants, et l’IA reste insuffisante pour encourager ce type d’engagement.
Les IA peuvent accompagner, expliquer, aider. Elles ne peuvent pas remplacer les surprises, la chaleur, la complexité d’un échange vécu. Le développement émotionnel et social des enfants commence par la co-régulation avec les adultes (Costa, 2020), un processus qui nécessite la présence humaine authentique, avec toutes ses imperfections et sa spontanéité.
Si la machine devient la voix la plus souvent entendue par un enfant, la société doit s’interroger. Notre rôle collectif est de veiller à ce que la technologie enrichisse la vie relationnelle des plus jeunes, sans la coloniser. Comme le soulignent les chercheurs, nous sommes à un moment critique du développement de l’IA, où sa trajectoire future est encore en cours de formation (Xu, 2024). Il nous appartient de façonner cette trajectoire de manière responsable, en plaçant le bien-être et le développement sain des enfants au centre de nos préoccupations.
Références
Afzaal, M., Nouri, J., Zia, A., Papapetrou, P., Fors, U., Wu, Y., Li, X., & Weegar, R. (2024). Explainable AI for data-driven feedback and intelligent action recommendations to support students’ self-regulation. Frontiers in Artificial Intelligence, 7, Article 1330779. https://doi.org/10.3389/frai.2024.1330779
Ahnert, L., Pinquart, M., & Lamb, M. E. (2006). Security of children’s relationships with nonparental care providers: A meta-analysis. Child Development, 77(3), 664-679. https://doi.org/10.1111/j.1467-8624.2006.00896.x
Bailey, J. O., Patel, B., & Gurari, D. (2021). A perspective on building ethical datasets for children’s conversational agents. Frontiers in Artificial Intelligence, 4, Article 637532. https://doi.org/10.3389/frai.2021.637532
Barros, A., Cano-Benito, J., Botelho, F., & Cepeda, C. (2023). Towards children-centred trustworthy conversational agents. In A. R. Chadegani (Ed.), Artificial intelligence (Chapter 4). IntechOpen. https://doi.org/10.5772/intechopen.112364
Costa, G. (2020). Children’s social and emotional development starts with co-regulation. National Institute for Children’s Health Quality. https://nichq.org/blog/childrens-social-and-emotional-development-starts-co-regulation/
King, J. (2024). Study exposes privacy risks of AI chatbot conversations. Stanford Report. https://news.stanford.edu/stories/2025/10/ai-chatbot-privacy-concerns-risks-research
Lin, P., VanAlet, D., & Roque, R. (2020). Exploring children’s social interactions with AI in collaboration with parents. In Proceedings of the 19th ACM International Conference on Interaction Design and Children (pp. 281-292). https://doi.org/10.1145/3392063.3394415
Montgomery, K. C., Chester, J., & Milosevic, T. (2017). Children’s privacy in the big data era: Research opportunities. Pediatrics, 140(Suppl. 2), S117-S121. https://doi.org/10.1542/peds.2016-1758O
Reyes, I., Wijesekera, P., Reardon, J., Elazari, A., Abbott, A., Razaghpanah, A., Vallina-Rodriguez, N., & Egelman, S. (2018). « Won’t somebody think of the children? » Examining COPPA compliance at scale. Proceedings on Privacy Enhancing Technologies, 2018(3), 63-83. https://doi.org/10.1515/popets-2018-0021
Saarni, C. (1999). The development of emotional competence. Guilford Press.
Sroufe, L. A. (1996). Emotional development: The organization of emotional life in the early years. Cambridge University Press.
Thompson, R. A. (1994). Emotion regulation: A theme in search of definition. Monographs of the Society for Research in Child Development, 59(2-3), 25-52. https://doi.org/10.2307/1166137
Williams, R., Park, H. W., & Breazeal, C. (2019). A is for artificial intelligence: The impact of artificial intelligence activities on young children’s perceptions of robots. In Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems (Paper No. 447). https://doi.org/10.1145/3290605.3300677
Xu, Y. (2024). AI’s impact on children’s social and cognitive development. Children and Screens. https://www.childrenandscreens.org/learn-explore/research/ais-impact-on-childrens-social-and-cognitive-development-ying-xu-phd/
Xu, Y., Warschauer, M., & Vigil, V. (2022). Dialogue with a conversational agent promotes children’s story comprehension via enhancing engagement. Child Development, 93(3), 643-661. https://doi.org/10.1111/cdev.13708
