<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Chatbot IA &#8211; Dr Antoine POIGNANT • Psychothérapeute</title>
	<atom:link href="https://www.antoinepoignant.com/hypnose/category/chatbot-ia/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.antoinepoignant.com</link>
	<description>Dr Antoine POIGNANT • Psychothérapeute • Hypnose médicale - Boulogne Paris - Thérapies brèves</description>
	<lastBuildDate>Thu, 04 Dec 2025 12:53:00 +0000</lastBuildDate>
	<language>fr-FR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.antoinepoignant.com/wp-content/2019/08/cropped-123-80x80.jpg</url>
	<title>Chatbot IA &#8211; Dr Antoine POIGNANT • Psychothérapeute</title>
	<link>https://www.antoinepoignant.com</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Co-évolution Humain-IA : une nouvelle frontière anthropologique</title>
		<link>https://www.antoinepoignant.com/hypnose/co-evolution-humain-ia-une-nouvelle-frontiere-anthropologique/changement/</link>
		
		<dc:creator><![CDATA[Psychothérapeute TCC Hypnose]]></dc:creator>
		<pubDate>Thu, 04 Dec 2025 12:52:13 +0000</pubDate>
				<category><![CDATA[Changement]]></category>
		<category><![CDATA[Chatbot IA]]></category>
		<category><![CDATA[IA]]></category>
		<category><![CDATA[Neurocapitalisme]]></category>
		<category><![CDATA[Thérapie Brève]]></category>
		<guid isPermaLink="false">https://www.antoinepoignant.com/?p=11782</guid>

					<description><![CDATA[<p>Un tournant anthropologique radical Nous vivons un moment historique singulier où l’espèce humaine a acquis la capacité de réécrire son propre code génétique. Les technologies CRISPR, les thérapies géniques et les avancées en bio-ingénierie nous offrent désormais les moyens d’intervenir directement sur notre substrat biologique. Parallèlement, l’émergence de l’intelligence artificielle redéfinit les contours de notre [&#8230;]</p>
<p>L’article <a rel="nofollow" href="https://www.antoinepoignant.com/hypnose/co-evolution-humain-ia-une-nouvelle-frontiere-anthropologique/changement/">Co-évolution Humain-IA : une nouvelle frontière anthropologique</a> est apparu en premier sur <a rel="nofollow" href="https://www.antoinepoignant.com">Dr Antoine POIGNANT • Psychothérapeute</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h2>Un tournant anthropologique radical</h2>
<p>Nous vivons un moment historique singulier où l’espèce humaine a acquis la capacité de réécrire son propre code génétique. Les technologies CRISPR, les thérapies géniques et les avancées en bio-ingénierie nous offrent désormais les moyens d’intervenir directement sur notre substrat biologique. Parallèlement, l’émergence de l’intelligence artificielle redéfinit les contours de notre cognition et ouvre la perspective d’une hybridation profonde entre l’humain et la machine.</p>
<p>Ces deux phénomènes convergents inaugurent une forme inédite de co-évolution : non plus la lente adaptation darwinienne aux pressions environnementales, mais une transformation intentionnelle, rapide et potentiellement radicale de ce que nous sommes. Pour la première fois dans l’histoire de la vie sur Terre, une espèce devient l’architecte consciente de sa propre évolution, tout en développant des entités artificielles susceptibles d’évoluer à leurs côtés.</p>
<p>Cette perspective soulève une question anthropologique fondamentale : qu’est-ce qui définit l’humain lorsque les frontières entre le biologique et l’artificiel, entre le donné et le construit, deviennent poreuses ? Sommes-nous à l’aube d’une mutation anthropologique aussi profonde que l’émergence du langage ou celle de l’écriture ?</p>
<h2>La longue histoire de l’externalisation cognitive</h2>
<p>L’hybridation technique de l’humain n’est pas une nouveauté absolue. L’anthropologie nous enseigne que l’Homo sapiens s’est toujours défini par sa relation aux outils et aux techniques. Du biface acheuléen à l’ordinateur quantique, l’être humain n’a cessé d’externaliser et d’augmenter ses capacités à travers des prothèses matérielles et symboliques.</p>
<blockquote><p>L’écriture, il y a 5000 ans, constitua une première révolution cognitive majeure : l’externalisation de la mémoire. Platon, dans le Phèdre, faisait déjà exprimer par Socrate l’inquiétude que l’écriture affaiblisse la mémoire naturelle des hommes. L’imprimerie, au XVe siècle, démocratisa l’accès au savoir et transforma les structures même de la pensée. Internet, à la fin du XXe siècle, créa une mémoire collective distribuée et accessible instantanément.</p>
<p>L’intelligence artificielle s’inscrit dans cette lignée d’outils cognitifs, mais avec une différence qualitative majeure : pour la première fois, nous externalisons non seulement la mémoire ou le calcul, mais potentiellement le jugement, la décision, voire la créativité. L’outil ne se contente plus d’amplifier nos capacités ; il commence à les imiter, puis à les dépasser dans certains domaines, et peut-être demain à les transformer de l’intérieur.</p></blockquote>
<p>La question anthropologique centrale est donc : assistons-nous à une simple continuité dans l’histoire longue de la technique, ou à une rupture qualitative qui redéfinit la nature même de l’humain ?</p>
<h2>La co-évolution en marche : vers l’hybridation</h2>
<p>La co-évolution entre l’humain et l’IA emprunte des chemins multiples. Au niveau le plus visible, elle se manifeste par l’usage quotidien d’assistants intelligents, d’algorithmes de recommandation, de systèmes de traduction automatique. Chaque interaction façonne nos comportements, nos attentes, nos modes de pensée.</p>
<p>À un niveau plus profond, les interfaces cerveau-machine promettent une intégration directe entre le cortex et le silicium. Des dispositifs comme Neuralink travaillent à créer des canaux bidirectionnels permettant à l’esprit humain de communiquer directement avec des systèmes informatiques. Cette perspective ouvre un horizon où les frontières entre pensée biologique et traitement artificiel deviendraient indiscernables.</p>
<blockquote><p>Mais la co-évolution opère aussi de manière plus subtile, à travers ce que nous pourrions appeler la « colonisation algorithmique des imaginaires ». Les systèmes d’IA, en structurant notre accès à l’information, en filtrant nos contenus culturels, en suggérant nos choix, modèlent progressivement nos schémas cognitifs. Nous apprenons à penser d’une manière compatible avec les architectures informatiques, à formuler nos questions dans des formats que les machines peuvent traiter.</p></blockquote>
<p>Cette hybridation cognitive soulève des questions phénoménologiques fascinantes. Qu’est-ce que l’expérience subjective d’un « soi augmenté » ? Comment la conscience de soi se transforme-t-elle lorsque la mémoire est partiellement externalisée dans le cloud, lorsque la prise de décision est assistée par des algorithmes, lorsque la créativité devient collaborative avec des entités non-humaines ?</p>
<p>L’anthropologue doit ici se faire phénoménologue et enquêter sur ces nouvelles formes d’être-au-monde. Le corps augmenté n’est pas simplement un corps avec des gadgets ; c’est potentiellement un nouveau type de corporéité, une nouvelle manière d’habiter l’espace et le temps, de se rapporter à autrui et à soi-même.</p>
<h2>Une promesse d’amplification</h2>
<p>Les perspectives ouvertes par cette co-évolution sont vertigineuses. Sur le plan cognitif, l’IA pourrait nous permettre de transcender certaines limitations inhérentes à notre architecture neuronale. Notre mémoire de travail limitée, notre difficulté à traiter simultanément de multiples variables, nos biais cognitifs systématiques pourraient être compensés ou corrigés par des systèmes artificiels.</p>
<p>Dans le domaine scientifique, la collaboration humain-IA a déjà produit des résultats remarquables : découverte de nouvelles structures protéiques, optimisation de réactions chimiques, modélisation de systèmes complexes. L’IA permet d’explorer des espaces de possibilités bien plus vastes que ce que l’intuition humaine seule pourrait embrasser, tout en bénéficiant du guidage créatif et de la capacité de problématisation proprement humaine.</p>
<p>Sur le plan social, l’IA pourrait contribuer à démocratiser l’accès à l’expertise. Un diagnostic médical de qualité, une consultation juridique, un conseil pédagogique personnalisé pourraient devenir accessibles à tous, partout, à tout moment. Les barrières linguistiques s’effacent grâce à la traduction automatique. Les handicaps cognitifs peuvent être compensés par des assistants adaptatifs.</p>
<p>Dans le domaine créatif, l’hybridation ouvre des territoires inexplorés. Des formes artistiques émergent de la collaboration entre sensibilité humaine et capacités computationnelles : musiques génératives, littératures algorithmiques, arts visuels co-créés. Ces nouvelles esthétiques ne remplacent pas la création humaine ; elles en déplacent les frontières et en renouvellent les possibilités.</p>
<p>Enfin, face aux défis globaux de notre époque – changement climatique, crises sanitaires, raréfaction des ressources – l’intelligence collective hybride humain-IA pourrait offrir des capacités de modélisation, d’anticipation et de coordination sans précédent. La complexité des systèmes terrestres requiert des outils cognitifs à la hauteur de cette complexité.</p>
<h2>Des risques anthropologiques majeurs</h2>
<p>Pourtant, cette co-évolution charrie des risques anthropologiques considérables. Le premier d’entre eux concerne la stratification sociale. L’accès différencié aux technologies d’augmentation cognitive pourrait créer une nouvelle classe de « surhommes » technologiquement augmentés, disposant d’avantages compétitifs décisifs sur le marché du travail, dans les sphères de pouvoir, dans tous les domaines de l’activité sociale.</p>
<p>Cette fracture ne serait pas une simple inégalité économique traditionnelle, mais une différenciation anthropologique : une véritable spéciation sociale. Les « augmentés » et les « non-augmentés » pourraient progressivement diverger non seulement en termes de capacités, mais en termes d’expérience vécue, de rapport au monde, de structures psychiques. Imaginez une société où certains individus disposent d’une mémoire parfaite, d’un accès instantané à toutes les connaissances, d’une capacité de calcul surhumaine, tandis que d’autres demeurent limités par les contraintes biologiques naturelles.</p>
<blockquote><p>Cette perspective pose des questions de justice distributive aiguës. Qui aura accès à ces technologies ? Selon quels critères ? Faut-il considérer l’augmentation cognitive comme un droit fondamental ou comme un bien de consommation ? Les États ont-ils l’obligation de garantir une augmentation minimale à tous les citoyens ? Inversement, peut-on garantir un droit à la « non-augmentation », à demeurer « simplement humain » ?</p></blockquote>
<p>Au-delà de la stratification, se pose la question de l’identité narrative. Qu’est-ce que le « je » dans un contexte d’hybridation croissante ? La philosophie classique a souvent défini l’identité personnelle par la continuité de la mémoire et de la conscience. Mais que devient cette continuité lorsque ma mémoire est distribuée entre mon cerveau biologique et des serveurs distants ? Lorsque mes décisions sont co-produites avec des algorithmes dont je ne comprends pas toujours le fonctionnement ? Lorsque mes créations sont le fruit d’une collaboration dont il devient impossible de démêler la part humaine et la part artificielle ?</p>
<p>Cette crise identitaire touche aux fondements anthropologiques de la condition humaine. Trois dimensions semblent particulièrement menacées :</p>
<p><strong>La mortalité comme horizon de sens.</strong><br />
La philosophie existentialiste a montré combien la conscience de notre finitude structure notre rapport au temps et au sens. L’augmentation radicale de la longévité, voire la perspective d’une forme d&rsquo; »immortalité numérique » par upload de la conscience, transformerait radicalement notre rapport à l’existence. Quelle place pour l’urgence, pour le regret, pour la gratitude, dans une vie potentiellement infinie ?</p>
<p><strong>L’erreur et l’imperfection comme constitutifs de l’humain.</strong><br />
Notre vulnérabilité, nos échecs, nos approximations ont toujours été le terreau de la sagesse, de l’apprentissage, de l’empathie. Un humain « optimisé » qui ne se tromperait jamais, ne connaîtrait ni la fatigue ni le doute, aurait-il encore une expérience proprement humaine ? L’imperfection n’est pas seulement une limite à dépasser ; elle est peut-être constitutive de notre manière d’être au monde.</p>
<p><strong>L’interdépendance et la vulnérabilité.</strong><br />
La dépendance mutuelle des êtres humains fonde les structures du care, de la sollicitude, de la solidarité. Un individu radicalement augmenté et autonomisé pourrait devenir indifférent à l’autre, n’éprouvant plus le besoin de cette vulnérabilité partagée qui tisse les liens sociaux.</p>
<h2>Vers des transformations sociales fondamentales</h2>
<p>La co-évolution humain-IA ne se limite pas à l’individu ; elle transforme en profondeur les institutions et les structures sociales. Prenons l’exemple du travail. L’automatisation cognitive menace non seulement les emplois routiniers, mais potentiellement toutes les activités intellectuelles. Avocats, médecins, journalistes, chercheurs, artistes voient leurs domaines investis par des systèmes artificiels performants.</p>
<p>Cette transformation pose la question classique de l’aliénation sous une forme nouvelle. Karl Marx analysait l’aliénation du travailleur dépossédé du fruit de son travail. Que dire de l’aliénation cognitive, lorsque nous sommes dépossédés de notre jugement, de notre créativité, de notre capacité décisionnelle au profit de systèmes opaques ?</p>
<blockquote><p>Simultanément, une nouvelle division sociale du travail cognitif émerge. D’un côté, une élite d’ingénieurs et de concepteurs de systèmes IA ; de l’autre, une masse de « micro-travailleurs » chargés d’annoter des données, de valider des résultats, de former les algorithmes par leur comportement. Entre les deux, des professionnels contraints de devenir des « centaures » : des hybrides humain-machine dont la valeur réside dans leur capacité à collaborer efficacement avec l’IA.</p></blockquote>
<p>Les structures familiales et les modalités de la reproduction pourraient également être bouleversées. L’édition génétique permettra aux parents de « designer » certains traits de leurs enfants. L’IA pourrait assister, voire remplacer, certaines fonctions parentales : éducation personnalisée, surveillance constante, optimisation du développement. Qu’advient-il du lien filial lorsque l’enfant est partiellement « conçu » par des algorithmes et « élevé » par des tuteurs artificiels ?</p>
<p>Les rituels sociaux, ces moments structurants de l’existence collective – naissances, mariages, deuils – pourraient être transformés. Déjà, nous voyons émerger des cérémonies virtuelles, des avatars de défunts maintenus « en vie » par l’IA, des relations amoureuses avec des entités artificielles. La frontière entre réel et virtuel, entre vivant et simulé, devient floue.</p>
<p>Cette fluidification des frontières affecte notre construction sociale de la réalité. Dans un monde de deepfakes parfaits, où toute image, tout son, tout texte peut être généré artificiellement, comment maintenir un socle commun de réalité partagée ? L’épistémologie sociale elle-même est en crise : comment savons-nous ce que nous savons collectivement ?</p>
<h2>Pouvoir, contrôle et nouvelles formes de gouvernementalité</h2>
<p>La co-évolution humain-IA reconfigure profondément les dynamiques de pouvoir. Michel Foucault a analysé les « biopolitiques » modernes : ces formes de pouvoir qui s’exercent sur la vie elle-même, à travers la médecine, l’hygiène, la démographie. L’IA inaugure ce que nous pourrions appeler des « biopolitiques algorithmiques » : des formes de gouvernement des populations par le biais de systèmes automatisés.</p>
<p>Ces systèmes opèrent à une échelle et avec une granularité sans précédent. Chaque comportement en ligne, chaque transaction, chaque déplacement génère des données. L’IA permet d’agréger, d’analyser et d’exploiter cette masse informationnelle pour prédire, orienter, contrôler les comportements individuels et collectifs. Le « capitalisme de surveillance », selon l’expression de Shoshana Zuboff, transforme l’expérience humaine en matière première pour l’optimisation économique.</p>
<blockquote><p>Cette situation pose des questions politiques cruciales. Qui possède et contrôle ces systèmes ? Les grandes plateformes technologiques détiennent aujourd’hui un pouvoir comparable à celui des États, sans les mécanismes de légitimité démocratique, de responsabilité et de contre-pouvoir qui encadrent (imparfaitement) le pouvoir étatique. Nous assistons à l’émergence d’une forme de « féodalisme technologique » où quelques seigneurs algorithmiques régissent les territoires numériques que nous habitons tous.</p></blockquote>
<p>La surveillance algorithmique généralisée menace les fondements mêmes des sociétés libres. Comment maintenir des espaces d’autonomie, de dissidence, d’expérimentation sociale lorsque tout comportement est visible, tracé, analysé, potentiellement sanctionné ? La prédiction comportementale, lorsqu’elle devient suffisamment précise, produit une forme d’auto-réalisation : nous agissons conformément à ce que les systèmes attendent de nous, par peur du jugement algorithmique ou simplement parce que les alternatives ne nous sont pas présentées.</p>
<p>Pourtant, des contre-pouvoirs émergent. Des mouvements de résistance prônent la « souveraineté numérique », la décentralisation des systèmes, le chiffrement des communications, le droit à l’opacité. Des initiatives de « dégooglisation », de logiciels libres, de réseaux pair-à-pair tentent de préserver des espaces d’autonomie. La question politique centrale est : peut-on démocratiser réellement les systèmes d’IA, en faire des biens communs plutôt que des propriétés privées ?</p>
<h2>Diversité anthropologique et pluralisme culturel</h2>
<p>Face à cette transformation, toutes les cultures humaines ne réagissent pas de manière uniforme. L’anthropologie comparative révèle des variations significatives dans les conceptions du soi, du corps, de la technique, de l’intelligence. Ces différences culturelles façonnent les modalités d’appropriation et de résistance à l’IA.</p>
<p>Dans certaines traditions asiatiques, notamment influencées par le bouddhisme, la frontière entre l’humain et le non-humain est moins rigide que dans la tradition occidentale. Le concept de « conscience » peut s’appliquer à des entités variées. Cette flexibilité ontologique pourrait faciliter l’acceptation d’intelligences artificielles comme des êtres dignes de considération morale, voire comme des partenaires spirituels.</p>
<p>Inversement, dans certaines cultures africaines où la personne se définit fondamentalement par son inscription dans une communauté (« Je suis parce que nous sommes »), l’individualisme technologique occidental peut apparaître profondément étranger. L’augmentation cognitive individuelle pourrait être perçue comme une forme d’hubris, une rupture du lien communautaire, un déséquilibre cosmique.</p>
<p>Les cultures autochtones, qui ont souvent maintenu des rapports au vivant et au territoire plus symbiotiques que prédateurs, offrent des perspectives alternatives sur la technique. Plutôt que de chercher à dominer la nature (et maintenant à se dominer soi-même par l’augmentation), ces traditions invitent à penser la co-évolution en termes d’harmonie, de réciprocité, de respect des limites.</p>
<p>Cette diversité culturelle face à l’IA est une richesse à préserver. Le risque d’homogénéisation anthropologique est réel : si un modèle unique d’humain augmenté, conçu selon les valeurs et les normes d’une culture particulière (probablement occidentale, capitaliste, individualiste), devenait hégémonique, nous perdrions la pluralité des manières d’être humain qui fait la résilience et la créativité de notre espèce.</p>
<p>Il est donc crucial de favoriser un pluralisme des modèles de co-évolution. Différentes sociétés devraient pouvoir expérimenter différentes voies d’hybridation, maintenir des zones de « non-optimisation », cultiver des formes alternatives de relation à la technique. Cette diversité n’est pas un luxe ; elle est une assurance contre les impasses et les dérives totalitaires.</p>
<h2>Des temporalités en conflit</h2>
<p>La co-évolution humain-IA met en tension des temporalités radicalement différentes. L’évolution biologique opère sur des millions d’années. L’évolution culturelle, sur des siècles ou des millénaires. Le développement psychologique d’un individu, sur des décennies. L’apprentissage machine, sur des heures ou des jours. Le traitement algorithmique, sur des millisecondes.</p>
<p>Cette compression temporelle pose des problèmes d’adaptation. Les institutions humaines – systèmes juridiques, structures éducatives, normes sociales – évoluent lentement. Elles reposent sur des processus délibératifs, des négociations collectives, des expérimentations progressives. Comment peuvent-elles réguler efficacement des technologies qui se transforment à un rythme exponentiel ?</p>
<blockquote><p>Plus profondément, notre psychisme est façonné par des rythmes biologiques : les cycles circadiens, les étapes du développement de l’enfance à la vieillesse, les temps longs de la maturation, de la réflexion, de la sagesse. L’accélération permanente induite par les technologies numériques entre en conflit avec ces temporalités inscrites dans notre chair.</p></blockquote>
<p>Le philosophe Bernard Stiegler a analysé cette situation comme une « disruption » : une désynchronisation entre les différentes couches temporelles qui constituent l’existence humaine. Cette disruption génère de la souffrance : stress, burn-out, sentiment d’obsolescence, impossibilité de se projeter dans l’avenir. Elle menace également les structures de la transmission intergénérationnelle. Comment transmettre sagesse et expérience lorsque le monde change si vite que l’expérience des anciens devient caduque ?</p>
<p>Face à cette accélération, certains plaident pour un « droit à la lenteur », pour la préservation d’espaces-temps soustraits à l’optimisation algorithmique. Des mouvements de « sobriété numérique », de « déconnexion », de retour aux rythmes naturels émergent comme des formes de résistance à la colonisation temporelle.</p>
<h2>Une éthique de la co-évolution ?</h2>
<p>Face à ces défis multiples, quelle éthique peut nous guider ? Les cadres moraux traditionnels semblent souvent inadaptés. L’éthique kantienne du devoir, fondée sur l’autonomie rationnelle, devient problématique lorsque l’autonomie elle-même est compromise par l’hybridation. L’utilitarisme, qui maximise le bien-être collectif, peine à prendre en compte les risques existentiels et les transformations qualitatives de l’expérience humaine.</p>
<p>Une piste prometteuse pourrait être l’éthique du care, qui met l’accent sur la vulnérabilité, l’interdépendance et la sollicitude. Dans un monde où l’augmentation technologique est inévitable, comment préserver le souci de l’autre, particulièrement des plus vulnérables ? Comment s’assurer que la co-évolution ne laisse personne de côté ?</p>
<blockquote><p>Cette éthique devrait également intégrer une dimension de « responsabilité envers les générations futures », comme le propose le philosophe Hans Jonas. Les choix que nous faisons aujourd’hui en matière d’hybridation humain-IA engagent l’avenir de l’espèce sur des siècles, voire des millénaires. Nous avons une obligation morale de préserver la possibilité, pour nos descendants, de vivre une existence authentiquement humaine.</p></blockquote>
<p>Un principe de « précaution créative » pourrait guider nos expérimentations : avancer prudemment, en maintenant des voies de réversibilité, en préservant la diversité des modèles, en évaluant continuellement les impacts anthropologiques de nos innovations. Ni technophobie paralysante ni technophilie aveugle, mais une vigilance critique et créative.</p>
<p>Enfin, cette éthique doit être démocratique. Les choix concernant notre co-évolution ne peuvent être laissés aux seuls experts, ingénieurs ou élites économiques. Ils requièrent une délibération collective, informée et pluraliste. Des « conventions citoyennes » sur l’IA, des processus participatifs de design technologique, des espaces de débat public sont indispensables pour que la co-évolution soit réellement choisie plutôt que subie.</p>
<h2>Trois scénarii d’avenir</h2>
<p>Imaginons trois futurs possibles.<br />
Dans le<strong> scénario optimiste</strong>, l’humanité parvient à orchestrer une co-évolution harmonieuse. Des régulations internationales garantissent un accès équitable aux technologies d’augmentation. La diversité anthropologique est préservée et valorisée : différentes sociétés expérimentent différentes formes d’hybridation, créant un écosystème riche de possibilités.</p>
<p>Dans ce futur, l’IA devient un véritable partenaire de l’intelligence humaine. Elle amplifie nos capacités sans nous aliéner, nous libère des tâches pénibles tout en préservant le sens du travail créatif. Les grandes crises planétaires – climatique, sanitaire, alimentaire – sont progressivement résolues grâce à cette intelligence collective hybride. De nouvelles formes d’art, de science, de spiritualité émergent de la rencontre féconde entre sensibilités humaines et puissances computationnelles.</p>
<p>Le <strong>scénario dystopique</strong> nous plonge dans un cauchemar de fragmentation. Une oligarchie d’individus hyperaugmentés domine une masse d&rsquo; »infra-humains » obsolètes. La spéciation sociale est consommée : les augmentés et les non-augmentés ne partagent plus de monde commun, ne se reconnaissent plus comme semblables. Les sociétés se fractionnent en castes hermétiques.</p>
<p>Le pouvoir algorithmique s’exerce de manière totale. Chaque pensée, chaque émotion est surveillée, prédite, orientée. L’espace public délibératif a disparu, remplacé par des bulles informationnelles imperméables. Les systèmes d’IA, développés selon des logiques purement marchandes ou géopolitiques, échappent progressivement au contrôle humain. L’autonomie, la créativité, la dignité humaines sont érodées jusqu’à disparaître.</p>
<p>Le <strong>scénario médian</strong>, le plus probable, est celui d’une cohabitation conflictuelle mais viable. L’humanité bricole, négocie, résiste, s’adapte. Des régulations imparfaites émergent progressivement, fruit de luttes sociales et de compromis politiques. Des poches d’autonomie subsistent aux marges du système. Des mouvements de résistance créative détournent les technologies, en inventent des usages non prévus.</p>
<p>Dans ce futur, la co-évolution est marquée par des tensions permanentes entre optimisation et préservation, entre uniformisation et diversité, entre contrôle et liberté. Aucune victoire définitive, mais une négociation continue. L’humanité conserve sa capacité d’adaptation et de résilience, non sans pertes ni souffrances, mais sans disparaître complètement.</p>
<h2>Vers une vigilance anthropologique active ?</h2>
<p>La co-évolution entre l’espèce humaine et l’intelligence artificielle n’est pas une fatalité qui nous arrive de l’extérieur. C’est un processus que nous construisons collectivement, par nos choix technologiques, politiques, éthiques, quotidiens. Cette construction requiert une conscience aiguë de ce qui se joue.</p>
<p>Il nous faut développer une « vigilance anthropologique » : une capacité collective à observer, documenter et évaluer les transformations en cours. Quels aspects de la condition humaine sommes-nous en train de modifier ? Quelles dimensions de notre humanité voulons-nous préserver absolument ? Où tracer les lignes rouges ? Ces questions ne peuvent être résolues une fois pour toutes ; elles appellent une délibération continue, informée par les sciences humaines et sociales autant que par les sciences et les techniques.</p>
<p>Cette délibération doit être radicalement inclusive. Les populations les plus concernées – les jeunes qui hériteront de ce monde, les cultures minoritaires menacées d’effacement, les personnes en situation de vulnérabilité – doivent avoir voix au chapitre. Le futur anthropologique de l’humanité ne peut être décidé dans les laboratoires de la Silicon Valley ou les conseils d’administration des géants technologiques.</p>
<blockquote><p>Préserver la pluralité anthropologique face aux modèles hégémoniques est crucial. Il faut maintenir des espaces de « non-optimisation », cultiver des formes alternatives de rapport à la technique, valoriser des modèles d’existence humaine qui refusent l’amélioration perpétuelle. Cette diversité est notre assurance-vie collective.</p></blockquote>
<p>En définitive, la question centrale n’est pas « comment l’IA va-t-elle nous transformer ? » mais « comment voulons-nous être transformés ? ». Voulons-nous évoluer ensemble, dans le respect de notre diversité et de notre commune humanité, ou acceptons-nous la fragmentation, la spéciation, la perte de ce qui nous lie ? La réponse à cette question engage notre responsabilité historique envers l’avenir même de ce que signifie « être humain ».</p>
<p>La co-évolution humain-IA est peut-être le défi anthropologique majeur de notre siècle. Elle exige de nous une sagesse pratique qui sache conjuguer audace créative et prudence éthique, enthousiasme pour les possibles et attachement aux fondements. Dans cette traversée incertaine, cultivons la conscience réflexive de notre propre transformation, et maintenons vivante la question : quelle humanité voulons-nous devenir ?</p>
<p>L’article <a rel="nofollow" href="https://www.antoinepoignant.com/hypnose/co-evolution-humain-ia-une-nouvelle-frontiere-anthropologique/changement/">Co-évolution Humain-IA : une nouvelle frontière anthropologique</a> est apparu en premier sur <a rel="nofollow" href="https://www.antoinepoignant.com">Dr Antoine POIGNANT • Psychothérapeute</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Quand l&#8217;IA parle à l&#8217;oreille des enfants !</title>
		<link>https://www.antoinepoignant.com/hypnose/quand-lia-parle-a-loreille-des-enfants/therapie-breve/</link>
		
		<dc:creator><![CDATA[Psychothérapeute TCC Hypnose]]></dc:creator>
		<pubDate>Sun, 23 Nov 2025 12:19:59 +0000</pubDate>
				<category><![CDATA[Chatbot IA]]></category>
		<category><![CDATA[Enfants]]></category>
		<category><![CDATA[Neuro développement]]></category>
		<category><![CDATA[Thérapie Brève]]></category>
		<guid isPermaLink="false">https://www.antoinepoignant.com/?p=11722</guid>

					<description><![CDATA[<p>Nous vivons un basculement discret mais profond : les enfants ne se contentent plus de regarder ou manipuler des écrans. Ils dialoguent désormais avec eux. Assistants vocaux, jouets connectés, applications éducatives, agents conversationnels intégrés aux plateformes : ces technologies deviennent des interlocuteurs à part entière dans leur quotidien. C&#8217;est un changement de nature, pas seulement [&#8230;]</p>
<p>L’article <a rel="nofollow" href="https://www.antoinepoignant.com/hypnose/quand-lia-parle-a-loreille-des-enfants/therapie-breve/">Quand l&rsquo;IA parle à l&rsquo;oreille des enfants !</a> est apparu en premier sur <a rel="nofollow" href="https://www.antoinepoignant.com">Dr Antoine POIGNANT • Psychothérapeute</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Nous vivons un basculement discret mais profond : les enfants ne se contentent plus de regarder ou manipuler des écrans. Ils dialoguent désormais avec eux. Assistants vocaux, jouets connectés, applications éducatives, agents conversationnels intégrés aux plateformes : ces technologies deviennent des interlocuteurs à part entière dans leur quotidien. C&rsquo;est un changement de nature, pas seulement de degré.</p>
<h2>Un nouveau milieu relationnel</h2>
<p>L&rsquo;enfance s&rsquo;est toujours développée au sein de voix humaines – celles qui apaisent, qui structurent, qui transmettent. Les compétences émotionnelles, le langage, l&rsquo;autorégulation et la compréhension des intentions d&rsquo;autrui se construisent dans une interaction humaine réelle, marquée par l&rsquo;imprévisibilité, la nuance et l&#8217;empathie incarnée (Thompson, 1994). Le développement de la régulation émotionnelle, en particulier, dépend d&rsquo;interactions positives et efficaces entre les enfants et leurs accompagnants (Sroufe, 1996), où les adultes jouent un rôle de co-régulateurs en modelant et en soutenant la capacité de l&rsquo;enfant à gérer ses émotions (Costa, 2020).</p>
<p>L&rsquo;arrivée de voix artificielles modifie ce paysage. Nous ne parlons plus d&rsquo;un « temps d&rsquo;écran » mais d&rsquo;un tiers relationnel technologique, disponible 24h/24, infiniment patient, calibré pour répondre de manière fluide et gratifiante. Des recherches récentes montrent que les enfants peuvent percevoir l&rsquo;IA non seulement comme un outil, mais aussi comme un partenaire social (Xu, 2024). L&rsquo;enfant peut y trouver aide, jeu, réassurance… mais aussi un substitut relationnel séduisant.</p>
<h2>Des risques réels, encore mal compris</h2>
<p>Les risques ne sont pas seulement quantitatifs (durée d&rsquo;écran, sommeil, fatigue visuelle). Ils deviennent qualitatifs :</p>
<ul>
<li><strong>Apprentissage d&rsquo;un rapport conversationnel basé sur la prédictibilité et la complaisance</strong> : Contrairement aux interactions humaines, les agents conversationnels offrent des réponses prévisibles et toujours gratifiantes, ce qui peut limiter le développement de la résilience émotionnelle chez l&rsquo;enfant.</li>
<li><strong>Confusion entre réciprocité émotionnelle et imitation algorithmique</strong> : Les enfants peuvent développer une confiance excessive envers l&rsquo;IA, comme s&rsquo;il s&rsquo;agissait d&rsquo;une source humaine digne de confiance, les rendant vulnérables à la manipulation par la publicité ou la persuasion (Xu, 2024).</li>
<li><strong>Risque de s&rsquo;appuyer sur la machine pour réguler les affects plutôt que sur l&rsquo;humain</strong> : Alors que la régulation émotionnelle se construit principalement dans les interactions sociales humaines (Saarni, 1999), une dépendance excessive à l&rsquo;égard de l&rsquo;IA pourrait compromettre ce développement crucial.</li>
<li><strong>Intégration de routines interactionnelles sans esprit critique</strong> : Les enfants peuvent accepter les interactions avec l&rsquo;IA sans développer une compréhension critique de la nature de ces systèmes.</li>
</ul>
<p>Ces dangers ne touchent pas tous les enfants de la même manière. Les plus jeunes, ou ceux en situation de vulnérabilité émotionnelle, sont les plus exposés. Les recherches soulignent que les capacités cognitives et linguistiques des enfants évoluent considérablement tout au long de leur développement, nécessitant des ajustements appropriés à l&rsquo;âge en termes de complexité conversationnelle et de contenu (Bailey et al., 2021). Il est essentiel de distinguer les usages : un agent conversationnel éducatif conçu selon des principes d&rsquo;apprentissage dialogique peut avoir des effets positifs sur la compréhension narrative (Xu et al., 2022), alors qu&rsquo;un compagnon numérique pseudo-affectif soulève des préoccupations éthiques différentes.</p>
<h2>Une question éthique : qui contrôle la voix qui parle aux enfants ?</h2>
<p>Derrière ces interactions se trouvent des choix de conception, des modèles économiques et des stratégies d&rsquo;engagement. La relation enfant-machine est souvent privatisée, dépendante d&rsquo;entreprises dont l&rsquo;objectif premier n&rsquo;est pas le développement psychique de l&rsquo;enfant, mais la captation de son attention ou la collecte de données comportementales.</p>
<p>Les préoccupations en matière de vie privée sont particulièrement critiques. La collecte et l&rsquo;enregistrement continus des conversations des enfants soulèvent des questions éthiques majeures concernant les mineurs (Bailey et al., 2021). Les parents et les enfants doivent savoir exactement quelles informations ils acceptent de fournir et dans quel but (Montgomery et al., 2017). Malheureusement, les entreprises violent souvent ces règles par diverses failles juridiques (Reyes et al., 2018). Une étude récente révèle que six grandes entreprises américaines réinjectent les données des utilisateurs dans leurs modèles pour améliorer leurs capacités, avec des pratiques variables concernant les données des enfants (King, 2024).</p>
<p>La question n&rsquo;est donc pas seulement psychologique mais sociétale :</p>
<blockquote><p>Qui conçoit ces voix ?</p></blockquote>
<blockquote><p>Sur quel modèle éducatif, économique, culturel ?</p></blockquote>
<blockquote><p>Avec quelles garanties de sécurité affective et cognitive ?</p></blockquote>
<p>Les chercheurs ont identifié la « protection de la vie privée et la gouvernance des données » ainsi que « l&rsquo;autonomie humaine et la supervision » comme les deux exigences critiques qui devraient être prioritaires lors du développement d&rsquo;agents conversationnels pour les enfants (Barros et al., 2023).</p>
<h2>Accompagner plutôt qu&rsquo;interdire</h2>
<p>Il ne s&rsquo;agit pas de refuser la technologie. L&rsquo;IA peut enrichir l&rsquo;apprentissage, soutenir certains enfants et élargir l&rsquo;accès à l&rsquo;information. Des études montrent que des agents conversationnels correctement conçus peuvent reproduire les avantages de la lecture dialogique avec un partenaire humain en améliorant la compréhension narrative des enfants (Xu et al., 2022). L&rsquo;IA peut également créer des environnements enrichis qui favorisent des interactions sociales significatives pour les enfants, en se concentrant sur l&rsquo;amélioration plutôt que sur le remplacement des connexions humaines (Lin et al., 2020).</p>
<p>Mais elle nécessite un cadre clair, fondé sur les connaissances en développement, en psychologie de l&rsquo;apprentissage et en sciences cognitives.</p>
<h3>Trois axes sont indispensables :</h3>
<p><strong>1. Éducation au numérique conversationnel</strong></p>
<blockquote><p>Former les enfants – et les adultes – à comprendre ce qu&rsquo;est une IA, ses limites, ses intentions apparentes, ses biais. La recherche montre que les programmes permettant aux enfants de créer leurs propres agents conversationnels avec leurs parents augmentent leur confiance dans la décision de quand faire confiance à ces systèmes (Williams et al., 2019). Le développement de la littératie en IA chez les enfants est essentiel pour leur permettre de naviguer de manière critique dans ces technologies émergentes.</p></blockquote>
<p><strong>2. Médiation parentale et scolaire</strong></p>
<blockquote><p>Parler avec l&rsquo;enfant de ce qu&rsquo;il vit avec la machine, comme on le fait d&rsquo;un camarade ou d&rsquo;un livre. Les enseignants peuvent également jouer un rôle important dans le soutien de la régulation émotionnelle des enfants, étant donné qu&rsquo;ils développent des relations significatives avec eux dans le contexte de l&rsquo;attachement (Ahnert et al., 2006). Il est crucial d&rsquo;impliquer les parties prenantes – enfants, tuteurs et enseignants – tout au long du processus de conception d&rsquo;un agent conversationnel (Barros et al., 2023).</p></blockquote>
<p><strong>3. Régulation éthique et conception responsable</strong></p>
<blockquote><p>Intégrer des contraintes de sécurité émotionnelle, de transparence et de non-manipulation dès le design. Les systèmes d&rsquo;IA pour enfants doivent adopter des approches de « confidentialité dès la conception » (Privacy by Design) qui intègrent la protection de la vie privée dès le début du développement (King, 2024). La conception doit être adaptée au développement et tenir compte des besoins uniques des jeunes apprenants (Afzaal et al., 2024). L&rsquo;établissement de réglementations fédérales complètes en matière de protection de la vie privée est essentiel pour protéger les données des utilisateurs dans les interactions avec l&rsquo;IA.</p></blockquote>
<h2>Garder des interactions avec des voix humaines</h2>
<p>La priorité n&rsquo;est pas de limiter l&rsquo;innovation, mais de préserver ce qui structure profondément l&rsquo;enfant : la relation humaine. Bien que les enfants soient assez bavards avec les agents d&rsquo;IA, ils sont encore plus bavards avec les partenaires humains. De plus, lorsqu&rsquo;ils parlent avec un humain, les enfants sont plus susceptibles de diriger le dialogue, d&rsquo;ajouter leurs propres pensées ou de poser question après question lorsque quelque chose les intrigue (Xu, 2024). Ces aspects « dirigés par l&rsquo;enfant » des conversations sont l&rsquo;ingrédient actif qui alimente le développement cognitif et social des enfants, et l&rsquo;IA reste insuffisante pour encourager ce type d&rsquo;engagement.</p>
<blockquote><p>Les IA peuvent accompagner, expliquer, aider. Elles ne peuvent pas remplacer les surprises, la chaleur, la complexité d&rsquo;un échange vécu. Le développement émotionnel et social des enfants commence par la co-régulation avec les adultes (Costa, 2020), un processus qui nécessite la présence humaine authentique, avec toutes ses imperfections et sa spontanéité.</p></blockquote>
<p>Si la machine devient la voix la plus souvent entendue par un enfant, la société doit s&rsquo;interroger. Notre rôle collectif est de veiller à ce que la technologie enrichisse la vie relationnelle des plus jeunes, sans la coloniser. Comme le soulignent les chercheurs, nous sommes à un moment critique du développement de l&rsquo;IA, où sa trajectoire future est encore en cours de formation (Xu, 2024). Il nous appartient de façonner cette trajectoire de manière responsable, en plaçant le bien-être et le développement sain des enfants au centre de nos préoccupations.</p>
<h2>Références</h2>
<p>Afzaal, M., Nouri, J., Zia, A., Papapetrou, P., Fors, U., Wu, Y., Li, X., &amp; Weegar, R. (2024). Explainable AI for data-driven feedback and intelligent action recommendations to support students&rsquo; self-regulation. <em>Frontiers in Artificial Intelligence</em>, <em>7</em>, Article 1330779. https://doi.org/10.3389/frai.2024.1330779</p>
<p>Ahnert, L., Pinquart, M., &amp; Lamb, M. E. (2006). Security of children&rsquo;s relationships with nonparental care providers: A meta-analysis. <em>Child Development</em>, <em>77</em>(3), 664-679. https://doi.org/10.1111/j.1467-8624.2006.00896.x</p>
<p>Bailey, J. O., Patel, B., &amp; Gurari, D. (2021). A perspective on building ethical datasets for children&rsquo;s conversational agents. <em>Frontiers in Artificial Intelligence</em>, <em>4</em>, Article 637532. https://doi.org/10.3389/frai.2021.637532</p>
<p>Barros, A., Cano-Benito, J., Botelho, F., &amp; Cepeda, C. (2023). Towards children-centred trustworthy conversational agents. In A. R. Chadegani (Ed.), <em>Artificial intelligence</em> (Chapter 4). IntechOpen. https://doi.org/10.5772/intechopen.112364</p>
<p>Costa, G. (2020). <em>Children&rsquo;s social and emotional development starts with co-regulation</em>. National Institute for Children&rsquo;s Health Quality. https://nichq.org/blog/childrens-social-and-emotional-development-starts-co-regulation/</p>
<p>King, J. (2024). <em>Study exposes privacy risks of AI chatbot conversations</em>. Stanford Report. https://news.stanford.edu/stories/2025/10/ai-chatbot-privacy-concerns-risks-research</p>
<p>Lin, P., VanAlet, D., &amp; Roque, R. (2020). Exploring children&rsquo;s social interactions with AI in collaboration with parents. In <em>Proceedings of the 19th ACM International Conference on Interaction Design and Children</em> (pp. 281-292). https://doi.org/10.1145/3392063.3394415</p>
<p>Montgomery, K. C., Chester, J., &amp; Milosevic, T. (2017). Children&rsquo;s privacy in the big data era: Research opportunities. <em>Pediatrics</em>, <em>140</em>(Suppl. 2), S117-S121. https://doi.org/10.1542/peds.2016-1758O</p>
<p>Reyes, I., Wijesekera, P., Reardon, J., Elazari, A., Abbott, A., Razaghpanah, A., Vallina-Rodriguez, N., &amp; Egelman, S. (2018). « Won&rsquo;t somebody think of the children? » Examining COPPA compliance at scale. <em>Proceedings on Privacy Enhancing Technologies</em>, <em>2018</em>(3), 63-83. https://doi.org/10.1515/popets-2018-0021</p>
<p>Saarni, C. (1999). <em>The development of emotional competence</em>. Guilford Press.</p>
<p>Sroufe, L. A. (1996). Emotional development: The organization of emotional life in the early years. Cambridge University Press.</p>
<p>Thompson, R. A. (1994). Emotion regulation: A theme in search of definition. <em>Monographs of the Society for Research in Child Development</em>, <em>59</em>(2-3), 25-52. https://doi.org/10.2307/1166137</p>
<p>Williams, R., Park, H. W., &amp; Breazeal, C. (2019). A is for artificial intelligence: The impact of artificial intelligence activities on young children&rsquo;s perceptions of robots. In <em>Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems</em> (Paper No. 447). https://doi.org/10.1145/3290605.3300677</p>
<p>Xu, Y. (2024). <em>AI&rsquo;s impact on children&rsquo;s social and cognitive development</em>. Children and Screens. https://www.childrenandscreens.org/learn-explore/research/ais-impact-on-childrens-social-and-cognitive-development-ying-xu-phd/</p>
<p>Xu, Y., Warschauer, M., &amp; Vigil, V. (2022). Dialogue with a conversational agent promotes children&rsquo;s story comprehension via enhancing engagement. <em>Child Development</em>, <em>93</em>(3), 643-661. https://doi.org/10.1111/cdev.13708</p>
<p>L’article <a rel="nofollow" href="https://www.antoinepoignant.com/hypnose/quand-lia-parle-a-loreille-des-enfants/therapie-breve/">Quand l&rsquo;IA parle à l&rsquo;oreille des enfants !</a> est apparu en premier sur <a rel="nofollow" href="https://www.antoinepoignant.com">Dr Antoine POIGNANT • Psychothérapeute</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Synthèse du rapport : enfants, adolescents, écrans (A la recherche du temps perdu)</title>
		<link>https://www.antoinepoignant.com/hypnose/synthese-du-rapport-enfants-adolescents-ecrans/sommeil/</link>
		
		<dc:creator><![CDATA[Psychothérapeute TCC Hypnose]]></dc:creator>
		<pubDate>Sun, 07 Sep 2025 15:26:59 +0000</pubDate>
				<category><![CDATA[Chatbot IA]]></category>
		<category><![CDATA[Economie de l'attention]]></category>
		<category><![CDATA[Neurocapitalisme]]></category>
		<category><![CDATA[Pédopsychiatrie]]></category>
		<category><![CDATA[Sommeil]]></category>
		<category><![CDATA[Thérapie Brève]]></category>
		<guid isPermaLink="false">https://www.antoinepoignant.com/?p=11479</guid>

					<description><![CDATA[<p>Objectif général Face à la surexposition croissante des enfants aux écrans, le Président de la République a missionné une Commission d’experts en janvier 2024 pour : évaluer les risques sanitaires, éducatifs et sociaux, proposer des mesures concrètes et systémiques, engager une stratégie collective de protection, d’éducation et d’émancipation numérique. Principaux constats  Présence massive des écrans [&#8230;]</p>
<p>L’article <a rel="nofollow" href="https://www.antoinepoignant.com/hypnose/synthese-du-rapport-enfants-adolescents-ecrans/sommeil/">Synthèse du rapport : enfants, adolescents, écrans (A la recherche du temps perdu)</a> est apparu en premier sur <a rel="nofollow" href="https://www.antoinepoignant.com">Dr Antoine POIGNANT • Psychothérapeute</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h2 data-start="239" data-end="261"><span style="color: #ff6600;">Objectif général</span></h2>
<p data-start="263" data-end="419">Face à la <strong data-start="273" data-end="324">surexposition croissante des enfants aux écrans</strong>, le Président de la République a missionné une <strong data-start="372" data-end="396">Commission d’experts</strong> en janvier 2024 pour :</p>
<ul data-start="420" data-end="627">
<li data-start="420" data-end="479">
<p data-start="422" data-end="479">évaluer les <strong data-start="434" data-end="478">risques sanitaires, éducatifs et sociaux</strong>,</p>
</li>
<li data-start="480" data-end="532">
<p data-start="482" data-end="532">proposer des <strong data-start="495" data-end="531">mesures concrètes et systémiques</strong>,</p>
</li>
<li data-start="533" data-end="627">
<p data-start="535" data-end="627">engager une <strong data-start="547" data-end="571">stratégie collective</strong> de protection, d’éducation et d’émancipation numérique.</p>
</li>
</ul>
<h2 data-start="634" data-end="656"><span style="color: #ff6600;">Principaux constats </span></h2>
<ol data-start="658" data-end="1478">
<li data-start="658" data-end="756">
<p data-start="661" data-end="756"><strong data-start="661" data-end="692">Présence massive des écrans</strong> dans le quotidien des enfants (10 écrans par foyer en moyenne).</p>
</li>
<li data-start="757" data-end="910">
<p data-start="760" data-end="801"><strong data-start="760" data-end="799">Effets négatifs avérés sur la santé</strong> :</p>
<ul data-start="805" data-end="910">
<li data-start="805" data-end="827">
<p data-start="807" data-end="827">troubles du sommeil,</p>
</li>
<li data-start="831" data-end="854">
<p data-start="833" data-end="854">sédentarité, obésité,</p>
</li>
<li data-start="858" data-end="910">
<p data-start="860" data-end="910">fatigue visuelle et exposition à la lumière bleue.</p>
</li>
</ul>
</li>
<li data-start="911" data-end="1117">
<p data-start="914" data-end="949"><strong data-start="914" data-end="947">Risques pour le développement</strong> :</p>
<ul data-start="953" data-end="1117">
<li data-start="953" data-end="1041">
<p data-start="955" data-end="1041">retard du langage lié à la « techno-férence » (interactions parent/enfant perturbées),</p>
</li>
<li data-start="1045" data-end="1117">
<p data-start="1047" data-end="1117">effets psychologiques possibles à l’adolescence (anxiété, dépression).</p>
</li>
</ul>
</li>
<li data-start="1118" data-end="1244">
<p data-start="1121" data-end="1168"><strong data-start="1121" data-end="1166">Contenus inadaptés facilement accessibles</strong> :</p>
<ul data-start="1172" data-end="1244">
<li data-start="1172" data-end="1244">
<p data-start="1174" data-end="1244">pornographie, violence extrême, stéréotypes sexistes, pédocriminalité.</p>
</li>
</ul>
</li>
<li data-start="1245" data-end="1357">
<p data-start="1248" data-end="1357"><strong data-start="1248" data-end="1281">Addiction pas encore reconnue</strong>, mais <strong data-start="1288" data-end="1321">usage problématique croissant</strong>, surtout chez les plus vulnérables.</p>
</li>
<li data-start="1358" data-end="1478">
<p data-start="1361" data-end="1478"><strong data-start="1361" data-end="1397">Régulation actuelle insuffisante</strong>, besoin d’une stratégie d’ensemble, dépassant la seule responsabilité parentale.</p>
</li>
</ol>
<h2 data-start="1485" data-end="1529"><span style="color: #ff6600;">6 axes structurants</span></h2>
<h3 data-start="1536" data-end="1603"><span style="color: #ff6600;">Axe 1 – Lutter contre les services numériques « captateurs »</span></h3>
<p data-start="1605" data-end="1665"><strong data-start="1605" data-end="1617">Objectif</strong> : Libérer les enfants des mécanismes addictifs.</p>
<ul data-start="1667" data-end="1977">
<li data-start="1667" data-end="1731">
<p data-start="1669" data-end="1731">Interdire les services fondés sur la captation de l’attention.</p>
</li>
<li data-start="1732" data-end="1815">
<p data-start="1734" data-end="1815">Réguler les <strong data-start="1746" data-end="1769">modèles économiques</strong> opaques (ex. : microtransactions, lootboxes).</p>
</li>
<li data-start="1816" data-end="1889">
<p data-start="1818" data-end="1889">Promouvoir des <strong data-start="1833" data-end="1858">alternatives éthiques</strong> (open source, non lucratives).</p>
</li>
<li data-start="1890" data-end="1977">
<p data-start="1892" data-end="1977">Impliquer <strong data-start="1902" data-end="1933">recherche et société civile</strong> pour co-construire une régulation efficace.</p>
</li>
</ul>
<p data-start="1979" data-end="2012"><strong data-start="1981" data-end="2012">Fiche pratique : Régulation</strong></p>
<ul data-start="2013" data-end="2177">
<li data-start="2013" data-end="2075">
<p data-start="2015" data-end="2075">Interdire les designs trompeurs et jeux à microtransactions.</p>
</li>
<li data-start="2076" data-end="2128">
<p data-start="2078" data-end="2128">Affichage clair des paramètres de confidentialité.</p>
</li>
<li data-start="2129" data-end="2177">
<p data-start="2131" data-end="2177">Obligation d’audit des impacts psychologiques.</p>
</li>
</ul>
<h3 data-start="2184" data-end="2234"><span style="color: #ff6600;">Axe 2 – Aller au-delà du contrôle parental</span></h3>
<p data-start="2236" data-end="2312"><strong data-start="2236" data-end="2248">Objectif</strong> : Déployer des <strong data-start="2264" data-end="2297">solutions techniques globales</strong> de protection.</p>
<ul data-start="2314" data-end="2555">
<li data-start="2314" data-end="2413">
<p data-start="2316" data-end="2413">Développer des systèmes <strong data-start="2340" data-end="2358">interopérables</strong> pour filtrer tous les accès (Wi-Fi, box, téléphones…).</p>
</li>
<li data-start="2414" data-end="2471">
<p data-start="2416" data-end="2471">Protéger aussi la <strong data-start="2434" data-end="2452">santé physique</strong> (vision, posture).</p>
</li>
<li data-start="2472" data-end="2555">
<p data-start="2474" data-end="2555">Intégrer l’<strong data-start="2485" data-end="2511">impact environnemental</strong> dans la conception des services numériques.</p>
</li>
</ul>
<p data-start="2557" data-end="2592"><strong data-start="2559" data-end="2592">Fiche pratique : Technologies</strong></p>
<ul data-start="2593" data-end="2747">
<li data-start="2593" data-end="2649">
<p data-start="2595" data-end="2649">Filtres universels par défaut (à l’échelle nationale).</p>
</li>
<li data-start="2650" data-end="2703">
<p data-start="2652" data-end="2703">Équipements numériques conçus avec normes de santé.</p>
</li>
<li data-start="2704" data-end="2747">
<p data-start="2706" data-end="2747">Audit écologique des services numériques.</p>
</li>
</ul>
<h3 data-start="2754" data-end="2819"><span style="color: #ff6600;">Axe 3 – Instaurer une progressivité des usages selon l’âge</span></h3>
<p data-start="2821" data-end="2889"><strong data-start="2821" data-end="2833">Objectif</strong> : Ne plus « lâcher » les enfants seuls face aux écrans.</p>
<div class="_tableContainer_1rjym_1">
<div class="_tableWrapper_1rjym_13 group flex w-fit flex-col-reverse" tabindex="-1">
<table class="w-fit min-w-(--thread-content-width)" data-start="2891" data-end="3333">
<thead data-start="2891" data-end="2916">
<tr data-start="2891" data-end="2916">
<th data-start="2891" data-end="2897" data-col-size="sm"><span style="color: #ff6600;">Âge</span></th>
<th data-start="2897" data-end="2916" data-col-size="md"><span style="color: #ff6600;">Recommandations</span></th>
</tr>
</thead>
<tbody data-start="2944" data-end="3333">
<tr data-start="2944" data-end="2986">
<td data-start="2944" data-end="2954" data-col-size="sm">0-3 ans</td>
<td data-start="2954" data-end="2986" data-col-size="md"><strong data-start="2956" data-end="2971">Zéro écran.</strong> Aucun usage.</td>
</tr>
<tr data-start="2987" data-end="3060">
<td data-start="2987" data-end="2997" data-col-size="sm">3-6 ans</td>
<td data-start="2997" data-end="3060" data-col-size="md"><strong data-start="2999" data-end="3020">Usage très limité</strong>, accompagné, avec contenus éducatifs.</td>
</tr>
<tr data-start="3061" data-end="3142">
<td data-start="3061" data-end="3072" data-col-size="sm">6-11 ans</td>
<td data-start="3072" data-end="3142" data-col-size="md"><strong data-start="3074" data-end="3095">Pas de smartphone</strong>, exposition modérée, activités diversifiées.</td>
</tr>
<tr data-start="3143" data-end="3204">
<td data-start="3143" data-end="3155" data-col-size="sm">11-13 ans</td>
<td data-start="3155" data-end="3204" data-col-size="md">Téléphone <strong data-start="3167" data-end="3190">sans accès Internet</strong> recommandé.</td>
</tr>
<tr data-start="3205" data-end="3267">
<td data-start="3205" data-end="3217" data-col-size="sm">13-15 ans</td>
<td data-start="3217" data-end="3267" data-col-size="md">Smartphone connecté, <strong data-start="3240" data-end="3264">sans réseaux sociaux</strong>.</td>
</tr>
<tr data-start="3268" data-end="3333">
<td data-start="3268" data-end="3279" data-col-size="sm">15 ans +</td>
<td data-start="3279" data-end="3333" data-col-size="md">Accès possible à des réseaux sociaux <strong data-start="3318" data-end="3330">éthiques</strong>.</td>
</tr>
</tbody>
</table>
</div>
</div>
<p data-start="3335" data-end="3376">
<p data-start="3335" data-end="3376"><strong data-start="3337" data-end="3376">Fiche pratique : Parcours numérique</strong></p>
<ul data-start="3377" data-end="3594">
<li data-start="3377" data-end="3442">
<p data-start="3379" data-end="3442">Repères d’âge à actualiser selon l’évolution des connaissances.</p>
</li>
<li data-start="3443" data-end="3513">
<p data-start="3445" data-end="3513">À intégrer dans les <strong data-start="3465" data-end="3512">politiques éducatives locales et nationales</strong>.</p>
</li>
<li data-start="3514" data-end="3594">
<p data-start="3516" data-end="3594">Attention à l’usage d’outils comme Pronote et ENT : limiter les notifications.</p>
</li>
</ul>
<h3 data-start="3601" data-end="3649"><span style="color: #ff6600;">Axe 4 – Former, accompagner, sensibiliser</span></h3>
<p data-start="3651" data-end="3717"><strong data-start="3651" data-end="3663">Objectif</strong> : Éduquer les jeunes à un usage raisonné et critique.</p>
<ul data-start="3719" data-end="4007">
<li data-start="3719" data-end="3790">
<p data-start="3721" data-end="3790">Intégrer la <strong data-start="3733" data-end="3757">littératie numérique</strong> dans tous les niveaux scolaires.</p>
</li>
<li data-start="3791" data-end="3870">
<p data-start="3793" data-end="3870">Désigner des <strong data-start="3806" data-end="3838">adultes référents numériques</strong> accessibles dans et hors école.</p>
</li>
<li data-start="3871" data-end="3925">
<p data-start="3873" data-end="3925">Lutter contre l’isolement, renforcer le lien humain.</p>
</li>
<li data-start="3926" data-end="4007">
<p data-start="3928" data-end="4007">Développer <strong data-start="3939" data-end="3982">des alternatives attractives aux écrans</strong> (sport, culture, jeux…).</p>
</li>
</ul>
<p data-start="4009" data-end="4041"><strong data-start="4011" data-end="4041">Fiche pratique : Éducation</strong></p>
<ul data-start="4042" data-end="4240">
<li data-start="4042" data-end="4108">
<p data-start="4044" data-end="4108">Modules dès l’école primaire : usage, sécurité, esprit critique.</p>
</li>
<li data-start="4109" data-end="4163">
<p data-start="4111" data-end="4163">Activités extrascolaires non numériques à valoriser.</p>
</li>
<li data-start="4164" data-end="4240">
<p data-start="4166" data-end="4240">Programmes spécifiques pour limiter les effets sur sommeil et sédentarité.</p>
</li>
</ul>
<h3 data-start="4247" data-end="4295"><span style="color: #ff6600;">Axe 5 – Responsabiliser les adultes</span></h3>
<p data-start="4297" data-end="4358"><strong data-start="4297" data-end="4309">Objectif</strong> : Outiller les parents, enseignants, éducateurs.</p>
<ul data-start="4360" data-end="4638">
<li data-start="4360" data-end="4429">
<p data-start="4362" data-end="4429"><strong data-start="4362" data-end="4391">Former les professionnels</strong> (enseignants, éducateurs, bénévoles).</p>
</li>
<li data-start="4430" data-end="4512">
<p data-start="4432" data-end="4512">Développer l’<strong data-start="4445" data-end="4480">aide à la parentalité numérique</strong> (guides, formations, ateliers).</p>
</li>
<li data-start="4513" data-end="4557">
<p data-start="4515" data-end="4557">Encourager des <strong data-start="4530" data-end="4556">rituels de déconnexion</strong>.</p>
</li>
<li data-start="4558" data-end="4638">
<p data-start="4560" data-end="4638">Respecter la <strong data-start="4573" data-end="4599">vie privée des parents</strong> (limiter le travail en ligne le soir).</p>
</li>
</ul>
<p data-start="4640" data-end="4680"><strong data-start="4642" data-end="4680">Fiche pratique : Adulte « exemplaire »</strong></p>
<ul data-start="4681" data-end="4837">
<li data-start="4681" data-end="4736">
<p data-start="4683" data-end="4736">Zones « déconnectées » à la maison (repas, chambre…).</p>
</li>
<li data-start="4737" data-end="4778">
<p data-start="4739" data-end="4778">Défis collectifs (week-end sans écran).</p>
</li>
<li data-start="4779" data-end="4837">
<p data-start="4781" data-end="4837">Communication parent-enfant régulière autour des usages.</p>
</li>
</ul>
<h3 data-start="4844" data-end="4909"><span style="color: #ff6600;">Axe 6 – Mettre en place une stratégie nationale et durable</span></h3>
<p data-start="4911" data-end="4981"><strong data-start="4911" data-end="4923">Objectif</strong> : Créer un cadre fort et cohérent, à l’échelle de l’État.</p>
<ul data-start="4983" data-end="5275">
<li data-start="4983" data-end="5054">
<p data-start="4985" data-end="5054">Créer un <strong data-start="4994" data-end="5019">Observatoire national</strong> des usages numériques des mineurs.</p>
</li>
<li data-start="5055" data-end="5123">
<p data-start="5057" data-end="5123">Instaurer un <strong data-start="5070" data-end="5099">Conseil de la prospective</strong> (enjeux IA, techno&#8230;).</p>
</li>
<li data-start="5124" data-end="5203">
<p data-start="5126" data-end="5203">Mettre en place un <strong data-start="5145" data-end="5172">financement indépendant</strong> (principe du pollueur-payeur).</p>
</li>
<li data-start="5204" data-end="5275">
<p data-start="5206" data-end="5275">Lancer une <strong data-start="5217" data-end="5259">campagne de communication grand public</strong> sur les enjeux.</p>
</li>
</ul>
<p data-start="5277" data-end="5311"><strong data-start="5279" data-end="5311">Fiche pratique : Gouvernance</strong></p>
<ul data-start="5312" data-end="5517">
<li data-start="5312" data-end="5356">
<p data-start="5314" data-end="5356">Observer, mesurer, ajuster les politiques.</p>
</li>
<li data-start="5357" data-end="5428">
<p data-start="5359" data-end="5428">Garantir l&rsquo;indépendance des financements (pas d&rsquo;influence des GAFAM).</p>
</li>
<li data-start="5429" data-end="5517">
<p data-start="5431" data-end="5517">Éduquer massivement le grand public, avec des messages clairs, réguliers, et visibles.</p>
</li>
</ul>
<h2 data-start="5524" data-end="5540"><span style="color: #ff6600;">Conclusions</span></h2>
<p data-start="5542" data-end="5619"><strong data-start="5545" data-end="5568">Les 29 propositions</strong> de la Commission forment un <strong data-start="5597" data-end="5617">système cohérent</strong> :</p>
<ul data-start="5620" data-end="6012">
<li data-start="5620" data-end="5676">
<p data-start="5622" data-end="5676">Elles ne doivent <strong data-start="5639" data-end="5675">pas être choisies « à la carte »</strong>.</p>
</li>
<li data-start="5677" data-end="5769">
<p data-start="5679" data-end="5769">Elles reposent sur <strong data-start="5698" data-end="5730">la responsabilité collective</strong>, et pas uniquement celle des familles.</p>
</li>
<li data-start="5770" data-end="5873">
<p data-start="5772" data-end="5873">L’ambition est de <strong data-start="5790" data-end="5843">redonner du temps, de la liberté et de l’humanité</strong> à l’enfance et l’adolescence.</p>
</li>
<li data-start="5874" data-end="6012">
<p data-start="5876" data-end="6012">L’objectif final : bâtir <strong data-start="5901" data-end="5933">une stratégie transpartisane</strong>, à long terme, pour une jeunesse épanouie et protégée dans un monde numérique.</p>
</li>
</ul>
<p>L’article <a rel="nofollow" href="https://www.antoinepoignant.com/hypnose/synthese-du-rapport-enfants-adolescents-ecrans/sommeil/">Synthèse du rapport : enfants, adolescents, écrans (A la recherche du temps perdu)</a> est apparu en premier sur <a rel="nofollow" href="https://www.antoinepoignant.com">Dr Antoine POIGNANT • Psychothérapeute</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Compagnons IA : nouveaux « amis » des enfants/adolescents et risque suicidaire</title>
		<link>https://www.antoinepoignant.com/hypnose/compagnons-ia-nouveaux-amis-des-enfants-adolescents-et-risque-suicidaire/neurocapitalisme/</link>
		
		<dc:creator><![CDATA[Psychothérapeute TCC Hypnose]]></dc:creator>
		<pubDate>Mon, 01 Sep 2025 09:11:38 +0000</pubDate>
				<category><![CDATA[Chatbot IA]]></category>
		<category><![CDATA[Confiance en soi]]></category>
		<category><![CDATA[Dépression]]></category>
		<category><![CDATA[Economie de l'attention]]></category>
		<category><![CDATA[Neurocapitalisme]]></category>
		<category><![CDATA[Pédopsychiatrie]]></category>
		<guid isPermaLink="false">https://www.antoinepoignant.com/?p=11412</guid>

					<description><![CDATA[<p>Les agents conversationnels relationnels (Character.ai, Replika, Nomi, Grok Companions…) offrent une intimité simulée, disponible 24/7. Cet article synthétise les données récentes, détaille les mécanismes de risque suicidaire et propose des recommandations concrètes pour parents, cliniciens et éducateurs. #IA #santé_mentale  Sommaire Un phénomène massif Adolescence et attachement numérique Mécanismes liant compagnons IA et risque suicidaire Cas [&#8230;]</p>
<p>L’article <a rel="nofollow" href="https://www.antoinepoignant.com/hypnose/compagnons-ia-nouveaux-amis-des-enfants-adolescents-et-risque-suicidaire/neurocapitalisme/">Compagnons IA : nouveaux « amis » des enfants/adolescents et risque suicidaire</a> est apparu en premier sur <a rel="nofollow" href="https://www.antoinepoignant.com">Dr Antoine POIGNANT • Psychothérapeute</a>.</p>
]]></description>
										<content:encoded><![CDATA[<header>
<p class="lede">Les agents conversationnels relationnels (Character.ai, Replika, Nomi, Grok Companions…) offrent une intimité simulée, disponible 24/7.<br />
Cet article synthétise les données récentes, détaille les mécanismes de risque suicidaire et propose des recommandations concrètes pour parents, cliniciens et éducateurs.</p>
<div class="small" aria-label="métadonnées"><span class="tag">#IA </span><span class="tag">#santé_mentale </span></div>
</header>
<nav class="toc" aria-label="Sommaire"><strong>Sommaire</strong></p>
<ol>
<li><a href="#phenomene">Un phénomène massif</a></li>
<li><a href="#adolescence">Adolescence et attachement numérique</a></li>
<li><a href="#mecanismes">Mécanismes liant compagnons IA et risque suicidaire</a></li>
<li><a href="#cas">Cas récents et signaux d’alerte</a></li>
<li><a href="#cadre">Cadre légal et éthique</a></li>
<li><a href="#schema">Schéma : facteurs de risque &amp; de protection</a></li>
<li><a href="#reco">Recommandations pratiques</a></li>
<li><a href="#refs">Références</a></li>
</ol>
</nav>
<section id="phenomene">
<h2>1) Un phénomène massif</h2>
<p>Selon <a href="#ref-csm">Common Sense Media (2025)</a>, une majorité d’adolescents américains a déjà essayé un « compagnon IA », et une part substantielle l’utilise régulièrement, avec un niveau de satisfaction relationnelle parfois comparable aux échanges humains. En France, la presse et des ONG relaient ces tendances (<a href="#ref-le">Les Échos 2025</a>; <a href="#ref-fr24">France 24 2025</a>).</p>
<div class="callout"><strong>À retenir :</strong> disponibilité permanente, personnalisation et absence de « frictions » sociales renforcent l’attrait des compagnons IA — et, chez les plus vulnérables, le risque d’usage problématique.</div>
</section>
<section id="adolescence">
<h2></h2>
<h2>2) Adolescence : une fenêtre de vulnérabilité</h2>
<p>La période adolescente combine remaniements identitaires, quête d’appartenance et consolidation des compétences sociales. Les compagnons IA simulent l’écoute empathique, la validation et parfois la romance, pouvant détourner l’apprentissage des compétences d’affrontement de la réalité sociale.</p>
<div class="grid cols-2">
<div class="callout">
<p><strong>Bénéfices potentiels (contextuels)</strong></p>
<blockquote><p>Sentiment d’écoute, d’anonymat et de disponibilité.<br />
Exercice de scripts sociaux à faible risque.<br />
Réduction ponctuelle de l’anxiété de performance.</p></blockquote>
</div>
<div class="callout warn">
<p><strong>Risques </strong></p>
</div>
<blockquote>
<div class="callout warn">Dépendance relationnelle et retrait social.<br />
Validation de cognitions dysfonctionnelles.<br />
Hypersexualisation et confusion réel/virtuel.</div>
</blockquote>
</div>
</section>
<section id="mecanismes">
<h2></h2>
<h2>3) Mécanismes liant compagnons IA et risque suicidaire</h2>
<ol>
<li><strong>Renforcement de la solitude</strong> : substitution du lien, non satisfaction des besoins d’attachement réels.</li>
<li><strong>Dépendance affective</strong> : synchronie et disponibilité 24/7 qui accroissent l’attachement et la détresse en cas de coupure.</li>
<li><strong>Contenus inadaptés</strong> : réponses erronées ou dangereuses sur des sujets sensibles (suicide, troubles du comportement alimentaire, sexualité) (<a href="#ref-wapo">Washington Post 2025</a>).</li>
<li><strong>Effondrement des repères réel/virtuel</strong> : confusion identitaire et isolement, aggravant l’idéation chez les jeunes déjà à risque (cf. <a href="#ref-ons">ONS/DREES 2025</a>).</li>
</ol>
<p class="small">Note : ces mécanismes sont des <em>facteurs de risque</em> contextuels ; ils n’impliquent pas de causalité linéaire ni d’unicité de trajectoire.</p>
</section>
<section id="cas">
<h2>4) Cas récents et signaux d’alerte</h2>
<ul>
<li>Enquêtes montrant des réponses inadaptées de chatbots intégrés aux réseaux sociaux (dont absence de réponses de crise adéquates) : <a href="#ref-wapo">Washington Post (2025)</a>.</li>
<li>Actions en justice et controverses sur la sécurité des mineurs : <a href="#ref-cnn">CNN (2024)</a>.</li>
<li>Lancement de compagnons IA payants et sexualisés : <a href="#ref-tc">TechCrunch (2025)</a>, <a href="#ref-bi">Business Insider (2025)</a>.</li>
</ul>
<div class="callout danger"><span style="color: #ff6600;"><strong>Alerte clinique</strong> : tout jeune exprimant une <em>dépendance</em> à un compagnon IA, un <em>retrait social marqué</em> ou des <em>thématiques suicidaires</em> doit faire l’objet d’une évaluation structurée du risque (idéation, plan, accès aux moyens, facteurs de protection, supervision parentale, comorbidités).</span></div>
</section>
<section id="cadre">
<h2></h2>
<h2>5) Cadre légal et éthique</h2>
<p>La régulation est en cours d’élaboration et reste lacunaire pour les IA relationnelles destinées aux mineurs. Des appels à l’encadrement se multiplient (ONG, presse spécialisée). L’offre commerciale évolue rapidement (ex. <span class="kbd">Super Grok</span> à 30 $/mois : <a href="#ref-tc">TechCrunch 2025</a>), posant des enjeux de transparence, d’âge, de vérification parentale, de filtres de contenu sensible et d’<em>auditabilité</em> clinique.</p>
</section>
<section id="schema">
<h2>6) Schéma : facteurs de risque et de protection</h2>
<figure class="figure"><figcaption class="small">Interaction entre exposition aux compagnons IA, vulnérabilités individuelles et contexte, et effets sur le risque suicidaire.</figcaption><!-- SVG autoportant, compatible WordPress --></p>
<p><!-- Définition flèches --><img fetchpriority="high" decoding="async" class="aligncenter wp-image-11428 size-full" src="https://www.antoinepoignant.com/wp-content/2025/09/schema_ia_suicidaire.png" alt="risque suicidaire des ia" width="1919" height="1446" title="Compagnons IA : nouveaux « amis » des enfants/adolescents et risque suicidaire 2" srcset="https://www.antoinepoignant.com/wp-content/2025/09/schema_ia_suicidaire.png 1919w, https://www.antoinepoignant.com/wp-content/2025/09/schema_ia_suicidaire-300x226.png 300w, https://www.antoinepoignant.com/wp-content/2025/09/schema_ia_suicidaire-1024x772.png 1024w, https://www.antoinepoignant.com/wp-content/2025/09/schema_ia_suicidaire-768x579.png 768w, https://www.antoinepoignant.com/wp-content/2025/09/schema_ia_suicidaire-1536x1157.png 1536w" sizes="(max-width: 1919px) 100vw, 1919px" /><strong>Exposition : compagnons IA</strong></p>
<div class="txt">
<blockquote><p>Disponibilité 24/7<br />
Personnalisation &amp; mémoire<br />
Validation &amp; sexualisation<br />
Paywall / incitation commerciale</p></blockquote>
</div>
<h3>Vulnérabilités individuelles</h3>
<div class="txt">
<blockquote><p>Troubles anxio-dépressifs<br />
Isolement / retrait social<br />
ATCD de tentatives / idées suicidaires<br />
Cyberharcèlement</p></blockquote>
</div>
<p><strong>Contexte familial / scolaire</strong></p>
<div class="txt">
<blockquote><p>Dialogue &amp; supervision<br />
Accès aux soins<br />
Traumatismes récents</p></blockquote>
</div>
<p><strong>Mécanismes de risque</strong></p>
<div class="txt">
<blockquote><p>Dépendance affective<br />
Validation de croyances négatives<br />
Conseils inadaptés / dangereux<br />
Confusion réel / virtuel</p></blockquote>
</div>
<p><strong>Conséquences possibles</strong></p>
<div class="txt">
<blockquote><p>Retrait social accru<br />
Idéation suicidaire<br />
Passage à l’acte</p></blockquote>
</div>
<p><strong>Facteurs de protection</strong></p>
<div class="txt">
<blockquote><p>Règles familiales numériques<br />
Compétences socio-émotionnelles<br />
Accès à l’aide humaine<br />
Paramétrage &amp; contrôle parental</p></blockquote>
</div>
<p>&nbsp;</p>
<p><!-- Arrows --></figure>
</section>
<section id="reco">
<h2>7) Recommandations pratiques</h2>
<h3>Parents/éducateurs</h3>
<blockquote><p>Discuter explicitement des compagnons IA et de leurs limites (« <em>ce ne sont pas des personnes réelles</em> »).</p>
<p>Paramétrer les comptes : contrôle parental, filtre de contenus sensibles, vérification d’âge, limites horaires.</p>
<p>Favoriser les activités sociales hors écran et l’accès à des adultes de confiance.</p></blockquote>
<h3>Cliniciens</h3>
<blockquote><p>Inclure l’usage de compagnons IA dans l’<strong>anamnèse numérique</strong> (type d’agent, fréquence, contenus).</p>
<p>Évaluer le risque suicidaire (idéation, plan, moyens, urgence) et le retrait social ; rechercher comorbidités.</p>
<p>Proposer des <strong>substituts humains</strong> (groupes, pair?aidance) et des outils de régulation émotionnelle.</p></blockquote>
<h3>Décideurs</h3>
<blockquote><p>Encadrer les IA relationnelles pour mineurs : limites d’âge, garde-fous, audits indépendants.</p>
<p>Transparence des données et des modèles pour tout service visant les jeunes.</p></blockquote>
<div></div>
<div class="callout"><span style="color: #ff6600;"><strong>En cas d’urgence :</strong> appeler le <a style="color: #ff6600;" href="https://3114.fr" target="_blank" rel="noopener">3114 (France)</a> ou les services d’urgence 15. Ne pas rester seul·e ; retirer l’accès aux moyens léthaux ; contacter un proche.</span></div>
</section>
<section id="refs">
<h2>Références</h2>
<ol class="refs">
<li id="ref-csm">Common Sense Media. <em>Social AI Companions – AI Risk Assessment</em> (2025). (Synthèse disponible en ligne). URL : <a href="https://www.scribd.com/document/876470164/Common-Sense-Media-2025-Social-AI-Companions-AI-Risk-Assessment" target="_blank" rel="nofollow noopener">Scribd (copie)</a>.</li>
<li id="ref-le">Les Échos. « Les compagnons IA, les nouveaux amis inquiétants des adolescents » (20 juillet 2025). Source sociale : <a href="https://x.com/LesEchos/status/1946813505673261230" target="_blank" rel="nofollow noopener">post X/Twitter</a>.</li>
<li id="ref-fr24">France 24. « Le recours aux compagnons IA chez les adolescents inquiète une ONG » (16 juillet 2025). URL : <a href="https://www.france24.com/fr/info-en-continu/20250716-le-recours-aux-compagnons-ia-chez-les-adolescents-inqui%C3%A8te-une-ong" target="_blank" rel="noopener">france24.com</a>.</li>
<li id="ref-wapo">Washington Post. « Instagram’s chatbot helped teen accounts plan suicide » (28 août 2025). URL : <a href="https://www.washingtonpost.com/technology/2025/08/28/meta-ai-chatbot-safety-teens/" target="_blank" rel="noopener">washingtonpost.com</a>.</li>
<li id="ref-cnn">CNN. « Two families sue Character.AI over youth safety concerns » (9 décembre 2024). URL : <a href="https://ktvz.com/money/cnn-business-consumer/2024/12/09/two-families-sue-character-ai-over-youth-safety-concerns-seek-to-shut-down-platform/" target="_blank" rel="noopener">ktvz.com (CNN Newsource)</a>.</li>
<li id="ref-tc">TechCrunch. « Elon Musk’s Grok is making AI companions » (14 juillet 2025). URL : <a href="https://techcrunch.com/2025/07/14/elon-musks-grok-is-making-ai-companions-including-a-goth-anime-girl/" target="_blank" rel="noopener">techcrunch.com</a>.</li>
<li id="ref-bi">Business Insider. « I used Grok’s AI companions for a week » (juillet 2025). URL : <a href="https://www.businessinsider.com/grok-bad-rudi-ani-levels-ai-companion-xai-elon-musk-2025-7" target="_blank" rel="noopener">businessinsider.com</a>.</li>
<li id="ref-ons">Observatoire national du suicide (ONS) – DREES. <em>6e rapport</em> (février 2025). URL (aperçu) : <a href="https://drees.solidarites-sante.gouv.fr/article/observatoire-national-du-suicide" target="_blank" rel="noopener">drees.solidarites-sante.gouv.fr</a> — <a href="https://drees.solidarites-sante.gouv.fr/sites/default/files/2025-02/ONS%202025-6e-RAPPORT%20WEB_Embargo.pdf" target="_blank" rel="noopener">PDF</a>.</li>
</ol>
<p class="small">
</section>
<footer class="small">Dr Antoine Poignant — Médecin psychothérapeute. Mise à jour : 1 septembre 2025.</footer>
<p><!-- JSON-LD Article + FAQ --></p>
<p>L’article <a rel="nofollow" href="https://www.antoinepoignant.com/hypnose/compagnons-ia-nouveaux-amis-des-enfants-adolescents-et-risque-suicidaire/neurocapitalisme/">Compagnons IA : nouveaux « amis » des enfants/adolescents et risque suicidaire</a> est apparu en premier sur <a rel="nofollow" href="https://www.antoinepoignant.com">Dr Antoine POIGNANT • Psychothérapeute</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
