Stop Letting AI Run Your Social Life

https://www.profitableratecpm.com/f4ffsdxe?key=39b1ebce72f3758345b2155c98e6709c

L’IA n’a peut-être pas encore pris votre travail, mais elle est déjà en train d’écrire votre texte de rupture.

Ce qui a commencé comme un outil de productivité est progressivement devenu un outil social, et les gens le consultent de plus en plus pour leurs moments les plus personnels : rédiger des excuses, traduire des textes passifs-agressifs et, oui, décider comment mettre fin à une relation.

«Je crois de tout cœur que l’IA modifie le fondement relationnel de la société», déclare Rachel Wood, experte en cyberpsychologie et fondatrice du AI Mental Health Collective. « Les gens l’utilisent réellement pour gérer leur vie sociale : au lieu des conversations que nous avions auparavant – avec des voisins, dans des clubs, dans nos passe-temps ou dans nos communautés religieuses – ces conversations sont redirigées vers des chatbots. »

Alors qu’une génération entière grandit en externalisant les décisions sociales vers de grands modèles de langage (LLM) comme ChatGPT, Claude et Gemini, Wood s’inquiète des implications du transfert du travail émotionnel de connexion à une machine. Ce que cela signifie – quant à la façon dont les gens communiquent, se disputent, sortent ensemble et se donnent un sens les uns aux autres – commence seulement à être mis en évidence.

Quand l’IA devient votre copilote social

Cela commence souvent par un deuxième avis. Un collage rapide d’un message texte dans un chatbot IA. Une question tapée avec désinvolture : « Que pensez-vous qu’ils voulaient dire par là ?

“Les gens l’utiliseront pour détailler un récit détaillé d’une dispute qu’ils ont eue avec quelqu’un”, explique Wood, ou pour décoder des messages ambigus. “Peut-être qu’ils commencent tout juste à sortir ensemble, et ils l’ont mis là et ont dit : ‘Mon petit ami vient de m’envoyer ce message. Qu’est-ce que cela signifie vraiment ?'” Ils pourraient également demander : le LLM pense-t-il que la personne avec laquelle ils correspondent est un narcissique ? A-t-il l’air vérifié ? A-t-elle tendance à se culpabiliser ou à rejeter le blâme ?

En savoir plus: Donner à ChatGPT Health vos dossiers médicaux est-il une bonne idée ?

Certains utilisateurs se tournent vers l’IA comme espace de répétition sociale, explique le Dr Nina Vasan, professeure adjointe clinique de psychiatrie à l’Université de Stanford et fondatrice et directrice de Brainstorm : The Stanford Lab for Mental Health Innovation. Les gens sont attirés par ces outils parce qu’ils « essaient de trouver les bons mots avant de risquer la relation », dit-elle. Cela peut signifier demander au LLM de leur choix de rédiger des textes pour des amis, de modifier des e-mails pour leur patron, de les aider à déterminer les questions à poser lors d’un premier rendez-vous ou de naviguer dans des dynamiques de discussion de groupe délicates.

Vasan a également vu des gens utiliser des outils d’IA pour créer des profils d’applications de rencontres, répondre aux membres passifs-agressifs de leur famille et fixer des limites qu’ils n’avaient jamais pu exprimer auparavant. “Certains l’utilisent pour répéter des conversations difficiles avant de les avoir”, dit-elle. « D’autres traitent les interactions sociales par la suite, en demandant essentiellement à l’IA : « Est-ce que j’ai bien géré ça ? » » ChatGPT et d’autres LLM, dit-elle, sont devenus des tiers dans bon nombre de nos conversations les plus intimes.

Rencontrez le nouvel arbitre des relations

Le conseil en IA n’est pas toujours une évolution bienvenue. Certains jeunes, en particulier, utilisent désormais les LLM pour générer des « reçus », déployant des réponses basées sur l’IA comme preuve qu’ils ont raison.

“Ils utilisent l’IA pour essayer de créer des arguments hermétiques qui leur permettent d’analyser les déclarations d’un ami ou d’un petit ami, ou ils aiment particulièrement l’utiliser avec leurs parents”, explique Jimmie Manning, professeur d’études en communication à l’Université du Nevada, où il est également directeur du laboratoire de recherche en communication relationnelle. (Aucun de ses étudiants ne lui a encore présenté de reçu généré par l’IA, mais ce n’est probablement qu’une question de temps, réfléchit-il.) Un adolescent peut copier et coller un texte de sa mère dans ChatGPT, par exemple, et demander si ses parents sont déraisonnablement stricts, puis leur présenter la preuve que oui, en fait, ils le sont.

“Ils essaient d’obtenir l’affirmation de l’IA, et vous pouvez deviner comment l’IA y répond, car elle est là pour toi“, dit Manning.

Utiliser les LLM de cette manière transforme les relations en négociations contradictoires, ajoute-t-il. Lorsque les gens se tournent vers l’IA pour obtenir une validation, ils ne prennent généralement pas en compte le point de vue de leur ami, de leur partenaire amoureux ou de leurs parents. De plus, montrer des « reçus » au visage de quelqu’un peut ressembler à une embuscade. Ceux qui reçoivent la réponse ne réagissent généralement pas bien. “Les gens se méfient encore de l’algorithme qui entre dans leur vie intime”, explique Manning. “Il y a cette question d’authenticité à laquelle nous allons être confrontés en tant que culture.” Lorsqu’il demande à ses élèves comment leurs amis ou partenaires ont réagi, ils répondent généralement : « Oh, il a trouvé des excuses » ou « Elle a juste roulé des yeux ».

« Cela n’aide pas vraiment », dit-il. “Cela ne fera qu’aggraver la situation sans aucune sorte de résolution.”

Quel est l’enjeu

L’externalisation des tâches sociales vers l’IA est « profondément compréhensible », dit Vasan, « et profondément conséquente ». Cela peut favoriser une communication plus saine, mais cela peut également court-circuiter la croissance émotionnelle. Du côté le plus utile des choses, elle a vu des personnes souffrant d’anxiété sociale finalement demander un rendez-vous à quelqu’un parce que les Gémeaux les avaient aidés à rédiger le message. D’autres fois, les gens l’utilisent au milieu d’une dispute, non pas pour prouver qu’ils ont raison, mais pour réfléchir à ce que l’autre personne pourrait ressentir et pour trouver comment dire quelque chose d’une manière qui aboutira réellement.

“Au lieu de dégénérer en bagarre ou de s’arrêter complètement, ils utilisent l’IA pour prendre du recul et se demander : ‘Que se passe-t-il réellement ici ? Qu’est-ce que mon partenaire a besoin d’entendre ? Comment puis-je exprimer cela sans être blessant ?'”, dit-elle. Dans ces cas-là, « cela aide les gens à sortir des schémas de communication destructeurs et à construire une dynamique plus saine avec les personnes qu’ils aiment le plus. »

Pourtant, cela ne tient pas compte des nombreuses façons potentiellement dangereuses dont les gens utilisent les LLM. “Je vois des gens qui sont devenus tellement dépendants des réponses générées par l’IA qu’ils décrivent se sentir comme des étrangers dans leurs propres relations”, explique Vasan. « L’IA dans nos vies sociales est un amplificateur : elle peut approfondir la connexion ou la détruire. » Le même outil qui aide quelqu’un à communiquer de manière plus réfléchie, dit-elle, peut également l’aider à éviter d’être émotionnellement présent.

De plus, lorsque vous comptez régulièrement sur un chatbot comme arbitre ou béquille conversationnelle, il est possible que vous érodiez des compétences importantes telles que la patience, l’écoute et le compromis. Les personnes qui utilisent l’IA de manière intense ou prolongée peuvent constater que l’outil fausse leurs attentes sociales, car elles commencent à s’attendre à des réponses immédiates et à une disponibilité 24h/24 et 7j/7. «Vous avez quelque chose qui va toujours vous répondre», dit Wood. “Le chatbot ne vous annulera jamais pour aller dîner au restaurant. Il ne vous repoussera jamais vraiment, de sorte que les frictions disparaissent.” Bien sûr, les frictions sont inévitables même dans les relations les plus saines, de sorte que lorsque les gens s’habituent à l’alternative, ils peuvent perdre patience au moindre inconvénient.

Ensuite, il y a les échanges qui font que les relations fonctionnent. Si vous déjeunez avec un ami, vous partagerez probablement des histoires et parlerez de votre propre vie à tour de rôle. “Cependant, le chatbot ne dira jamais : ‘Hé, attends, Rachel, puis-je parler de moi pendant un moment ?'”, dit Wood. “Vous n’avez pas besoin de pratiquer l’écoute, la réciprocité manque.” Ce déséquilibre peut subtilement recalibrer ce que les gens attendent des conversations réelles.

De plus, toute relation nécessite des compromis. Lorsque vous passez trop de temps avec un robot, cette compétence commence à s’atrophier, explique Wood, car l’interaction dépend entièrement des conditions de l’utilisateur. « Le chatbot ne vous demandera jamais de faire des compromis, car il ne vous dira jamais non », ajoute-t-elle. “Et la vie est pleine de non.”

L’illusion d’un deuxième avis

Les chercheurs ne disposent pas encore de données concrètes qui donnent une idée de la manière dont l’externalisation des tâches sociales vers l’IA affecte la qualité des relations ou le bien-être général. “En tant que domaine, nous n’avons pas les données scientifiques nécessaires, mais cela ne veut pas dire qu’il ne se passe rien. Cela signifie simplement que nous ne l’avons pas encore mesuré”, déclare le Dr Karthik V. Sarma, scientifique en IA en santé et médecin à l’Université de Californie à San Francisco, où il a fondé le groupe de recherche sur l’IA en santé mentale. “En l’absence de cela, les vieux conseils restent valables pour presque toutes les utilisations de presque tout : la modération et les modèles sont la clé.”

Une meilleure maîtrise de l’IA est également essentielle, affirme Sarma. De nombreuses personnes utilisent les LLM sans comprendre exactement comment et pourquoi elles réagissent de certaines manières. Supposons, par exemple, que vous envisagez de proposer à votre partenaire, mais que vous souhaitiez d’abord vous enregistrer auprès de vos proches pour confirmer que c’est la bonne décision. L’opinion de votre meilleur ami sera précieuse, dit Sarma. Mais si vous demandez au bot ? N’accordez pas trop de poids à ses propos. « Le chatbot n’a pas du tout sa propre position », explique Sarma. “En raison de la façon dont la technologie fonctionne, elle est en fait beaucoup plus susceptible de devenir le reflet de votre propre position. Une fois que vous l’aurez suffisamment façonnée, bien sûr, elle sera d’accord avec vous, car c’est un peu comme une autre version de vous. C’est plutôt un miroir.”

Regarder vers l’avenir

Lorsque Pat Pataranutaporn réfléchit aux effets de l’utilisation à long terme de l’IA, sa principale question est la suivante : est-ce que cela limite notre capacité à nous exprimer ? Ou est-ce que cela aide les gens à mieux s’exprimer ? En tant que directeur fondateur du groupe de recherche en psychologie cyborg et codirecteur du programme de recherche Advancing Humans with AI du MIT Media Lab, Pataranutaporn s’intéresse aux façons dont les gens peuvent utiliser l’IA pour promouvoir l’épanouissement humain, l’interaction prosociale et l’interaction interhumaine.

L’objectif est d’utiliser cette technologie pour « aider les gens à être meilleurs, à avoir plus d’action et à sentir qu’ils contrôlent leur vie », dit-il, « plutôt que de se laisser contraindre par la technologie comme les médias sociaux ou les technologies précédentes ».

En savoir plus: Pourquoi devriez-vous envoyer un SMS à 1 ami cette semaine

Cela signifie en partie utiliser l’IA pour acquérir les compétences ou la confiance nécessaires pour parler aux gens en face à face, plutôt que de permettre à l’outil de remplacer les relations humaines. Vous pouvez également utiliser les LLM pour affiner vos idées et les faire passer au niveau supérieur, par opposition aux substituts à la pensée originale. “L’idée ou l’intention doit être très claire et forte au début”, explique Pataranutaporn. “Et puis peut-être que l’IA pourrait aider à l’augmenter ou à l’améliorer.” Avant de demander à ChatGPT de rédiger une lettre d’amour pour la Saint-Valentin, il suggère de vous demander : quelle est votre perspective unique que l’IA peut vous aider à concrétiser ?

Bien entendu, les utilisateurs individuels sont à la merci d’une force plus grande : les entreprises qui développent ces outils. La manière exacte dont les gens utilisent les outils d’IA, et s’ils renforcent ou affaiblissent les relations, dépend de la capacité des entreprises technologiques à rendre leurs plateformes plus saines, explique Vasan. Cela signifie concevoir intentionnellement des outils pour renforcer les capacités humaines, plutôt que de les remplacer discrètement.

« Nous ne devrions pas concevoir l’IA pour qu’elle établisse des relations à notre place ; nous devrions la concevoir pour renforcer notre capacité à les entretenir », dit-elle. “La question clé n’est pas de savoir si l’IA est impliquée. Il s’agit de savoir si elle vous aide à paraître plus humain ou vous permet de vous cacher. Nous menons une expérience massive et incontrôlée sur l’intimité humaine, et ma préoccupation n’est pas que l’IA améliore nos messages. C’est que nous oublierons à quoi ressemble notre propre voix. “

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button