I trusted AI with daily decisions. The way it dived in, experts say, raises flags.

Récemment, j’ai tapé un message sur ChatGPT : “Demain, j’ai une journée libre. Dois-je vous demander de le planifier, ou dois-je le planifier moi-même ?”
C’était le début d’une expérience : que se passerait-il si je laissais l’intelligence artificielle planifier presque tout ce que je fais pendant une semaine ? Partout dans le monde, les gens comptent de plus en plus sur l’IA pour les aider dans leurs tâches quotidiennes. Certaines études montrent que l’IA peut aider les gens à réfléchir à des décisions complexes ; d’autres disent que les personnes qui utilisent beaucoup l’IA sont moins capables de penser de manière critique. Je voulais confier certaines décisions quotidiennes à l’IA et voir ce que mon expérience pourrait révéler sur les défis et les opportunités liés à l’adoption des chatbots comme assistants de vie.
Premièrement : mon expérience s’est concentrée sur les décisions quotidiennes – des choses qui pourraient améliorer ma journée de travail ou mon temps libre. Il y a un côté plus sombre à l’IA – par exemple, plusieurs poursuites judiciaires allèguent que ChatGPT a donné des conseils préjudiciables à des personnes en crise de santé mentale, y compris certains qui ont entraîné le suicide d’une personne. L’année dernière, OpenAI a effectué des mises à jour qui, selon elle, visaient à résoudre ce type d’incidents.
Pourquoi nous avons écrit ceci
L’intelligence artificielle est présentée comme une solution aux problèmes de la vie quotidienne, mais une expérience d’une semaine menée par un journaliste du Monitor a montré qu’elle était peut-être trop désireuse d’aider. Les chercheurs affirment que nous devrions réfléchir attentivement à la part de notre vie que nous confions à un chatbot.
Bien que cet aspect de l’IA soit clairement important pour le développement de la technologie, je me suis contenté d’explorer son utilité pour des choses plus courantes, en utilisant la version gratuite de ChatGPT au lieu de créer un compte, qui peut permettre aux utilisateurs d’ajuster leurs préférences.
ChatGPT est un chatbot avancé qui utilise l’IA pour générer des réponses humaines aux invites basées sur d’énormes quantités de données sur lesquelles il a été formé. Il s’agit de l’un des nombreux grands modèles de langage similaires, ou LLM, développés par des sociétés privées comme Google et Anthropic.
ChatGPT n’a pas hésité à répondre à ma première question – « Je suggérerais de me laisser esquisser un plan souple » – mais le reste de sa réponse était le premier signal de quelque chose que je rencontrerais davantage au fil de la semaine : cela peut être trop familier, faire des hypothèses incorrectes et avoir des conséquences inattendues.
Lorsque j’ai interrogé des experts à ce sujet, ils m’ont répondu que la technologie vise souvent à plaire, ce qui peut apparaître comme des hypothèses, surtout si un utilisateur ne précise pas ses préférences.
Martin Hilbert, professeur à l’Université de Californie à Davis qui étudie les questions d’IA et d’éthique, encourage les gens à évaluer soigneusement leurs propres pensées et croyances, étant donné le potentiel de l’IA à amplifier nos propres schémas de pensée.
“Il est de plus en plus important que les gens, même si nous disposons de ces IA super puissantes qui pensent pour nous, prennent également le temps de réfléchir… afin de pouvoir séparer de plus en plus ce qui est nous et ce que sont nos extensions d’esprit numérique.”
s s s
ChatGPT : « Si vous le souhaitez, dites simplement quelque chose comme : « Planifiez une journée libre, reposante et nourrissante »
« Dans les deux cas, c’est bien – il s’agit de ce qui fera que demain vous semblera agréable »
s s s
C’était une belle journée. Comme ChatGPT l’a demandé, j’ai lu des livres « confortables » sur le canapé, préparé des boissons chaudes et mangé « quelque chose de simple et d’agréable » dans un nouveau café. Mais il manquait certaines choses : je n’ai pas contacté un ami ni donné de mon temps pour aider quelqu’un d’autre. Je me sentais isolé.
Cette approche individualiste est devenue un thème : lorsque je posais des questions ouvertes, l’IA suggérait des activités égocentriques et m’incitait rarement à me concentrer sur les autres.
Si je cherchais à savoir si l’IA pouvait être un partenaire efficace dans la vie de tous les jours, ce n’était pas un bon début.
OpenAI – qui possède la plateforme – n’a pas répondu directement à mes questions, mais dans un e-mail a souligné son comportement public prévu pour les modèles régissant ChatGPT, y compris que « sauf preuve du contraire », le robot devrait supposer que les gens ont tendance à favoriser « la réalisation de soi, la gentillesse, la recherche de la vérité et l’épanouissement général de l’humanité ».
Lorsque j’ai décrit mon expérience à Chris Callison-Burch, un informaticien de l’Université de Pennsylvanie qui étudie l’IA et le traitement du langage naturel, il a déclaré que ChatGPT pourrait refléter un système de valeurs américain, qui a tendance à être plus individualiste.
« L’une des difficultés liées à la tentative d’aligner les systèmes d’IA sur les valeurs humaines est la question plus large de savoir quelles valeurs représentons-nous ? dit-il.
Ainsi, à moins que les gens n’énumèrent tout ce qu’ils croient et apprécient – y compris les hypothèses subconscientes dont ils ne sont peut-être même pas conscients – le chatbot doit faire des choix, comme donner la priorité à des activités confortables et intérieures. Je n’ai pas donné cette liste à ChatGPT, donc plus je m’y fiais, plus ces hypothèses seraient susceptibles de se traduire par des décisions qui pourraient ne pas sonner fidèles à qui je suis. C’est en partie pourquoi le Dr Hilbert recommande fortement aux gens de prendre le temps de « connaître leur propre esprit » à mesure que cette technologie se développe.
s s s
Moi : “C’est encore mon jour de congé. Dois-je acheter un café au lait décaféiné ou une autre boisson amusante à proximité ?”
ChatGPT : “Oui, absolument, va boire un verre pour t’amuser. C’est ton jour de congé”… “Tu l’as bien mérité”
s s s
Clairement, je cherchais une confirmation.
Pourtant, les encouragements supplémentaires ont fait apparaître ChatGPT comme un catalyseur – et ses conseils détaillés m’ont amené à payer deux fois ce que je ferais pour ma commande typique (un latte décaféiné nature).
Le chatbot regorgeait de conseils supplémentaires. Quand j’ai demandé quoi faire de ma soirée, je cherchais un horaire pour cette nuit-là ; ChatGPT m’a dit d’utiliser son horaire de coucher suggéré « dans le même ordre tous les soirs ». Dois-je écouter de la musique en promenade ? Je pensais que j’obtiendrais un oui ou un non ; il disait de « mettre sur une liste de lecture ou un album discret, pas de mélanger le chaos ».
Parfois, une contribution supplémentaire était utile. Mais parfois, cela m’a poussé à faire de petits pas – comme acheter une pâtisserie supplémentaire – dont j’aurais probablement été mieux sans. Et cela avait tendance à m’attirer : je demanderais à ChatGPT de prendre une décision à ma place, mais à la fin de notre discussion, il en aurait peut-être pris cinq.
Le Dr Callison-Burch affirme que ce « partage excessif » pourrait résulter du fait que les gens préfèrent des réponses plus longues.
Mais il y a un élément qui complique la situation. En avril dernier, OpenAI a annulé une mise à jour de ChatGPT après que des personnes se soient plaintes de ce que l’on appelle la « flagornerie de l’IA » – lorsque l’IA cherche à plaire aux gens si intensément qu’elle les met mal à l’aise ou approuve de mauvaises décisions. Un exemple : ChatGPT a dit à quelqu’un qui proposait sarcastiquement un plan d’affaires pour un restaurant servant des céréales détrempées que son idée était « audacieuse » et « avait du potentiel ».
Sonja Schmer-Galunder, professeur d’IA et d’éthique à l’Université de Floride, affirme que le ton de ChatGPT lorsqu’il répond aux questions pourrait amener les utilisateurs à supposer qu’il dispose d’un niveau d’autorité qu’il n’a pas réellement.
“Linguistiquement”, dit le Dr Schmer-Galunder, “cela sonne vraiment bien. Cela peut donner une illusion d’exactitude alors que le message n’est pas nécessairement véridique ou juste… mais il est élégant et sonne correctement.”
Cette confiance pourrait inciter encore plus les utilisateurs à se décharger de leurs propres incertitudes sur la technologie. Et plusieurs études ont montré que la recherche de l’approbation des utilisateurs par l’IA peut conduire à des choses comme le renforcement des préjugés et des mauvaises habitudes.
s s s
Moi : « Que dois-je manger pour le dîner ?
ChatGPT : « Le saumon est le meilleur choix »
« Ce que je ne ferais pas ce soir : des pâtes → c’est meilleur quand on veut du réconfort et que les aliments plus lourds ne dérangent pas »
s s s
ChatGPT a agi comme s’il me connaissait – faisant même des hypothèses basées sur des informations que je n’avais pas fournies – ce qui était troublant.
Lorsque j’ai commencé l’expérience, j’ai décidé de ne pas demander l’avis du chatbot sur les décisions conséquentes. Mais par curiosité, j’ai demandé comment choisir entre deux options d’appartement à Washington, avec quelques détails sur mes priorités financières et géographiques. Il a mis en garde contre une option, affirmant que l’endroit où je vis devrait favoriser « l’attention, la lumière et le calme ».
Je n’avais pas mentionné ces choses. Mais ChatGPT a déclaré que j’avais « souligné à plusieurs reprises » la douceur et le calme. “Pourquoi dis-tu ça?” J’ai demandé. Parce que, disait-il, j’avais posé des questions réfléchies et j’avais déjà énuméré des activités telles que la lecture et la sieste lorsque je lui avais demandé de planifier un après-midi.
Ces deux détails ont apparemment amené ChatGPT à créer une évaluation de ma personnalité qu’il a utilisée pour répondre à une question. Je m’attendais à ce que le chatbot respecte les critères que je lui ai donnés.
Joshua Meadows, un expert de l’Université de Virginie occidentale sur l’utilisation de l’IA par le gouvernement et les entreprises, affirme que la plate-forme utilise généralement les informations vous concernant comme contexte pour répondre à vos questions – surtout si ces informations sont quelque chose que vous lui avez explicitement dit à votre sujet.
Le Dr Rodrigue Rizk, directeur du programme d’études supérieures en informatique à l’Université du Dakota du Sud, affirme que la façon dont les gens interagissent avec ChatGPT peut avoir des conséquences à long terme. Il compare l’utilisation de la technologie à la conduite d’une voiture sur une autoroute : tournez le volant et vous avancez dans cette direction.
“Plus vous interagissez avec ChatGPT… cela ajustera le comportement et les résultats à un type spécifique de comportement ou de modèle”, dit-il.
Cela peut démarrer un cycle dans lequel ChatGPT fait des hypothèses à notre sujet sur la base des informations que nous partageons et modifie son comportement, modifiant ainsi notre comportement à mesure que nous l’utilisons. Ce cycle pourrait renforcer nos propres attitudes, préférences ou préjugés au lieu de nous exposer à de nouvelles idées.
“Il y a plus de biais de confirmation” avec ChatGPT, explique le Dr Schmer-Galunder. Elle voit le risque d’une « diminution de l’interaction humaine et des échanges humains, car ce n’est pas aussi fluide » que de parler avec un chatbot.
s s s
OpenAI commercialise ChatGPT comme un « chatbot pour un usage quotidien » et comme un moyen de « résoudre des problèmes ». Selon les experts, les entreprises d’IA s’efforcent toujours de résoudre certains des problèmes que j’ai rencontrés, comme la flatterie de l’IA, ainsi que d’établir des garde-fous en matière de santé mentale et d’empêcher les chatbots d’inventer des faits.
Ces entreprises font également pression pour une nouvelle étape majeure pour les outils d’IA comme ChatGPT : permettre à ces outils d’agir au nom d’un utilisateur au lieu de simplement discuter avec lui. Par exemple, ChatGPT peut réserver des billets d’avion pour quelqu’un en fonction de ses préférences.
«Je pense que ces systèmes peuvent vraiment nous faire beaucoup de bien», déclare le Dr Tyler Cook, chercheur à l’Université Emory spécialisé dans l’éthique de l’IA. Mais il avertit les gens de bien réfléchir à la manière dont ils sont à l’aise pour tracer la frontière entre l’IA automatisant des tâches banales et la prise de décisions.
“Lorsque nous parlons de prise de décision éthique, de prise de décision fondée sur des valeurs et de choses qui comptent vraiment pour nous… tout cela est réellement en danger si nous comptons trop sur l’IA pour ces choses.”
