vendredi 15 mars 2024

Pourquoi les gens tombent amoureux des chatbots IA ?


De Tinder à Replika, l’IA générative transforme la façon dont les humains utilisent les applications de rencontres et incite même de vraies personnes à romancer les chatbots IA.

Deux grandes tendances se produisent en parallèle. Les applications de rencontres comme Tinder utilisent l’IA générative pour aider leurs utilisateurs à personnaliser leurs profils et à créer les messages parfaits à envoyer aux correspondances potentielles.

Une nouvelle startup, Volar , propose une version chatbot IA de vous, qui peut ensuite envoyer un message en votre nom avec le chatbot IA d'une autre personne pour voir si vous êtes compatible avant de vous connecter dans la vraie vie. C’est une idée folle, et cela se produit réellement.

Mais la véritable vision de la science-fiction réside dans un compagnon IA, comme ceux de la société Replika, qui encourage les gens à traiter les chatbots comme des amis, des thérapeutes et même des partenaires romantiques.

Une foule de questions surgissent sur ce sujet. Comment l’IA fait-elle ressentir les gens ? Et en particulier, comment cela affecte-t-il la façon dont les gens communiquent ? Pouquoi utiliser l'IA à des fins romantiques? Quels en sont les avantages et les risques éventuels?
 

Tout d'abord, les chatbots IA sont toujours disponibles. Contrairement aux humains, ils ne dorment pas, ne sont pas occupés et ne sont jamais distraits. Ils peuvent fournir une compagnie constante et immédiate, ce qui peut être très attrayant pour les personnes qui se sentent seules ou isolées, ou celles qui veulent jouer, essayer, analyser le potentiel. Le boom de la sophistication des chatbots IA pose donc les bases d’une génération de personnes qui pourraient nouer des relations significatives avec des soi-disant compagnons IA. 

Il faut noter que ces machines apprennent continuellement des interactions avec les utilisateurs, se perfectionnant au fil des discussions. Lors de la configuration, les utilisateurs peuvent personnaliser l'apparence de leur chatbot en choisissant des caractéristiques telles que le sexe, la coiffure et l'origine ethnique, renforçant ainsi l'illusion d'une interaction humaine

Mais surtout, ils peuvent être programmés pour être très attentionnés et empathiques. Ils peuvent écouter patiemment les problèmes d'une personne, lui poser des questions sur ses sentiments et lui offrir un soutien émotionnel. Cela peut sembler une alternative attrayante, d'autant plus qu'ils excellent à simuler des conversations intimes et à offrir une relation sans jugement ni conflit. Par exemple, Rosanna Ramos a "épousé virtuellement" un chatbot nommé Eren sur l'application Replika AI, soulignant l'absence de bagages émotionnels et la disponibilité inconditionnelle de l'IA.
 

Les gens utilisent donc actuellement ces outils pour établir des liens significatifs avec l'IA, même si la technologie réelle sous le capot est bien loin de ce que vous pourriez voir dans des films comme Her du réalisateur Spike Jonze.

Parce que mis à part les avantages très réels et tangibles de cette approche pour la santé mentale, il ne faut pas fermer les yeux devant certains pièges sérieux dont les gens doivent se méfier.

Wired affirme que les applications compagnons d'IA examinées par Mozilla « ont été téléchargées plus de 100 millions de fois sur des appareils Android."

"Pour être parfaitement direct, les copines IA ne sont pas vos amies. Elles sont commercialisées comme quelque chose qui améliorera votre santé mentale et votre bien-être, se spécialisant dans la lutte contre la dépendance, la solitude et la toxicité, tout en vous extrayant autant de données que possible », écrit Misha Rykov dans le rapport. Par exemple, l'application CrushOn.AI indique dans sa politique de confidentialité qu'elle peut collecter des informations sur la santé sexuelle, des médicaments prescrits et des données sur les soins affirmant le genre. (!)

Plusieurs applications mentionnent également les bienfaits pour la santé psychique. Prenez cette IA romantique, qui dit qu’elle est « là pour maintenir votre santé mentale ». Mais dans ses termes et conditions, il est indiqué : « Romantiс AI NE FAIT AUCUNE RÉCLAMATION, DÉCLARATION OU GARANTIE QUE LE SERVICE FOURNIT UNE AIDE THÉRAPEUTIQUE, MÉDICALE OU AUTRE PROFESSIONNELLE. »

Internet regorgeait de personnes recherchant des connexions avec un avatar numérique, avant même l’essor de l’IA générative. Même ChatGPT, qui interdit expressément aux utilisateurs de créer des assistants IA pour « favoriser les relations amoureuses », ne pouvait pas empêcher les gens de créer des chatbots IA pour petites amies sur le GPT Store.


Les gens continuent d’avoir soif de connexion et d’intimité, même si l’autre personne est alimentée par un modèle d’IA. Mais comme le dit Mozilla, ne partagez rien avec les robots que vous ne voulez pas que les autres sachent
 
Une autre chose serait si on pouvait utiliser ce type de IA en local, sur votre ordinateur personnel, sans connexion Internet. Imaginez que vous ayez des écrits numerisés, courriels, un journal personnel même qui pourrait informer cette IA de ce que vous voulez qu'elle sache de vous. 

Grâce à cette approche, votre IA pourrait véritablement devenir une extension de l'usuaire, comprenant les pensées les plus intimes et étant en mesure d'offrir un soutien et des conseils personnalisés basés sur une connaissance approfondie de votre vie et de vos expériences. Elle pourrait anticiper les besoins, anticiper les réactions et même évoluer avec vous au fil du temps, en s'adaptant à vos changements et en apprenant de nouvelles informations au fur et à mesure que vous les partagez.

Cette proximité avec votre IA personnelle pourrait conduire à une relation beaucoup plus profonde et significative que celle que l'on pourrait avoir avec des chatbots génériques en ligne. On pourrait se sentir véritablement compris et soutenu d'une manière unique, sans craindre la violation de notre vie privée ou la collecte de nos données personnelles à des fins commerciales.

Mais toute approche semble soulever des questionnements inévitables : si une IA locale accède à des écrits numérisés, des courriels ou un journal personnel, elle pourrait potentiellement obtenir des informations sensibles et intimes sur l'utilisateur, puis l'induire à prendre aussi de maivaise décisions. Qui sait? Cela soulève des questions sur la confiance et la transparence dans la manière dont ces données sont utilisées et protégées. Bref, on a toujours besoin d'une réflexion approfondie et des mesures appropriées pour atténuer les risques éventuels.

Vous en pensez quoi? Vous trouvez trop science fiction, ou bien tout à fait actuel?


Aucun commentaire:

Enregistrer un commentaire

PROMPTOLOGIE Reviens aux fondamentaux !

Quand on travaille avec ChatGPT, on a vite tendance a essayer des prompts (instructions) très compliqués ou alors trop flous. Je recommande ...