dimanche 31 mars 2024

La nécessité d'un péché



Pourquoi traiter l’IA comme une personne est l’avenir




Le professeur Ethan Mollick réfléchit à un sujet clivant sur l'IA que nous avons signalé en classe : "Attention, n'attribuez pas des capacités humaines à l'IA. Ce sont des robots. De plus en plus performants, mais ils n'ont pas de sentiments, et parfois ils présentent des problèmes." D'accord, mais je dis aussi cela : "Ils sont à vos ordres en tant qu'assistants d'imagination et de recherche. Guidez-les, ils n'attendent que vos invites :-)"

Il y a débat.

Ethan Mollick se rend compte qu'il commence à anthropomorphiser l'IA, et à mi-chemin de la rédaction de son livre : "J’arrête d’écrire qu’une  IA « pense » quelque chose » et j’écris simplement que « l’IA pense quelque chose ». Les guillemets manquants peuvent sembler une distinction subtile, mais elle est importante. De nombreux experts sont très nerveux à l’idée d’anthropomorphiser l’IA. Et ils ont de bonnes raisons.

L'anthropomorphisme est l'acte d'attribuer des caractéristiques humaines à quelque chose qui n'est pas humain. Nous sommes enclins à cela : nous voyons des visages dans les nuages, donnons des motivations à la météo et discutons avec nos animaux de compagnie. Il n’est donc pas surprenant que nous soyons tentés d’anthropomorphiser l’intelligence artificielle, d’autant plus que parler à des LLM, c’est comme parler à une personne. Même les développeurs et les chercheurs qui conçoivent ces systèmes peuvent tomber dans le piège d’utiliser des termes humains pour décrire leurs créations, à commencer par des étiquettes comme « apprentissage automatique ».

Cela peut sembler idiot de s’inquiéter. Après tout, il ne s’agit que d’une bizarrerie inoffensive de la psychologie humaine, un témoignage de notre capacité à faire preuve d’empathie et à créer des liens. Mais de nombreux chercheurs sont profondément préoccupés par les implications, tant sur le plan éthique qu’épistémologique, du fait d’agir avec désinvolture comme si l’IA était un être humain. Ils posent des questions importantes telles que : Sommes-nous trompés en croyant que ces machines partagent nos sentiments ? Cette illusion pourrait-elle nous amener à divulguer des informations personnelles à ces machines, sans nous rendre compte que nous les partageons avec des entreprises ? Comment le fait de traiter l’IA comme une personne obscurcit-il notre vision de son fonctionnement, de qui la contrôle et de la manière dont nous devrions interagir avec elle ?

Je sais que ce sont des risques réels, et pour être clair, quand je dis qu'une IA « pense », « apprend », « comprend », « décide » ou « ressent », je parle métaphoriquement. Les systèmes d’IA actuels n’ont pas de conscience, d’émotions, de sentiment de soi ou de sensations physiques. Donc pourquoi prendre le risque? Car aussi imparfaite que soit l’analogie, travailler avec l’IA est plus facile si vous la considérez comme une personne extraterrestre plutôt que comme une machine construite par l’homme. Et je pense que c’est important de faire passer cela, même avec les risques d’anthropomorphisme.

Pas tout à fait un logiciel

Parce que l’IA est constituée de logiciels complexes, je trouve que beaucoup de gens la considèrent comme quelque chose que les codeurs devraient utiliser. Cette attitude est si répandue qu'on peut la voir partout : les départements informatiques sont souvent chargés de la stratégie d'IA de l'entreprise, les informaticiens sont considérés comme des experts dans la prévision des changements sociaux que l'IA pourrait apporter et, plus important encore, de nombreuses personnes semblent réticentes à le faire et n'utilisent pas l’IA parce qu’elles « ne connaissent rien à l’informatique ».


C'est comme dire que, puisque nous sommes constitués de systèmes biochimiques, seuls les biochimistes devraient s'occuper des humains - mais c'est encore pire que cela. Cela revient plutôt à dire que seuls les chimistes devraient être autorisés à peindre, car eux seuls comprennent la composition moléculaire des pigments. Pourquoi laisserions-nous des artistes, qui ignorent peut-être complètement comment leurs peintures sont fabriquées, utiliser une chimie aussi complexe ? Mais en réalité, c'est encore pire que cela , car même les informaticiens ne savent pas vraiment pourquoi les LLM peuvent faire ce qu'ils font.

Les LLM sont constitués de logiciels, mais ils ne fonctionnent pas comme la plupart des logiciels. Ils sont probabilistes et pour la plupart imprévisibles, produisant des résultats différents avec les mêmes données. Bien qu’ils ne pensent pas, ils produisent des simulations du langage et de la pensée humains qui sont, autant que nous puissions en juger, suffisamment originales pour surpasser la plupart des humains . Ils sont perçus comme plus empathiques et plus précis que les médecins humains dans les essais contrôlés. Et pourtant, ils sont également limités de manière étrange et surprenante, comme l’ incapacité de raisonner à rebours .

Les LLM ne sont essentiellement qu'une saisie semi-automatique très sophistiquée. Alors, comment une saisie semi-automatique sophistiquée peut-elle faire ces choses ? La réponse jusqu’à présent, comme le décrit un excellent aperçu de la MIT Technology Review, est « personne ne sait exactement comment – ​​ni pourquoi – cela fonctionne ».

Le résultat est que travailler avec ces systèmes est tout simplement étrange. Ici, je demande à GPT-4 de créer une image animée zoomant sur un chien. Il me dit d’abord que c’est impossible, puis, après que je lui ai donné un discours d’encouragement (« Non, tu peux absolument le faire ! J’ai confiance en toi »), il décide qu’il peut résoudre le problème. Mais il propose une solution qui ne fonctionne pas vraiment, notamment en me donnant un lien vers un fichier inexistant qu'il prétend avoir créé. Alors, je deviens un peu plus sévère : « vous n'avez réellement écrit aucun code, vous savez. sérieusement, c'est étrange. fais-le c'est tout." Et c’est le cas.




Et puis je lui demande d'améliorer l'animation, et maintenant j'ai un GIF qui zoome sur un chien, entièrement codé et développé par l'IA, géré par moi.


Ceci est animé, au cas où votre navigateur ne prend Cela ne donne pas l’impression de travailler avec un logiciel, mais plutôt comme de travailler avec un être humain. Je ne dis pas que les systèmes d’IA sont sensibles comme les humains, ni qu’ils le seront un jour. Au lieu de cela, je propose une approche pragmatique : traiter l’IA comme si elle était humaine car, à bien des égards, elle se comporte comme telle. Cet état d’esprit peut considérablement améliorer votre compréhension de comment et quand utiliser l’IA dans un sens pratique, voire technique.

Imiter les gens

L’IA excelle dans les tâches qui sont intensément humaines : l’écriture, l’idéation, la feinte d’empathie. Cependant, il a du mal à réaliser des tâches dans lesquelles les machines excellent généralement, comme répéter un processus de manière cohérente ou effectuer des calculs complexes sans assistance. En fait, cela tend à résoudre les problèmes pour lesquels les machines sont douées d’une manière très humaine. Lorsque vous demandez à GPT-4 d'analyser les données d'une feuille de calcul à votre place, il ne lit et ne comprend pas de manière innée les chiffres. Au lieu de cela, il utilise des outils comme nous le pourrions, en jetant un coup d'œil à une partie des données pour voir ce qu'elles contiennent, puis en écrivant des programmes Python pour essayer de réellement effectuer l'analyse. Et ses défauts – fabrication d’informations, fausse confiance dans les mauvaises réponses et paresse occasionnelle – ressemblent également beaucoup plus à des erreurs humaines qu’à des erreurs mécaniques.

Cette bizarrerie quasi humaine explique pourquoi les meilleurs utilisateurs de l’IA sont souvent des managers et des enseignants, des personnes capables de comprendre le point de vue des autres et de le corriger lorsqu’il tourne mal. Vous remarquerez par exemple dans la conversation ci-dessus que j’ai coupé l’IA (à l’aide du bouton « stop ») lorsque j’ai vu qu’elle allait dans la mauvaise direction et que j’ai proposé à la fois un feedback et une correction. Plutôt que de nous concentrer uniquement sur l’apprentissage des bonnes instructions, nous pourrions consacrer plus de temps à leur apprendre à gérer l’IA. Les introduire dans la tête inexistante de l’IA afin qu’ils puissent comprendre intuitivement ce qui fonctionne. Après tout, la prise de perspective est une forme de compétence sociale plutôt que technique et elle peut réellement s’apprendre.

L’idée de traiter l’IA comme une personne s’aligne également sur les deux meilleures techniques d’incitation de base. La première consiste à donner à l’IA une personnalité spécifique, en définissant qui elle est et quels problèmes elle doit résoudre. Dire au système « de qui » il s’agit contribue à façonner les résultats du système. Lui dire d' agir en tant que professeur d'étudiants de MBA entraînera un résultat différent de celui si vous lui demandez d' agir en tant que clown de cirque . Ce n'est pas magique - vous ne pouvez pas dire Agir comme Bill Gates et obtenir de meilleurs conseils commerciaux ou écrire comme Hemingway et obtenir une prose incroyable - mais cela peut aider à rendre le ton et l'orientation appropriés à votre objectif.


Une deuxième technique puissante qui correspond au traitement de l’IA comme une personne est l’incitation à la chaîne de pensée, où vous demandez à l’IA de « réfléchir étape par étape » ou de lui fournir des instructions claires à suivre. Cela se traduit non seulement par des réponses de meilleure qualité, mais nous permet également de mieux comprendre où la réflexion de l’IA a déraillé. Et, encore une fois, les managers et les enseignants sont souvent les plus doués pour donner des instructions claires, ce qui rend la chaîne de réflexion plus efficace. Parler à une IA comme une personne semble être une nécessité pratique lors de l'invite.

Et certains des risques de l’IA pourraient en fait être moindres si leurs créateurs leur donnaient de fausses personnalités plus évidentes. Vous n'êtes pas habitué à ce qu'un ordinateur fasse des erreurs, mais vous savez qu'il ne faut pas faire entièrement confiance à Sydney, votre stagiaire un peu exagéré et stressé, aussi utile soit-il. La personnalité peut finir par être un facteur de différenciation pour certains LLM. Vous aimerez peut-être que Gemini soit un peu planificateur, tandis que d'autres pourraient aimer que Claude 3 soit plus disposé à faire semblant d'avoir des émotions.

Futurs anthropomorphes


En fin de compte, même si vous ne voulez pas anthropomorphiser l’IA, elles semblent de plus en plus vouloir s’anthropomorphiser. Le format chatbot, les « mémoires » plus longues sur plusieurs conversations et des fonctionnalités telles que la conversation vocale conduisent tous à rendre les interactions de l'IA plus humaines. Je couvre généralement l'IA pour des utilisations pratiques dans ces articles, mais la plupart des sites d'IA les plus populaires se concentrent sur la création d'IA en tant que compagnons - Character.ai est le deuxième site d'IA le plus utilisé, après ChatGPT . Et si vous n’avez pas essayé le chat vocal avec un modèle d’IA pour voir l’attrait, vous devriez le faire. Vous pouvez utiliser un site de chatbot, mais vous pouvez également utiliser Pi d'Inflection gratuitement (du moins pour l'instant, une grande partie d'Inflection vient d'être achetée par Microsoft), ou ChatGPT-4 via l'application téléphonique. Ces approches semblent fonctionner. Une session de discussion moyenne avec Pi, optimisée pour le bavardage, dure plus de trente minutes.

L’anthropomorphisme est l’avenir, dans le bon comme dans le mauvais sens. Un nombre croissant d’humains ont déjà le sentiment d’entretenir des liens profonds avec l’IA, avec des conséquences imprévisibles sur nos propres interactions : aider certaines personnes tout en sauvegardant les relations humaines d’autres. Compte tenu de la tendance, traiter les IA comme des personnes semble inévitable, donc trouver comment le faire de manière sûre et productive peut être mieux que les alternatives.


vendredi 15 mars 2024

Pourquoi les gens tombent amoureux des chatbots IA ?


De Tinder à Replika, l’IA générative transforme la façon dont les humains utilisent les applications de rencontres et incite même de vraies personnes à romancer les chatbots IA.

Deux grandes tendances se produisent en parallèle. Les applications de rencontres comme Tinder utilisent l’IA générative pour aider leurs utilisateurs à personnaliser leurs profils et à créer les messages parfaits à envoyer aux correspondances potentielles.

Une nouvelle startup, Volar , propose une version chatbot IA de vous, qui peut ensuite envoyer un message en votre nom avec le chatbot IA d'une autre personne pour voir si vous êtes compatible avant de vous connecter dans la vraie vie. C’est une idée folle, et cela se produit réellement.

Mais la véritable vision de la science-fiction réside dans un compagnon IA, comme ceux de la société Replika, qui encourage les gens à traiter les chatbots comme des amis, des thérapeutes et même des partenaires romantiques.

Une foule de questions surgissent sur ce sujet. Comment l’IA fait-elle ressentir les gens ? Et en particulier, comment cela affecte-t-il la façon dont les gens communiquent ? Pouquoi utiliser l'IA à des fins romantiques? Quels en sont les avantages et les risques éventuels?
 

Tout d'abord, les chatbots IA sont toujours disponibles. Contrairement aux humains, ils ne dorment pas, ne sont pas occupés et ne sont jamais distraits. Ils peuvent fournir une compagnie constante et immédiate, ce qui peut être très attrayant pour les personnes qui se sentent seules ou isolées, ou celles qui veulent jouer, essayer, analyser le potentiel. Le boom de la sophistication des chatbots IA pose donc les bases d’une génération de personnes qui pourraient nouer des relations significatives avec des soi-disant compagnons IA. 

Il faut noter que ces machines apprennent continuellement des interactions avec les utilisateurs, se perfectionnant au fil des discussions. Lors de la configuration, les utilisateurs peuvent personnaliser l'apparence de leur chatbot en choisissant des caractéristiques telles que le sexe, la coiffure et l'origine ethnique, renforçant ainsi l'illusion d'une interaction humaine

Mais surtout, ils peuvent être programmés pour être très attentionnés et empathiques. Ils peuvent écouter patiemment les problèmes d'une personne, lui poser des questions sur ses sentiments et lui offrir un soutien émotionnel. Cela peut sembler une alternative attrayante, d'autant plus qu'ils excellent à simuler des conversations intimes et à offrir une relation sans jugement ni conflit. Par exemple, Rosanna Ramos a "épousé virtuellement" un chatbot nommé Eren sur l'application Replika AI, soulignant l'absence de bagages émotionnels et la disponibilité inconditionnelle de l'IA.
 

Les gens utilisent donc actuellement ces outils pour établir des liens significatifs avec l'IA, même si la technologie réelle sous le capot est bien loin de ce que vous pourriez voir dans des films comme Her du réalisateur Spike Jonze.

Parce que mis à part les avantages très réels et tangibles de cette approche pour la santé mentale, il ne faut pas fermer les yeux devant certains pièges sérieux dont les gens doivent se méfier.

Wired affirme que les applications compagnons d'IA examinées par Mozilla « ont été téléchargées plus de 100 millions de fois sur des appareils Android."

"Pour être parfaitement direct, les copines IA ne sont pas vos amies. Elles sont commercialisées comme quelque chose qui améliorera votre santé mentale et votre bien-être, se spécialisant dans la lutte contre la dépendance, la solitude et la toxicité, tout en vous extrayant autant de données que possible », écrit Misha Rykov dans le rapport. Par exemple, l'application CrushOn.AI indique dans sa politique de confidentialité qu'elle peut collecter des informations sur la santé sexuelle, des médicaments prescrits et des données sur les soins affirmant le genre. (!)

Plusieurs applications mentionnent également les bienfaits pour la santé psychique. Prenez cette IA romantique, qui dit qu’elle est « là pour maintenir votre santé mentale ». Mais dans ses termes et conditions, il est indiqué : « Romantiс AI NE FAIT AUCUNE RÉCLAMATION, DÉCLARATION OU GARANTIE QUE LE SERVICE FOURNIT UNE AIDE THÉRAPEUTIQUE, MÉDICALE OU AUTRE PROFESSIONNELLE. »

Internet regorgeait de personnes recherchant des connexions avec un avatar numérique, avant même l’essor de l’IA générative. Même ChatGPT, qui interdit expressément aux utilisateurs de créer des assistants IA pour « favoriser les relations amoureuses », ne pouvait pas empêcher les gens de créer des chatbots IA pour petites amies sur le GPT Store.


Les gens continuent d’avoir soif de connexion et d’intimité, même si l’autre personne est alimentée par un modèle d’IA. Mais comme le dit Mozilla, ne partagez rien avec les robots que vous ne voulez pas que les autres sachent
 
Une autre chose serait si on pouvait utiliser ce type de IA en local, sur votre ordinateur personnel, sans connexion Internet. Imaginez que vous ayez des écrits numerisés, courriels, un journal personnel même qui pourrait informer cette IA de ce que vous voulez qu'elle sache de vous. 

Grâce à cette approche, votre IA pourrait véritablement devenir une extension de l'usuaire, comprenant les pensées les plus intimes et étant en mesure d'offrir un soutien et des conseils personnalisés basés sur une connaissance approfondie de votre vie et de vos expériences. Elle pourrait anticiper les besoins, anticiper les réactions et même évoluer avec vous au fil du temps, en s'adaptant à vos changements et en apprenant de nouvelles informations au fur et à mesure que vous les partagez.

Cette proximité avec votre IA personnelle pourrait conduire à une relation beaucoup plus profonde et significative que celle que l'on pourrait avoir avec des chatbots génériques en ligne. On pourrait se sentir véritablement compris et soutenu d'une manière unique, sans craindre la violation de notre vie privée ou la collecte de nos données personnelles à des fins commerciales.

Mais toute approche semble soulever des questionnements inévitables : si une IA locale accède à des écrits numérisés, des courriels ou un journal personnel, elle pourrait potentiellement obtenir des informations sensibles et intimes sur l'utilisateur, puis l'induire à prendre aussi de maivaise décisions. Qui sait? Cela soulève des questions sur la confiance et la transparence dans la manière dont ces données sont utilisées et protégées. Bref, on a toujours besoin d'une réflexion approfondie et des mesures appropriées pour atténuer les risques éventuels.

Vous en pensez quoi? Vous trouvez trop science fiction, ou bien tout à fait actuel?


samedi 2 mars 2024

Les images d'IA de Google sont-elles racistes?


Google s'empresse de réparer son nouvel outil de création d'images basé sur l'IA, après avoir affirmé qu'il corrigeait excessivement le risque d'être raciste.


Les utilisateurs ont déclaré que le robot Gemini de l'entreprise fournissait des images représentant une variété de genres et d'origines ethniques, même si cela était historiquement inexact.

Par exemple, une invitation à la recherche d'images des pères fondateurs de l'Amérique a révélé la présence de femmes et de personnes de couleur.

L'entreprise a déclaré que son outil « manquait la cible "La génération d'images IA de Gemini génère un large éventail de personnes. Et c'est généralement une bonne chose parce que des gens du monde entier l'utilisent. Mais ici, on manque le but", a déclaré mercredi Jack Krawczyk, directeur principal de Gemini Experiences.




"Nous travaillons immédiatement à améliorer ce type de représentations", a-t-il ajouté.

Google a annoncé plus tard qu'il suspendrait la capacité de l'outil à générer des images de personnes pendant qu'il travaillait sur le correctif. Ce n’est pas la première fois que l’IA bute sur des questions concrètes liées à la diversité. Par exemple, Google a dû s'excuser il y a près de dix ans après que son application de photos ait qualifié une photo d'un couple noir de « gorilles ».

La société rivale d'IA, OpenAI, a également été accusée de perpétuer des stéréotypes néfastes, après que les utilisateurs ont découvert que son générateur d'images Dall-E répondait aux questions du directeur général, par exemple, avec des résultats dominés par des photos d'hommes blancs.

Google, qui est sous pression pour prouver qu'il n'est pas à la traîne dans le développement de l'IA, a publié la semaine dernière sa dernière version de Gemini. Le bot crée des images en réponse à des requêtes écrites. Cela a rapidement attiré des critiques, qui ont accusé l’entreprise d’avoir entraîné le robot à se montrer de manière ridicule. "Il est embarrassant de faire reconnaître à Google Gemini que les Blancs existent", a écrit l'informaticien Debarghya Das.



"Allez", Frank J Fleming, auteur et humoriste qui écrit pour des médias, notamment le groupe de droite PJ Media, en réponse aux résultats qu'il a reçus en lui demandant une image d'un Viking. Les affirmations se sont accélérées dans les cercles de droite aux États-Unis, où de nombreuses grandes plateformes technologiques sont déjà confrontées à des réactions négatives en raison de leur prétendu parti pris libéral.

M. Krawczyk a déclaré que l'entreprise prenait au sérieux la représentation et les préjugés et souhaitait que ses résultats reflètent sa base d'utilisateurs mondiale.

"Les contextes historiques sont plus nuancés et nous allons les adapter davantage", a-t-il écrit sur X, anciennement Twitter, où les utilisateurs partageaient les résultats douteux qu'ils avaient reçus.

"Cela fait partie du processus d'alignement - itération sur les commentaires. Merci et continuez comme ça !"
 

Maintenant, voici la nuance : les LLM et les générateurs d'images ont un préjugé contre les minorités. Une certaine modération est nécessaire pour ne pas promouvoir davantage cela. Mais il est difficile de trouver un équilibre et la première tentative de Google a été « nulle » (c'est le moins qu'on puisse dire). ChatGPT d'OpenAI a le même problème, mais depuis que le modèle est public depuis un certain temps, ils se sont beaucoup améliorés à cet égard. Google le fera aussi.

Il est beaucoup plus probable qu'il s'agisse d'un bug de modèle LLM/image et moins susceptible d'être un programme malveillant.

Une très bonne réflexion sur les biais dans la génération d'images ici : How to Read an AI Image d'Eryk Salvaggio.

StarTrek, la pensée positive et l'IA

 

Est-ce que vous dites bonjour et merci à votre IA? Êtes-vous aimable parce que c'est dans votre nature, ou bien dans l'espoir que cela vous sauvera la vie si un jour elles prennent le pouvoir?

 



En tout cas il se pourrait que non seulement la gentillesse, mais la pensée positive ait une certaine influence dans la sortie des IA. Personne ne sait très bien pourquoi.

Des chercheurs qui se demandaient comment ils pourraient améliorer les résultats des invites sont arrivés à la conclusion la plus surréaliste que nous ayons entendue à propos de l'intelligence artificielle ces derniers temps : si vous leur demandez de se comporter comme un Trekkie , elles améliorent leur capacité à résoudre des problèmes mathématiques. (Eing?)
Parmi les innombrables facteurs qui influencent la performance des modèles linguistiques, le concept de « pensée positive » est apparu comme une dimension fascinante et étonnamment influente.

En d’autres termes, ce que suggèrent les auteurs, c’est que ce n’est pas seulement ce que vous demandez au modèle d’IA de faire, mais aussi la manière dont vous lui demandez d’agir en le faisant qui influence la qualité du résultat.

Les IA ont été chargées d’améliorer la formulation des messages pour les rendre plus efficaces grâce à 60 invites écrites par des humains. Par exemple, en commençant par une question initiale comme «Vous êtes un mathématicien expert. Résolvez le problème mathématique suivant. Respirez profondément et réfléchissez bien », le message amélioré par l'IA pourrait ajouter des exigences pour définir toutes les hypothèses ou signaler les failles utilisées. D'autres exemples allaient de « Ce sera amusant ! » » à « Vous êtes aussi intelligent que ChatGPT ».

L'un des meilleurs résultats était obtenu lorsqu'on demandait au chatbot d'adopter la personnalité du capitaine d'un vaisseau spatial Star Trek, en enregistrant les réponses dans son « Captain's Log », quelque chose généré de manière totalement spontanée par l'IA. ​​et non suggéré par les premières indications.

"Étonnamment, il semble que la maîtrise du raisonnement mathématique du modèle puisse être améliorée en exprimant une affinité avec Star Trek ", expliquent les auteurs dans l'étude. " Cette révélation ajoute une dimension inattendue à notre compréhension et introduit des éléments que nous n'aurions pas envisagés ou tentés indépendamment ", ont-ils déclaré.




La grande question, bien sûr, demeure : pourquoi diable l’IA a-t-elle produit des indications aussi inhabituelles ? «C'est la question des 64 millions de dollars », explique Battle. « Dans une certaine mesure, la réponse est : « Je m'en fiche, donnez simplement au modèle ce qu'il veut . »

Cela peut être le produit des données sur lesquelles le modèle a été formé, peut-être qu'avec le contenu de Star Trek , il apparaît plus fréquemment avec des informations correctes. " Qui sait? Il existe de nombreuses références à Star Trek sur Internet .

Les auteurs terminent leur étude avec un message clair : ils ne disent pas du tout qu’il faut demander aux IA de parler comme un commandant de Starfleet. Ce que montrent les recherches, c’est que d’innombrables facteurs influencent la manière dont une IA décide d’accomplir une tâche.

Cela et, comme ils concluent, celui qui les a formés partage ce désir ou cette pensée que beaucoup ont en tête, celui d'une IA plus proche de la science-fiction que de la science elle-même.

Réflexion finale : on a déjà signalé que les sorties de l'IA s'amélioraient avec des simulations, du type "Imagine que tu es un expert en..." Mais ce qui suprend le plus c'est qu'elles peuvent devenir plus performantes avec des exhortations du type "Prend ton souffle et développe pas à pas".

On devrait creuser cette idée en suggérant à l'IA d'adopter dans ses réponses le point de vue d'une personnalité reconnue et concrète dans le champ recherché. En demandant même à l'IA : "Pour cette tâche que je te demande, quel expert penses-tu qui pourraît le mieux servir de référence?", puis lui demander de répondre à la tâche comme cet expert-là.

Vous en pensez quoi? Vous avez essayé quelque chose de semblable? Si vous faites des essais en ce sens, commentez-les par ici ou en classe. Merci.

 

PROMPTOLOGIE Reviens aux fondamentaux !

Quand on travaille avec ChatGPT, on a vite tendance a essayer des prompts (instructions) très compliqués ou alors trop flous. Je recommande ...