Pourquoi traiter l’IA comme une personne est l’avenir
Le professeur Ethan Mollick réfléchit à un sujet clivant sur l'IA que nous avons signalé en classe : "Attention, n'attribuez pas des capacités humaines à l'IA. Ce sont des robots. De plus en plus performants, mais ils n'ont pas de sentiments, et parfois ils présentent des problèmes." D'accord, mais je dis aussi cela : "Ils sont à vos ordres en tant qu'assistants d'imagination et de recherche. Guidez-les, ils n'attendent que vos invites :-)"
Il y a débat.
Ethan Mollick se rend compte qu'il commence à anthropomorphiser l'IA, et à mi-chemin de la rédaction de son livre : "J’arrête d’écrire qu’une IA « pense » quelque chose » et j’écris simplement que « l’IA pense quelque chose ». Les guillemets manquants peuvent sembler une distinction subtile, mais elle est importante. De nombreux experts sont très nerveux à l’idée d’anthropomorphiser l’IA. Et ils ont de bonnes raisons.
L'anthropomorphisme est l'acte d'attribuer des caractéristiques humaines à quelque chose qui n'est pas humain. Nous sommes enclins à cela : nous voyons des visages dans les nuages, donnons des motivations à la météo et discutons avec nos animaux de compagnie. Il n’est donc pas surprenant que nous soyons tentés d’anthropomorphiser l’intelligence artificielle, d’autant plus que parler à des LLM, c’est comme parler à une personne. Même les développeurs et les chercheurs qui conçoivent ces systèmes peuvent tomber dans le piège d’utiliser des termes humains pour décrire leurs créations, à commencer par des étiquettes comme « apprentissage automatique ».
Cela peut sembler idiot de s’inquiéter. Après tout, il ne s’agit que d’une bizarrerie inoffensive de la psychologie humaine, un témoignage de notre capacité à faire preuve d’empathie et à créer des liens. Mais de nombreux chercheurs sont profondément préoccupés par les implications, tant sur le plan éthique qu’épistémologique, du fait d’agir avec désinvolture comme si l’IA était un être humain. Ils posent des questions importantes telles que : Sommes-nous trompés en croyant que ces machines partagent nos sentiments ? Cette illusion pourrait-elle nous amener à divulguer des informations personnelles à ces machines, sans nous rendre compte que nous les partageons avec des entreprises ? Comment le fait de traiter l’IA comme une personne obscurcit-il notre vision de son fonctionnement, de qui la contrôle et de la manière dont nous devrions interagir avec elle ?
Je sais que ce sont des risques réels, et pour être clair, quand je dis qu'une IA « pense », « apprend », « comprend », « décide » ou « ressent », je parle métaphoriquement. Les systèmes d’IA actuels n’ont pas de conscience, d’émotions, de sentiment de soi ou de sensations physiques. Donc pourquoi prendre le risque? Car aussi imparfaite que soit l’analogie, travailler avec l’IA est plus facile si vous la considérez comme une personne extraterrestre plutôt que comme une machine construite par l’homme. Et je pense que c’est important de faire passer cela, même avec les risques d’anthropomorphisme.
Pas tout à fait un logiciel
Parce que l’IA est constituée de logiciels complexes, je trouve que beaucoup de gens la considèrent comme quelque chose que les codeurs devraient utiliser. Cette attitude est si répandue qu'on peut la voir partout : les départements informatiques sont souvent chargés de la stratégie d'IA de l'entreprise, les informaticiens sont considérés comme des experts dans la prévision des changements sociaux que l'IA pourrait apporter et, plus important encore, de nombreuses personnes semblent réticentes à le faire et n'utilisent pas l’IA parce qu’elles « ne connaissent rien à l’informatique ».
C'est comme dire que, puisque nous sommes constitués de systèmes biochimiques, seuls les biochimistes devraient s'occuper des humains - mais c'est encore pire que cela. Cela revient plutôt à dire que seuls les chimistes devraient être autorisés à peindre, car eux seuls comprennent la composition moléculaire des pigments. Pourquoi laisserions-nous des artistes, qui ignorent peut-être complètement comment leurs peintures sont fabriquées, utiliser une chimie aussi complexe ? Mais en réalité, c'est encore pire que cela , car même les informaticiens ne savent pas vraiment pourquoi les LLM peuvent faire ce qu'ils font.
Les LLM sont constitués de logiciels, mais ils ne fonctionnent pas comme la plupart des logiciels. Ils sont probabilistes et pour la plupart imprévisibles, produisant des résultats différents avec les mêmes données. Bien qu’ils ne pensent pas, ils produisent des simulations du langage et de la pensée humains qui sont, autant que nous puissions en juger, suffisamment originales pour surpasser la plupart des humains . Ils sont perçus comme plus empathiques et plus précis que les médecins humains dans les essais contrôlés. Et pourtant, ils sont également limités de manière étrange et surprenante, comme l’ incapacité de raisonner à rebours .
Les LLM ne sont essentiellement qu'une saisie semi-automatique très sophistiquée. Alors, comment une saisie semi-automatique sophistiquée peut-elle faire ces choses ? La réponse jusqu’à présent, comme le décrit un excellent aperçu de la MIT Technology Review, est « personne ne sait exactement comment – ni pourquoi – cela fonctionne ».
Le résultat est que travailler avec ces systèmes est tout simplement étrange. Ici, je demande à GPT-4 de créer une image animée zoomant sur un chien. Il me dit d’abord que c’est impossible, puis, après que je lui ai donné un discours d’encouragement (« Non, tu peux absolument le faire ! J’ai confiance en toi »), il décide qu’il peut résoudre le problème. Mais il propose une solution qui ne fonctionne pas vraiment, notamment en me donnant un lien vers un fichier inexistant qu'il prétend avoir créé. Alors, je deviens un peu plus sévère : « vous n'avez réellement écrit aucun code, vous savez. sérieusement, c'est étrange. fais-le c'est tout." Et c’est le cas.
Et puis je lui demande d'améliorer l'animation, et maintenant j'ai un GIF qui zoome sur un chien, entièrement codé et développé par l'IA, géré par moi.
Imiter les gens
L’IA excelle dans les tâches qui sont intensément humaines : l’écriture, l’idéation, la feinte d’empathie. Cependant, il a du mal à réaliser des tâches dans lesquelles les machines excellent généralement, comme répéter un processus de manière cohérente ou effectuer des calculs complexes sans assistance. En fait, cela tend à résoudre les problèmes pour lesquels les machines sont douées d’une manière très humaine. Lorsque vous demandez à GPT-4 d'analyser les données d'une feuille de calcul à votre place, il ne lit et ne comprend pas de manière innée les chiffres. Au lieu de cela, il utilise des outils comme nous le pourrions, en jetant un coup d'œil à une partie des données pour voir ce qu'elles contiennent, puis en écrivant des programmes Python pour essayer de réellement effectuer l'analyse. Et ses défauts – fabrication d’informations, fausse confiance dans les mauvaises réponses et paresse occasionnelle – ressemblent également beaucoup plus à des erreurs humaines qu’à des erreurs mécaniques.
Cette bizarrerie quasi humaine explique pourquoi les meilleurs utilisateurs de l’IA sont souvent des managers et des enseignants, des personnes capables de comprendre le point de vue des autres et de le corriger lorsqu’il tourne mal. Vous remarquerez par exemple dans la conversation ci-dessus que j’ai coupé l’IA (à l’aide du bouton « stop ») lorsque j’ai vu qu’elle allait dans la mauvaise direction et que j’ai proposé à la fois un feedback et une correction. Plutôt que de nous concentrer uniquement sur l’apprentissage des bonnes instructions, nous pourrions consacrer plus de temps à leur apprendre à gérer l’IA. Les introduire dans la tête inexistante de l’IA afin qu’ils puissent comprendre intuitivement ce qui fonctionne. Après tout, la prise de perspective est une forme de compétence sociale plutôt que technique et elle peut réellement s’apprendre.
L’idée de traiter l’IA comme une personne s’aligne également sur les deux meilleures techniques d’incitation de base. La première consiste à donner à l’IA une personnalité spécifique, en définissant qui elle est et quels problèmes elle doit résoudre. Dire au système « de qui » il s’agit contribue à façonner les résultats du système. Lui dire d' agir en tant que professeur d'étudiants de MBA entraînera un résultat différent de celui si vous lui demandez d' agir en tant que clown de cirque . Ce n'est pas magique - vous ne pouvez pas dire Agir comme Bill Gates et obtenir de meilleurs conseils commerciaux ou écrire comme Hemingway et obtenir une prose incroyable - mais cela peut aider à rendre le ton et l'orientation appropriés à votre objectif.
Une deuxième technique puissante qui correspond au traitement de l’IA comme une personne est l’incitation à la chaîne de pensée, où vous demandez à l’IA de « réfléchir étape par étape » ou de lui fournir des instructions claires à suivre. Cela se traduit non seulement par des réponses de meilleure qualité, mais nous permet également de mieux comprendre où la réflexion de l’IA a déraillé. Et, encore une fois, les managers et les enseignants sont souvent les plus doués pour donner des instructions claires, ce qui rend la chaîne de réflexion plus efficace. Parler à une IA comme une personne semble être une nécessité pratique lors de l'invite.
Et certains des risques de l’IA pourraient en fait être moindres si leurs créateurs leur donnaient de fausses personnalités plus évidentes. Vous n'êtes pas habitué à ce qu'un ordinateur fasse des erreurs, mais vous savez qu'il ne faut pas faire entièrement confiance à Sydney, votre stagiaire un peu exagéré et stressé, aussi utile soit-il. La personnalité peut finir par être un facteur de différenciation pour certains LLM. Vous aimerez peut-être que Gemini soit un peu planificateur, tandis que d'autres pourraient aimer que Claude 3 soit plus disposé à faire semblant d'avoir des émotions.
Futurs anthropomorphes
En fin de compte, même si vous ne voulez pas anthropomorphiser l’IA, elles semblent de plus en plus vouloir s’anthropomorphiser. Le format chatbot, les « mémoires » plus longues sur plusieurs conversations et des fonctionnalités telles que la conversation vocale conduisent tous à rendre les interactions de l'IA plus humaines. Je couvre généralement l'IA pour des utilisations pratiques dans ces articles, mais la plupart des sites d'IA les plus populaires se concentrent sur la création d'IA en tant que compagnons - Character.ai est le deuxième site d'IA le plus utilisé, après ChatGPT . Et si vous n’avez pas essayé le chat vocal avec un modèle d’IA pour voir l’attrait, vous devriez le faire. Vous pouvez utiliser un site de chatbot, mais vous pouvez également utiliser Pi d'Inflection gratuitement (du moins pour l'instant, une grande partie d'Inflection vient d'être achetée par Microsoft), ou ChatGPT-4 via l'application téléphonique. Ces approches semblent fonctionner. Une session de discussion moyenne avec Pi, optimisée pour le bavardage, dure plus de trente minutes.
L’anthropomorphisme est l’avenir, dans le bon comme dans le mauvais sens. Un nombre croissant d’humains ont déjà le sentiment d’entretenir des liens profonds avec l’IA, avec des conséquences imprévisibles sur nos propres interactions : aider certaines personnes tout en sauvegardant les relations humaines d’autres. Compte tenu de la tendance, traiter les IA comme des personnes semble inévitable, donc trouver comment le faire de manière sûre et productive peut être mieux que les alternatives.