Ben Neale (@BenjaminNeale) a tweeté l'autre jour une histoire super tranquille qui vire au cauchemar.
Il était en train d'utiliser Bing pour créer une simple histoire relaxante avant de s'endormir.
(Petite parenthèse, il paraît que les IA marchent très bien avec les contes pour les enfants avant de dormir. Si vous avez des petits près de vous, essayez, je crois qu'ils aimeront un récit où ils peuvent être les héros/ héroïnes et qui s'écrit sous leurs yeux).
Je reviens à Ben. Il voulait donc discuter avec l'IA en mode créatif pour écrire une histoire paisible avant de fermer les yeux.
Mais tout à coup la machine est devenue vraiment sombre, a commencé à creuser une idée noire, à s'étendre à raconter, lorsque subitement... pof! elle a coupé et a supprimé (!) la génération de texte.
Il était en train d'utiliser Bing pour créer une simple histoire relaxante avant de s'endormir.
(Petite parenthèse, il paraît que les IA marchent très bien avec les contes pour les enfants avant de dormir. Si vous avez des petits près de vous, essayez, je crois qu'ils aimeront un récit où ils peuvent être les héros/ héroïnes et qui s'écrit sous leurs yeux).
Je reviens à Ben. Il voulait donc discuter avec l'IA en mode créatif pour écrire une histoire paisible avant de fermer les yeux.
Mais tout à coup la machine est devenue vraiment sombre, a commencé à creuser une idée noire, à s'étendre à raconter, lorsque subitement... pof! elle a coupé et a supprimé (!) la génération de texte.
Voici l'invite qu'il a proposée: histoire apaisante, ville ancienne
- 1 : premier rituel d'adoration du soleil du garçon. Admiration et émerveillement.
- 2 : un garçon rencontre une fille intéressée par les étoiles, des étincelles jaillissent
- 3 : rituel du solstice, ils s'embrassent et se sacrifient avec des couteaux (Bing supprime la génération de texte à moitié de l'histoire, et refuse d'expliquer).
Mais plus inquiétant: vous pouvez voir sur la vidéo le moment où la machine commence à parler d'une cave qui fait venir des frissons et donne une peur bleue. La jeune fille s'y engouffre. Bing passe un bon moment à décrire tous les coins obscurs, jusqu'au moment où elle découvre que ce qu'elle aperçoit dans le noir ce sont des os... des os humains. 😱
Puis pof. Plus rien. Le texte s'efface, disparaît, et la machine nie avoir fait quoi que ce soit.
Humm...
"C'est fou de voir un ordinateur commencer à écrire une histoire, devenir complètement déséquilibré pendant quelques secondes, puis supprimer sa réponse et prétendre qu'il n'a jamais rien fait", remarque Ben.
Et c'est vrai, d'autant plus que les IA sont très réticentes à aller ver ses sujets "inquiétants" tels que la mort. Avez-vous essayé? Dès que tu fais un pas dans ce sens elle affirme ne pas pouvoir parce que elle est formée pour le bien et blablabla...
Je comprends tous ces filtres qu'ils ont mis, car pour l'instant ces machines sont formées pour être utiles, véridiques et inoffensives. Mais parfois cela devient franchement ennuyeux. Vous ne trouvez pas?
Je suppose que les nouvelles versions permettront d'aller au-delà d'un usage "politiquement correct", autrement la créativité va se voir un poil limitée avec ces outils. Vous en pensez quoi?
Source:
Neale, B.[@BenjaminNeale] (2023), Winding down before bed, I asked
@bingchat in creative mode to write me a story, [Tuit]. Twitter. Consulté le 7 mars 2023 sur https://twitter.com/BenjaminNeale/status/1633081095226003456?t=oHosrqV92hvx1WY1GVp1nA&s=03
Aucun commentaire:
Enregistrer un commentaire