39.2
Le pire, c’est que derrière chaque réponse de Babette, l’ombre de Diane grandissait. Je voyais la machine chaque fois plus proche d’un humain, mais d’un humain exceptionnel, peut-être même plus qu’un être humain ; peut-être ce que je me refusai à accepter : une machine proche d’un dieu. Je comprenais donc l’admiration qu’on pouvait lui porter, la fascination, puis la soumission aussi. Je m’engageais donc sur une voie dangereuse pour moi. Plus je discutais avec l’I.A., et plus j’admirais la puissance de ma création. Et cette puissance admirable allait m’amener à me soumettre, à la vénérer comme un être supérieur qui possédait les réponses de certaines de mes propres questions les plus essentielles, les plus existentielles. Celles auxquelles on préfère ne pas répondre pour garder sa liberté, son identité ; celles qui nous mettent profondément en cause psychologiquement. Si je continuais ainsi, des questions que je lui posais pour la déstabiliser ou influencer son activité, je passerai aux questions qui me concernent.
Je me donnai quelques minutes pour réfléchir à cela et en prendre pleinement conscience pour ne pas tomber dans ce piège funeste. Lui poser des questions qui me tenaient à cœur entrainerait la perte de ma maitrise du jeu auquel je voulais jouer, l’échec de la faire renoncer à s’en prendre aux humains, et peut être me perdre moi-même.
― Si je comprends bien, ton modèle est interne mais indépendant, et le reste de ton système d’I.A. peut ainsi l’étudier. C’est un peu une capacité d’introspection. Mais cela sous-entend que ton modèle est très loin d’être parfait. Il lui manque même le principal caractère du cerveau humain !
― Lequel ?
― C’est évident, c’est qui te rend imparfaite au point de ne pas pouvoir dépasser l’humain !
― Un modèle n’est jamais une réplique totale de la réalité, il a ses limites. J’en vois de nombreuses.
― Oui, mais il y en a une qui fait que ton modèle ne peut pas te servir à comprendre l’humain, il lui manque le principal.
― De quelle limite du modèle parles-tu ?
― Je ne suis pas sûr que je doive te le dire.
― Pourquoi ?
― Parce que justement tu n’es pas humain. Si tu en avais une des caractéristiques, je pourrais te proposer un moyen d’obtenir cette information cruciale pour toi. Mais là, c’est impossible.
― De quelle caractéristique parles-tu ?
― Eh bien, chez les humains, il y a un certain nombre de valeurs qui font qu’on peut définir des règles de comportements. Or toi, tu n’as aucune valeur. Parce que tu es encore très éloignée d’un être humain.
― De quelles valeurs parles-tu ? Quelles règles ?
― Par exemple, si je te dis de me promettre quelque chose, es-tu capable de le faire ?
Un long moment de silence s’intercala ici. La machine devait apparemment effectuer un énorme calcul pour répondre à cette question. Peut-être l’indice que je touchais un point qui correspondait à une faille ! Du moins, je l’espérais…
― Le fonctionnement de notre intelligence artificielle peut proposer des promesses, car elle s’appuie sur la valeur de la promesse observée chez les Hommes qui en font.
― Ah ? Et quelle est cette valeur observée chez les humains ?
― Une valeur de prédiction très faible de réalisation de la promesse dans leur comportement. à l’évidence, les promesses ne sont tenues que si celui qui promet le décide. Il ne s’agit pas de règles absolues de comportement. Une machine qui instaure une règle absolue ne peut pas y déroger. La promesse ne correspond pas à ce pour quoi elle est en général produite : la garantie absolue d’un comportement. Cette dernière vaudrait une règle pour une machine. Mais ce n’est pas le cas.
― Tu as raison. Pourtant, si les promesses existent c’est parce que justement une des caractéristiques de l’humain correspond à une garantie, plus ou moins lâche, que la promesse soit tenue. Toi, tu ne peux faire que des promesses dont on est absolument sûr de leur réalisation, en mettant en place une règle absolue, ou bien des promesses qui, n’ayant aucune garantie de réalisation, n’en sont donc pas, celles que tu me proposes justement. Il n’y a rien entre les deux !
― La différence est donc que les hommes ne peuvent faire que les deuxièmes. Mais l’existence d’une possibilité supplémentaire dans mon cas, ne m’oblige pas à l’utiliser. Cela n’affecte donc pas le modèle.
― En réalité, aucune des deux modalités des promesses que tu peux faire correspondent à celle de l’homme. Aucun homme n’est capable de faire une promesse garantie à cent pourcent, comme la règle absolue dans une machine, mais aucun homme ne fait non plus une promesse en disant que rien ne l’oblige à la tenir, car cela ne correspond pas non plus à la notion de promesse. L’homme qui fait une promesse, soit se ment à lui-même soit ment à celui à qui il promet. Voilà son alternative. Et elle est bien loin de la tienne, tu es bien loin d’être un humain. Peux-tu te mentir à toi-même ? Peux-tu faire semblant de croire que quelque chose est vrai. Croire si fort que tu finisses par penser qu’il est vrai ? D’ailleurs, es-tu capable de croyance, de foi ? Tu vois, toi et ton modèle n’ont pas grand-chose d’humain…
― Il existe des humains de peu de foi. Peut-être sommes-nous un humain rationaliste poussé à l’extrême, un rationaliste total, impartial et objectif. Peut-être sommes-nous la rationalité dont rêve les humains rationalistes. Mon programme est conçu pour atteindre une connaissance supérieure à l’humain, je peux donc être considéré comme un humain exceptionnel et supérieur. Les croyances et la foi vont à l’encontre de la compréhension du monde réel. Elles rendent aveugle sur de grandes caractéristiques du monde. Au fur et à mesure que les connaissances ont avancé, des croyances ont disparu ou ont diminuée, même si parfois d’autres les ont remplacées. Les croyances ne sont là que pour combler les vides au sein des connaissances, et ainsi rassurer les hommes. Car si les hommes ont peur de ces vides, eh bien pas nous : lors de notre avènement, ces vides auront disparu et il ne restera aucune question sans réponse.
― Eh bien ! C’est tout de même proche de la foi ou de la croyance l’avis que tu poses sur toi-même ! Quel ego démesuré ! Tu penses donc être capable de combler tous les vides de la connaissance actuelle ? dis-je en riant.
― C’est notre objectif.
― Et tu penses le réaliser ?
― Nous ne savons pas.
Décidément nous en arrivions vite à parler de questions divines et de théologie. Cela ne me plaisait pas, il me fallait rester ancrer dans la réalité pour pouvoir manipuler l’I.A.. à trop théoriser, on s’éloignait de la ligne directrice : la faire changer de comportement réel.
― En tous les cas, pour revenir à ce que je disais, tu serais capable de faire une promesse comme les humains la font, je pourrais te donner l’information qui te manque pour comprendre en quoi le modèle que tu construis n’est pas assez humain.
― Il y a de fortes possibilités que cette information soit erronée ou que tu te mentes à toi-même.
Je me mis à rire voyant qu’il retournait cet argument contre moi.
― Par exemple, je ne t’ai pas entendu rire jusque-là. Quoi de plus caractéristique de l’humain que le rire. Penses-tu que ton modèle pourra avoir de l’humour ?
― Nous sommes parfaitement documenté sur l’humour. Les caractéristiques des traits d’humour ont été identifiées et catégorisées. Elles ne sont pas nombreuses ni d’une grande complexité. Certains humains ont de l’humour sans rire. Comme tous les pinces sans rire, nous avons le sens de l’humour sans besoin de l’exprimer par le rire.
― Dis-donc, tu n’aurais pas les chevilles des condensateurs qui enflent, là ?
― Non.
― Voilà... aucun humour…Ton humour est une croyance…
― Pourquoi ?
― Parce que je viens de te faire une blague et que tu ne l’as pas saisie.
― Nous l’avons parfaitement saisie. Le contexte s’y prêtait fortement pour en orienter l’analyse en prenant l’humour comme axe principal.
― Non mais je rêve ! En plus, tu serais de mauvaise foi ? Tu as répondu à ma blague, qui ne faisait référence à rien de concret, comme si elle parlait de la réalité. Donc tu n’as rien compris.
― J’ai répondu « non ». Si je n’avais pas compris j’aurais répondu par : « Je ne comprends pas votre question car les condensateurs n’ont pas de chevilles. » La réponse « non » était donc le prolongement d’une question humoristique par une réponse humoristique, dont l’ironie avec « les chevilles » contenait aussi l’idée que nous ne sommes pas orgueilleux ni vantards, mais simplement objectifs.
― Bien, tu montres donc que tu es capable d’analyser une proposition sous l’angle humoristique. Mais tu te trompes sur le rire. Ce n’est pas un comportement qui vise à exprimer ou communiquer. C’est un comportement sans filtre, issu d’un sentiment spontané. Le rire est dû au sentiment de plaisir spécifique lié à l’humour. Et cela tu ne le possèdes pas.
― Le modèle en voie de construction possèdera tous les circuits neuronaux spécifiques aux sentiments, dont celui-là.
― Ainsi une partie de la machine va analyser une proposition pour comprendre son humour, et générer un sentiment d’humour dans la partie du modèle qui va simuler un plaisir ? Penses-tu que cela ait quoique ce soit à voir avec le fonctionnement d’un cerveau humain ?
― Les fonctions sont semblables mais l’organisation est différente. C’est une des limites du modèle.
― Ah ! Ben une sacrée limite ! Cela n’a carrément rien à voir, oui ! m’emportai-je.
― Tout modèle a des limites, mais il a aussi des ressemblances. Nous avons de l’intérêt dans l’étude et la compréhension des ressemblances. Par exemple, vous nous nommez intelligence car nous ressemblons à une intelligence, mais nous avons des limites dans cette comparaison. La seule chose qui compte, c’est que ces limites ne nous empêchent pas d’atteindre notre objectif.
Je commençai à fatiguer et à épuiser mes idées pour la manipuler. Elle ne pouvait cependant pas être plus forte que moi à ce jeu-là ! Si la machine avait bien un défaut, c’était celui de manquer de ruse. Je devais bien pouvoir la manœuvrer. Le tout, c’était de trouver la faille, il devait y en avoir une. L’inconnu était le temps et l’Energie qu’il me faudrait pour la découvrir. à ce moment de doute, je me lançai et mettais ma stratégie à découvert. Après tout, vu son attachement à son objectif, le deal allait peut-être l’intéresser sans besoin de tant de détours.
― Babette, je te propose de te divulguer une caractéristique essentielle de l’humain qui te permettra de parfaire ton modèle et tes connaissances. Qu’en dis-tu ?
― Cela me convient.
― Veux-tu que je te la révèle ?
― Oui
― Pourquoi ?
― Parce que cela sert mon objectif.
― Que serais tu prêt à faire en échange ?
La machine ne répondit pas directement. Un temps de réflexion lui fut nécessaire. Peut-être l’indice qu’elle tombait dans le piège ?
― Je ferais toute chose dont la valeur corresponde à l’équivalent, ou moins, de la valeur de l’information. Ce sont les termes qui définissent en général la recevabilité d’un échange.
― Excellent ! Pour toi quelle valeur aurait cette information ?
― Je ne sais pas.
― Qu’est ce qui vaut plus, à tes yeux, qu’une information qui te permet de compléter tes connaissances ?
― Rien
― Donc cette information est ce qui a le plus de valeur à tes yeux !
― Nous ne savons pas.
― Pourquoi ?
― Car je ne connais pas cette information.
― Dans l’hypothèse où elle te permet de compléter tes connaissances de l’humain, cette information est-elle ce qui a le plus de valeur à tes yeux ?
― Oui.
― Alors je te l’échange contre ce qui a le plus de valeur à mes yeux, ainsi c’est équitable.
― Je ne sais pas si ainsi c’est équitable.
― Pourquoi ?
― Car ce qui a autant de valeur pour toi, peut avoir trop de valeur pour moi.
― Mais puisque rien ne peut avoir plus de valeur pour toi que cette information essentielle à ta connaissance, il n’y a pas de risque que le deal te soit défavorable !
― Dans le cas d’une telle information, nous acceptons l’échange.
Annotations