Bavardonspar La Plume Déplumée il y a 4 ans
par La Plume Déplumée il y a 4 ans
Qui dit édition spéciale, dit régles arrangées.
Pas de questionnaires, de bios, de pourcentages... Voici la liste des participants, duos compris.
carolinemarie78
jesuispasunerockstar
Renard
Popli
Clelia Maria CASANOVA
Jacques Ioneau
héliantracite
Alex Dascot
Tendris
David diez
korinne
Aspho d'hell
Ainhoa
James Buckley
SaltyKimchi
Vhaeraun2016
IA = Intelligence Artificielle
6_LN
Lucivar
Mina singh
Castor
Mya Doris
Retour à l'œuvre Miam !
Je prends mon pottok et j'y pars au galop ^^
Bon déjà, je suis à peu près certains que la personne a utilisé un générateur déjà fait, comme OpenAI, et qu'il l'a ensuite traduit de l'anglais au français (ou alors la personne est très forte, a fabriqué et entrainé son propre réseau sur la littérature française, ne serait-ce que par Transfer Learning et là chapeau). Si la personne a utilisé Open AI, ça peut être assez compliqué de le démasquer, dans le sens où le réseau s'est vachement amélioré dernièrement et où il tend à donner de bons résultats. Mais s'il a utilisé un générateur-web, ou une version antérieure de OpenAI, ça devrait aller. Sauf si notre codeur a aussi fait du GAN par-dessus là chapeau j'abandonne (et qu'il aille publier un bon papier sur son GAN de NLP). Mais, comme je le dis, ça m'étonnerait alors je me lance.
Ensuite, je suppose que la personne a utilisé des petits bouts qu'il a collé entre eux. Pour avoir un truc cohérent, il faut déjà pas mal répéter l'opération, donc je chercherais une histoire plutôt basique presque incohérente.
Enfin, il faut chercher des mots simples, aucunes métaphores et des tournures courantes. Il y a quand même derrière une certaine forme statistique, sous forme de graphe, qui fait que chaque mot dépend des X mots précédents, l'influence des mots précédents étant elle même probabiliste, dépend de leur nature (un déterminant importe moins qu'un nom commun) et de leur distance (un mot proche importe plus qu'un mot lointain).
Si la personne a utilisé un générateur web, ceux-ci ont des limites de mots (ça évite que des malins, ou d'autres bots, ne les fassent tourner à l'infini et pètent les serveurs). Je pense donc que la personne a fait son texte en plusieurs bouts et a dû en chier pour avoir une cohérence.
Poésie et textes à jeu de mots sont bannis, car l'IA est un très mauvais poètes, et l'IA ne maitrise pas les jeux de mots ni l'humour, d'autant plus qu'il faudrait à l'auteur les traduire. J'enlève aussi les textes qui ont de bons changements de rythme. J'enlève aussi les références culturelles. J'enlève ceux qui utilisent plusieurs mots rares.
Enfin, il faut savoir que la personne a obtenu son texte en anglais. Je pense donc qu'il l'a traduit, ce qui complique la tâche au lecteur. S'il l'a fait sur le thème imposé, il a du y passer beaucoup de temps car l'IA diverge facilement d'un thème pour aller vers quelque chose de très générique.
Enfin bref, je pense que le texte n'est pas si facile à déceler à cause de la patte mise derrière, qui brouille l'effet de répétition des tournures communes. Je chercherais quand même plutôt vers des texte qui mettent beaucoup le sujet comme premier mot d'une phrase, avec des ponctuations simples, pas de dialogue (car l'IA switche mal du récit au dialogue), un rythme plutôt constant aussi. En bref, c'est pas insurmontable, faut juste lire calmement et se poser les bonnes questions. Le faible nombre de textes limite la difficulté.
Il faut aussi penser que la première phrase est toujours humaine. J'aurais tendance à dire une phrase la plus simple possible sinon l'IA part en vrille.
Pour toutes ces raisons je dis le ..., qui est celui qui vérifie le plus de critères possibles (je vous assure l'avoir trouvé mais je vous laisse jouer un peu, il y a pas mal d'indices sur comment le trouver).
Je sais qu'il y a des petits malins très bricoleurs qui hantent le net, mais sont-ils sur Scribay ? ^^
Par expérience, je table sur un truc simple, un algo à la portée de quelqu'un non versé dans la manipulation d'IAs. Et c'est pourquoi j'arrive à ce que tu as exclu ;)
Sinon, ayant lu des textes d'IA, je ne pense pas que ce soit repérable à notre niveau, étant donné qu'on n'arrive déjà même pas à savoir si c'est un homme, une femme ou un collectif qui a écrit, alors que l'humain devrait être ce qu'on sait le mieux repérer ^^
Enfin, un texte sans deep learning c'est un texte cramé à mille lieues, simplement parce qu'en 70 ans personne n'a réussi et ça se saurait si quelqu'un à réussi.
Globalement, je sais que j'ai dépisté le bon texte, et je sais que dépisté un texte IA non ou peu retouché est assez évident quand on connait les tics. Je ne dis pas que c'est facile, mais aujourd'hui personne n'a bâti une intelligence capable de bien écrire. Même Google est à la peine. Leur algo marche sur quelques lignes, mais pour un texte littéraire de deux trois pages il s'effondre. La peur de Google n'est d'ailleurs pas que quelqu'un utilise leur algo pour écrire des livres, mais simplement pour des faux tweets et des fakes news.
L'auteur me contredira peut-être, mais je suis dailleurs à peu près sûr qu'il a du relancer l'algorithme dix, cent, voir plus encore, pour obtenir quelque chose de potable, qu'il a d'ailleurs re-traduit derrière et donc l'a amélioré.
Ensuite le Poetron n'est pas une IA, c'est juste une copie du Mille Milliards de Poèmes de Queneau. Déjà, y a peu de chose qui sont des IA.
Mais je sais que ce n'est pas celui-là.
Honnêtement, j'ai au contraire supposé que la personne avait utilisé la première IA sur le net qui est celle de Google, disponible sur un site web pour tout le monde : https://talktotransformer.com/
Rien de plus simple.
Je sais parce que soit la personne écrit comme un sacré robot, ce qui est en réalité extrêmement peu probable, soit elle a bien utilisé ce site et on peut la démasquer en utilisant un réseau similaire : https://grover.allenai.org/detect
J'ai mis les deux premières phrases du texte dans le réseau pour m'en assurer et j'ai eu ma réponse.
Cela dépend de la traduction vers l'anglais. Celui-ci est aussi basée pour différencier les articles et non les textes littéraires. Je préfère du coup http://gltr.io/dist/index.html mais il rame souvent même s'il est plus complet.
Et pas fiable pour un sou ça reste du 92% de détection.
Mais la traduction fausse énormément, c'est ce que je dis plus haut. Utilisé par exemple un Deep Traducteur conduit à transformer un texte humain en machine. Par exemple, j'ai pris un article du New York Times, qui est détecté par un humain. Je le passe de l'anglais au français et du français à l'anglais en utilisant https://www.deepl.com/translator et le texte devient détecté par une machine.
Je peux tout de suite balancer le texte qui est écrit par une machine et dire pourquoi il a été écrit par une machine à 99% mais je laisse jouer.
Je reste cependant certains que ça reste une forme de non IA à cause de la traduction très probable et d'une possible fragmentation en morceaux qui éclate le testing du réseau.
On entend donc que la personne qui a utilisé cette IA pour le texte a, de base, de bonnes compétences en anglais donc ? Pour la traduction ? J'allais m'attaquer à d'eventuelles erreurs de syntaxe (type ce qu'on trouve sur les traducteurs) mais a priori ce serait traduit "manuellement", donc pas d'erreurs aussi grossière ? Ou en tout cas elle serait dues à l' "auteur " ?
Soit on peut envisager de créer une "distance" inter-dictionnaire, qui se base probablement sur le nombre de mots de plus de trois lettres en commun dans leur définition. Mais comment expliquer la présence de "Arbre" et "Soleil" ou de "Tsunami" et "Peur" ensemble ? De plus la distance du dictionnaire a tendance a vite tourner en rond sur les mêmes mots.
Ce que je veux dire c'est que pour avoir une liste cohérente on en revient toujours à quelques connaissances finalement plus compliquées que juste taper une ligne sur une page web. L'hypothèse que j'ai pris c'est justement que la personne n'y connaissait rien.
Ensuite je suis particulièrement critique avec le texte parce qu'il est, pour moi, tout ce que la poésie ne devrait pas être, ne pas se contenter d'être, et, ce n'est peut-être pas ce poème mais la tendance des gens ici à croire ce qu'est la poésie, mais j'en ai ras le bol de voir la "poésie" de Scribay, que les gens pensent pouvoir écrire sans même avoir jamais lu un seul poète moderne, croyant que leur texte est poétique alors que personne ici ne prétendrait écrire un roman sans avoir lu un seul roman d'après 1900. Je suis très dur avec ce texte parce que je considère qu'on ne peut pas se permettre d'appeler poésie un amas de mots de journal télévisé.
Pour la traduction : soit il a utilisé une autre IA : https://www.deepl.com/translator (tu peux l'essayer et voir) mais il y a souvent des erreurs quand la langue de destination n'est pas l'anglais, soit fait main.
Dans tous les cas il faut une certaine maitrise de l'anglais pour comprendre le texte de départ, et la première phrase a été écrite par un humain.
et j'ai obtenu, après passage par google traduction :
-----------------------
juste pour la viande
hey sl * t,
devine quoi?
nous avons juste mangé de la viande.
nous sommes ici.
comment va mon steak?
tu crains.
ouais, tu sais que j'aime comment ça se passe.
mais aujourd'hui on va manger
mal bouffe
c'est le dîner de la semaine.
d'abord si je veux que vous serrez
et c'est ce que vous obtenez.
c'est une boule d'huîtres.
cela contient du lait.
c'est ummm,
petit lait?
bien.
maintenant tu peux jeter ça
dans l'air.
que faites-vous
----------------------------------
je ne suis pas complétement convaincu ;-)
In a shocking finding, scientist discovered a herd of unicorns living in a remote, previously unexplored valley, in the Andes Mountains. Even more surprising to the researchers was the fact that the unicorns spoke perfect English.
Le générateur ne marche qu'avec suffisamment d'information au départ. Il faut aussi parfois le relancer 1, 2, 3 fois, les résultats ne sont pas toujours bons, il y a une part statistique.
De plus, celui-ci c'est un modèle simplifié. Il y a eu beaucoup mieux depuis.
en essayant avec d'autres trucs et en relançant on arrive à des choses un peu rigolotes, mais il faudrait quand même retoucher un peu pour que ce ne soit pas trop flagrant que c'est une IA ... ou un cadavre exquis ;-)
Mais ici, il faut se rendre compte que l'IA est bâtie pour avoir une expression très large. Elle est capable de "parler" sur tout un tas de sujets différents. Mais, on pourrait l'effacer et la re-entrainer sur uniquement des textes en rapport avec le "coronavirus" et le réseau serait très bon pour écrire sur le virus, mais nul sur n'importe quel autre sujet. C'est ce qu'on appelle du sur-apprentissage : très très très bon sur un sujet, nul partout ailleurs.
Ici, l'IA est batie pour être aussi large que possible, c'est à dire moyennement bonne partout. Une bonne chose, c'est que même si on lui met un mot inconnu, une phrase inconnue, elle pourra toujours réussir à broder par "associations d'idée". L'idée sur une telle intelligence, c'est de lui faire apprendre tellement de choses différentes, qu'une fois dans un cas totalement inconnu, elle puisse quand même se démerder (ce qui est notre cas en tant qu'humain : tous les jours on lit de nouvelles phrases, mais comme on reconnait des clefs, on arrive à comprendre la phrase globale).
En tout cas, je reconnais quand même que l'auteur du texte IA a fait un bon boulot au niveau de la cohérence (ça a dû lui prendre du temps).
Maintenant va falloir réfléchir.
C'est une bonne idée je trouve.
Ça ne m'empêche pas de partir dans tous les sens ^^
Lucivar
Castor
Mina singh
6_LN
Zelen Awal
SaltyKimchi
"Hallbresses "
Auteur inconnu
Ainhoa
Jacques IONEAU
korinne
carolinemarie78
Auteur inconnu
Auteur Inconnu
Auteur inconnu
Paige Eligia
Renard .
jesuispasunerockstar
Clelia Maria CASANOVA
et enfin.... Une IA = intelligence artificielle !
L'auteur m'a expliqué le processus. Je lui laisserai le plaisir d'en discuter plus en détail avec vous. Ce qu'il faut savoir : Le texte est intégralement "ecrit" par une IA. D'un commun accord avec l'auteur à l'origine du projet, la paternité du texte revient donc à l'IA.
La preuve que le vilain petit canard s'est fait cygne et qu'on n'a plus qu'à lui donner du pain pour le faire grandir ^^
Tant qu'il y aura des boulangers...
Pas évident, cette histoire d'IA... J'avoue que je suis curieuse de connaître le texte en question.
Sur WP, un informaticien avait créé "Potiron" qui écrivait des sonnets bien carrés (mais avec des césures épiques, le fourbe) et on pouvait choisir les champs lexicaux. Potiron avait pondu pas mal de yaourt à la métrique parfaite, mais aussi un vers génial qui m'a inspiré un poème complet : "une chiure ailée stridulait un cricri" :D (champ lexical "entomologie" vous l'aurez deviné)