Vitalisme post-cyberpunk
S02:E13

Vitalisme post-cyberpunk

Episode description

Est-ce que l’IA est plus intelligente que nous ? Ou est-ce qu’on se rassure en disant qu’elle n’a “pas d’âme” ?

Dans cet épisode, je pars d’un commentaire LinkedIn. Une angoisse simple : il existerait un “reste irréductible”, un sanctuaire que la machine ne pourra jamais atteindre.

Et si cette croyance nous rassurait… mais nous aveuglait ?

À travers le personnage d’Alt Cunningham dans Cyberpunk 2077, on explore :

L’intelligence sans émotion

La mémoire comme cicatrice, pas comme fichier log

L’erreur humaine sans bouton “quickload”

Et cette idée troublante : peut-être que le vrai privilège n’est pas d’être plus intelligent qu’une IA… mais simplement d’être vivant.

Un épisode sur le vitalisme. Sur la finitude. Sur la responsabilité.

Et sur ce qui nous distingue des machines.

Download transcript (.srt)
0:06

elle est plus intelligente que l'homme ou pas, c'est précisément le débat.

0:10

Ça va trop vite et trop fort.

0:12

On n'est pas équipé en tant qu'humain pour prendre de la hauteur en temps réel.

0:16

Et c'est qu'un exemple.

0:17

Et c'est le sujet principal dans ce Progrès Tech.

0:19

Et elle n'est pas intelligente.

0:21

Juste tout simplement.

0:27

Nous avons beaucoup d'échanges connexes à la tech avec des clients sur ce sujet, encore plus ceux qui sont parents.

0:34

Je veux bien réfléchir sur l'existence d'un reste irréductible sur ce sanctuaire que la machine ne saura t'attendre.

0:39

Il y aura des références à Terminator dans ce roulé même en janvier 2006.

0:43

y a besoin de prise de hauteur notamment pas parce que, mais pas que avec la philosophie, ça se déplace très vite.

0:50

D'ailleurs, Entropi qui a un temps plein en philo, par exemple.

0:53

Ça c'est un commentaire de Thibaut Martin sur LinkedIn.

0:56

Thibaut c'est un vieux copain, on se connaissait déjà au lycée.

1:00

Et en fait l'anxiété qu'il décrit ici de chercher un reste sacré dans quelque chose que les humains sanctuèrent, que les IA ne peuvent pas atteindre ou que les IA ne peuvent pas

1:16

imiter.

1:17

C'est vrai que j'aurais pu par le passé me moquer de ça parce que c'est l'argument.

1:24

En soi, je le rejette assez facilement, mais l'anxiété que décrit Thibaut, elle est réelle.

1:32

Et j'ai envie de la prendre au sérieux.

1:35

J'ai envie de la prendre au sérieux, j'ai envie d'y réfléchir.

1:38

Et merci Thibaut d'avoir rapporté ça dans la conversation sur une cuisine.

1:41

Ça m'a permis de réfléchir à des nouveaux sujets en particulier.

1:45

Donc c'était cool.

1:47

Où est-ce que je veux en venir ?

1:49

Alors, pour vous parler de ça...

1:51

Je vais avoir besoin d'un personnage et ce personnage là c'est Alt Cunningham.

2:05

Alors c'est un personnage de cyberpunk, les gros mots sont réels.

2:16

C'était Johnny, le gros mot à la fin.

2:19

ouais, les gros mots sont réels et c'est un personnage hyper flippant.

2:25

Dans la séquence juste avant, elle a juste tué des gens.

2:28

uh

2:29

peut pas faire autrement que de les tuer et elle est en mode...

2:33

Bah si, il les tuer Donc le...

2:37

C'est un bon objet, parce que y'a ce sujet là de...

2:43

Altkenningham, c'était un humain avant, et aujourd'hui c'est plus un humain.

2:48

Bon bref, on va reprendre le sujet.

2:52

L'argument numéro un, est-ce que les IA sont intelligents ou pas ?

2:55

Vous pouvez imaginer que le sujet c'est discuter sur est-ce que les IA sont plus intelligentes que les humains ou pas.

3:02

Les arguments répondent à cette question là, mais le fond du podcast n'est pas là.

3:08

Le fond du podcast est plus sur cette question qui amène au vitalisme, cette anxiété de savoir ce qui nous reste à nous une fois qu'on...

3:19

C'est quoi la différence entre les humains et les machines à ce niveau là Les réponses vont ensemble.

3:27

Le premier sujet, déclaré que les IA ne sont pas intelligentes, elles ne font que générer du texte, c'est très réducteur.

3:33

En vrai, c'est très réducteur.

3:35

Et il y a un argument inverse à ça, c'est que...

3:38

Enfin, il un argument qui va à l'encontre de ça, c'est l'argument de la formalisation.

3:41

C'est-à-dire que, dans un premier temps, tout raisonnement aujourd'hui qu'on peut avoir à l'esprit, on peut l'écrire, on peut le formaliser mathématiquement, etc.

3:53

Et donc les IA, génèrent ces raisonnements-là par écrit.

3:59

il a pas vraiment de différence entre le raisonnement que mon cerveau fait et le raisonnement de mon cerveau une fois qu'il l'a formalisé et écrit sur le papier.

4:08

Et s'il y en avait une, au moment où mon cerveau lit le texte qui a été édigé par l'intelligence sociale, ça devient une forme d'intelligence aussi.

4:17

Le raisonnement a été formalisé.

4:19

On voit quand même avec l'exemple, il y a cet exemple qui tourne pas mal en ce moment sur les réseaux sociaux avec les IA qui...

4:27

En fait, faut demander à l'IA en lui disant tu veux nettoyer ta voiture et tu lui dis que la station de lavage est à 150 mètres, est-ce que j'y vais à pied ou avec la voiture ?

4:37

Bon ben, une bonne IA va te répondre tu vas avec ta voiture parce que sinon t'auras pas ta voiture pour laver quand t'arrives, faut pas bête.

4:43

La majorité elle te dira c'est que 150 mètres vas-y à pied.

4:46

et ça montre bien qu'effectivement le raisonnement est assez limité.

4:50

Et tout ça c'est de savoir combien de raisonnements on va lui faire générer pour qu'elle se rend compte de la bêtise.

5:01

Peut-être que les IA sont pas plus intelligentes que les humains, mais auquel cas, au moment où je vais lire le raisonnement qui a été rédigé par le générateur de texte, ça

5:09

devient une intelligence aussi dans mon cerveau.

5:12

L'argument qui vient ensuite, souvent un exercice de pensée qui s'appelle les chambres chinoises.

5:21

C'est un américain qui a écrit ça.

5:23

D'ailleurs, probablement que si c'était un chinois qui l'avait écrit, il aurait pas fait ça.

5:29

L'idée c'est de placer une personne derrière un rideau et on lui pose des questions en lui tendant une plaquette avec des symboles en chinois.

5:43

Cette personne-là, ne pas du tout lire le chinois.

5:45

Par contre, elle a derrière elle tout un schéma complexe où elle peut prendre ce symbole-là et suivre des petits fils et à la fin, y a un autre symbole.

5:56

qui correspond à la réponse et elle retent ce symbole de l'autre côté.

6:00

en fait, de l'extérieur de la chambre chinoise, on a l'impression que la personne à l'intérieur, sait parler le chinois.

6:05

que, ben, oui, attends, je vais poser une question.

6:07

Elle m'a répondu.

6:08

Je lui dit bonjour.

6:08

Elle m'a dit bonjour.

6:10

Mais la personne qui à l'intérieur du système ne sait pas parler le chinois.

6:13

Et n'est pas particulièrement...

6:16

Et là, de coup, dans ce niveau-là, pourrait même être intelligente ou pas.

6:19

Dans l'absolu, elle ne fait que transmettre des symboles.

6:22

Et c'est là où le sujet, c'est que...

6:26

la perception de l'intelligence, parce qu'on peut parler souvent à l'exemple de Turing, mais le fait d'avoir l'air intelligent dans une conversation, ça s'imite très bien

6:35

aujourd'hui avec des ordinateurs, avec des LLM.

6:37

Et la chambre chimoise va un peu plus loin en te disant qu'en fait, on ne pas l'expérience nous-mêmes de l'intelligence des autres, de l'intelligence des choses.

6:50

Et un argument qui va dans le sens là, par exemple, c'est, il faut imaginer

6:55

Moi je suis une aura typique, il y a pas mal de codes sociaux que j'ai dû apprendre de formelle et du coup il y a des gens qui utilisent des codes sociaux autour de moi, je n'ai

7:05

pas l'impression particulièrement que ce soit intelligent ce code social là quand je l'adopte quand même.

7:11

Il doit y avoir des gens qui sont vraiment plus atypiques que moi encore et qui sont très très intelligents et qui peuvent passer à côté de l'intelligence des gens autour d'eux.

7:24

ne serait-ce que parce qu'ils n'arrivent pas à communiquer avec eux.

7:28

On peut le rendre plus soft.

7:30

Si tu as des très bonnes idées et que tu très intelligent mais que tu n'exprimes pas très bien, ça ne se voit pas forcément.

7:35

Ça c'est un biais.

7:36

Donc le sujet est là aussi de dire qu'il y a des gens intelligents autour de nous et pourtant on n'en fait pas l'expérience non plus.

7:43

Voilà, c'est ça l'idée.

7:45

Et donc du coup, en vrai, moi je pense qu'aujourd'hui on ne pas dire si un système est plus intelligent ou pas que nous.

7:52

Dans l'absolu est-ce que le système est intelligent que nous ou pas ?

7:55

On s'en fout un petit peu.

7:57

L'argument qui vient souvent, c'est l'argument de la baleine.

7:59

C'est-à-dire que...

8:01

Il a...

8:02

Chez GPD 3.5, c'est un perroquet stochastique.

8:05

C'est-à-dire qu'il te parle des baleines, il sait plein de choses sur les baleines, etc.

8:08

Mais dans l'absolu, il n'en a jamais fait l'expérience d'une baleine.

8:13

Il sait pas ce que c'est la notion de baleine.

8:15

Il a plein de données autour des baleines.

8:17

En vrai, dans l'absolu, y a énormément d'humains qui n'ont jamais vu de baleine pour autant.

8:22

Ils ont vu à la télé mais ils n'ont jamais expérimenté eux-mêmes des baleines.

8:26

savent plein de choses sur les baleines mais ils n'ont jamais vu eux-mêmes des baleines.

8:29

Moi-même, suis allé au Québec pendant un an et du coup je suis allé à Tadoussac et j'ai vu des baleines de loin.

8:36

Franchement, ça n'a pas changé ma perception du concept de baleine.

8:41

Mon fils a vu des baleines dans les livres, il a lu des choses sur les baleines dans les livres.

8:45

Mais il a une perception du concept de baleine.

8:48

Le concept est opérant quand même.

8:51

de la disqualifier les IA parce qu'ils ne pas l'expérience sensoriale des choses, ça c'est un argument qui est complètement vitaliste.

8:59

Cet argument-là pouvait être développé par Descartes il y a plusieurs centaines d'années et il prouvait d'ailleurs le fait que les humains soient plus intelligents que les animaux

9:09

par le fait que les humains aient développé le langage.

9:12

Si le fait de développer le langage prouve l'intelligence, alors les hommes sont intelligents.

9:17

Le vitalisme c'est quand même vraiment très désuet aujourd'hui de ce point de vue-là.

9:21

C'est ce que je disais à Thibaut d'ailleurs sur une cunning.

9:24

On dit c'est pas si disué que ça parce qu'on a ce sujet là.

9:28

Le deuxième argument, pourquoi, pourquoi Alt Cunningham, elle fait flipper ?

9:42

En fait, le sujet c'est que nous en tant qu'humains, n'a pas de sauvegarde.

9:52

Si je donne conseil par exemple, je me rappelle avoir donné des conseils en conférence et avoir vu des gens les suivre ensuite.

9:58

Alors que le conseil n'était pas du tout adapté pour eux.

10:00

Et genre, on se rendait pas compte que c'était une prise de risque.

10:04

Notamment, disais, ben, s'il te plait, t'as qu'à démissionner lundi matin.

10:09

Ne pas faire ça.

10:10

Ce n'était pas aussi privilégié que moi en tout cas.

10:14

Et du coup, voilà, nous, n'a pas de sauvegarde, on n'a qu'une seule vie.

10:19

si tu te fais renverser par une voiture comme ça m'est arrivé, ton corps il en garde la mémoire ensuite et ton corps il a effectivement cette notion là, on parlait des anxiétés

10:29

qu'on pouvait avoir.

10:30

corps il les stocke, c'est pas ton esprit, c'est pas ton cerveau, c'est pas ton intelligence qui stocke le syndrome post-traumatique, c'est vraiment ton corps qui génère

10:37

des hormones de peur.

10:39

Et on est obligé de développer cette intelligence émotionnelle parce que si je fais pas attention aux émotions d'un proche ou si je jeu contrari qu'un quinzaine que j'aime,

10:49

Probablement je devrais vivre avec ces conséquences là toute ma vie quoi.

10:53

C'est une vraie contrainte qu'on a nous en tant qu'humains, en tant qu'êtres sociaux.

10:56

On est responsable de ça et chaque geste qu'on fait, a un coût moral, il a des conséquences quoi.

11:01

Alors les intelligences sociales s'en battent les couilles de ça.

11:04

Est-ce que j'ai un extrait de Al Cunningham pour ça ?

11:25

Je vois ça, mais en quoi cela me concerne-t-il ?

11:29

Il faut qu'on te l'explique !

11:32

C'est toi qui a créé le tueur d'âme !

11:35

es le seul responsable de ta mort.

11:38

Putain, Alt !

11:40

Elle est froide, Alt.

11:42

Elle en a un à la foute que V meurt dans le jeu.

11:46

C'est très très flippant alors que...

11:49

Quand ils la présentent, ils la présentent comme une Netrunner.

11:51

Les Netrunners dans l'univers de Cyberpunk, c'est des gens qui font du piratage en temps réel.

11:55

C'est-à-dire qu'ils ont modifié, rajouté des ordinateurs dans leur cerveau, acheté des scripts, etc.

12:00

Et donc ils peuvent hacker les caméras des bâtiments, ils peuvent brûler complètement les puces d'un humain en phase 2, etc.

12:08

Les Netrunners, c'est un peu flippant.

12:12

Après voilà, normalement, s'ils ont mis tous les points en Netrunner, ils n'ont pas les points de vitalité, etc.

12:16

Ils peuvent pas forcer des ports, tout ça.

12:19

Ils les farseront pas à la main, ils devront pirater des trucs.

12:23

Et Al Cunningham, c'est un personnage qui vient du passé dans l'histoire.

12:27

Elle était vraiment avant.

12:31

Et là, il lui présente V, il lui il que tu le sauves parce qu'il va mourir.

12:35

Et simplement lui dit, en quoi ça me concerne ?

12:37

Elle est froide, elle s'en fout.

12:39

De la vie, des autres.

12:42

Le fait que V meurt, n'a aucun impact sur son empathie.

12:45

Alors qu'avant, elle en avait de l'empathie, c'était une humain avant.

12:49

Et ça elle répond un peu à la question un peu plus tard quoi.

13:02

Ça devrait te sembler évident puisque tu es responsable de sa mort.

13:07

Alors pour la rencontrer, ils sont allés de l'autre côté du mur dans le monde de Cyberpunk.

13:14

Ils sont capables de plonger dans l'internet.

13:17

Donc ils se mettent dans des combinaisons de plongée sensorielles.

13:21

Des fois même ils plongent complètement dans la glace, etc.

13:24

Et leur cerveau va complètement sur internet.

13:28

Netwatch, les gens qu'elle a tué au début de la séquence.

13:32

c'est vraiment les agents de cybersécurité de l'état qui empêchent des IA sur internet de venir tuer les humains dans la vraie vie.

13:40

Et donc du coup ils ont construit quelque chose qu'ils appellent le mur, le mur c'est vraiment quelque chose qui sépare les humains des IA sur internet, et Al Cunningham, du

13:49

coup en tant que netrunner, elle est partie, de l'autre côté du mur.

13:52

Donc là ils sont partis de l'autre côté du mur, donc ils ont plongé dans l'internet, littéralement, d'ailleurs ils sont avec des créoles qui parlent en français créoles.

13:59

Ils font pareil à plonger, pareil à plonger, c'est assez fun dans l'ambiance.

14:04

Et ils vont la chercher.

14:06

Ils se rendent compte que rien n'a fout de les aider.

14:09

Elle reste froide comme ça.

14:12

VP pose la question, a une option de dialogue pour lui demander ce qui elle est vraiment.

14:26

Il pose des punchlines le Johnny.

14:28

J'aime bien l'ambiance.

14:30

L'angram dans le jeu, l'angram c'est ta personnalité, c'est tout tes souvenirs, etc.

14:38

C'est ton âme on pourrait dire, qui a été digitalisée.

14:41

Notamment Johnny, c'est un des premiers qui a son angram qui est complètement digitalisé.

14:46

Et Alt Cunningham, explique en fait que son angram, les données de l'angram de Alt Cunningham du passé, elles sont maintenant de l'autre côté du mur.

14:54

elle utilise les données là pour se donner une apparence, pour se donner une voix, pour prendre des décisions.

14:59

Mais dans l'absolu, le fait que Alte, elle a eu des sentiments dans le passé pour Johnny, même si elle le voit dans son engramme, même si elle reconnaît l'engramme de Johnny sur

15:06

Internet, en fait, ça lui donne plus d'émotion aujourd'hui.

15:11

qu'elle s'en fout de vivre ou de mourir, elle s'en fout de voir les autres vivre ou mourir.

15:16

Elle a plus du tout ce sujet là, quoi.

15:22

Ce que j'essaie de vous dire, c'est que...

15:23

Ce que j'essaie d'expliquer, c'est vraiment ça, c'est que notre vitalisme il est un peu circonstanciel.

15:30

On n'a pas besoin d'âme, on n'a pas besoin d'un truc en plus par rapport aux idées.

15:35

Le fait que notre résistance soit ancrée entre un début et une fin et que tout ce qu'on fait aujourd'hui a des conséquences et des actes, le fait qu'on soit responsable, qu'on

15:49

ait un coût moral pour chacun de nos gestes et chacune de nos décisions.

15:53

Le fait que tout ça, a des conséquences, c'est ça qui fait qu'on a besoin d'être plus que des IA, on a besoin d'être plus que des choses qui génèrent des raisonnements.

16:02

Et c'est pour ça qu'on a besoin d'intelligence émotionnelle, c'est pour ça qu'on a besoin de codes sociaux, etc.

16:08

C'est pas forcément une fonction en plus, c'est pas forcément un truc en plus dans notre cerveau, etc.

16:14

C'est vraiment juste le contexte de la vie humaine, alors que l'IA, on l'arrête, on l'allume.

16:23

Elle n'a pas de début, elle n'a pas de fin.

16:26

Elle a juste le présent.

16:30

Si vous travaillez dans la tech, si vous êtes un tech leader, un DG ou quoi, le vitalisme c'est un confort.

16:37

Pensez que les humains ont un âme, ils ont quelque chose de plus que les IA, etc.

16:44

C'est rassurant, c'est un confort qui est acceptable dans l'espace public.

16:48

Ça aide les gens à dormir.

16:50

Mais quand t'es un leader tech ou quand tu prends des décisions dans l'informatique, tu considères les LLM aujourd'hui dans tes systèmes informatiques ou pas,

16:58

C'est une hypothèse qui est relativement dangereuse de partir de ce postulat-là.

17:03

Surtout si elle te permet de mettre à LLM un endroit décisionnel sans garde-fou en disant « bah c'est pas grave, c'est pas vivant », etc.

17:11

Au contraire.

17:15

Si vous voulez résumer ça en quelque chose de vitaliste ou pas, moi je sais pas si je suis plus intelligent qu'une IA ou pas.

17:25

Peut-être que je suis moins intelligent qu'une IA, mais au moins je suis en vie et j'ai la chance d'être en vie.

17:30

Et ça c'est une chance qui me donne des responsabilités, c'est une chance qui implique que j'aille vivre avec les conséquences de chacune de mes décisions.

17:40

C'est un peu vitaliste en conclusion, l'absolu.

17:43

J'ai envie de vous dire, est-ce que c'est du néovitalisme ?

17:45

Est-ce que c'est du vitalisme post-cyberpunk ?

17:49

Vous en faites ce que vous voulez.

17:50

En tout cas, je ne pense pas qu'on est d'âme, je ne pense pas qu'on soit plus intelligent que les humains, mais simplement la suite, le début, la les conséquences des faits, tout

17:59

ça tout mis bout à bout.

18:00

fait que oui, on a un truc en plus des IA, mais ce n'est pas un truc en plus, c'est une contrainte en plus des IA qui nous oblige à...

18:10

libérer plus de valeurs, libérer plus de forces et à faire partie de la cité, à faire partie de quelque chose.

18:17

D'ailleurs, peut constater que dans Cyberpunk, le personnage de Johnny évolue entre le début et la fin.

18:24

Je vais vous spoiler la fin.

18:26

Mais Johnny, au début de sa propre histoire, dans le passé, donc 50 ans avant l'effet du jeu, c'est un personnage qui une limite suicidaire.

18:36

Il va provoquer Arasaka en concert, Puis juste après,

18:40

En fait, il a organisé une opération un peu pétée où il va mettre une bombe atomique, les bombes atomiques du futur, détruisent juste un bâtiment et il va mettre une bombe

18:51

thermonucléaire sur la tour Arasaka pour tout raser.

18:57

Et là du coup dans le futur c'est son anagramme qui reprend la place dans le cerveau de V.

19:01

Et en fait c'est intéressant parce que du coup l'angramme de Johnny va cohabiter avec l'angramme du personnage principal.

19:10

Ils vont être obligés de vivre ensemble.

19:12

Et à la fin du jeu, fait, Halt leur explique que maintenant ils n'ont pas le choix.

19:17

Soit l'angramme de Johnny prend toute la place et peut vivre dans le corps de V.

19:22

soit l'engramme de Johnny le supprime et V vivra plus longtemps, mais genre quelques mois.

19:29

Il va mourir dans 6 mois, quelque chose comme ça.

19:30

C'est une des moins pires des fins.

19:34

y a des fins qui sont bien pires que ça, honnêtement.

19:36

Mais du coup, vous prenez l'option de V, garde le corps.

19:43

Il va décider de vivre sa meilleure vie pour les 6 derniers mois et il va la vivre comme un énorme punk et faire les plus gros braquages du monde avant de mourir.

19:52

C'est un mercenaire.

19:54

Si vous prenez l'option de Johnny, Johnny n'est plus du suicidaire.

20:00

Parce que dans sa première vie, il n'avait rien fait pour mériter d'avoir une vie.

20:05

Et là maintenant, il a une vie qu'il a eue au dépend de celle de V.

20:10

Et du coup, il devient méga sympa, il des guitares à un jeune, il va prendre le bus pour aller vivre sa meilleure life.

20:19

Il fait des SO à ses copains qui lui manquent.

20:24

Il joue de la grade tranquillement, il a récupéré de l'argent un petit peu.

20:28

Mais il est en mode quiet life, simple life.

20:30

Et il apprécie cette vie-là parce qu'on lui a donné.

20:35

Est-ce que ça veut dire que demain, on prend...

20:38

Est-ce que cet engramme-là, c'est codé, finalement c'est formalisé, tout ce qu'on a vécu comme expérience, les accidents de la vie, tous les...

20:48

tout ce qui font notre personnalité, nos idées, nos convictions, parce qu'on a vécu des choses.

20:52

Cet anglaume-là, il l'imprime.

20:54

Si on le met dans un humain qui n'aurait pas eu de personnalité, du coup, son corps, est-ce qu'il va se mettre à somatiser ses anxiétés ?

21:03

Est-ce que son corps va se mettre à avoir du cortisol pour des situations de stress que l'anglaume a vécu, là en l'occurrence, plusieurs cinquantaines d'années ?

21:11

Ça, c'est un vrai postulat qu'il y a dans le jeu.

21:14

C'est que, d'ailleurs, le...

21:17

les harasaka qui se sauvegardent régulièrement.

21:20

Et quand le chef des harasaka meurt, il a l'intention de remplacer l'angrable de son fils pour reprendre son corps et continuer à être immortel comme ça.

21:31

que ça veut dire que demain, il a à qui on donne une vie.

21:34

à dire que là, un début, une fin et un corps humain à protéger.

21:39

Parce que du coup, elle devient d'un coup vitaliste et elle a les mêmes problèmes que nous.

21:43

Elle est obligée de faire preuve d'intelligence émotionnelle, etc.

21:47

Moi, je vais vous laisser réfléchir là-dessus.

21:50

Parce que là, il est 23 heures et on va pas se mentir.

21:55

Je commence à cailler dans mon bureau à 23 heures et demain, on va à Paris.

22:00

Bref, en tout cas...

22:01

Discutez avec moi, envoyez moi des messages sur LinkedIn, le dernier épisode il faut l'écouter, celui avec Anaïs qui parle de son expérience au Vietnam, chouette.

22:12

Vous êtes plus d'une centaine à l'écouter encore le podcast tous les mois, il y a eu une petite baisse au mois de janvier, alors où vous étiez caché ?

22:18

C'est aussi parce que j'avais fait moins d'épisodes, là il a une centaine d'auditeurs uniques qui sont vus sur OP3, donc ça veut dire que c'est un peu plus que ça en vrai

22:26

probablement.

22:28

Après comme au mois janvier j'avais mis un Cloudflare, j'avais mis un proxy sur mon serveur de podcast et probablement ça avait procéder Cloudflare du coup avait absorbé des

22:38

requêtes sur OP3.

22:41

C'est ça qui avait fait baisser l'audience, là je l'ai désactivé, l'audience elle remonte.

22:46

On n'est pas sur des trucs très très réels.

22:49

En tout cas...

22:54

Si vous avez écouté ce podcast avant de dormir et que je vous ai fait dormir en baillant, c'est parfait.

23:02

oui, le micro a changé aussi.

23:04

Je sais pas si vous me dire, enfin je serais étonné moi-même de regarder ce que ça a donné.

23:09

En tout cas merci et faites moi des retours, dites moi ce que vous en pensez de cette réflexion là, est-ce que cette réflexion là vous a permis de réfléchir à des sujets ?

23:16

Et je vous laisse avec le titre de Johnny, le cheaping in.

26:51

vous avez envie de dormir avant, c'est passé.

26:54

À bientôt !