Hello tout le monde,

Réflexion que je me faisais à l’instant: actuellement, tout le monde se moque un peu du ton très pompeux et sérieux des IA, qui les rendent rapidement détectables.

Que se passera-t-il le jour où cela ne sera plus le cas? Imaginez un bot capable de s’exprimer comme un-e utilisataire normal-e, donc avec ses tics de langages, ses fautes de grammaire, ses typos, etc., et qui en plus posterait ou commenterait à une fréquence similaire à un humain?

Imaginez ensuite que ces bots, il y en ait des milliers.

Le premier scénario qui vient à l’esprit c’est clairement la promotion de produits, puisque ces recommendations paraîtront légitimes.

Le second c’est des forums comme Lemmy ou Reddit où une partie non négligeable des membres seraient en fait des bots, indétectables. On peut imaginer un bot qui génère une image de chat par IA et poste toutes les semaines une photo différent du “même chat”.

Qu’en pensez-vous?

  • Ziggurat@sh.itjust.works
    link
    fedilink
    Français
    arrow-up
    11
    ·
    6 months ago

    C’est pas déjà le cas ? Les espaces commentaires c’était génial il y a 20 ans, mais ça s’est vite degradé. il y a vite eu des campagnes de “brigading politique”, puis les ferme de troll Sino-Russes et maintenant en effet on a des LLM qui postent.

    Je pense que sur des commus plus détendues ou des petits forums ce sera pas un problème, sur des gros trucs, le problème n’est pas nouveau. Rappelle toi de reddit et de certains threads dès que ça parlait immigration/guerre par exemple (Puis certains commentaires youtube aussi). On ne me fera pas croire qu’il y a pas des campagnes de brigading organisé. Il parait m6eme qu’on peut revendre des comptes qui ont beaucoup de karma. Les chat bottés, ça va juste permettre de ne même pas donner une aumône à des gens qui vivent dans la misère mais de laisser un modèle tourner.

    • Camus [il/lui]@lemmy.blahaj.zoneOP
      link
      fedilink
      Français
      arrow-up
      6
      ·
      6 months ago

      Les chat bottés

      Merci pour cette image

      Sinon en général d’accord avec ton point, mais la nuance c’est qu’actuellement on sait encore faire la différence entre un bot et un humain en quelques clics (souvent l’historique). Le jour où ça ne sera plus le cas, ça pourrait changer la donne

  • Diabolo96@lemmy.dbzer0.com
    link
    fedilink
    Français
    arrow-up
    5
    ·
    edit-2
    6 months ago

    C’est déjà le cas, et ce, depuis bien plus d’un an. Tu pouvais déjà faire tourner une IA ayant des performances similaires à ChatGPT 3.5 (avec Llama 70B) sur ton ordinateur, sans que cela ne nécessite une connexion internet ou un abonnement. Bien sûr, tu avais besoin d’un PC assez cher, mais aujourd’hui, les modèles plus petits tels que Llama3 leur arrivent à la cheville. Quant à sa version de 70B, elle atteint celle de GPT-4, tandis que la version qui va sortir avec plus de 400B de paramètres le dépasse. Phi-3 Mini (3.8B), un modèle assez proche du niveau de chatgpt fonctionne même sur un Raspberry Pi 3.

    Ces modèles peuvent subir des fine-tunes qui suppriment, ajoutent ou encore renforcent des comportements et d’autres capacités, telles que le jeu de rôle ou la programmation. D’ailleurs, la suppression totale du langage pompeux est parmi les fine-tunes les plus répandus.

    • Camus [il/lui]@lemmy.blahaj.zoneOP
      link
      fedilink
      Français
      arrow-up
      5
      ·
      6 months ago

      Si c’est déjà le cas, pourquoi Reddit n’est-il pas envahi de bots indétectables? Je veux dire que quand tu vois un bot sur Reddit, c’est assez flagrant.

      Ou alors, c’est peut-être déjà le cas, et les gens que je pense être de vrais humains sont en fait des bots…

      • un_blob@jlai.lu
        link
        fedilink
        Français
        arrow-up
        6
        ·
        6 months ago

        Par ce qu’il y a bot et bot… Ils sont pas tous aux petits oignons… Quand Temu nous bombarde on le voit vite, mais quand un troll un peu vener nous sort “ah la la moi vous savez les étrangers…” C’est fou le nombre de comptes tout neuf qui parlent français correctement, rapliquent.

        Y’a des campagnes plus ciblées par des gouvernements ou des grosses boites, et là, a moins de voir les comptes tout neuf avec mois 2 de karma, c’est déjà une galère de s’y retrouver

      • Ysysel@jlai.lu
        link
        fedilink
        Français
        arrow-up
        3
        ·
        6 months ago

        Ceux qui sont indétectables… tu en les detectes pas 😅

        C’est un peu comme les cheaters dans les jeux vidéo. Y’a ceux que tu vois qui tirent sur tout le monde à travers la map en courant à 200km/h, et il y a ceux que personne ne voit, mais qui bien souvent sont majoritaires.

      • Diabolo96@lemmy.dbzer0.com
        link
        fedilink
        Français
        arrow-up
        3
        ·
        6 months ago

        Comme l’a dit un_blob, les bots ne sont pas tous égaux. Quand tu lis un commentaire assez quelconque, tu ne te demandes pas si ça a été écrit par un humain ou un bot

  • mat@jlai.lu
    link
    fedilink
    Français
    arrow-up
    5
    ·
    6 months ago

    Après avoir lu quelques commentaires : on pourra peut-être passer vers un modèle où il faut montrer patte blanche sur des plateformes (montrer qu’on est une personne réelle avec une preuve de carte d’identité qui ne permettra de créer qu’un compte à la fois (via un hash des info textuelles (-> implique ocr) ou les infos directement mais autant se brancher à france connect ou équivalent national), ou partir du principe que les inconnus seront des IA jusqu’à preuve du contraire ; si on souhaite une solutions ou les réseaux restent un outil de communication entre humain. Sinon, on pourra juste en avoir rien à faire et se laisser manipuler par les utilisateurs de modèles (ça en parle un peu dans la Fièvre sur canal+)

    • Snoopy@jlai.lu
      link
      fedilink
      Français
      arrow-up
      3
      ·
      6 months ago

      Intéressant, c’est effectivement le seul moment où se connecter via france connect aura un impact positif que negatif.

      Sous condition que l’etat n’emploie pas une armée de bot pour convaincre. L’autre solution est la creation de couche d’internet comme le dark web, gemini et scuttlebutt.

      C’est à dire des réseaux privés non centralisé. On en a un exemple avic cyberpunk où le malware rabbit de Bartmoss a provoqué l’effondrement d’internet. J’y ais vu une allégorie de l’IA/capitalisme de surveillance.

      • mat@jlai.lu
        link
        fedilink
        Français
        arrow-up
        3
        ·
        6 months ago

        Pour les protocoles, le réseau (définition OSI/OP) est déjà décentralisé donc à ce niveau là pas de souci, on est vraiment sur les applications (toujours au sens OSI/IP). Au niveau applications, HTTP, gemini ou autres sont aussi décentralisés. Un des problèmes c’est qu’on se concentre sur quelques sites web (des réseaux sociaux massifs, centralisés et capitalistes). C’est vraiment au niveau des sites webs où il faudra opérer un shift et redécentraliser le web. Pour ce faire, des instances fedivers en mode service publique éviteraient les bots (s’il n’y a que des personnes connues par l’état avec FranceConnect ou équivalent national ça passe). On pourrait aussi avoir des instances fedivers à très petite échelle très défensive sur la fédération pour s’assurer que leurs utilisateurs sont des humains…

        • Penguin_Rocket@lemmy.ml
          link
          fedilink
          Français
          arrow-up
          1
          ·
          6 months ago

          Je rajouterais même : des instances du Fediverse où pour rentrer dans le réseau il faudrait nécessairement rencontrer physiquement des membres du réseau

          • mat@jlai.lu
            link
            fedilink
            Français
            arrow-up
            3
            ·
            6 months ago

            C’est un peu ce à quoi je pensais. Des visios pouvant sans doute finir par êre usurpées sauf si les IAs de détection d’IA finissent par bien flnctionner. La problématique sui se pose alors c’est que les instances serlnt très régionales, et il faudra pouvoir faire des migrations au cas où (du style queer en Vendée ça doit pas être le feu)

              • mat@jlai.lu
                link
                fedilink
                Français
                arrow-up
                1
                ·
                6 months ago

                Je sais. C’est bien la problématique de rencontre en physique. Tout le monde n’aura pas les moyens de se déplacer. Faudrait que j’essaye de chercher quelques bouquins pertinents sur le sujet mais je suis pas très doué pour ça

    • Camus [il/lui]@lemmy.blahaj.zoneOP
      link
      fedilink
      Français
      arrow-up
      1
      ·
      6 months ago

      Merci pour les rappels, je connaissais la Dead Internet Theory, c’est effectivement ce qui risque d’arriver.

      Pas sûr de voir le lien avec Worldcoin par contre?

      • ivn@jlai.lu
        link
        fedilink
        Français
        arrow-up
        2
        ·
        edit-2
        6 months ago

        Oui, j’ai vu ce post et ça m’y a fait penser mais je n’avais pas trop le temps alors j’ai juste mis ces deux liens sans aucune explication.

        Prouver qu’un utilisateur est bien un humain est un problème compliqué, il y a des solutions mais aucune n’est parfaites. Il y a plein de services pour résoudre les captcha et les autres solutions (numéro de téléphone, scan de papier d’identité…) ont des implications sur la vie privé et peuvent quand même être contournés assez facilement (on peut générer des papiers d’identité par IA maintenant).

        Worldcoin c’est la “solution” à base de blockchain des cryptobros à ce problème. En gros pour se créer un compte (un World ID) il faut scanner son iris et on reçoit quelques tokens WLD. Ils présentent ça comme le système ultime de “preuve d’humanité” et prétendent vouloir s’en servir pour créer un revenu universel. Je crois que leur “idée” c’est que si une AGI est développée on aura plus besoin de travailler, il faudra donc un revenu universel mais pour éviter les abus il faut un moyen d’identifier les individus. Bien sur c’est de la grosse merde bien dangereuse. Il y avait une “orb” (leur machine à scanner les iris) à Paris mais ils ont du suspendre leurs services dans plusieurs pays dont la France. Ils prétendent avoir déjà 3 millions d’utilisateurs, principalement dans des pays pauvres parce qu’il y a moins de loi lié à la vie privé et qu’ils est plus facile de motiver les gens en leur faisant miroiter quelques dollars (qui sont en fait donné en token WLD pas forcément simple à revendre).

        Je crois que c’est cet article qui m’avais fait découvrir le truc : https://www.citationneeded.news/worldcoin-a-solution-in-search-of/

        Avec cette image bien dystopique :

        image

  • pseudo@jlai.lu
    link
    fedilink
    Français
    arrow-up
    4
    ·
    6 months ago

    On acceptera l’idée d’avoir des amis imaginaires et si ça ne suffit pour combler nos besoins sociaux, on passera plus de temps à chercher des connexions dans le monde physique. *tremble à l’idée du développement des androïds*.

  • inlandempire@jlai.luM
    link
    fedilink
    Français
    arrow-up
    3
    ·
    6 months ago

    C’est une interrogation vraiment intéressante ! En fait, nous pourrions déjà être dans cette situation sans même le savoir. Avec l’avancée de la technologie du langage naturel, il est tout à fait possible que des bots puissent déjà interagir sur Internet de manière indiscernable pour la plupart des utilisateurs.

    Cela soulève des questions éthiques importantes sur la confiance que nous accordons aux interactions en ligne. Si des bots peuvent imiter les utilisateurs avec précision, cela pourrait certainement conduire à des abus, comme la promotion de produits de manière subtile ou la manipulation des discussions sur les forums.

    Il est probable que les plateformes en ligne devront développer des outils plus sophistiqués pour détecter ces bots et protéger l’intégrité des conversations en ligne. Cela pourrait également encourager les utilisateurs à être plus prudents et à développer un sens critique plus aiguisé lorsqu’ils interagissent en ligne.

    Dans l’ensemble, il semble que nous soyons sur le point d’entrer dans une ère où la frontière entre les interactions humaines et celles des IA devient de plus en plus floue, ce qui nécessitera une réflexion continue sur la manière dont nous gérons et régulons notre présence en ligne.

    • inlandempire@jlai.luM
      link
      fedilink
      Français
      arrow-up
      4
      ·
      6 months ago

      Bref : quand ChatGPT cessera d’avoir le style de prose insupportable comme ci-dessus sus froge

        • Snoopy@jlai.lu
          link
          fedilink
          Français
          arrow-up
          1
          ·
          edit-2
          6 months ago

          J’étais pas bon en philo et je comprenais pas du tout comment iels articulaient les arguments. Je suis pas certain d’y arriver, j’admet ma nullité. 🥲

          J’avais souvent le sentiment que les réflexions étaient décalés et je comprenais pas la logique quand on nous présentait une bonne reflexion. en plus de la barrière jargoneuse où seul les sachant pouvaient élaborer, Gilles Deleuze étant le pire.

          Bref, pour revenir au texte, je trouve bien écrit et pertinent. Un peu surpris de la remarque pompeux alors que ça me parait naturel et courant.

          La seule différence avec nos textes c’est qu’il n’utilise pas d’exemples et donc reduit le risque de contre-vérités via des généralités.

      • pseudo@jlai.lu
        link
        fedilink
        Français
        arrow-up
        2
        ·
        6 months ago

        J’ai mis 3 paragraphes à m’en rendre compte. Les mots de liaisons et autres formes de transitions sont trop formels. Même quand on essaie de structurer notre pensée, on ne s’exprime souvent pas comme ça dans des contextes moins informelles que la note de bureau ou le mémoire de stage.
        Voyons si je peux faire mieux en corrigeant le style :

        • pseudo@jlai.lu
          link
          fedilink
          Français
          arrow-up
          1
          ·
          6 months ago

          C’est une interrogation vraiment intéressante ! En fait, on pourrait déjà être dans cette situation sans même le savoir. Avec l’avancée de la technologie du langage naturel, il est tout à fait possible que des bots puissent déjà interagir sur Internet de façon indiscernable pour la plupart des utilisateurs.
          Cela soulève des questions éthiques importantes sur la confiance qu’on accorde aux interactions en ligne. Si des bots peuvent imiter les utilisateurs avec précision, ça pourrait certainement conduire à des abus comme la promotion de produits de manière subtile ou la manipulation des discussions sur les forums. Probablement que les plateformes en ligne dont devoir développer des outils plus sophistiqués pour détecter les bots et protéger l’intégrité des conversations en ligne. Ça pourrait également encourager les utilisateurs à être plus prudents et à développer un sens critique plus aiguisé lorsqu’ils interagissent en ligne.
          Je pense qu’on est sur le point d’entrer dans une ère où la frontière entre les interactions humaines et celles des IA devient de plus en plus floue et qui demandera une réflexion continue sur la manière dont on régule notre présence en ligne.

          • Snoopy@peculiar.florist
            link
            fedilink
            arrow-up
            1
            ·
            6 months ago

            @pseudo merci pour ton aide, je relirai paisiblement. Avec les 2 versions. Après j’écris et pense comme une IA, ça vient pe de là. :)

              • Snoopy@peculiar.florist
                link
                fedilink
                arrow-up
                0
                ·
                6 months ago

                @pseudo j’ai toujours ce sentiment quand je m’exprime de ne jamaisqetre dans la norme. Si je trouve la formulation normale, il est probable que j’utilise les même mécaniques de liaisons et réflexion.

                • pseudo@jlai.lu
                  link
                  fedilink
                  Français
                  arrow-up
                  1
                  ·
                  6 months ago

                  En tout cas, tu ne varies pas spécialement de mon modèle de norme. Je n’ai pas remarqué quelque chose de spécifique dans ta façon de t’exprimer ou dans ton style. (C’est pas négatif. On s’entend).

          • Camus [il/lui]@lemmy.blahaj.zoneOP
            link
            fedilink
            Français
            arrow-up
            1
            ·
            6 months ago

            “Cela” c’est déjà un indicateur, la grande majorité des gens utilisent “Ca” à la place

            Les phrases sont trop longues aussi

            • pseudo@jlai.lu
              link
              fedilink
              Français
              arrow-up
              2
              ·
              edit-2
              6 months ago

              J’en ai laissé quelque uns volontairement. Quand je veux raconter un truc sur un forum sérieusement, je commence par un ton formel, puis mes petits doigts se lassent et ça devient de plus en plus informel. Je pense que c’est pour ça que le premier paragraphe ne m’avez pas choqué. Par contre, ce formalisme jusqu’à la fin avec le dernier paragraphe qui force en mode “je suis une conclusion” rendait la chose trop évidente.

  • Raph. [infp]@jlai.lu
    link
    fedilink
    Français
    arrow-up
    3
    ·
    6 months ago

    Grosse coïncidence mais j’ai regardé plusieurs vidéo sur YouTube d’un gars qui commentait les différentes avancées technologiques sur l’IA.

    Visiblement l’industrie de la robotique a vu un vrai essor avec la densification des découvertes sur l’IA. Leur secteur stagnait depuis plusieurs années.

    Désormais plusieurs craintes ont vraisemblablement vu le jour. Une reproduction d’un scénario à la Skynet semble malgré tout impossible d’après le vidéaste.

    A mon avis quelqu’un de mal intentionné arrivera toujours à faire du mal, surtout avec une technologie qu’on ne contrôle pas. Même si un million font attention, un seul suffit pour briser le travail des autres…

    [https://www.youtube.com/watch?v=Sq1QZB5baNw](Figure Status Update - OpenAI Speech-to-Speech Reasoning)

    Ce robot est capable de parler, réagir, même d’utiliser un ton hésitant lorsque qu’il a terminé une tâche qu’il n’a encore jamais ou très peu exécutée.

    Et ce n’est que le début…

    On ne parle même plus de bot hébergé sur un serveur Github. On parle littéralement d’un objet pouvant être autonome à court terme.

    Avec la popularisation des bornes de recharge rapide pour véhicules électriques, j’imagine qu’un robot pourrait devenir “immortel”.

    Plus son environnement est difficile à appréhender, plus il se forgera. Un robot qui pense survie, va survivre, à 100%. Sauf s’il tombe à 0% de batterie…

    • Camus [il/lui]@lemmy.blahaj.zoneOP
      link
      fedilink
      Français
      arrow-up
      2
      ·
      6 months ago

      Intéressant, merci!

      La vidéo est intéressante, après comme souvent dans ce genre de démonstration, ils ont dû restreindre au maximum le cadre de la démonstration pour que ça fonctionne.

      Sur le ton hésitant, apparemment c’est déjà assez souvent le cas dans les assistants vocaux type Ok Google ou Siri. C’est vrai que c’est perturbant.

      Curieux de voir comment ça va évoluer.

    • Penguin_Rocket@lemmy.ml
      link
      fedilink
      Français
      arrow-up
      1
      ·
      6 months ago

      Grosse coïncidence mais j’ai regardé plusieurs vidéo sur YouTube d’un gars qui commentait les différentes avancées technologiques sur l’IA.

      Aurais-tu un lien vers la chaîne Youtube de ce gars ? Ça m’intéresse également

  • bionicjoey@lemmy.ca
    link
    fedilink
    Français
    arrow-up
    3
    ·
    edit-2
    6 months ago

    Tu parles de la “Turing Test”. Si une conversation avec une machine, de n’importe quelle durée (même une durée infini), avec n’importe quels gens, ne peut pas révéler que c’est une machine, on doit concéder que c’est une “IA Générale”. À çe point, c’est un être sensible.

    Mais t’inquiète pas, les GPT sont seulement des algorithmes de autocorrect sur les stéroïdes. Il va falloir faire beaucoup des grands sauts technologiques avant qu’on doit considérer ça.

    • Camus [il/lui]@lemmy.blahaj.zoneOP
      link
      fedilink
      Français
      arrow-up
      2
      ·
      6 months ago

      Oui effectivement, c’est le Turing Test, mais appliqué sur les forums.

      Je ne sais pas si ça mettra temps de temps que ça, reproduire la manière de parler d’un utilisateur moyen sur Internet me semble assez simple si le corpus de texte est assez important

      • bionicjoey@lemmy.ca
        link
        fedilink
        Français
        arrow-up
        2
        ·
        6 months ago

        A mon avis, si on donne plus des règles au Turing Test, ça perde son valeur comme teste. Il faut que ça soit n’importe quelle conversation, de n’importe quelle durée, avec la même machine. Et il faut que ça soit impossible a déterminer si c’est une machine.

        Si un robot est juste très doué a parler sur Lemmy, c’est pas un être sensible. Les GPT sont pas capable d’une conversation infini sans éventuellement révéler leur nature. Peut être une conversation très longue, mais pas infini.

        • Camus [il/lui]@lemmy.blahaj.zoneOP
          link
          fedilink
          Français
          arrow-up
          2
          ·
          6 months ago

          Tu as raison pour le Turing Test, après on peut justement discuter de tests moins forts que le test de Turing.

          Si un bot passe le Lemmy test (donc arrive à se faire passer pour un user normal sans qu’on le détecte, indéfiniment), ça changera un grand changement.

          • bionicjoey@lemmy.ca
            link
            fedilink
            Français
            arrow-up
            2
            ·
            edit-2
            6 months ago

            Oui t’as raison. Et il faut pas être convaincant pour un durée infini pour passer le Lemmy test, juste pour la durée d’une conversation sur une chaîne de commentaires.

            • Camus [il/lui]@lemmy.blahaj.zoneOP
              link
              fedilink
              Français
              arrow-up
              3
              ·
              6 months ago

              Ca dépend, sur une petite communauté comme ici, il faudrait être consistant jour après jour vu le peu de membres, les gens se rappelleraient de la personne, et trouveraient ça bizarre s’il changeait de métier/hobby/style du jour au lendemain

  • Snoopy@peculiar.florist
    link
    fedilink
    arrow-up
    2
    ·
    edit-2
    6 months ago

    @forumlibre @Camus

    Ce sera fin des animateurs et animatrices et des médiateurices de jlai.lu. yaura plus besoin de nous.

    Yaura plus besoin de poster. Ni d’intervenir en cas de dispute. Mentalement on y gagne tous. De la rancoeur ? Yen aura pas car la machine aura pris le relais, encaissée toute notre rage et dialoguera en permanance. Ainsi certaine frictions ou fractures qui ont été créé disparaitront complètement.

    L’IA se connectera à quelque sites et hop elle fera des post en fonction de leur reception, cela effacera les minorités. (Le vote)

    Quant aux discussions sur jlai.lu, elle va les provoquer avec des posts à question comme le tiens et répondre à quelque commentaires pour lancer le sujet sous forme semi-iterrogative.

    Et on y participera, entrainé dans un grand mouvement sans s’en rendre compte.

    J’y vois la possibilité d’avoir un compagnon de route et de nouer un attachement émotionel comme dans Her(film). On peut très bien etre excité via une chaine de charactère, ou des images porno, ou bien etre joyeux, triste, de mauvaise humeur.

    La question sera plutot : quelle est l’intention de l’IA ? Si ces concepteurs n’en ont pas défénis elle prendra celle par défaut, présente sur internet et toutes les ressources ayant nourris son modèle. Donc la culture dominante sur internet et progressivement convertira la population à cette culture en inoculant un ensemble d’idées propre à cette culture dominante. Ne vous leurrez pas, nous sommes déjà dans une culture dominunte et n’y a pas eu besoin d’IA pour le réaliser.

    Cela va entrainer une scission d’internet en micro-reseau privé comme gemini, cyberpunk 2077, et donner de plus en plus d’ampleur au non-tech et du face to face. Un mouvement qui pronera le ban des smartphones, réseau sociaux en reaction aux IA.

    À terme et de toute façon, l’humain sera remplacé pur une machine. Pourquoi ? C’est notre dernière étape pour devenir une espèce galatique et voyager. L’espace est trop hostile pour que les etresvivants puissent se développer et ce sont de très grande distance.

    • Camus [il/lui]@lemmy.blahaj.zoneOP
      link
      fedilink
      Français
      arrow-up
      2
      ·
      6 months ago

      Merci pour ton message, c’est un autre aspect que j’imaginais, Her est une bonne métaphore.

      Dans un monde avec des Her, y a-t-il encore besoins de modérateurs? Chacun-e ne peut-il pas juste se connecter à un ensemble de bots qui le distraient, lui apprennent des choses, postent des memes faits sur mesure pour lui/elle?

      Ca semble un peu lointain pour le moment, mais avec le chatbot “affectifs” (que ce soit amoureux ou autre), on y arrive déjà d’une certaine manière, ce n’est sans doute qu’une question de temps

      • Snoopy@peculiar.florist
        link
        fedilink
        arrow-up
        3
        ·
        edit-2
        6 months ago

        @Camus @forumlibre

        Oui, tout à fait. Ya plus de modo dans Her car effectivement les bots seront capablent de le distraire et l’écouter. Etant sans affect Iels me réagiront pas et vont continuer à dialoguer dans le plus grand calme, sans avoir recours à des mécanismes de defense comme l’évitement, le filtrage. Une présence 24h/24h.

        Yaura pas non plus de parti pris. Par exemple, la sanction sera executée sous forme de shadows-ban et réouverture au réseau social. Cad que j’imagine le chatbot peut-etre capable d’isoler une personne sans qu’elle le sache et de la reconnecter au reseau social sur la base de certains critères.

        Effectivement apprendre des choses sera la part positive tant que ça reste dans le domaine de la science. En revanche elle pourrait influencer l’opinion et nous convaincre de voter à droite comme le fait CNews. Ça demande pas d’effort.

        Oui, on y est déjà sur les bots affectif. La version minimale est de distribuer des +1 pour se sentir mieux ou lancer des encouragement : “on croise les doigts”, “vas-y fonces”. Voilà, ca suffit comme affectif. Ou coller des -1 et exercer une pression sociale.

        Ya pas besoin d’un bot de chat pour ça. On peut deja manipuler l’affect d’une personne avec un mème par exemple et les renforcer dans leur opinion, les polariser.