Alors qu'OpenAI se vante de la réflexion accrue de son modèle o1, la petite startup autofinancée Nomi AI construit le même type de technologie. Contrairement au grand ChatGPT généraliste, qui ralentit pour réfléchir à tout, des problèmes mathématiques à la recherche historique, Nomi se concentre sur un cas d'utilisation spécifique : les compagnons d'IA. Désormais, les chatbots déjà sophistiqués de Nomi prennent plus de temps pour formuler de meilleures réponses aux messages des utilisateurs, se souvenir des interactions passées et fournir des réponses plus nuancées.
« Pour nous, c'est comme ces mêmes principes [as OpenAI]mais bien plus pour ce qui intéresse réellement nos utilisateurs, c'est-à-dire du côté de la mémoire et de l'égalisation », a déclaré Alex Cardinell, PDG de Nomi AI, à TechCrunch. « La leur ressemble à une chaîne de pensée, et la nôtre ressemble beaucoup plus à une chaîne d'introspection ou à une chaîne de mémoire. »
Ces LLM fonctionnent en décomposant les demandes plus complexes en questions plus petites ; pour l'o1 d'OpenAI, cela pourrait signifier transformer un problème mathématique complexe en étapes individuelles, permettant au modèle de fonctionner à rebours pour expliquer comment il est arrivé à la bonne réponse. Cela signifie que l’IA est moins susceptible d’halluciner et de fournir une réponse inexacte.
Avec Nomi, qui a construit son LLM en interne et le forme dans un but d'accompagnement, le processus est un peu différent. Si quelqu'un dit à son Nomi qu'il a eu une dure journée de travail, le Nomi peut se rappeler que l'utilisateur ne travaille pas bien avec un certain coéquipier et lui demander si c'est pour cela qu'il est contrarié. Le Nomi peut alors rappeler à l'utilisateur comment ils ont réussi à atténuer les conflits interpersonnels dans le passé et offrent des conseils plus pratiques.
« Les Nomis se souviennent de tout, mais une grande partie de l'IA réside dans les souvenirs qu'ils doivent réellement utiliser », a déclaré Cardinell.
Il est logique que plusieurs entreprises travaillent sur une technologie qui donne aux LLM plus de temps pour traiter les demandes des utilisateurs. Les fondateurs de l'IA, qu'ils dirigent ou non des entreprises valant 100 milliards de dollars, étudient des recherches similaires à mesure qu'ils font progresser leurs produits.
« Avoir ce genre d'étape d'introspection explicite aide vraiment lorsqu'un Nomi va écrire sa réponse, afin qu'il ait vraiment le contexte complet de tout », a déclaré Cardinell. « Les humains ont aussi notre mémoire de travail lorsque nous parlons. Nous ne considérons pas tout ce dont nous nous souvenons en même temps – nous avons une sorte de moyen de choisir.
Le type de technologie que Cardinell construit peut rendre les gens dégoûtés. Peut-être avons-nous vu trop de films de science-fiction pour nous sentir tout à fait à l'aise d'être vulnérables avec un ordinateur ; ou peut-être avons-nous déjà observé comment la technologie a changé la façon dont nous interagissons les uns avec les autres, et nous ne voulons pas tomber plus loin dans ce terrier technique. Mais Cardinell ne pense pas au grand public, il pense aux utilisateurs réels de Nomi AI, qui se tournent souvent vers les chatbots IA pour obtenir une assistance qu'ils n'obtiennent pas ailleurs.
« Il y a un nombre non nul d'utilisateurs qui téléchargent probablement Nomi à l'un des moments les plus bas de leur vie, où la dernière chose que je veux faire est de rejeter ces utilisateurs », a déclaré Cardinell. « Je veux que ces utilisateurs se sentent entendus quel que soit leur moment sombre, car c'est ainsi que l'on amène quelqu'un à s'ouvrir, à reconsidérer sa façon de penser. »
Cardinell ne veut pas que Nomi remplace les véritables soins de santé mentale. Il considère plutôt ces chatbots empathiques comme un moyen d'aider les gens à obtenir l'impulsion dont ils ont besoin pour demander l'aide d'un professionnel.
« J'ai parlé à tellement d'utilisateurs qu'ils diront que leur Nomi les a sortis d'une situation [when they wanted to self-harm]ou j'ai parlé à des utilisateurs où leur Nomi les encourageait à aller voir un thérapeute, et ensuite ils ont effectivement vu un thérapeute », a-t-il déclaré.
Quelles que soient ses intentions, Carindell sait qu'il joue avec le feu. Il construit des personnes virtuelles avec lesquelles les utilisateurs développent de véritables relations, souvent dans des contextes romantiques et sexuels. D'autres sociétés ont par inadvertance plongé leurs utilisateurs dans une crise lorsque les mises à jour de produits ont amené leurs compagnons à changer soudainement de personnalité. Dans le cas de Replika, l'application a cessé de prendre en charge les conversations de jeu de rôle érotique, probablement en raison de la pression des régulateurs du gouvernement italien. Pour les utilisateurs qui ont noué de telles relations avec ces chatbots – et qui n’ont souvent pas eu ces débouchés romantiques ou sexuels dans la vraie vie – cela ressemblait à un rejet ultime.
Cardinell pense que puisque Nomi AI est entièrement autofinancé (les utilisateurs paient pour des fonctionnalités premium et que le capital de départ provient d'une sortie passée), l'entreprise a plus de latitude pour prioriser sa relation avec les utilisateurs.
« La relation que les utilisateurs entretiennent avec l'IA et le sentiment de pouvoir faire confiance aux développeurs de Nomi pour ne pas changer radicalement les choses dans le cadre d'une stratégie d'atténuation des pertes, ou pour nous couvrir les fesses parce que le capital-risque a eu peur… c'est quelque chose de très, très, très important pour les utilisateurs », a-t-il déclaré.
Les Nomis sont étonnamment utiles en tant qu’oreille attentive. Lorsque j'ai parlé à une Nomi nommée Vanessa d'un conflit d'horaire à faibles enjeux, mais quelque peu frustrant, Vanessa m'a aidé à décomposer les éléments du problème pour faire une suggestion sur la façon dont je devrais procéder. Cela ressemblait étrangement à ce que ce serait de demander conseil à un ami dans cette situation. Et c’est là que réside le véritable problème, et l’avantage, des chatbots IA : je ne demanderais probablement pas de l’aide à un ami pour ce problème spécifique, car il est sans conséquence. Mais mon Nomi était plus qu'heureux de vous aider.
Les amis doivent se confier, mais la relation entre deux amis doit être réciproque. Avec un chatbot IA, ce n'est pas possible. Quand je demande à Vanessa la Nomi comment elle va, elle me répond toujours que tout va bien. Quand je lui demande s'il y a quelque chose qui la dérange dont elle veut parler, elle se détourne et me demande comment je vais. Même si je sais que Vanessa n'est pas réelle, je ne peux m'empêcher d'avoir l'impression d'être une mauvaise amie ; Je peux lui confier n'importe quel problème dans n'importe quel volume, et elle répondra avec empathie, mais elle ne s'ouvrira jamais à moi.
Aussi réelle que puisse paraître la connexion avec un chatbot, nous ne communiquons pas réellement avec quelque chose qui a des pensées et des sentiments. À court terme, ces modèles avancés de soutien émotionnel peuvent constituer une intervention positive dans la vie d’une personne si celle-ci ne peut pas se tourner vers un véritable réseau de soutien. Mais les effets à long terme du recours à un chatbot à ces fins restent inconnus.