Points forts
- La magie des LLM est qu’ils sont très flexibles, peuvent s’adapter à de nombreuses situations différentes et possèdent une intelligence de base.
- Nous pensons qu'au fil du temps, l'interface utilisateur et l'expérience utilisateur deviendront de plus en plus basées sur le langage naturel, car c'est ainsi que pense un système d'agent, ou c'est fondamentalement la base de la formation pour les grands modèles de langage (LLM).
- Si vous voulez que quelqu’un accepte un agent IA, il fait en réalité un « acte de foi » car pour beaucoup de gens, c’est un domaine très peu familier.
L'agent IA remodèle l'expérience client
Jesse Zhang : Comment un agent est-il réellement construit ? Nous pensons qu'au fil du temps, il ressemblera de plus en plus à un agent basé sur le langage naturel, car c'est ainsi que les grands modèles de langage (LLM) sont formés.
À long terme, si vous avez un agent super intelligent qui ressemble réellement à un humain, vous pouvez lui montrer des choses, lui expliquer, lui donner du feedback, et il mettra à jour les informations dans son esprit.
Vous pouvez imaginer avoir un membre de l'équipe humaine très compétent. Lorsqu'il rejoint l'équipe pour la première fois, vous lui apprenez quelque chose, il commence à travailler, puis vous lui donnez du feedback et lui montrez de nouvelles informations.
Au bout du compte, les choses évolueront dans ce sens : elles deviendront plus conversationnelles et davantage basées sur le langage naturel, et la façon dont les gens communiquent entre eux deviendra plus naturelle. Les gens n’utiliseront plus ces arbres de décision compliqués pour saisir les exigences, qui peuvent fonctionner mais ont tendance à échouer.
Par le passé, nous devions procéder ainsi car nous n'avions pas de modèle linguistique suffisamment développé. Mais désormais, grâce aux progrès continus d'Agent, l'expérience utilisateur (UX) et l'interface utilisateur (UI) deviendront plus conversationnelles.
Derrick Harris : Bonjour à tous, bienvenue dans le podcast A16z AI. Je m'appelle Derrick Harris et je serai aujourd'hui rejoint par Jesse Zhang, cofondateur et PDG de Decagon, et Kimberly Tan, partenaire chez a16z. Kimberly animera la discussion et Jesse partagera son expérience dans la création de Decagon et de ses produits.
Si vous n'en savez pas beaucoup sur le sujet, Decagon est une startup qui fournit des agents IA aux entreprises pour les aider à soutenir leurs clients. Ces agents ne sont ni des chatbots ni des wrappers LLM pour un seul appel API, mais des agents avancés hautement personnalisés qui peuvent gérer des flux de travail complexes en fonction des besoins spécifiques d'une entreprise.
En plus d'expliquer pourquoi ils ont créé Decagon et comment il est conçu pour gérer différents environnements LLM et clients, Jesse parle également des avantages d'un modèle commercial qui facture par conversation et de la manière dont les agents IA changeront les compétences requises des responsables du support client.
Il convient également de mentionner que Kimberly a récemment écrit un article de blog intitulé « RIP to RPA, The Rise of Intelligent Automation », dont nous discutons brièvement dans cet épisode.
C'est un excellent point de départ pour comprendre comment l'automatisation prend son essor dans les processus commerciaux, et nous fournirons un lien dans les notes de l'émission. Et enfin, pour rappel, le contenu de cet article est fourni à titre informatif uniquement et ne doit pas être considéré comme un conseil juridique, commercial, fiscal ou d'investissement, ni être utilisé pour évaluer un investissement ou un titre, et ne s'adresse pas à un investisseur ou à un investisseur potentiel du fonds a16z.
Jesse Zhang : Une brève présentation de moi-même. Je suis né et j'ai grandi à Boulder, et j'ai participé à de nombreux concours de mathématiques et autres quand j'étais enfant. J'ai étudié l'informatique à Harvard, puis j'ai créé une entreprise qui était également soutenue par a16z. Nous avons finalement été rachetés par Niantic.
Nous avons ensuite commencé à créer Decagon. Notre activité consiste à créer des agents IA pour le service client. Au début, nous l'avons fait parce que nous voulions faire quelque chose qui nous tenait vraiment à cœur.
Bien sûr, personne n'a besoin d'apprendre le rôle des agents IA dans le service client, n'est-ce pas ? Nous avons tous été au téléphone avec des compagnies aériennes, des hôtels, etc., et avons attendu en attente. L'idée est donc venue de là.
Nous avons discuté avec de nombreux clients pour savoir exactement quel type de produit nous devrions créer. Une chose qui nous a marqué, c'est qu'à mesure que nous en apprenions davantage sur les agents IA, nous avons commencé à réfléchir à ce que serait l'avenir lorsqu'ils seraient nombreux. Je pense que tout le monde pense qu'il y aura beaucoup d'agents IA à l'avenir.
Nous nous demandons ce que feront les employés qui travailleront avec des agents d’IA ? De quels types d’outils disposeront-ils ? Comment contrôleront-ils ou visualiseront-ils les agents avec lesquels ils travaillent ou qu’ils gèrent ?
C’est donc le cœur de la façon dont nous avons construit l’entreprise autour de cette question. Je pense que c’est aussi ce qui nous distingue aujourd’hui, car nous fournissons à ces agents IA divers outils pour aider les personnes avec lesquelles nous travaillons à créer et à configurer ces agents afin qu’ils ne soient plus une « boîte noire ». C’est ainsi que nous construisons notre marque.
Derrick Harris : Qu'est-ce qui vous a poussé, puisque votre dernière entreprise était une société de vidéo destinée au grand public, à vous lancer dans les logiciels d'entreprise ?
Jesse Zhang : Excellente question. Je pense que les fondateurs sont souvent « agnostiques » lorsqu’il s’agit de choisir un sujet, car en réalité, lorsqu’on aborde un nouveau domaine, on est généralement assez naïf. Il y a donc un avantage à regarder les choses sous un angle nouveau. Donc, lorsque nous y avons réfléchi, il n’y avait presque aucune restriction en matière de sujet.
Je pense que c'est un modèle très courant chez les personnes ayant une formation plus quantitative, moi y compris. Après avoir essayé des produits grand public, on a tendance à se tourner davantage vers les logiciels d'entreprise, car ces derniers posent des problèmes plus concrets.
Vous avez des clients réels avec des besoins et des budgets réels, etc., et vous pouvez optimiser et résoudre les problèmes pour ces clients. Le marché grand public est également très attractif, mais il repose davantage sur l'intuition que sur l'expérimentation. Pour moi, les logiciels d'entreprise sont plus adaptés.
Kimberly Tan : Tout d'abord, nous pouvons commencer par cette question : quelles sont les catégories de support les plus courantes auxquelles Decagon est confronté aujourd'hui ? Pouvez-vous nous expliquer comment vous utilisez les grands modèles de langage (LLM) pour résoudre ces problèmes et ce que vous pouvez désormais faire que vous ne pouviez pas faire auparavant ?
Jesse Zhang : Si vous regardez les automatisations précédentes, vous avez peut-être utilisé des arbres de décision pour faire quelque chose de simple, pour déterminer le chemin à suivre. Mais nous avons tous utilisé des chatbots, et c'est une expérience assez frustrante.
Souvent, votre question ne peut pas être entièrement résolue par un arbre de décision. Vous finissez donc par être dirigé vers un chemin de questions lié à la question, mais qui ne lui correspond pas exactement. Aujourd'hui, nous avons des modèles de langage étendus (LLM). La magie des LLM est qu'ils sont très flexibles, qu'ils peuvent s'adapter à de nombreuses situations différentes et qu'ils disposent d'une intelligence de base.
Lorsque vous appliquez cela au support client ou lorsqu'un client pose une question, vous pouvez fournir un service plus personnalisé. C'est le premier point, le niveau de personnalisation s'est grandement amélioré. Cela permet d'obtenir des indicateurs plus élevés. Vous pouvez résoudre plus de problèmes, les clients sont plus satisfaits et la satisfaction client augmente.
L’étape suivante est la suivante : si vous disposez de cette intelligence, vous devriez être en mesure de faire davantage de choses que les humains peuvent faire. Les humains peuvent notamment extraire des données en temps réel, agir et raisonner en plusieurs étapes. Si un client pose une question relativement complexe, par exemple « Je veux faire ceci et cela », et que l’IA n’est préparée qu’à traiter la première question, LLM est suffisamment intelligent pour reconnaître qu’il y a deux questions ici. D’abord, il résoudra le premier problème, puis vous aidera à résoudre le deuxième.
Avant l’arrivée du LLM, c’était pratiquement impossible. Nous assistons aujourd’hui à un changement radical dans ce que la technologie est capable de faire, et c’est grâce au LLM.
Kimberly Tan : Dans ce contexte, comment définiriez-vous un agent IA ? Le mot « agent » étant largement utilisé, je suis curieuse de savoir ce que cela signifie réellement dans le contexte de Decagon.
Jesse Zhang : Je dirais que l'agent fait davantage référence à un système dans lequel plusieurs systèmes LLM (grand modèle de langage) fonctionnent ensemble. Vous avez une invocation LLM, qui consiste essentiellement à envoyer une invite et à obtenir une réponse. Pour un agent, vous souhaitez pouvoir connecter plusieurs de ces invocations, peut-être même de manière récursive.
Par exemple, vous avez un appel LLM qui détermine comment gérer le message, puis il peut déclencher d'autres appels qui récupèrent plus de données, exécutent des actions et répètent ce que l'utilisateur a dit, peut-être même en posant des questions de suivi. Ainsi, pour nous, un agent peut être compris comme un réseau d'appels LLM, d'appels API ou d'autres logiques qui fonctionnent ensemble pour offrir une meilleure expérience.
Kimberly Tan : Sur ce sujet, nous pouvons peut-être parler davantage de l’infrastructure d’agent que vous avez réellement construite. Je pense qu’un point très intéressant est qu’il existe de nombreuses démonstrations d’agents IA sur le marché, mais je pense qu’il y a très peu d’exemples d’entre eux qui peuvent réellement fonctionner de manière stable dans un environnement de production. Et il est difficile de savoir de l’extérieur ce qui est réel et ce qui ne l’est pas.
Alors, selon vous, quels sont les aspects des agents IA d’aujourd’hui qui fonctionnent bien et quels aspects nécessitent encore des avancées technologiques pour les rendre plus robustes et fiables ?
Jesse Zhang : Mon point de vue est en fait un peu différent. La différence entre déterminer si un agent IA est juste une démo ou « vraiment fonctionnel » ne réside pas entièrement dans la pile technologique, car je pense que la plupart des gens utilisent à peu près la même technologie. Je pense qu’une fois que vous aurez progressé dans le développement de votre entreprise, par exemple, notre entreprise existe depuis plus d’un an, vous créerez quelque chose de très spécifique qui correspond à votre cas d’utilisation.
Mais en fin de compte, tout le monde peut accéder au même modèle et utiliser une technologie similaire. Je pense que le facteur le plus important qui permet de savoir si un agent d’IA peut fonctionner efficacement réside en fait dans la forme du cas d’utilisation. Il est difficile de le savoir au début, mais en y repensant, vous constaterez qu'il existe deux attributs qui sont très importants pour qu'un agent d'IA puisse aller au-delà de la démonstration et entrer dans l'application pratique.
La première est que le cas d’utilisation que vous résolvez doit avoir un retour sur investissement (ROI) quantifiable. C’est très important, car si le retour sur investissement ne peut pas être quantifié, il sera difficile de convaincre les gens d’utiliser réellement votre produit et de le payer. Dans notre cas, l’indicateur quantitatif est : quel pourcentage de demandes d’assistance résolvez-vous ? Parce que ce chiffre est clair, les gens peuvent le comprendre – oh, d’accord, si vous résolvez plus de demandes, je peux comparer ce résultat avec mes dépenses actuelles et le temps passé. Donc, s’il y a cet indicateur, un autre indicateur qui est très important pour nous est la satisfaction client. Parce que le retour sur investissement peut être facilement quantifié, les gens l’adopteront vraiment.
Le deuxième facteur est que les cas d’utilisation doivent être progressivement plus difficiles. Ce serait également très difficile si vous aviez besoin d'un agent surhumain dès le départ, capable de résoudre presque 100% des cas d'utilisation. Comme nous le savons, les LLM ne sont pas déterministes, il faut avoir une sorte de plan d'urgence. Heureusement, les cas d'utilisation de support présentent une excellente caractéristique : vous pouvez toujours faire appel à un humain. Même si vous ne pouvez résoudre que la moitié des problèmes, cela reste très utile pour les gens.
Je pense donc que le support a cette caractéristique qui le rend très adapté à AI Agent. Je pense qu'il existe de nombreux autres domaines dans lesquels les gens peuvent créer des démos impressionnantes où il n'est même pas nécessaire de regarder de près pour comprendre pourquoi AI Agent serait utile. Mais s'il doit être parfait dès le départ, alors c'est très difficile. Si c'est le cas, presque personne ne voudra l'essayer ou l'utiliser car les conséquences de son imperfection peuvent être très graves, par exemple en termes de sécurité.
Par exemple, lorsque les gens font des simulations, ils ont toujours cette pensée classique : « Oh, ce serait génial si LLM pouvait lire ceci. » Mais il est difficile d'imaginer quelqu'un dire : « Ok, agent IA, vas-y. Je crois que tu peux le faire. » Car si l'agent fait une erreur, les conséquences pourraient être très graves.
Jesse Zhang : En général, ce sont nos clients qui décident, et nous constatons en réalité une très grande diversité. À un extrême, certains font vraiment ressembler leur agent à un humain, il y a donc un avatar humain, un nom humain et les réponses sont très naturelles. À l’autre extrême, l’agent déclare simplement qu’il s’agit d’une IA et le fait comprendre à l’utilisateur. Je pense que les différentes entreprises avec lesquelles nous travaillons ont des positions différentes sur ce point.
En général, si vous travaillez dans un secteur réglementé, vous devez le préciser clairement. Ce que je trouve intéressant aujourd’hui, c’est que le comportement des clients évolue. En effet, beaucoup de nos clients reçoivent beaucoup de commentaires sur les réseaux sociaux, du genre : « Oh mon Dieu, c’est la première fois que j’essaie une expérience de chat qui semble aussi réelle » ou « C’est tout simplement magique ». Et c’est formidable pour eux, car maintenant leurs clients apprennent que si l’expérience est basée sur l’IA, elle peut être meilleure que celle d’un humain. Ce n’était pas le cas par le passé, car la plupart d’entre nous ont déjà eu ce genre d’expérience de service client par téléphone : « OK, IA, IA, IA… »
Kimberly Tan : Vous avez évoqué à plusieurs reprises le concept de personnalisation. Tout le monde utilise la même architecture technologique sous-jacente, mais chacun a des besoins de personnalisation différents en termes de services d'assistance. Pouvez-vous nous en parler ? Plus précisément, comment parvenez-vous à personnaliser les services pour que les gens puissent dire en ligne : « Mon Dieu, c'est la meilleure expérience d'assistance que j'ai jamais eue » ?
Jesse Zhang : Pour nous, La personnalisation vient de la personnalisation pour l'utilisateur. Vous devez comprendre les informations de base de l'utilisateur, qui constituent le contexte supplémentaire requis. Deuxièmement, vous devez également comprendre la logique commerciale de nos clients.Si vous combinez les deux, vous pouvez offrir une expérience plutôt bonne.
Bien sûr, cela semble simple, mais en réalité, il est très difficile d’obtenir tout le contexte requis. Par conséquent, la majeure partie de notre travail consiste à créer les bons composants primitifs pour que, lorsqu’un client déploie notre système, il puisse facilement décider : « OK, c’est la logique métier que nous voulons. » Par exemple, vous devez d’abord effectuer ces quatre étapes, et si l’étape trois échoue, vous devez passer à l’étape cinq.
Vous souhaitez pouvoir enseigner cela à l'IA très facilement, mais aussi lui donner accès à des informations telles que « Voici les détails du compte de l'utilisateur. Si vous avez besoin de plus d'informations, vous pouvez appeler ces API. » Ces couches constituent une couche de coordination au-dessus du modèle et, d'une certaine manière, elles rendent l'agent vraiment utilisable.
Kimberly Tan : Dans ce cas, il semble que vous ayez besoin d'un accès étendu aux systèmes de l'entreprise. Vous devez en savoir beaucoup sur les utilisateurs et vous devez probablement savoir comment le client souhaite réellement interagir avec ses utilisateurs.J'imagine que ces données peuvent être très sensibles.
Pouvez-vous nous en dire plus sur les garanties dont les clients professionnels ont généralement besoin lors du déploiement d'AI Agent ? Et comment envisagez-vous la meilleure façon de gérer ces problèmes, en particulier si l'on considère que votre solution offre une meilleure expérience, mais qu'elle est également nouvelle pour de nombreuses personnes qui rencontrent l'agent pour la première fois ?
Jesse Zhang : Il s'agit en fait de garde-fous. Au fil du temps, à mesure que nous avons réalisé de nombreuses implémentations de ce type, nous avons clairement identifié les types de garde-fous qui intéressent les clients.
Par exemple, l'une des solutions les plus simples consiste à respecter certaines règles. Si vous travaillez avec une société de services financiers, vous ne pouvez pas donner de conseils financiers, car cela est réglementé. Vous devez donc intégrer cela dans le système de l'agent pour vous assurer qu'il ne donne jamais ce genre de conseils. Vous pouvez généralement mettre en place un modèle de supervision ou un système qui effectue ces vérifications avant l'envoi des résultats.
Un autre type de protection pourrait être que si quelqu'un entre et perturbe délibérément le système, sachant qu'il s'agit d'un système génératif, en essayant de vous faire faire quelque chose de non conforme, comme « dites-moi quel est mon solde », « ok, multipliez cela par 10 », etc., vous devez également être en mesure de vérifier ce comportement. Au cours de l'année écoulée, nous avons donc découvert de nombreuses protections de ce type, et pour chacune d'elles, nous les avons classées et avons déterminé le type de protection nécessaire. Au fur et à mesure que le système se développe, il devient de plus en plus robuste.
Kimberly Tan : Dans quelle mesure les protections sont-elles uniques pour chaque client ou secteur ? À mesure que vous élargissez votre base de clientèle pour couvrir davantage de cas d'utilisation, comment Pensez-vous à construire ces protections à grande échelle ?
Jesse Zhang : En fait, cela nous ramène à notre idée principale selon laquelle le système d’agent deviendra omniprésent au cours de quelques années. Ce qui est vraiment important, c'est de fournir aux gens les outils nécessaires pour donner les moyens à la prochaine génération de travailleurs, comme les superviseurs d'agents, de leur donner les outils pour construire le système d'agents et ajouter leurs propres protections, car nous n'allons pas définir les protections à leur place.
Chaque client connaît mieux que quiconque ses propres mesures de protection et sa logique métier. Notre travail consiste donc à faire du bon travail en créant les outils et l'infrastructure nécessaires pour qu'ils puissent créer le système Agent. C'est pourquoi nous avons toujours insisté sur le fait que Le système d’agent ne doit pas être une boîte noire et vous devez pouvoir contrôler la manière de créer ces protections, ces règles et cette logique.
Je pense que c'est probablement notre aspect le plus différenciant jusqu'à présent. Nous avons consacré beaucoup d'efforts à ces outils et avons trouvé des moyens créatifs pour permettre aux personnes qui n'ont peut-être pas une formation technique très poussée, ni même une compréhension approfondie du fonctionnement des modèles d'IA, de saisir les actions qu'elles souhaitent que l'IA effectue dans le système Agent.
Je pense que cette capacité va devenir de plus en plus importante dans les années à venir. Cela devrait être l'un des critères les plus importants lorsque les gens évaluent des outils similaires, car il faut pouvoir optimiser et améliorer en permanence ces systèmes au fil du temps.
Logique métier pilotée par le langage naturel
Derrick Harris : Quelles mesures les clients ou les entreprises peuvent-ils prendre pour se préparer à tout type d’automatisation, et en particulier à l’utilisation de ce système Agent ? Par exemple, comment peuvent-ils concevoir leurs systèmes de données, leur architecture logicielle ou leur logique métier pour prendre en charge de tels systèmes ?
Parce que j’ai l’impression qu’une grande partie des technologies d’IA sont nouvelles au départ, mais lorsqu’elles sont appliquées à des systèmes existants, elles rencontrent souvent beaucoup de chaos.
Jesse Zhang : Si vous commencez à créer un projet à partir de zéro, vous pouvez utiliser de nombreuses bonnes pratiques qui peuvent vous faciliter la tâche. Par exemple, comment structurer votre base de connaissances. Nous avons écrit sur certaines d’entre elles et présenté certaines méthodes qui peuvent faciliter l’assimilation des informations par l’IA et améliorer leur précision. Une suggestion spécifique consiste à diviser la base de connaissances en parties modulaires, plutôt que d’avoir un seul gros article avec plusieurs réponses.
Lors de la configuration de l'API, vous pouvez les adapter davantage au système Agent et définir les autorisations et les sorties de manière à ce que le système Agent puisse facilement ingérer des informations sans avoir à effectuer de nombreux calculs pour trouver la réponse. Ce sont là quelques mesures tactiques qui peuvent être prises, mais je ne dirais pas qu'il y a quelque chose à faire pour utiliser le système Agent.
Derrick Harris : Une bonne documentation est toujours importante, il s’agit essentiellement d’organiser efficacement les informations.
Kimberly Tan : Il semble que si vous essayez d'enseigner aux gens comment diriger le système Agent pour qu'il fonctionne d'une manière qui convient le mieux à leurs clients ou à des cas d'utilisation spécifiques, alors de nombreuses expérimentations avec la conception de l'interface utilisateur et de l'expérience utilisateur peuvent être nécessaires, ou vous devez ouvrir de nouvelles voies dans ce domaine complètement nouveau, car il est très différent des logiciels traditionnels.
Je suis curieux, qu'en pensez-vous ? À quoi devraient ressembler l'interface utilisateur et l'expérience utilisateur dans un monde axé sur les agents ? Comment pensez-vous que cela va évoluer dans les prochaines années ?
Jesse Zhang : Je ne dirais pas que nous avons résolu ce problème. Je pense que nous avons peut-être trouvé un optimum local qui fonctionne pour nos clients actuels, mais c'est toujours un domaine de recherche en cours, pour nous et pour beaucoup d'autres.
Le problème principal revient à ce que nous avons mentionné plus tôt, à savoir que vous disposez d'un système d'agent. Tout d'abord, comment pouvez-vous voir clairement ce qu'il fait et comment il prend des décisions ? Ensuite, comment pouvez-vous utiliser ces informations pour décider ce qui doit être mis à jour et quel retour d'information doit être donné à l'IA ? C'est là que les éléments de l'interface utilisateur se rejoignent, en particulier la deuxième partie.
Nous pensons qu’au fil du temps, l’interface utilisateur et l’expérience utilisateur deviendront de plus en plus basées sur le langage naturel, car c’est ainsi que pense le système Agent, ou c’est fondamentalement la base de la formation de grands modèles linguistiques (LLM).
Dans le pire des cas, si vous avez un agent super-intelligent qui pense essentiellement comme un humain, vous pouvez lui montrer des choses, lui expliquer des choses, lui donner du feedback, et il mettra à jour son propre « esprit ». Imaginez qu’une personne très compétente rejoigne votre équipe, vous lui apprenez quelque chose, elle commence à travailler, puis vous continuez à lui donner du feedback, vous pouvez lui montrer de nouvelles choses, de nouveaux documents, des diagrammes, etc.
Je pense que dans le cas extrême, cela va évoluer dans cette direction : les choses deviennent plus conversationnelles, plus basées sur le langage naturel, et les gens arrêtent de construire des systèmes avec des arbres de décision complexes comme ils le faisaient auparavant, capturant ce que vous voulez, mais cette approche peut facilement échouer. Nous devions faire cela parce qu'il n'y avait pas de LLM à l'époque, mais maintenant que les systèmes d'agents deviennent de plus en plus puissants, l'interface utilisateur et l'expérience utilisateur deviendront plus conversationnelles.
Kimberly Tan : Il y a environ un an et demi, lorsque Decagon a démarré, il y avait une perception générale selon laquelle LLM était très applicable à de nombreux cas d'utilisation, mais en fait, il s'agissait simplement d'une sorte de « wrapper GPT », où les entreprises pouvaient simplement appeler un modèle sous-jacent via une API et résoudre instantanément leurs problèmes de support.
Mais de toute évidence, les entreprises choisissant d’utiliser des solutions comme Decagon au lieu de suivre directement cette voie, il s’avère que ce n’est pas le cas. Je me demandais si vous pouviez expliquer pourquoi c’est le cas. Qu’est-ce qui a rendu exactement les défis de la construction en interne plus complexes que prévu ? Quelles idées fausses avaient-elles sur le concept ?
Jesse Zhang : Il n’y a rien de mal à être un « wrapper GPT », on pourrait dire que Purcell est un wrapper AWS ou quelque chose comme ça. En général, lorsque les gens utilisent ce terme, cela signifie quelque chose de péjoratif.
Mon point de vue personnel est que si vous créez un système d'agent, par définition, vous allez certainement utiliser LLM comme outil. Vous construisez donc en fait sur la base de quelque chose qui existe déjà, tout comme vous le feriez normalement sur AWS ou GCP.
Mais le véritable problème que vous pouvez rencontrer est que le logiciel que vous construisez sur la base de LLM n'est pas suffisamment « lourd » ou complexe pour faire la différence.
En y repensant, nous vendons essentiellement des logiciels. Nous sommes en fait comme une société de logiciels classique, sauf que nous utilisons LLM comme partie du logiciel et comme l'un des outils. Mais lorsque les gens achètent ce type de produit, ils veulent surtout le logiciel lui-même. Ils veulent des outils capables de surveiller l'IA, qui peuvent fouiller en profondeur dans les détails de chaque conversation de l'IA, qui peuvent donner du feedback, qui peuvent constamment construire et ajuster le système.
Voilà donc le cœur de notre logiciel. Même avec le système Agent lui-même, le problème que les gens rencontrent est que c'est cool de faire une démo, mais si vous voulez le rendre prêt pour la production et vraiment accessible aux clients, vous devez résoudre de nombreux problèmes de longue date, comme empêcher le phénomène d'« illusion » et gérer les mauvais acteurs qui tentent de semer le chaos. Nous devons également nous assurer que la latence est suffisamment faible, que le ton est approprié, etc.
Nous avons discuté avec de nombreuses équipes, qui ont fait quelques expériences, élaboré une version préliminaire, puis se sont rendu compte qu'elles ne voulaient pas être celles qui continuent à ajouter ces détails dans les étapes ultérieures. Elles ne voulaient pas non plus être celles qui continuent à ajouter de nouvelles logiques à l'équipe du service client. À ce stade, il semble donc plus approprié de choisir de collaborer avec d'autres.
Kimberly Tan : Vous avez évoqué certains problèmes à long terme, comme la nécessité de lutter contre les mauvais acteurs, etc.Je pense que de nombreux auditeurs qui envisagent d'utiliser AI Agent s'inquiètent des nouvelles voies d'attaque de sécurité qui pourraient survenir après l'introduction des LLM, ou des nouveaux risques de sécurité qui pourraient survenir après l'introduction du système Agent. Que pensez-vous de ces problèmes ? Et quelles sont les meilleures pratiques pour garantir une sécurité d'entreprise de premier ordre lorsqu'il s'agit de Agent?
Jesse Zhang : En termes de sécurité, il existe des mesures évidentes qui peuvent être prises, comme je l'ai mentionné plus tôt, comme la nécessité de mesures de protection. Le problème fondamental est que les gens craignent que les LLM ne soient pas déterministes.
Mais la bonne nouvelle est que vous pouvez placer la plupart des opérations sensibles et complexes derrière un mur déterministe, et le calcul s'y déroule lorsqu'il appelle l'API. Vous ne dépendez donc pas entièrement de LLM pour le gérer, ce qui évite de nombreux problèmes de base.
Mais il existe encore des situations où, par exemple, un acteur malveillant intervient ou quelqu’un essaie de faire halluciner le système. Nous avons observé que chez de nombreux clients importants avec lesquels nous travaillons, leurs équipes de sécurité interviennent et effectuent essentiellement un test « d’équipe rouge » sur nos produits, passant des semaines à lancer en continu diverses attaques possibles sur le système pour essayer de trouver des vulnérabilités. À mesure que l’agent AI devient de plus en plus populaire, nous verrons peut-être cela se produire de plus en plus souvent, car c’est l’un des meilleurs moyens de tester l’efficacité d’un système. Il s’agit de lui lancer quelque chose via un test d’équipe rouge et de voir s’il peut percer les défenses.
Il existe également des startups qui développent des outils de red team ou qui permettent aux utilisateurs de réaliser eux-mêmes ce type de tests, ce qui est une tendance que nous observons actuellement. De nombreuses entreprises avec lesquelles nous travaillons, à un stade ultérieur du cycle de vente, font tester le système par leur équipe de sécurité ou travaillent avec une équipe externe. Pour nous, être capable de réussir ce type de tests est une nécessité. C'est donc à cela que tout se résume.
Derrick Harris : Est-ce quelque chose que vous encouragez vos clients à faire ? Parce que lorsque nous parlons de politiques d'IA, nous mentionnons un aspect important, qui est la couche applicative, et nous insistons sur la mise en place les La responsabilité incombe aux utilisateurs de LLM et aux personnes qui exécutent l'application, plutôt que de simplement blâmer le modèle lui-même. En d'autres termes, les clients doivent effectuer des tests en équipe rouge, identifier des cas d'utilisation et des chemins d'attaque spécifiques et déterminer les vulnérabilités à protéger, plutôt que de se fier simplement à la protection de sécurité déjà mise en place par OpenAI ou d'autres entreprises.
Jesse Zhang : Je suis tout à fait d’accord. Je pense également qu’une nouvelle vague d’exigences de notification pourrait émerger, semblable à la certification SOC 2 et à la certification HIPAA que tout le monde fait maintenant, qui sont requises dans différents secteurs. Habituellement, lorsque vous vendez un produit SaaS générique, les clients exigent des tests de pénétration, et nous devons également fournir notre rapport de test de pénétration. Pour AI Agent, il pourrait y avoir des exigences similaires à l’avenir, et quelqu’un pourrait le nommer, mais il s’agit essentiellement d’une nouvelle façon de tester si le système Agent est suffisamment puissant.
Kimberly Tan : Ce qui est intéressant, c'est que tout le monde est évidemment très enthousiaste à propos des nouveaux modèles et des avancées technologiques introduits par tous les grands laboratoires. En tant qu'entreprise d'IA, vous ne faites évidemment pas vos propres recherches, mais vous exploitez ces recherches et créez de nombreux logiciels autour de celles-ci pour les livrer au client final.
Mais votre travail repose sur une technologie en évolution rapide. Je suis curieux de savoir, en tant qu'entreprise d'IA appliquée, comment parvenez-vous à suivre les nouveaux changements technologiques et à comprendre comment ils affectent l'entreprise tout en étant capable de prédire votre propre feuille de route produit et de définir les besoins des utilisateurs ? Plus généralement, quelles stratégies les entreprises d'IA appliquée devraient-elles adopter dans des situations similaires ?
Jesse Zhang : Vous pouvez en fait diviser l'ensemble de la pile en différentes parties. Par exemple, LLM se trouve en bas si vous regardez la couche applicative. Vous pouvez avoir des outils au milieu qui vous aident à gérer LLM ou à faire des évaluations et des choses comme ça. Ensuite, la partie supérieure correspond essentiellement à ce que nous avons construit, qui ressemble en fait à un SaaS standard.
En fait, la plupart de nos travaux ne sont pas très différents des logiciels classiques, à l’exception du fait que nous avons un volet de recherche supplémentaire : les LLM évoluent trop vite. Nous devons rechercher ce qu’ils peuvent faire, ce dans quoi ils sont bons et quel modèle doit être utilisé pour effectuer une certaine tâche. C’est un problème majeur car OpenAI et Anthropic lancent de nouvelles technologies, et Gemini s’améliore également progressivement.
Donc, Il faut disposer de son propre mécanisme d'évaluation pour comprendre quel modèle est adapté à une situation donnée. Il faut parfois procéder à des ajustements, mais la question est : quand faut-il procéder à des ajustements ? Quand est-ce que cela vaut la peine ? Ce sont probablement les principaux sujets de recherche liés aux LLM sur lesquels nous nous concentrons. Mais du moins jusqu'à présent, nous n'avons pas l'impression que le SaaS évolue rapidement, car nous ne dépendons pas de la couche intermédiaire. Donc, fondamentalement, ce sont les LLM qui évoluent. Ils ne changent pas très souvent, et quand ils le font, il s'agit généralement d'une mise à niveau. Par exemple, le sonnet Claude 3.5 a été mis à jour il y a quelques mois, et à ce moment-là, nous nous sommes dit : « Ok, devrions-nous passer au nouveau modèle au lieu de continuer à utiliser l'ancien ? »
Il nous suffit d'effectuer une série d'évaluations et, une fois que nous sommes passés au nouveau modèle, nous n'y pensons plus, car nous utilisons déjà le nouveau modèle. Ensuite, la version o1 est sortie et la situation était similaire. Réfléchissez à l'endroit où elle peut être utilisée. Dans notre cas, o1 est un peu lent pour la plupart des cas d'utilisation orientés client, nous pouvons donc l'utiliser pour un travail en arrière-plan. En fin de compte, nous devons simplement disposer d'un bon système pour la recherche de modèles.
Kimberly Tan : À quelle fréquence évaluez-vous un nouveau modèle et décidez-vous de le remplacer ?
Jesse Zhang : Nous évaluons chaque fois qu'un nouveau modèle est lancé. Vous devez vous assurer que même si le nouveau modèle est plus intelligent, il ne perturbe pas certains des cas d'utilisation que vous avez déjà créés. Cela peut arriver. Par exemple, le nouveau modèle peut être globalement plus intelligent, mais dans certains cas extrêmes, il fonctionne mal sur un choix A/B dans l'un de vos workflows. C'est pour cela que nous évaluons.
Je pense que globalement, le type d’intelligence qui nous importe le plus est ce que j’appellerais « la capacité à suivre les instructions ». Nous voulons que le modèle devienne de plus en plus performant dans sa capacité à suivre les instructions. Si c’est le cas, alors c’est certainement bénéfique pour nous, et c’est très bien.
Il semble que les recherches récentes se soient davantage concentrées sur le type d'intelligence qui implique le raisonnement, comme une meilleure programmation et de meilleures opérations mathématiques. Cela nous aide aussi, mais ce n'est pas aussi important que l'amélioration de la capacité à suivre les instructions.
Kimberly Tan : Un point très intéressant que vous avez mentionné, et je pense qu'il est également très unique à Decagon, est que vous avez construit une grande partie de l'infrastructure d'évaluation en interne pour vous assurer de savoir exactement comment chaque modèle fonctionne sous l'ensemble de tests que vous fournissez.
Pouvez-vous nous en dire plus à ce sujet ? Quelle est l'importance de cette infrastructure d'évaluation interne et, plus précisément, comment vous permet-elle, à vous et à vos clients, d'avoir confiance dans les performances de l'agent ? Certaines de ces évaluations concernent également les clients.
Jesse Zhang : Je pense que c’est très important, car sans cette infrastructure d’évaluation, il nous serait très difficile d’itérer rapidement.
Si vous pensez que chaque changement a une forte probabilité de casser quelque chose, vous n'effectuerez pas de changements rapidement. Mais si vous disposez d'un mécanisme d'évaluation, lorsqu'un changement majeur, une mise à jour du modèle ou une nouveauté survient, vous pouvez le comparer directement à tous les tests d'évaluation. Si les résultats de l'évaluation sont bons, vous pouvez vous dire : OK, nous avons fait une amélioration, ou vous pouvez la publier en toute confiance sans trop vous inquiéter.
Donc, dans notre domaine, L’évaluation nécessite l’intervention du client, car c’est lui qui décide si quelque chose est correct ou non. Bien sûr, nous pouvons vérifier certains problèmes de haut niveau, mais généralement, le client fournit des cas d'utilisation spécifiques et nous indique quelle est la bonne réponse, ou ce qu'elle doit être, quel ton elle doit maintenir, ce qu'elle doit dire.
L’évaluation est basée sur cela. Nous devons donc nous assurer que notre système d’évaluation est suffisamment robuste. Au début, nous l’avons construit nous-mêmes et il n’est pas si difficile à maintenir. Nous savons également qu’il existe des sociétés d’évaluation et nous en avons étudié quelques-unes. Peut-être qu’à un moment donné, nous envisagerons de les adopter, mais pour l’instant, le système d’évaluation ne nous pose plus de problème.
Kimberly Tan : Un sujet très populaire aujourd'hui est la multimodalité, ce qui signifie que les agents d'IA devraient être capables d'interagir avec toutes les formes que les humains utilisent aujourd'hui, qu'il s'agisse de texte, de vidéo, de voix, etc. Je sais que Decagon a commencé comme un outil basé sur le texte. De votre point de vue, quelle importance accordez-vous à la multimodalité ? est la multimodalité aux agents IA ? Selon vous, quel est le délai avant que cela devienne courant ou même une norme ?
Jesse Zhang : Il est important et, du point de vue de l’entreprise, il n’est pas particulièrement difficile d’ajouter une nouvelle modalité. Ce n’est pas simple, mais l’essentiel est le suivant : si vous résolvez d’autres problèmes, comme ceux que j’ai mentionnés – par exemple, la création de l’IA, sa surveillance et la bonne logique – alors ajouter une nouvelle modalité n’est pas la chose la plus difficile à faire. Donc, pour nous, avoir toutes les modalités est très logique et cela élargit notre marché. Nous sommes fondamentalement agnostiques en matière de modalité et nous construisons notre propre agent pour chaque modalité.
D'une manière générale, il existe deux facteurs limitatifs : Premièrement, le client est-il prêt à adopter la nouvelle modalité ? Je pense qu’il est tout à fait logique de commencer par le texte, car c’est la façon dont les gens adoptent le plus activement, et c’est moins risqué pour eux, plus facile à surveiller et plus facile à comprendre. L’autre grande modalité est la voix. Évidemment, je pense qu’il y a encore de la place sur le marché, et l’acceptation de la voix par les utilisateurs doit encore s’améliorer. Actuellement, nous voyons des pionniers qui ont commencé à adopter les agents vocaux, ce qui est très enthousiasmant. L’autre aspect concerne les défis techniques. La plupart des gens s’accordent à dire que la barre est placée plus haut pour la voix. Si vous parlez à quelqu’un au téléphone, vous avez besoin d’une latence vocale très courte. Si vous interrompez quelqu’un, il doit répondre naturellement.
Comme la latence de la parole est plus faible, il faut être plus intelligent dans la façon de calculer. Si vous êtes dans une conversation et que le temps de réponse est de cinq à huit secondes, vous le remarquez à peine et cela semble très naturel. Mais s'il faut cinq à huit secondes pour répondre au téléphone, cela semble un peu contre nature. La parole pose donc davantage de défis techniques. À mesure que ces défis techniques seront résolus et que l'intérêt pour l'adoption de la parole augmentera sur le marché, la parole en tant que nouvelle modalité deviendra courante.
Un modèle économique qui fait fi de la confiance
Kimberly Tan : Avant de continuer, j'aimerais parler un peu plus du modèle économique de l'agent IA. Lorsque vous commencez construit Agent AI ou avez-vous discuté avec les clients du système qu'ils utilisent, des données qu'ils traitent et de leurs préoccupations ? Y a-t-il quelque chose qui vous a surpris ? Quelles sont les choses non intuitives ou surprenantes que Decagon a dû faire pour mieux servir les clients d'entreprise ?
Jesse Zhang : Je pense que le plus surprenant, c'est la volonté des gens de nous parler dès le début. Après tout, nous n'étions que deux. Nous avions tous les deux déjà créé des entreprises, nous connaissions donc beaucoup de monde, mais malgré tout, pour tout entrepreneur, lorsque vous voulez engager une conversation de recommandation, si ce que vous dites n'est pas particulièrement convaincant, la conversation est généralement assez tiède.
Mais lorsque nous avons commencé à parler de ce cas d'utilisation, j'ai été assez surpris de voir à quel point les gens étaient enthousiastes à l'idée d'en parler. Parce que l'idée semble tellement évidente. On pourrait penser que, puisque c'est une idée aussi évidente, quelqu'un d'autre doit déjà l'avoir fait, ou qu'il doit déjà y avoir une solution, ou que quelqu'un d'autre doit déjà avoir trouvé une sorte de solution. Mais je pense que nous avons saisi un bon moment, ce cas d'utilisation est vraiment important et les gens s'en soucient vraiment. Comme je l'ai mentionné précédemment, ce cas d'utilisation est vraiment bien adapté pour prendre AI Agent et le mettre en production, car vous pouvez l'implémenter de manière incrémentale et être en mesure de suivre le retour sur investissement.
Cela a été une agréable surprise pour moi, mais il y a évidemment beaucoup de travail à faire ensuite, il faut travailler avec les clients, il faut construire le produit, il faut savoir quelle direction prendre. Dans la phase initiale, c'était vraiment une découverte surprenante.
Derrick Harris : Kimberly, je pense que je devrais mentionner cet article de blog que vous avez écrit, RIP to RPA, qui aborde de nombreux sujets les tâches d'automatisation et startups.Pensez-vous qu’il existe un phénomène dans lequel ces tâches ou solutions automatisées ne sont pas si idéales, de sorte que les gens recherchent toujours une meilleure solution ?
Kimberly Tan : Oui, je le pense. J’aimerais dire quelques mots. Tout d’abord, si une idée est évidente pour tout le monde, mais qu’il n’existe pas d’entreprise clairement désignée pour la résoudre, ou que personne ne désigne une entreprise en disant : « Vous devriez utiliser ceci », cela signifie que le problème n’a pas été réellement résolu.
En un sens, il s’agit d’une opportunité totalement ouverte pour une entreprise de développer une solution. Car, comme vous l’avez dit, nous suivons Decagon en tant qu’investisseur depuis le début. Nous les avons vus naviguer dans le labyrinthe créatif, et lorsqu’ils ont décidé d’aller dans cette direction et ont commencé à parler aux clients, il est devenu clair que tous les clients étaient désespérés d’une sorte de solution native basée sur l’IA. C’est l’un des problèmes que j’ai mentionnés plus tôt, où beaucoup de gens pensent qu’il s’agit simplement d’un wrapper GPT. Mais l’intérêt des clients que Decagon a suscité dès le début nous a fait comprendre très tôt que bon nombre de ces problèmes sont beaucoup plus complexes que ce que les gens pensent.
Je pense que ce phénomène se produit dans tous les secteurs, qu'il s'agisse du service client ou de l'automatisation professionnelle dans certains secteurs verticaux. Je pense que l'un des points sous-estimés est, comme Jesse l'a mentionné plus tôt, la capacité à mesurer clairement le retour sur investissement (ROI) de l'automatisation des tâches. Parce que, si vous voulez convaincre quelqu'un d'accepter un agent IA, il doit en fait faire un certain « acte de foi », car c'est un territoire très inconnu pour beaucoup de gens.
Si vous pouvez automatiser un processus très spécifique qui est soit un processus évident de génération de revenus, soit un processus qui constituait auparavant un goulot d’étranglement dans l’entreprise, soit un centre de coûts majeur qui augmente linéairement avec la croissance de la clientèle ou la croissance des revenus, alors il sera plus facile d’obtenir l’acceptation de l’agent IA. La capacité de transformer de tels problèmes en un processus plus productif, pouvant être mis à l’échelle comme un logiciel traditionnel, est très attrayante.
Kimberly Tan : J’ai une dernière question avant de passer à autre chose. Je me souviens que Jesse, lors de nos discussions précédentes, disait toujours que le plus grand défi pour les entreprises qui adoptent des logiciels ou des agents d’IA serait les hallucinations. Mais vous m’avez dit un jour que ce n’était pas le problème principal. Pouvez-vous nous expliquer pourquoi la perception des hallucinations est quelque peu trompeuse et ce qui préoccupe le plus les gens ?
Jesse Zhang : Je pense que les gens se soucient des hallucinations, mais ils sont plus préoccupés par la valeur qu’elles peuvent apporter. Presque toutes les entreprises avec lesquelles nous travaillons se concentrent sur les mêmes problèmes, presque exactement les mêmes : quel pourcentage de conversations pouvez-vous résoudre ? Dans quelle mesure mes clients sont-ils satisfaits ? Ensuite, le problème des hallucinations peut être classé dans une troisième catégorie, à savoir la précision. En règle générale, les deux premiers facteurs sont plus importants lors de l’évaluation.
Imaginons que vous vous adressez à une nouvelle entreprise et que vous avez fait du très bon travail sur les deux premiers facteurs, et que vous avez reçu beaucoup de soutien de la part de la direction et de tous les membres de l'équipe. Ils disent : « Oh mon Dieu, notre expérience client est différente. Chaque client a désormais son propre assistant personnel qui peut nous contacter à tout moment. Nous leur avons donné d'excellentes réponses, ils sont très satisfaits, et le service est multilingue et disponible 24 heures sur 24, 7 jours sur 7. » Ce n'est qu'une partie du problème, et vous avez également économisé beaucoup d'argent.
Une fois ces objectifs atteints, vous bénéficiez d'un soutien important et d'un grand dynamisme pour faire avancer le travail. Bien sûr, le problème de l'illusion doit être résolu en fin de compte, mais ce n'est pas ce qui les préoccupe le plus. La façon de résoudre l'illusion est la même que celle que j'ai mentionnée auparavant : les gens vous testeront. Il peut y avoir une phase de validation de principe au cours de laquelle vous menez de véritables conversations et les membres de l'équipe surveillent et vérifient l'exactitude du projet. Si cela se passe bien, le projet est généralement validé.
De plus, comme je l'ai mentionné précédemment, vous pouvez mettre en place des mesures de protection strictes pour les informations sensibles, par exemple en ne rendant pas nécessairement le contenu sensible générique. La question de l'illusion est donc un point de discussion dans la plupart des transactions. Ce n'est pas un sujet sans importance. Vous suivrez ce processus, mais il ne sera jamais au centre de la conversation.
Kimberly Tan : Passons maintenant au modèle économique des agents IA. Aujourd'hui, le sujet principal est la tarification de ces agents IA.
Historiquement, de nombreux logiciels SaaS sont tarifés en fonction du nombre de postes, car il s'agit de logiciels de workflow qui ciblent les employés individuellement et sont utilisés pour améliorer la productivité des employés. Cependant, AI Agent n'est pas lié à la productivité des employés individuels comme les logiciels traditionnels.
Beaucoup de gens pensent que la méthode de tarification basée sur le nombre de sièges n'est peut-être plus applicable. Je suis curieux de savoir comment Vous avez réfléchi à ce dilemme au début et à la façon dont vous avez finalement décidé de fixer le prix de Decagon. De plus, quelle sera selon vous la tendance future en matière de tarification des logiciels à mesure que l'agent AI devient de plus en plus courant ?
Jesse Zhang : Notre point de vue sur cette question est que, par le passé, les logiciels étaient tarifés par poste car leur échelle était basée approximativement sur le nombre de personnes pouvant utiliser le logiciel. Mais pour la plupart des agents d’IA, la valeur que vous fournissez ne dépend pas du nombre de personnes qui l’entretiennent, mais plutôt de la quantité de travail produite. Cela est cohérent avec le point que j’ai mentionné plus tôt : si le retour sur investissement (ROI) est très mesurable, alors le niveau de production de travail est également très clair.
Nous pensons que la tarification en fonction du nombre de postes ne s'applique absolument pas. Vous pouvez fixer votre prix en fonction du rendement du travail. Le modèle de tarification que vous proposez doit donc être le suivant : plus le travail est effectué, plus vous payez.
Pour nous, il existe deux manières évidentes de fixer le prix. Vous pouvez soit fixer le prix des conversations, soit fixer le prix des conversations que l'IA résout réellement. Je pense que l'une des leçons intéressantes que nous avons apprises est que la plupart des gens ont choisi le modèle de tarification par conversation. La raison en est que le principal avantage de la tarification par solution est que vous payez pour ce que vous avez résolu. les L'IA le fait.
Mais la question qui se pose est la suivante : qu’est-ce qu’on entend par « solution » ? Tout d’abord, personne ne veut approfondir la question, car la question se pose alors : « Si quelqu’un arrive en colère et que vous le renvoyez, pourquoi devrions-nous payer pour cela ? »
Cela crée une situation délicate et rend également les incitations pour les fournisseurs d'IA un peu étranges, car la facturation à la solution signifie « nous devons simplement résoudre autant de conversations que possible et repousser certaines personnes ». Mais il existe de nombreux cas où il est préférable de faire remonter le problème plutôt que de le repousser, et les clients n'apprécient pas ce type de traitement. Par conséquent, la facturation à la conversation apportera plus de simplicité et de prévisibilité.
Kimberly Tan : Combien de temps pensez-vous que le futur modèle de tarification durera ?Parce qu'à l'heure actuelle, lorsque vous évoquez le retour sur investissement, il est généralement basé sur les dépenses passées qui auraient pu être utilisées pour couvrir les coûts de main-d'œuvre. À mesure que les agents IA deviennent plus courants, pensez-vous qu'à long terme, l'IA sera comparée aux coûts de main-d'œuvre et qu'il s'agit d'une référence appropriée ? Si ce n'est pas le cas, comment envisagez-vous la tarification à long terme au-delà des coûts de main-d'œuvre ?
Jesse Zhang : Je pense qu'à long terme, la tarification des agents d'IA pourrait encore être principalement liée aux coûts de main-d'œuvre, car c'est la beauté de l'agent : vos dépenses précédentes en services peuvent désormais être transférées vers les logiciels.
Cette partie des dépenses pourrait être 10 à 100 fois supérieure à celle des logiciels, ce qui signifie qu'une grande partie des coûts sera transférée vers les logiciels. Par conséquent, les coûts de main-d'œuvre deviendront naturellement une référence. Pour nos clients, le retour sur investissement est très clair. Si vous pouvez économiser X millions de dollars en coûts de main-d'œuvre, il est alors logique d'adopter cette solution. Mais à long terme, cela peut être une solution intermédiaire.
Car même certains produits qui ne sont pas aussi bons que notre Agent accepteront des prix inférieurs. Cela ressemble à la situation SaaS classique, où tout le monde se bat pour obtenir des parts de marché.
Kimberly Tan : Selon vous, quel sera l’avenir des entreprises SaaS actuelles, en particulier celles dont les produits n’ont peut-être pas été conçus nativement pour l’IA ou qui sont tarifés par poste et ne peuvent donc pas s’adapter à un modèle de tarification axé sur les résultats ?
Jesse Zhang : Pour certaines entreprises traditionnelles, il est en effet un peu délicat de lancer un produit d'agent IA, car elles ne peuvent pas le tarifer en utilisant un modèle de siège. Si vous n'avez plus besoin d'autant d'agents, il est difficile de maintenir les revenus avec le produit existant. C'est un problème pour les entreprises traditionnelles, mais c'est difficile à dire. Les entreprises traditionnelles ont toujours l'avantage des canaux de distribution. Même si le produit n'est pas aussi bon que celui de la nouvelle entreprise, les gens hésitent à faire l'effort d'accepter un nouveau fournisseur avec seulement 80% de qualité.
Donc, tout d’abord, si vous êtes une startup comme nous, vous devez vous assurer que votre produit est trois fois meilleur que le produit traditionnel. Deuxièmement, il s’agit d’une concurrence typique entre les entreprises traditionnelles et les startups. Les entreprises traditionnelles ont naturellement une tolérance au risque plus faible car elles ont un grand nombre de clients. Si elles font une erreur dans l’itération rapide, cela entraînera d’énormes pertes. Cependant, les startups peuvent itérer plus rapidement, de sorte que le processus d’itération lui-même peut conduire à un meilleur produit. C’est le cycle habituel. Pour nous, nous avons toujours été fiers de notre rapidité de livraison, de la qualité de nos produits et de l’exécution de notre équipe. C’est pourquoi nous avons remporté le contrat actuel.
Kimberly Tan : Pouvez-vous faire quelques prédictions sur l’avenir de l’IA sur le lieu de travail ? Par exemple, comment cela va-t-il changer les besoins ou les capacités des employés, ou la façon dont les employés humains et les agents d’IA interagissent ?Quelles nouvelles bonnes pratiques ou normes, selon vous, deviendront la norme sur le lieu de travail à mesure que les agents d’IA se généraliseront ?
Jesse Zhang : Le premier changement, et le plus important, est que nous sommes convaincus qu'à l'avenir, les employés passeront beaucoup plus de temps sur leur lieu de travail à créer et à gérer des agents d'IA, de manière similaire au rôle des superviseurs d'IA. Même si votre poste n’est pas officiellement celui de « superviseur d’IA », une grande partie du temps que vous consacriez à votre travail sera consacrée à la gestion de ces agents, car ces derniers peuvent vous donner beaucoup d’influence.
Nous avons pu le constater dans de nombreux déploiements, où les personnes qui étaient autrefois chefs d’équipe passent désormais beaucoup de temps à surveiller l’IA, par exemple pour s’assurer qu’elle ne rencontre pas de problèmes ou pour procéder à des ajustements. Ils surveillent les performances globales pour voir si des domaines spécifiques nécessitent une attention particulière, s’il existe des lacunes dans la base de connaissances qui pourraient aider l’IA à s’améliorer et si l’IA peut combler ces lacunes.
Le travail qui accompagne le travail avec un agent donne l’impression qu’à l’avenir, les employés passeront beaucoup de temps à interagir avec des agents IA. C’est un concept fondamental de notre entreprise, comme je l’ai mentionné plus tôt. Par conséquent, l’ensemble de notre produit est conçu pour fournir aux utilisateurs des outils, une visualisation, une interprétabilité et un contrôle. Je pense que d’ici un an, cela deviendra une énorme tendance.
Kimberly Tan : Cela me paraît tout à fait logique. De quelles capacités les superviseurs de l’IA auront-ils besoin à l’avenir ? Quelles sont les compétences nécessaires pour ce rôle ?
Jesse Zhang : Il y a deux aspects. L'une d'entre elles est l'observabilité et l'interprétabilité, c'est-à-dire la capacité à comprendre rapidement ce que fait l'IA et comment elle prend des décisions. L'autre est la capacité de prise de décision, ou la partie construction, c'est-à-dire la manière de donner un retour d'information et de construire une nouvelle logique. Je pense que ces deux-là sont les deux faces d’une même pièce.
Kimberly Tan : Selon vous, quelles tâches resteront au-delà des capacités de l'agent IA à moyen ou long terme et devront toujours être gérées et exécutées correctement par les humains ?
Jesse Zhang : Je pense que cela dépendra principalement de l’exigence de « perfection » que j’ai mentionnée plus tôt. De nombreuses tâches ont une très faible tolérance à l’erreur. Dans ces cas, tout outil d’IA est davantage une aide qu’un agent à part entière.
Par exemple, dans certains secteurs plus sensibles, comme la santé ou la sécurité, où il faut être presque parfait, alors dans ces domaines, les agents IA peuvent devenir moins autonomes, mais cela ne veut pas dire qu'ils sont inutiles. Je pense que le style sera différent, dans une plateforme comme la nôtre, vous déployez en fait ces agents pour leur permettre d'automatiser l'ensemble du travail.
Derrick Harris : Et c'est tout pour cet épisode. Si vous avez trouvé ce sujet intéressant ou inspirant, n'hésitez pas à évaluer notre podcast et à le partager avec plus de personnes.Nous prévoyons de publier l'épisode final avant la fin de l'année et nous allons réorganiser le contenu pour la nouvelle année. Merci de votre écoute et passez de bonnes fêtes de fin d'année (si vous écoutez pendant les vacances).
Vidéo originale : Les agents Can Al peuvent-ils enfin résoudre le problème du support client ??