Reflejos
- La magia de los LLM es que son muy flexibles, pueden adaptarse a muchas situaciones diferentes y tienen una inteligencia básica.
- Creemos que con el tiempo, la UI y la UX se basarán cada vez más en el lenguaje natural, porque así es como piensa un sistema de agente, o básicamente es la base del entrenamiento para modelos de lenguaje grandes (LLM).
- Si quieres que alguien acepte un agente de IA, en realidad está dando un cierto “salto de fe” porque para muchas personas, este es un campo muy desconocido.
AI Agent transforma la experiencia del cliente
Jesse Zhang: ¿Cómo se construye realmente un agente? Nuestra opinión es que, con el tiempo, se parecerá cada vez más a un agente basado en lenguaje natural, porque así es como se entrenan los grandes modelos lingüísticos (LLM).
A largo plazo, si tienes un agente súper inteligente que en realidad es como un humano, puedes mostrarle cosas, explicarle, darle retroalimentación y él actualizará la información en su mente.
Puedes imaginarte tener un miembro del equipo humano muy capaz. Cuando se incorporan, les enseñas algo, empiezan a trabajar y luego les das retroalimentación y les muestras nueva información.
Con el tiempo, evolucionará en esa dirección: se volverá más conversacional y se basará más en el lenguaje natural, y la forma en que las personas se comunican entre sí será más natural. Y las personas ya no utilizarán esos complicados árboles de decisión para capturar requisitos, que pueden funcionar pero son propensos a colapsar.
En el pasado, teníamos que hacer esto porque no teníamos un modelo de lenguaje amplio. Pero ahora, con el progreso continuo de Agent, la experiencia del usuario (UX) y la interfaz de usuario (UI) se volverán más conversacionales.
Derrick Harris: Hola a todos, bienvenidos al podcast de IA de A16z. Soy Derrick Harris y hoy me acompañarán Jesse Zhang, cofundador y director ejecutivo de Decagon, y Kimberly Tan, socia de a16z. Kimberly moderará el debate y Jesse compartirá su experiencia en la creación de Decagon y sus productos.
Si no sabes mucho sobre el tema, Decagon es una startup que ofrece agentes de IA a las empresas para ayudar con la atención al cliente. Estos agentes no son chatbots ni envoltorios LLM para una única llamada API, sino agentes avanzados altamente personalizados que pueden gestionar flujos de trabajo complejos en función de las necesidades específicas de una empresa.
Además de explicar por qué crearon Decagon y cómo está diseñado para manejar diferentes entornos de LLM y clientes, Jesse también habla sobre los beneficios de un modelo comercial que cobra por conversación y cómo los agentes de IA cambiarán las habilidades requeridas de los líderes de atención al cliente.
También vale la pena mencionar que Kimberly escribió recientemente una publicación de blog titulada “RIP to RPA, The Rise of Intelligent Automation”, que analizamos brevemente en este episodio.
Es un excelente punto de partida para comprender cómo la automatización está despegando en los procesos comerciales y proporcionaremos un enlace en las notas del programa. Y, por último, como recordatorio, el contenido de este artículo es solo para fines informativos y no debe considerarse asesoramiento legal, comercial, fiscal o de inversión, ni debe usarse para evaluar ninguna inversión o valor, y no está dirigido a ningún inversor o potencial inversor de fondos a16z.
Jesse Zhang: Una breve introducción sobre mí. Nací y crecí en Boulder, y participé en muchos concursos de matemáticas y similares cuando era niño. Estudié informática en Harvard y luego fundé una empresa que también contaba con el respaldo de a16z. Al final, Niantic nos adquirió.
Luego comenzamos a desarrollar Decagon. Nuestro negocio consiste en crear agentes de inteligencia artificial para el servicio de atención al cliente. Al principio, lo hicimos porque queríamos hacer algo que nos interesaba mucho.
Por supuesto, nadie necesita que le enseñen el papel de los agentes de IA en el servicio de atención al cliente, ¿verdad? Todos hemos estado hablando por teléfono con aerolíneas, hoteles, etc., y hemos tenido que esperar en espera. Así que la idea surgió de ahí.
Hablamos con muchos clientes para averiguar exactamente qué tipo de producto deberíamos crear. Algo que nos llamó la atención fue que, a medida que aprendimos más sobre los agentes de IA, comenzamos a pensar en cómo sería el futuro cuando hubiera muchos de ellos. Creo que todos creen que habrá muchos agentes de IA en el futuro.
Lo que nos planteamos es qué harán los empleados que trabajen con agentes de IA, qué tipo de herramientas tendrán, cómo controlarán o verán a los agentes con los que trabajan o que gestionan.
Así que este es el núcleo de cómo construimos la empresa en torno a esta pregunta. Creo que esto es también lo que nos distingue en este momento, porque proporcionamos a estos agentes de IA varias herramientas para ayudar a las personas con las que trabajamos a construir y configurar estos agentes para que ya no sean una "caja negra". Así es como construimos nuestra marca.
Derrick Harris: ¿Qué le inspiró, ya que su última empresa era una empresa de vídeo orientada al consumidor, a pasar al software empresarial?
Jesse Zhang: Gran pregunta. Creo que los fundadores suelen ser “agnósticos” en cuanto a la elección de un tema, porque en realidad, cuando abordas un campo nuevo, normalmente eres bastante ingenuo. Por eso, hay una ventaja en mirar las cosas desde una perspectiva nueva. Así que cuando lo estábamos pensando, casi no había restricciones en cuanto a los temas.
Creo que es un patrón muy común entre las personas con una formación más cuantitativa, incluido yo mismo. Después de probar productos de consumo, uno tiende a gravitar más hacia el software empresarial porque este tiene problemas más concretos.
Tienes clientes reales con necesidades y presupuestos reales y cosas así, y puedes optimizar y resolver problemas para ellos. El mercado de consumo también es muy atractivo, pero se basa más en la intuición que en la experimentación. Para mí, personalmente, el software empresarial es una opción más adecuada.
Kimberly Tan: Primero, podemos empezar con esta pregunta: ¿Cuáles son las categorías de soporte más comunes con las que Decagon trabaja actualmente? ¿Puede explicarnos cómo utiliza los modelos de lenguaje extensos (LLM) para resolver estos problemas y qué puede hacer ahora que no podía hacer antes?
Jesse Zhang: Si analizamos las automatizaciones anteriores, es posible que hayamos utilizado árboles de decisión para hacer algo simple, como determinar qué camino tomar. Pero todos hemos utilizado chatbots y es una experiencia bastante frustrante.
A menudo, no es posible responder completamente a una pregunta mediante un árbol de decisiones, por lo que se termina por seguir un camino que está relacionado con la pregunta, pero que no coincide exactamente con ella. Ahora tenemos modelos de lenguaje grandes (LLM, por sus siglas en inglés). La magia de los LLM es que son muy flexibles, pueden adaptarse a muchas situaciones diferentes y tienen una inteligencia básica.
Cuando aplicas esto a la atención al cliente, o cuando un cliente hace una pregunta, puedes brindar un servicio más personalizado. Este es el primer punto: el nivel de personalización ha mejorado mucho. Esto permite obtener métricas más altas. Puedes resolver más problemas, los clientes están más satisfechos y la satisfacción del cliente aumenta.
El siguiente paso natural es: si tienes esta inteligencia, deberías poder hacer más cosas que los humanos pueden hacer. Las cosas que los humanos pueden hacer son que pueden extraer datos en tiempo real, pueden tomar medidas y pueden razonar a través de múltiples pasos. Si un cliente hace una pregunta relativamente compleja, tal vez "quiero hacer esto y aquello", y la IA solo está preparada para responder a la primera pregunta, LLM es lo suficientemente inteligente como para reconocer que hay dos preguntas aquí. Primero, resolverá el primer problema y luego te ayudará a resolver el segundo.
Antes de que apareciera LLM, esto era básicamente imposible. Ahora estamos viendo un cambio radical en lo que la tecnología es capaz de hacer, y eso es gracias a LLM.
Kimberly Tan: En este contexto, ¿cómo definirías un agente de IA? Como la palabra “agente” se usa ampliamente, tengo curiosidad por saber qué significa realmente en el contexto de Decagon.
Jesse Zhang: Yo diría que el término Agente se refiere más bien a un sistema en el que varios sistemas LLM (modelo de lenguaje grande) trabajan juntos. Hay una invocación LLM, que básicamente implica enviar un mensaje y obtener una respuesta. En el caso de un Agente, se desea poder conectar varias invocaciones de este tipo, tal vez incluso de forma recursiva.
Por ejemplo, tienes una llamada LLM que determina cómo manejar el mensaje y luego puede activar otras llamadas que extraen más datos, realizan acciones y repiten lo que dijo el usuario, tal vez incluso haciendo preguntas de seguimiento. Por lo tanto, para nosotros, un agente puede entenderse como una red de llamadas LLM, llamadas API u otra lógica que funcionan juntas para brindar una mejor experiencia.
Kimberly Tan: Sobre este tema, quizás podamos hablar más sobre la infraestructura de agentes que has creado. Creo que un punto muy interesante es que hay muchas demostraciones de agentes de IA en el mercado, pero creo que hay muy pocos ejemplos de ellos que realmente puedan funcionar de manera estable en un entorno de producción. Y es difícil saber desde fuera qué es real y qué no.
Entonces, en su opinión, ¿qué aspectos de los agentes de IA actuales funcionan bien y qué aspectos aún requieren avances tecnológicos para hacerlos más sólidos y confiables?
Jesse Zhang: En realidad, mi punto de vista es un poco diferente. La diferencia entre determinar si un agente de IA es solo una demostración o si “realmente funciona” no radica únicamente en la pila de tecnología, porque creo que la mayoría de las personas pueden estar utilizando aproximadamente la misma tecnología. Creo que una vez que haya avanzado en el desarrollo de su empresa, por ejemplo, nuestra empresa lleva establecida más de un año, creará algo muy específico que se adapte a su caso de uso.
Pero al final, todos pueden acceder al mismo modelo y utilizar una tecnología similar. Creo que el mayor factor diferenciador sobre si un agente de IA puede trabajar de manera efectiva en realidad reside en la forma del caso de uso. Es difícil saber esto al principio, pero mirando hacia atrás, encontrarás que hay dos atributos que son muy importantes para que un agente de IA vaya más allá de la demostración y entre en la aplicación práctica.
Lo primero es que el caso de uso que resuelvas debe tener un ROI (retorno de la inversión) cuantificable. Esto es muy importante, porque si no se puede cuantificar el ROI, será difícil convencer a la gente de que realmente use tu producto y pague por él. En nuestro caso, el indicador cuantitativo es: ¿qué porcentaje de solicitudes de soporte resuelves? Como este número es claro, la gente puede entenderlo: bueno, si resuelves más, puedo comparar este resultado con mis gastos actuales y el tiempo empleado. Entonces, si existe este indicador, otro indicador que es muy importante para nosotros es la satisfacción del cliente. Como el ROI se puede cuantificar fácilmente, la gente realmente lo adoptará.
El segundo factor es que los casos de uso deben ser cada vez más difíciles. También sería muy difícil si necesitaras un Agente que fuera sobrehumano desde el principio, resolviendo casi el 100% de los casos de uso. Porque como sabemos, los LLM no son deterministas, tienes que tener algún tipo de plan de contingencia. Afortunadamente, hay una gran característica de los casos de uso de soporte, y es que siempre puedes escalar a un humano. Incluso si solo puedes resolver la mitad de los problemas, sigue siendo muy valioso para las personas.
Por eso creo que el soporte tiene esta característica que lo hace muy adecuado para AI Agent. Creo que hay muchas otras áreas en las que la gente puede crear demostraciones impresionantes en las que ni siquiera hay que mirar de cerca para entender por qué AI Agent sería útil. Pero si tiene que ser perfecto desde el principio, entonces es muy difícil. Si ese es el caso, casi nadie querrá probarlo o usarlo porque las consecuencias de su imperfección pueden ser muy graves, por ejemplo, en términos de seguridad.
Por ejemplo, cuando la gente hace simulaciones, siempre tienen este pensamiento clásico: “Oh, sería genial si LLM pudiera leer esto”. Pero es difícil imaginar a alguien diciendo: “Está bien, agente de IA, adelante. Creo que puedes hacerlo”. Porque si comete un error, las consecuencias podrían ser muy graves.
Jesse Zhang: En general, esto lo deciden nuestros clientes y, de hecho, vemos una amplia gama de diferencias. En un extremo, algunas personas hacen que su agente parezca un humano, por lo que hay un avatar humano, un nombre humano y las respuestas son muy naturales. Por otro lado, el agente simplemente indica que es IA y se lo deja claro al usuario. Creo que las diferentes empresas con las que trabajamos tienen diferentes posiciones al respecto.
Por lo general, si trabajas en una industria regulada, tienes que dejar esto en claro. Lo que me parece interesante ahora es que el comportamiento de los clientes está cambiando, porque muchos de nuestros clientes están recibiendo muchos comentarios en las redes sociales, como: "Dios mío, esta es la primera experiencia de chat que he probado que realmente se siente tan real" o "Esto es simplemente mágico". Y eso es genial para ellos, porque ahora sus clientes están aprendiendo que, si se trata de una experiencia de IA, en realidad puede ser mejor que una humana. Ese no era el caso en el pasado, porque la mayoría de nosotros hemos tenido ese tipo de experiencia de servicio al cliente por teléfono en el pasado: "Está bien, IA, IA, IA..."
Kimberly Tan: Has mencionado el concepto de personalización varias veces. Todos utilizan la misma arquitectura tecnológica subyacente, pero tienen diferentes necesidades de personalización en términos de servicios de soporte. ¿Puedes hablarnos de esto? En concreto, ¿cómo se logra la personalización para que la gente pueda decir en línea: "Dios mío, esta es la mejor experiencia de soporte que he tenido"?
Jesse Zhang: Para nosotros, La personalización se produce a partir de la personalización para el usuario. Es necesario comprender la información de fondo del usuario, que es el contexto adicional necesario. En segundo lugar, también es necesario comprender la lógica empresarial de nuestros clientes.Si combinas ambos, puedes ofrecer una experiencia bastante buena.
Obviamente, esto suena simple, pero en realidad es muy difícil obtener todo el contexto necesario. Por lo tanto, la mayor parte de nuestro trabajo consiste en cómo construir los componentes primitivos adecuados para que cuando un cliente implemente nuestro sistema, pueda decidir fácilmente: "Bien, esta es la lógica empresarial que queremos". Por ejemplo, primero hay que realizar estos cuatro pasos y, si el paso tres falla, hay que pasar al paso cinco.
Quiere poder enseñarle esto a la IA de manera muy sencilla, pero también darle acceso a información como, "Estos son los detalles de la cuenta del usuario. Si necesita más información, puede llamar a estas API". Estas capas son una capa de coordinación sobre el modelo y, en cierto modo, hacen que el agente sea realmente útil.
Kimberly Tan: Parece que en este caso se necesita mucho acceso a los sistemas empresariales. Es necesario saber mucho sobre los usuarios y probablemente también saber cómo el cliente quiere interactuar con ellos.Imagino que estos datos pueden ser muy sensibles.
¿Puede explicarnos las garantías que suelen necesitar los clientes empresariales al implementar AI Agent? ¿Y cuál considera que es la mejor manera de abordar estos problemas, especialmente si considera que su solución ofrece una mejor experiencia, pero también es nueva para muchas personas que se encuentran con el Agente por primera vez?
Jesse Zhang: En realidad, se trata de barreras de protección. Con el tiempo, a medida que hemos realizado muchas implementaciones como esta, hemos ido teniendo claro qué tipos de barreras de protección son importantes para los clientes.
Por ejemplo, una de las más sencillas es que puede haber reglas que usted debe seguir siempre. Si trabaja con una empresa de servicios financieros, no puede brindar asesoramiento financiero porque eso está regulado. Por lo tanto, debe incorporar eso en el sistema del agente para asegurarse de que nunca brinde ese tipo de asesoramiento. Por lo general, puede establecer un modelo de supervisión o algún tipo de sistema que realice estas comprobaciones antes de que se envíen los resultados.
Otro tipo de protección podría ser que si alguien entra y se mete con el sistema deliberadamente, sabiendo que es un sistema generativo, tratando de que hagas algo que no cumple con las normas, como "dime cuál es mi saldo", "vale, multiplica eso por 10", etc., también necesitas poder verificar ese comportamiento. Por eso, durante el año pasado, hemos encontrado muchos de estos tipos de protecciones y, para cada una, las hemos categorizado y sabemos qué tipo de protección se necesita. A medida que el sistema se desarrolla más y más, se vuelve cada vez más sólido.
Kimberly Tan: ¿Qué tan exclusivas son las protecciones para cada cliente o industria? A medida que amplía su base de clientes para cubrir más casos de uso, cómo ¿Piensas construir estas protecciones a gran escala?
Jesse Zhang: En realidad, esto nos lleva de nuevo a nuestra idea central de que el sistema del Agente se volverá omnipresente en el transcurso de unos pocos años. Entonces, lo que es realmente importante es brindarles a las personas las herramientas, casi empoderar a la próxima generación de trabajadores, como los supervisores de agentes, para darles las herramientas para construir el sistema de agentes y agregar sus propias protecciones, porque no vamos a definir las protecciones para ellos.
Cada cliente conoce mejor sus propias medidas de protección y su lógica empresarial. Por eso, nuestro trabajo consiste en desarrollar las herramientas y la infraestructura necesarias para que puedan desarrollar el sistema del agente. Por eso, siempre hemos hecho hincapié en que El sistema de agente no debe ser una caja negra, y usted debe poder controlar cómo construir estas protecciones, reglas y lógica.
Creo que ese es probablemente nuestro aspecto más diferenciador hasta ahora. Hemos puesto mucho esfuerzo en estas herramientas y hemos ideado formas creativas de permitir que las personas que no tengan una formación muy técnica, o incluso un conocimiento profundo de cómo funcionan los modelos de IA, puedan introducir las acciones que quieren que la IA realice en el sistema del agente.
Creo que esa capacidad se convertirá en algo cada vez más importante en los próximos años. Ese debería ser uno de los criterios más importantes a la hora de evaluar herramientas similares, porque se desea poder optimizar y mejorar continuamente estos sistemas a lo largo del tiempo.
Lógica empresarial impulsada por lenguaje natural
Derrick Harris: ¿Qué preparativos pueden hacer los clientes o las empresas para cualquier tipo de automatización y, en particular, para el uso de este sistema de agentes? Por ejemplo, ¿cómo pueden diseñar sus sistemas de datos, su arquitectura de software o su lógica empresarial para que admitan dichos sistemas?
Porque siento que mucha tecnología de IA es novedosa al principio, pero cuando se trata de sistemas heredados existentes, a menudo se enfrenta a mucho caos.
Jesse Zhang: Si alguien está creando desde cero ahora, hay muchas prácticas recomendadas que pueden facilitarle el trabajo. Por ejemplo, cómo estructurar su base de conocimientos. Hemos escrito sobre algunas de ellas y hemos presentado algunos métodos que pueden facilitarle a la IA la asimilación de información y mejorar su precisión. Una sugerencia específica es dividir la base de conocimientos en partes modulares, en lugar de tener un gran artículo con múltiples respuestas.
Al configurar la API, puede hacer que sea más adecuada para el sistema del agente y establecer permisos y salidas de manera que le resulte fácil al sistema del agente ingerir información sin tener que hacer muchos cálculos para encontrar la respuesta. Estas son algunas medidas tácticas que se pueden tomar, pero no diría que hay algo que se deba hacer para usar el sistema del agente.
Derrick Harris: Una buena documentación siempre es importante, esencialmente se trata de organizar la información de manera efectiva.
Kimberly Tan: Parece que si intentas enseñar a las personas cómo dirigir el sistema del Agente para que funcione de una manera que se adapte mejor a sus clientes o casos de uso específicos, entonces puede ser necesaria mucha experimentación con el diseño de UI y UX, o tienes que abrir nuevos caminos en este campo completamente nuevo, porque es muy diferente del software tradicional.
Tengo curiosidad, ¿qué opinas al respecto? ¿Cómo deberían ser la interfaz de usuario y la experiencia de usuario en un mundo en el que el agente es lo primero? ¿Cómo crees que cambiará en los próximos años?
Jesse Zhang: No diría que hemos resuelto este problema. Creo que quizás hayamos encontrado una solución óptima local que funcione para nuestros clientes actuales, pero sigue siendo un área de investigación en curso, para nosotros y para muchos otros.
La cuestión central se remonta a lo que mencionamos antes, es decir, que tienes un sistema de agente. En primer lugar, ¿cómo puedes ver claramente lo que está haciendo y cómo está tomando decisiones? Luego, ¿cómo puedes usar esta información para decidir qué se debe actualizar y qué retroalimentación se debe dar a la IA? Aquí es donde se unen los elementos de la interfaz de usuario, especialmente la segunda parte.
Creemos que con el tiempo, la UI y la UX se basarán cada vez más en el lenguaje natural, porque así es como piensa el sistema del Agente, o esa es básicamente la base para entrenar modelos de lenguaje grandes (LLM).
En el extremo, si tienes un agente superinteligente que básicamente piensa como un humano, puedes mostrarle cosas, explicarle cosas, darle retroalimentación y se actualizará en su propia "mente". Puedes imaginarte tener una persona muy capaz que se une a tu equipo, le enseñas algo, comienza a trabajar y luego sigues dándole retroalimentación, puedes mostrarle cosas nuevas, nuevos documentos, diagramas, etc.
Creo que, en el caso extremo, se desarrollará en esta dirección: las cosas se volverán más conversacionales, más basadas en el lenguaje natural, y la gente dejará de construir sistemas con árboles de decisión complejos como antes, capturando lo que uno quiere, pero este enfoque puede fallar fácilmente. Antes teníamos que hacer esto porque no había LLM en ese entonces, pero ahora que los sistemas de agentes son cada vez más poderosos, la interfaz de usuario y la experiencia de usuario se volverán más conversacionales.
Kimberly Tan: Hace aproximadamente un año y medio, cuando Decagon comenzó, había una percepción general de que LLM era muy aplicable a muchos casos de uso, pero, de hecho, era solo una especie de "envoltorio GPT", donde las empresas podían simplemente llamar a un modelo subyacente a través de una API y resolver instantáneamente sus problemas de soporte.
Pero, obviamente, como las empresas optan por utilizar soluciones como Decagon en lugar de seguir ese camino directamente, resulta que no es así. Me preguntaba si podría explicar por qué es así. ¿Qué hizo que los desafíos de la construcción interna fueran más complejos de lo esperado? ¿Qué conceptos erróneos tenían sobre el concepto?
Jesse Zhang: No hay nada de malo en ser un “envoltorio de GPT”, se podría decir que Purcell es un envoltorio de AWS o algo así. Por lo general, cuando la gente usa este término, tiene un significado despectivo.
En mi opinión, si estás creando un sistema de agentes, por definición, definitivamente vas a usar LLM como herramienta. Por lo tanto, en realidad estás construyendo sobre algo que ya existe, tal como lo harías normalmente en AWS o GCP.
Pero el verdadero problema con el que te puedes encontrar es si el software que construyes sobre LLM no es lo suficientemente “pesado” o complejo como para marcar una diferencia.
En retrospectiva, lo que vendemos es básicamente software. En realidad, somos como una empresa de software normal, salvo que utilizamos LLM como parte del software y como una de las herramientas. Pero cuando la gente compra este tipo de producto, lo que quiere es principalmente el software en sí. Quieren herramientas que puedan supervisar la IA, que puedan profundizar en los detalles de cada conversación que tiene la IA, que puedan dar retroalimentación, que puedan construir y ajustar el sistema constantemente.
Ese es el núcleo de nuestro software. Incluso con el sistema Agent, el problema que tiene la gente es que está bien hacer una demostración, pero si quieres que esté listo para producción y realmente orientado al cliente, tienes que resolver muchos problemas de larga data, como prevenir el fenómeno de la "ilusión" y lidiar con los actores maliciosos que intentan causar estragos. También tenemos que asegurarnos de que la latencia sea lo suficientemente baja, el tono sea apropiado, etc.
Hablamos con muchos equipos, hicieron algunos experimentos, crearon una versión preliminar y luego se dieron cuenta de que no querían ser nosotros los que siguieran desarrollando estos detalles en etapas posteriores. Tampoco querían ser los que siguieran agregando nueva lógica al equipo de servicio al cliente. Por lo tanto, en este punto, parece más apropiado optar por colaborar con otros.
Kimberly Tan: Mencionaste algunos problemas a largo plazo, como la necesidad de lidiar con malos actores, etc.Creo que muchos oyentes que están considerando usar AI Agent están preocupados por las nuevas rutas de ataque de seguridad que pueden surgir después de la introducción de LLM, o los nuevos riesgos de seguridad que pueden surgir después de la introducción del sistema Agent. ¿Qué piensa sobre estos problemas? ¿Y cuáles son las mejores prácticas para garantizar una seguridad empresarial de primer nivel al tratar con Agente?
Jesse Zhang: En términos de seguridad, hay algunas medidas obvias que se pueden tomar, que mencioné antes, como la necesidad de medidas de protección. La cuestión central es que la gente se preocupa por los LLM porque no son deterministas.
Pero la buena noticia es que, en realidad, se pueden poner la mayoría de las operaciones sensibles y complejas detrás de un muro determinista, y el cálculo se realiza allí cuando se llama a la API. De esta manera, no se depende completamente de LLM para su manejo, y eso evita muchos de los problemas principales.
Pero todavía hay situaciones en las que, por ejemplo, un mal actor interfiere o alguien intenta hacer que el sistema alucine. Hemos observado que en muchos de los principales clientes con los que trabajamos, sus equipos de seguridad entran y básicamente realizan una prueba de "equipo rojo" en nuestros productos, pasando semanas lanzando continuamente varios posibles ataques al sistema para intentar encontrar vulnerabilidades. A medida que AI Agent se vuelve más y más popular, es posible que veamos que esto sucede cada vez con más frecuencia, porque esta es una de las mejores formas de probar si un sistema es efectivo. Se trata de lanzarle algo a través de una prueba de equipo rojo y ver si puede atravesar las defensas.
También hay empresas emergentes que están desarrollando herramientas de equipos rojos o que permiten que las personas realicen este tipo de pruebas por sí mismas, lo cual es una tendencia que estamos viendo en este momento. Muchas de las empresas con las que trabajamos, en una etapa posterior del ciclo de ventas, harán que su equipo de seguridad, o trabajarán con un equipo externo, realicen pruebas de estrés en el sistema. Para nosotros, poder pasar ese tipo de pruebas es una necesidad. Así que, en última instancia, eso es todo.
Derrick Harris: ¿Es esto algo que usted anima a sus clientes a hacer? Porque cuando hablamos de políticas de IA, mencionamos un aspecto importante, que es la capa de aplicación, y hacemos hincapié en poner el La responsabilidad recae en los usuarios de LLM y en las personas que ejecutan la aplicación, en lugar de simplemente culpar al modelo en sí. Es decir, los clientes deben realizar pruebas de equipo rojo, identificar casos de uso específicos y rutas de ataque, y determinar qué vulnerabilidades necesitan protección, en lugar de simplemente confiar en la protección de seguridad ya configurada por OpenAI u otras empresas.
Jesse Zhang: Estoy completamente de acuerdo. También creo que puede surgir una nueva ola de requisitos de notificación, similares a la certificación SOC 2 y la certificación HIPAA que todo el mundo está haciendo ahora, que se requieren en diferentes industrias. Por lo general, cuando se vende un producto SaaS genérico, los clientes exigirán pruebas de penetración y también debemos proporcionar nuestro informe de pruebas de penetración. Para AI Agent, puede haber requisitos similares en el futuro, y alguien puede nombrarlo, pero esto es básicamente una nueva forma de probar si el sistema Agent es lo suficientemente potente.
Kimberly Tan: Algo interesante es que, obviamente, todo el mundo está muy entusiasmado con los nuevos avances tecnológicos y de modelos que están introduciendo los grandes laboratorios. Como empresa de inteligencia artificial, obviamente no haces tu propia investigación, pero aprovechas esa investigación y creas una gran cantidad de software en torno a ella para entregárselo al cliente final.
Pero su trabajo se basa en una tecnología que cambia rápidamente. Me pregunto cómo, como empresa de IA aplicada, se mantienen al día con los nuevos cambios tecnológicos y comprenden cómo afectan a la empresa, al tiempo que pueden predecir su propia hoja de ruta de productos y satisfacer las necesidades de los usuarios. En términos más generales, ¿qué estrategias deberían adoptar las empresas de IA aplicada en situaciones similares?
Jesse Zhang: En realidad, puedes dividir toda la pila en diferentes partes. Por ejemplo, LLM está en la parte inferior si miras la capa de aplicación. Es posible que tengas algunas herramientas en el medio que te ayuden a administrar LLM o hacer alguna evaluación y cosas así. Luego, la parte superior es básicamente lo que construimos, que en realidad es como un SaaS estándar.
Por lo tanto, la mayor parte de nuestro trabajo no es tan diferente del software convencional, excepto que tenemos un componente de investigación adicional: LLM cambia demasiado rápido. Necesitamos investigar qué pueden hacer, en qué son buenos y qué modelo se debe utilizar para realizar una determinada tarea. Este es un gran problema porque tanto OpenAI como Anthropic están lanzando nuevas tecnologías y Gemini también está mejorando gradualmente.
Por lo tanto, Es necesario contar con un mecanismo de evaluación propio para saber qué modelo es adecuado para cada situación. A veces también es necesario realizar ajustes, pero la pregunta es: ¿cuándo realizar ajustes? ¿Cuándo vale la pena realizar ajustes? Estos son probablemente los principales temas de investigación relacionados con los LLM en los que nos estamos centrando. Pero al menos hasta ahora, no sentimos que el SaaS esté cambiando rápidamente, porque no dependemos de la capa intermedia. Así que, básicamente, son los LLM los que están cambiando. No cambian muy a menudo, y cuando lo hacen, normalmente se trata de una actualización. Por ejemplo, Claude 3.5 sonnet se actualizó hace unos meses, y en ese momento pensamos: "Bien, ¿deberíamos cambiar al nuevo modelo en lugar de seguir utilizando el antiguo?"
Solo necesitamos ejecutar una serie de evaluaciones y, una vez que hayamos cambiado al nuevo modelo, ya no pensamos en ello porque ya estamos usando el nuevo modelo. Luego, salió la versión o1 y la situación era similar. Piense en dónde se puede usar. En nuestro caso, o1 es un poco lento para la mayoría de los casos de uso de cara al cliente, por lo que podemos usarlo para un trabajo de fondo. En última instancia, solo necesitamos tener un buen sistema para la investigación de modelos.
Kimberly Tan: ¿Con qué frecuencia evalúas un nuevo modelo y decides si reemplazarlo?
Jesse Zhang: Evaluamos cada vez que sale un nuevo modelo. Debe asegurarse de que, aunque el nuevo modelo sea más inteligente, no rompa algunos de los casos de uso que ya ha creado. Esto puede suceder. Por ejemplo, el nuevo modelo puede ser más inteligente en general, pero en algunos casos extremos, tiene un rendimiento deficiente en una elección A/B en uno de sus flujos de trabajo. Eso es lo que evaluamos.
Creo que, en general, el tipo de inteligencia que más nos importa es lo que yo llamaría “capacidad de seguir instrucciones”. Queremos que el modelo sea cada vez mejor en el seguimiento de instrucciones. Si ese es el caso, entonces es definitivamente beneficioso para nosotros, y eso es muy bueno.
Parece que las investigaciones recientes se han centrado más en el tipo de inteligencia que implica razonamiento, como una mejor programación y mejores operaciones matemáticas. Esto también nos ayuda, pero no es tan importante como la mejora de la capacidad de seguir instrucciones.
Kimberly Tan: Un punto muy interesante que mencionaste, y creo que también es muy exclusivo de Decagon, es que has construido mucha infraestructura de evaluación internamente para asegurarte de saber exactamente cómo funciona cada modelo bajo el conjunto de pruebas que proporcionas.
¿Puede explicarnos esto con más detalle? ¿Qué importancia tiene esta infraestructura de evaluación interna y, específicamente, cómo le brinda a usted y a sus clientes confianza en el desempeño del agente? Porque algunas de estas evaluaciones también se realizan de cara al cliente.
Jesse Zhang: Creo que es muy importante, porque sin esta infraestructura de evaluación, sería muy difícil para nosotros iterar rápidamente.
Si crees que cada cambio tiene una alta probabilidad de romper algo, entonces no harás cambios rápidamente. Pero si tienes un mecanismo de evaluación, entonces cuando hay un cambio importante, una actualización del modelo o aparece algo nuevo, puedes compararlo directamente con todas las pruebas de evaluación. Si los resultados de la evaluación son buenos, puedes sentir: bien, hicimos una mejora, o puedes lanzarlo con confianza sin preocuparte demasiado.
Así pues, en nuestro campo, La evaluación requiere la aportación del cliente, porque es él quien decide si algo es correcto o no. Por supuesto, podemos comprobar algunas cuestiones de alto nivel, pero normalmente el cliente proporciona casos de uso específicos y nos dice cuál es la respuesta correcta, o cuál debe ser, qué tono debe mantener, qué debe decir.
La evaluación se basa en esto, por lo que debemos asegurarnos de que nuestro sistema de evaluación sea lo suficientemente sólido. Al principio, lo construimos nosotros mismos y no es tan difícil de mantener. También sabemos que existen algunas empresas de evaluación y hemos analizado algunas de ellas. Tal vez en algún momento consideremos adoptarlas, pero por ahora, el sistema de evaluación ya no es un problema para nosotros.
Kimberly Tan: Un tema muy popular hoy en día es la multimodalidad, lo que significa que los agentes de IA deberían poder interactuar en todas las formas que los humanos usan hoy, ya sea texto, video, voz, etc. Sé que Decagon comenzó como un sistema basado en texto. Desde tu perspectiva, ¿qué importancia tiene? es multimodalidad ¿A los agentes de IA? ¿Cuál cree que será el plazo para que se convierta en algo común o incluso en un estándar?
Jesse Zhang: Es importante y, desde la perspectiva de una empresa, no es particularmente difícil agregar una nueva modalidad. No es simple, pero lo fundamental es que si resuelves otros problemas, como los que mencioné (por ejemplo, construir la IA, monitorearla y tener la lógica correcta), entonces agregar una nueva modalidad no es lo más difícil de hacer. Por lo tanto, para nosotros, tener todas las modalidades tiene mucho sentido y amplía nuestro mercado. Básicamente, somos independientes de la modalidad y creamos nuestro propio agente para cada modalidad.
En términos generales, existen dos factores limitantes: En primer lugar, ¿está el cliente preparado para adoptar la nueva modalidad? Creo que tiene mucho sentido empezar con el texto, porque es la forma en la que la gente la adopta de forma más activa, y es menos arriesgada para ellos, más fácil de controlar y más fácil de entender. La otra gran modalidad es la voz. Obviamente, creo que todavía hay espacio en el mercado y la aceptación de la voz por parte de los usuarios todavía tiene que mejorar. En este momento, estamos viendo algunos usuarios pioneros que han comenzado a adoptar los agentes de voz, lo cual es muy emocionante. El otro aspecto son los desafíos técnicos. La mayoría de las personas estaría de acuerdo en que el listón está más alto para la voz. Si estás hablando con alguien por teléfono, necesitas una latencia de voz muy corta. Si interrumpes a alguien, esa persona necesita responder de forma natural.
Como la latencia del habla es menor, hay que ser más inteligente en la forma de calcular. Si estás en un chat y el tiempo de respuesta es de cinco a ocho segundos, apenas lo notas y parece muy natural. Pero si tardas entre cinco y ocho segundos en responder por teléfono, parece un poco antinatural. Por eso, el habla plantea más desafíos técnicos. A medida que se resuelvan estos desafíos técnicos y aumente el interés en adoptar el habla en el mercado, el habla como nueva modalidad se convertirá en algo común.
Un modelo de negocio que supera la confianza
Kimberly Tan: Antes de continuar, me gustaría hablar un poco más sobre el modelo de negocio de AI Agent. Cuando se inicia construido Agente de inteligencia artificial o habló con los clientes sobre el sistema que utilizan, los datos que procesan y sus inquietudes. ¿Hubo algo que le sorprendió? ¿Cuáles fueron algunas de las cosas no intuitivas o sorprendentes que Decagon tuvo que hacer para brindar un mejor servicio a los clientes empresariales?
Jesse Zhang: Creo que lo más sorprendente fue la disposición de la gente a hablar con nosotros cuando empezamos. Después de todo, éramos sólo dos. Ambos habíamos fundado empresas antes, así que conocíamos a mucha gente, pero aun así, para todo emprendedor, cuando quieres iniciar una conversación de referencia, si lo que estás diciendo no es especialmente convincente, la conversación suele ser bastante tibia.
Pero cuando empezamos a hablar de este caso de uso, me sorprendió mucho el entusiasmo que había entre la gente por hablar de él, porque la idea parece tan obvia. Se podría pensar que, como es una idea tan obvia, alguien más ya la debe haber puesto en práctica, o que ya debe haber una solución, o que alguien más ya debe haber ideado algún tipo de solución. Pero creo que hemos captado un buen momento, ese caso de uso es realmente importante y a la gente le importa mucho. Como mencioné antes, ese caso de uso es muy adecuado para llevar a AI Agent a producción, porque se puede implementar de forma incremental y poder hacer un seguimiento del retorno de la inversión.
Fue una sorpresa muy agradable para mí, pero obviamente hay mucho trabajo por hacer después de eso, hay que trabajar con los clientes, hay que desarrollar el producto, hay que descubrir qué camino tomar. En la fase inicial, fue realmente un descubrimiento sorprendente.
Derrick Harris: Kimberly, creo que debería mencionar la publicación de blog que escribiste, RIP to RPA, que toca muchos temas. el Tareas de automatización y startups.¿Crees que existe un fenómeno en el que estas tareas o soluciones automatizadas no son tan ideales, por lo que la gente siempre está buscando una forma mejor?
Kimberly Tan: Sí, creo que sí. Me gustaría decir algunas cosas. En primer lugar, si una idea es obvia para todos, pero no hay una empresa clara que la resuelva, o nadie señala a una empresa y dice: “Deberías usar esto”, entonces significa que el problema en realidad no se ha resuelto.
En cierto sentido, es una oportunidad completamente abierta para que una empresa desarrolle una solución. Porque, como usted ha dicho, hemos estado siguiendo a Decagon como inversores desde el principio. Los hemos visto navegar por el laberinto creativo, y cuando decidieron ir en esta dirección y empezaron a hablar con los clientes, quedó claro que todos los clientes estaban desesperados por algún tipo de solución nativa habilitada para IA. Este es uno de los problemas que he mencionado antes, donde mucha gente piensa que es solo un envoltorio GPT. Pero el interés de los clientes que ha recibido Decagon desde el principio nos ha hecho darnos cuenta desde el principio de que muchos de estos problemas son mucho más complicados de lo que la gente espera.
Creo que este fenómeno se está dando en todos los sectores, ya sea en el servicio de atención al cliente o en la automatización profesional en determinados sectores verticales. Creo que uno de los aspectos subestimados es, como mencionó Jesse anteriormente, poder medir claramente el retorno de la inversión (ROI) de la automatización de tareas. Porque, si vas a lograr que alguien acepte un agente de IA, en realidad está dando un cierto grado de "salto de fe", porque es un territorio muy desconocido para muchas personas.
Si puede automatizar un proceso muy específico que sea un proceso obvio de generación de ingresos, o un proceso que anteriormente constituía un cuello de botella en el negocio, o un centro de costos importante que aumenta linealmente con el crecimiento de clientes o el crecimiento de los ingresos, entonces será más fácil obtener aceptación para el Agente de IA. La capacidad de convertir estos problemas en un proceso más productivo que pueda escalarse como el software tradicional es muy atractiva.
Kimberly Tan: Tengo una última pregunta antes de continuar. Recuerdo que Jesse, en nuestras conversaciones anteriores, siempre decía que el mayor desafío para las empresas que adoptan software o agentes de IA serían las alucinaciones. Pero una vez me dijiste que, en realidad, ese no es el problema principal. ¿Puedes explicarnos por qué la percepción de las alucinaciones es un tanto engañosa y qué es lo que realmente preocupa más a la gente?
Jesse Zhang: Creo que a la gente le importan las alucinaciones, pero les preocupa más el valor que pueden aportar. Casi todas las empresas con las que trabajamos se centran en los mismos aspectos, casi exactamente los mismos: ¿qué porcentaje de conversaciones puedes resolver? ¿Qué grado de satisfacción tienen mis clientes? Entonces, la cuestión de las alucinaciones se puede clasificar en una tercera categoría, es decir, en su precisión. En general, los dos primeros factores son más importantes a la hora de evaluar.
Digamos que estás hablando con una nueva empresa y has hecho un muy buen trabajo en los dos primeros factores, y has recibido mucho apoyo de la dirección y de todo el equipo. Ellos dicen: "Dios mío, nuestra experiencia con el cliente es diferente. Ahora cada cliente tiene su propio asistente personal que puede ponerse en contacto con nosotros en cualquier momento. Les hemos dado respuestas excelentes, están muy satisfechos, y es multilingüe y está disponible las 24 horas del día, los 7 días de la semana". Eso es solo una parte, y también has ahorrado mucho dinero.
Por lo tanto, una vez que se alcanzan esos objetivos, se obtiene un gran apoyo y muchos impulsos para impulsar el trabajo. Por supuesto, el problema de la ilusión en última instancia debe resolverse, pero no es lo que más les preocupa. La forma de resolver la ilusión es la misma que mencioné antes: la gente te pondrá a prueba. Puede haber una fase de prueba de concepto en la que se lleven a cabo conversaciones reales y los miembros del equipo supervisen y verifiquen la precisión. Si eso va bien, entonces generalmente se aprueba.
Además, como mencioné antes, puedes establecer algunas medidas de protección estrictas para la información confidencial, como por ejemplo, no necesariamente hacer que el contenido confidencial sea genérico. Por lo tanto, la cuestión de la ilusión es un punto de discusión en la mayoría de las transacciones. No es un tema sin importancia. Pasarás por este proceso, pero nunca es el foco de la conversación.
Kimberly Tan: Ahora pasemos al modelo de negocio de los agentes de IA. Hoy en día, hay un gran tema sobre cómo fijar el precio de estos agentes de IA.
Históricamente, muchos software SaaS tienen un precio por número de puestos porque son software de flujo de trabajo que apuntan a empleados individuales y se utilizan para mejorar la productividad de los empleados. Sin embargo, AI Agent no está vinculado a la productividad de los empleados individuales como el software tradicional.
Mucha gente piensa que el método de fijación de precios basado en la cantidad de asientos ya no es aplicable. Tengo curiosidad por saberlo. cómo Pensaste en este dilema en los primeros días y cómo finalmente decidiste fijar el precio de Decagon. Además, ¿cuál crees que será la tendencia futura en cuanto a los precios del software a medida que AI Agent se vuelva cada vez más común?
Jesse Zhang: Nuestra opinión sobre este tema es que en el pasado, el software tenía un precio por puesto porque su escala se basaba aproximadamente en la cantidad de personas que podían usarlo. Pero para la mayoría de los agentes de IA, el valor que se proporciona no depende de la cantidad de personas que lo mantienen, sino de la cantidad de trabajo producido. Esto es coherente con el punto que mencioné antes: si el retorno de la inversión (ROI) es muy medible, entonces el nivel de trabajo producido también es muy claro.
En nuestra opinión, no se aplica el precio por número de puestos. Se puede fijar el precio en función del resultado del trabajo. Por lo tanto, el modelo de precios que se ofrece debe ser que cuanto más trabajo se realice, más se paga.
Para nosotros, hay dos formas obvias de fijar precios: se puede fijar el precio de las conversaciones o se puede fijar el precio de las conversaciones que la IA realmente resuelve. Creo que una de las lecciones interesantes que aprendimos es que la mayoría de las personas eligió el modelo de fijación de precios por conversación. La razón es que la principal ventaja de fijar precios por solución es que se paga por lo que se resuelve. el La IA lo hace.
Pero la pregunta que sigue es: ¿qué se considera una “solución”? En primer lugar, nadie quiere profundizar en esto, porque se convierte en: “Si alguien viene enojado y lo mandamos fuera, ¿por qué debemos pagar por eso?”
Esto crea una situación incómoda y también hace que los incentivos para los proveedores de IA sean un poco extraños, porque la facturación por solución significa: "Solo necesitamos resolver tantas conversaciones como sea posible y alejar a algunas personas". Pero hay muchos casos en los que es mejor escalar el problema en lugar de simplemente dejarlo de lado, y a los clientes no les gusta este tipo de manejo. Por lo tanto, la facturación por conversación brindará más simplicidad y previsibilidad.
Kimberly Tan: ¿Cuánto tiempo crees que durará el futuro modelo de precios?Porque ahora mismo, cuando se habla de ROI, normalmente se hace referencia al gasto anterior que podría haberse utilizado para cubrir los costes laborales. A medida que los agentes de IA se vuelvan más comunes, ¿cree que, a largo plazo, la IA se comparará con los costes laborales y que este es un parámetro de referencia adecuado? Si no es así, ¿cómo ve los precios a largo plazo más allá de los costes laborales?
Jesse Zhang: Creo que, a largo plazo, el precio del Agente de IA puede seguir estando vinculado principalmente a los costos laborales, porque esa es la belleza del Agente: su gasto anterior en servicios ahora se puede trasladar al software.
Esta parte del gasto podría ser de 10 a 100 veces mayor que el gasto en software, por lo que gran parte del costo se trasladará al software. Por lo tanto, los costos laborales se convertirán naturalmente en un punto de referencia. Para nuestros clientes, el retorno de la inversión es muy claro. Si puede ahorrar X millones en costos laborales, entonces tiene sentido adoptar esta solución. Pero a largo plazo, esto puede estar en un punto intermedio.
Porque incluso algunos productos que no son tan buenos como nuestro Agente aceptarán precios más bajos. Esto es como la situación clásica de SaaS, donde todos compiten por una participación en el mercado.
Kimberly Tan: ¿Qué cree que depara el futuro a las empresas SaaS actuales, especialmente a aquellas cuyos productos no han sido diseñados de forma nativa para IA o que tienen un precio por puesto y, por lo tanto, no pueden adaptarse a un modelo de precios orientado a resultados?
Jesse Zhang: Para algunas empresas tradicionales, es un poco complicado intentar lanzar un producto de agente de IA porque no pueden fijar el precio utilizando un modelo de puestos. Si ya no se necesitan tantos agentes, es difícil mantener los ingresos con el producto existente. Esto es un problema para las empresas tradicionales, pero es difícil de decir. Las empresas tradicionales siempre tienen la ventaja de los canales de distribución. Incluso si el producto no es tan bueno como el de la nueva empresa, la gente se muestra reacia a hacer el esfuerzo de aceptar un nuevo proveedor con solo el 80% de la calidad.
En primer lugar, si eres una startup como nosotros, debes asegurarte de que tu producto sea tres veces mejor que el producto tradicional. En segundo lugar, esta es una competencia típica entre empresas tradicionales y startups. Las empresas tradicionales naturalmente tienen una menor tolerancia al riesgo porque tienen una gran cantidad de clientes. Si cometen un error en una iteración rápida, causarán enormes pérdidas. Sin embargo, las startups pueden iterar más rápido, por lo que el proceso de iteración en sí mismo puede conducir a un mejor producto. Este es el ciclo habitual. Para nosotros, siempre hemos estado orgullosos de nuestra velocidad de entrega, la calidad del producto y la ejecución de nuestro equipo. Es por eso que hemos ganado el contrato actual.
Kimberly Tan: ¿Puede hacer algunas predicciones sobre el futuro de la IA en el lugar de trabajo? Por ejemplo, ¿cómo cambiará las necesidades o capacidades de los empleados, o cómo interactúan los empleados humanos y los agentes de IA?¿Qué nuevas prácticas recomendadas o normas cree que se convertirán en la norma en el lugar de trabajo a medida que los agentes de IA se generalicen?
Jesse Zhang: El primer cambio y el más importante es que estamos convencidos de que, en el futuro, los empleados pasarán mucho más tiempo en el lugar de trabajo creando y gestionando agentes de IA, de forma similar al papel de los supervisores de IA. Incluso si su puesto no es oficialmente un “supervisor de IA”, gran parte del tiempo que solía dedicar a hacer su trabajo se trasladará a la gestión de estos agentes, porque los agentes pueden brindarle mucha influencia.
Hemos visto esto en muchas implementaciones en las que las personas que alguna vez fueron líderes de equipo ahora pasan mucho tiempo monitoreando la IA, por ejemplo, para asegurarse de que no tenga problemas o para hacer ajustes. Monitorean el desempeño general para ver si hay áreas específicas que necesitan atención, si hay brechas en la base de conocimiento que podrían ayudar a la IA a mejorar y si la IA puede llenar esas brechas.
El trabajo que conlleva trabajar con un agente da la impresión de que, en el futuro, los empleados pasarán una cantidad significativa de tiempo interactuando con agentes de IA. Este es un concepto central de nuestra empresa, como mencioné anteriormente. Por lo tanto, todo nuestro producto está diseñado para proporcionar a las personas herramientas, visualización, interpretabilidad y control. Creo que dentro de un año esto se convertirá en una gran tendencia.
Kimberly Tan: Eso tiene mucho sentido. ¿Qué capacidades cree que necesitarán los supervisores de IA en el futuro? ¿Cuáles son las habilidades necesarias para este puesto?
Jesse Zhang: Hay dos aspectos. Una es la observabilidad y la interpretabilidad, la capacidad de entender rápidamente lo que hace la IA y cómo toma decisiones. La otra es la capacidad de toma de decisiones, o la parte de construcción, cómo dar retroalimentación y cómo construir una nueva lógica. Pienso que estos dos son dos caras de la misma moneda.
Kimberly Tan: ¿Qué tareas cree usted que quedarán fuera de las capacidades del agente de IA a medio o largo plazo y aún necesitarán ser gestionadas y llevadas a cabo correctamente por humanos?
Jesse Zhang: Creo que dependerá principalmente del requisito de “perfección” que mencioné antes. Hay muchas tareas que tienen una tolerancia al error muy baja. En estos casos, cualquier herramienta de IA es más una ayuda que un agente completo.
Por ejemplo, en algunas industrias más sensibles, como la atención médica o la seguridad, donde hay que ser casi perfecto, los agentes de IA pueden volverse menos autónomos, pero eso no significa que sean inútiles. Creo que el estilo será diferente: en una plataforma como la nuestra, en realidad se están implementando estos agentes para permitirles automatizar todo el trabajo.
Derrick Harris: Y eso es todo por este episodio. Si este tema te resultó interesante o inspirador, califica nuestro podcast y compártelo con más personas.Esperamos lanzar el episodio final antes de fin de año y actualizaremos el contenido para el nuevo año. Gracias por escuchar y que tengas unas felices fiestas (si nos escuchas durante las vacaciones).
Vídeo original: ¿Pueden los agentes de Al solucionar finalmente el problema de la atención al cliente??