Punti salienti
- La magia degli LLM risiede nel fatto che sono molto flessibili, possono adattarsi a molte situazioni diverse e hanno un'intelligenza di base.
- Riteniamo che, col tempo, l'interfaccia utente e l'esperienza utente saranno sempre più basate sul linguaggio naturale, perché è il modo in cui pensa un sistema agente o perché è sostanzialmente la base dell'addestramento per i grandi modelli linguistici (LLM).
- Se vuoi che qualcuno accetti un agente AI, in realtà sta facendo un certo "salto nel vuoto" perché per molte persone questo è un campo molto sconosciuto.
L'agente AI rimodella l'esperienza del cliente
Jesse Zhang: Come viene effettivamente costruito un agente? La nostra opinione è che nel tempo diventerà sempre più simile a un agente basato sul linguaggio naturale perché è così che vengono addestrati i grandi modelli linguistici (LLM).
Nel lungo termine, se hai un agente super intelligente che è effettivamente come un essere umano, puoi mostrargli cose, spiegargli cose, dargli feedback e lui aggiornerà le informazioni nella sua mente.
Immagina di avere un membro umano molto capace nel team. Quando si unisce per la prima volta, gli insegni qualcosa, inizia a lavorare e poi gli dai un feedback e gli mostri nuove informazioni.
Alla fine, si svilupperà in questa direzione: diventerà più colloquiale e più basato sul linguaggio naturale, e il modo in cui le persone comunicano tra loro diventerà più naturale. E le persone non useranno più quegli alberi decisionali complicati per catturare i requisiti, che possono funzionare ma sono inclini a crollare.
In passato, dovevamo farlo perché non avevamo un modello linguistico di grandi dimensioni. Ma ora, con il continuo progresso di Agent, l'esperienza utente (UX) e l'interfaccia utente (UI) diventeranno più conversazionali.
Derrick Harris: Ciao a tutti, benvenuti all'A16z AI Podcast. Sono Derrick Harris e oggi sarò affiancato da Jesse Zhang, co-fondatore e CEO di Decagon, e Kimberly Tan, partner di a16z. Kimberly modererà la discussione e Jesse condividerà la sua esperienza nella creazione di Decagon e dei suoi prodotti.
Se non ne sai molto, Decagon è una startup che fornisce agenti AI alle aziende per assistere con l'assistenza clienti. Questi agenti non sono né chatbot né wrapper LLM per una singola chiamata API, ma agenti avanzati altamente personalizzati in grado di gestire flussi di lavoro complessi in base alle esigenze specifiche di un'azienda.
Oltre a spiegare perché hanno creato Decagon e come è strutturato per gestire diversi ambienti LLM e dei clienti, Jesse parla anche dei vantaggi di un modello aziendale che addebita i costi in base alla conversazione e di come gli agenti AI cambieranno le competenze richieste ai responsabili dell'assistenza clienti.
Vale anche la pena menzionare che Kimberly ha recentemente scritto un post sul blog intitolato "RIP to RPA, The Rise of Intelligent Automation", di cui parliamo brevemente in questa puntata.
È un ottimo punto di partenza per comprendere come l'automazione stia decollando nei processi aziendali e forniremo un collegamento nelle note dello show. Infine, come promemoria, il contenuto di questo articolo è solo a scopo informativo e non deve essere considerato consulenza legale, aziendale, fiscale o di investimento, né deve essere utilizzato per valutare alcun investimento o titolo e non è rivolto a nessun investitore di fondi a16z o potenziale investitore.
Jesse Zhang: Una breve presentazione di me stesso. Sono nato e cresciuto a Boulder e da bambino ho partecipato a molte gare di matematica e simili. Ho studiato informatica ad Harvard e poi ho fondato un'azienda che era anche supportata da a16z. Alla fine siamo stati acquisiti da Niantic.
Poi abbiamo iniziato a costruire Decagon. La nostra attività è costruire agenti AI per il servizio clienti. All'inizio, lo abbiamo fatto perché volevamo fare qualcosa che ci stava molto a cuore.
Naturalmente, non c'è bisogno che nessuno impari il ruolo degli agenti AI nel servizio clienti, giusto? Siamo stati tutti al telefono con compagnie aeree, hotel, ecc. e abbiamo aspettato in attesa. Quindi l'idea è nata da lì.
Abbiamo parlato con molti clienti per scoprire esattamente che tipo di prodotto avremmo dovuto realizzare. Una cosa che ci ha colpito è che, man mano che imparavamo di più sugli agenti AI, abbiamo iniziato a pensare a come sarebbe stato il futuro quando ce ne fossero stati molti. Penso che tutti credano che ci saranno molti agenti AI in futuro.
Ciò a cui pensiamo è cosa faranno i dipendenti che lavorano con gli agenti AI? Che tipo di strumenti avranno? Come controlleranno o visualizzeranno gli agenti con cui lavorano o che gestiscono?
Quindi questo è il nocciolo di come abbiamo costruito l'azienda attorno a questa domanda. Penso che questo sia anche ciò che ci distingue in questo momento, perché forniamo a questi agenti AI vari strumenti per aiutare le persone con cui lavoriamo a costruire e configurare questi agenti in modo che non siano più una "scatola nera". È così che costruiamo il nostro marchio.
Derrick Harris: Cosa ti ha spinto, dal momento che la tua ultima azienda era un'azienda di video rivolta ai consumatori, a passare al software aziendale?
Jesse Zhang: Ottima domanda. Penso che i fondatori siano spesso "agnostici in fatto di argomenti" quando si tratta di scegliere un argomento, perché in realtà, quando ci si avvicina a un nuovo campo, di solito si è piuttosto ingenui. Quindi c'è un vantaggio nel guardare le cose da una nuova prospettiva. Quindi quando ci pensavamo, non c'erano quasi restrizioni sugli argomenti.
Penso che sia un modello molto comune per le persone con background più quantitativi, me compreso. Dopo aver provato prodotti di consumo, si tende a gravitare di più verso il software aziendale perché il software aziendale ha problemi più concreti.
Hai clienti reali con esigenze e budget reali e cose del genere, e puoi ottimizzare e risolvere i problemi per loro. Anche il mercato dei consumatori è molto attraente, ma è più basato sull'intuizione che guidato dalla sperimentazione. Per me personalmente, il software aziendale è più adatto.
Kimberly Tan: Innanzitutto, possiamo iniziare con questa domanda: quali sono le categorie di supporto più comuni con cui Decagon ha a che fare oggi? Puoi spiegare in dettaglio come utilizzi i large language models (LLM) per risolvere questi problemi e cosa puoi fare ora che prima non potevi fare?
Jesse Zhang: Se si guarda indietro all'automazione precedente, si potrebbe aver utilizzato gli alberi decisionali per fare qualcosa di semplice, per determinare quale percorso intraprendere. Ma abbiamo tutti utilizzato i chatbot, ed è un'esperienza piuttosto frustrante.
Spesso la tua domanda non può essere completamente risolta da un albero decisionale. Quindi finisci per essere indirizzato verso un percorso di domanda che è correlato alla domanda ma non corrisponde esattamente a essa. Ora, abbiamo grandi modelli linguistici (LLM). La magia degli LLM è che sono molto flessibili, possono adattarsi a molte situazioni diverse e hanno un'intelligenza di base.
Quando applichi questo al supporto clienti, o quando un cliente pone una domanda, puoi fornire un servizio più personalizzato. Questo è il primo punto, il livello di personalizzazione è notevolmente migliorato. Questo sblocca metriche più elevate. Puoi risolvere più problemi, i clienti sono più soddisfatti e la soddisfazione del cliente aumenta.
Il passo naturale successivo è: se hai questa intelligenza, dovresti essere in grado di fare più cose che gli umani possono fare. Le cose che gli umani possono fare sono che possono estrarre dati in tempo reale, possono agire e possono ragionare attraverso più passaggi. Se un cliente pone una domanda relativamente complessa, forse "Voglio fare questo e quello", e l'IA è preparata solo a gestire la prima domanda. LLM è abbastanza intelligente da riconoscere che ci sono due domande qui. Innanzitutto, risolverà il primo problema e poi ti aiuterà a risolvere il secondo problema.
Prima dell'arrivo di LLM, questo era praticamente impossibile. Quindi ora stiamo assistendo a un cambiamento radicale in ciò che la tecnologia è in grado di fare, e questo grazie a LLM.
Kimberly Tan: In questo contesto, come definiresti un agente AI? Poiché la parola "agente" è ampiamente utilizzata, sono curiosa di sapere cosa significhi effettivamente nel contesto di Decagon.
Jesse Zhang: Direi che Agent si riferisce più a un sistema in cui più sistemi LLM (large language model) lavorano insieme. Hai un'invocazione LLM, che sostanzialmente implica l'invio di un prompt e l'ottenimento di una risposta. Per un Agent, vuoi essere in grado di connettere più di tali invocazioni, forse anche ricorsivamente.
Ad esempio, hai una chiamata LLM che determina come gestire il messaggio, e poi può innescare altre chiamate che estraggono più dati, eseguono azioni e iterano su ciò che l'utente ha detto, forse anche ponendo domande di follow-up. Quindi per noi, un agente può essere inteso come una rete di quasi chiamate LLM, chiamate API o altre logiche che lavorano insieme per fornire un'esperienza migliore.
Kimberly Tan: Su questo argomento, forse possiamo parlare di più dell'infrastruttura dell'agente che hai effettivamente costruito. Penso che un punto molto interessante sia che ci sono molte dimostrazioni di agenti AI sul mercato, ma penso che ci siano pochissimi esempi di essi che possono effettivamente funzionare stabilmente in un ambiente di produzione. Ed è difficile sapere dall'esterno cosa è reale e cosa non lo è.
Quindi, secondo lei, quali aspetti degli attuali agenti di intelligenza artificiale funzionano bene e quali aspetti necessitano ancora di innovazioni tecnologiche per renderli più solidi e affidabili?
Jesse Zhang: La mia opinione è in realtà un po' diversa. La differenza tra determinare se un agente AI è solo una demo o "funziona davvero" non risiede interamente nello stack tecnologico, perché penso che la maggior parte delle persone potrebbe utilizzare più o meno la stessa tecnologia. Penso che una volta che sei andato oltre nello sviluppo della tua azienda, ad esempio, la nostra azienda è stata fondata da più di un anno, creerai qualcosa di molto specifico che si adatta al tuo caso d'uso.
Ma in ultima analisi, tutti possono accedere allo stesso modello e utilizzare tecnologie simili. Penso che il principale fattore differenziante che determina se un agente di intelligenza artificiale può funzionare in modo efficace risieda in realtà nella forma del caso d'uso. All'inizio è difficile saperlo, ma guardando indietro ci si rende conto che ci sono due attributi molto importanti affinché un agente AI vada oltre la dimostrazione e trovi applicazione pratica.
Il primo è che il caso d'uso che risolvi deve avere un ROI (ritorno sull'investimento) quantificabile. Questo è molto importante, perché se il ROI non può essere quantificato, sarà difficile convincere le persone a usare effettivamente il tuo prodotto e a pagarlo. Nel nostro caso, l'indicatore quantitativo è: quale percentuale di richieste di supporto risolvi? Poiché questo numero è chiaro, le persone possono capirlo: oh, okay, se ne risolvi di più, posso confrontare questo risultato con le mie spese attuali e il tempo impiegato. Quindi, se c'è questo indicatore, un altro indicatore che è molto importante per noi è la soddisfazione del cliente. Poiché il ROI può essere facilmente quantificato, le persone lo adotteranno davvero.
Il secondo fattore è che i casi d'uso devono essere progressivamente più difficili. Sarebbe anche molto difficile se avessi bisogno di un agente che fosse sovrumano fin dall'inizio, risolvendo quasi 100% dei casi d'uso. Perché, come sappiamo, gli LLM non sono deterministici, devi avere una sorta di piano di emergenza. Fortunatamente, c'è una grande caratteristica dei casi d'uso di supporto, ed è che puoi sempre passare a un essere umano. Anche se riesci a risolvere solo metà dei problemi, è comunque molto prezioso per le persone.
Quindi penso che il supporto abbia questa caratteristica che lo rende molto adatto per AI Agent. Penso che ci siano molte altre aree in cui le persone possono creare demo impressionanti in cui non devi nemmeno guardare attentamente per capire perché AI Agent sarebbe utile. Ma se deve essere perfetto fin dall'inizio, allora è molto difficile. Se è così, quasi nessuno vorrà provarlo o usarlo perché le conseguenze della sua imperfezione possono essere molto gravi, ad esempio in termini di sicurezza.
Ad esempio, quando le persone fanno delle simulazioni, hanno sempre questo pensiero classico: "Oh, sarebbe fantastico se LLM potesse leggere questo". Ma è difficile immaginare qualcuno che dice: "Ok, agente AI, fallo. Credo che tu possa farcela". Perché se commette un errore, le conseguenze potrebbero essere molto gravi.
Jesse Zhang: Di solito sono i nostri clienti a decidere, e in effetti vediamo una gamma molto ampia di differenze. Da un lato, alcune persone fanno davvero sembrare il loro Agente un essere umano, quindi c'è un avatar umano, un nome umano e le risposte sono molto naturali. D'altro canto, l'Agente afferma semplicemente di essere un'IA e lo rende chiaro all'utente. Penso che le diverse aziende con cui lavoriamo abbiano posizioni diverse su questo.
Di solito, se lavori in un settore regolamentato, devi chiarirlo. Ciò che trovo interessante ora è che il comportamento dei clienti sta cambiando. Perché molti dei nostri clienti stanno ricevendo molti feedback sui social media, come "Oh mio Dio, questa è la prima esperienza di chat che abbia mai provato che sembra davvero così reale" o "Questa è semplicemente magica". E questo è fantastico per loro, perché ora i loro clienti stanno imparando, ehi, se è un'esperienza di intelligenza artificiale, può effettivamente essere migliore di un essere umano. In passato non era così, perché la maggior parte di noi ha avuto quel tipo di esperienza di assistenza clienti telefonica in passato: "Ok, intelligenza artificiale, intelligenza artificiale..."
Kimberly Tan: Hai menzionato il concetto di personalizzazione un paio di volte. Tutti usano la stessa architettura tecnologica di base, ma hanno esigenze di personalizzazione diverse in termini di servizi di supporto. Puoi parlarne? Nello specifico, come si ottiene la personalizzazione in modo che le persone possano dire online: "Mio Dio, questa è la migliore esperienza di supporto che abbia mai avuto"?
Jesse Zhang: Per noi, la personalizzazione deriva dalla personalizzazione per l'utente. Devi comprendere le informazioni di background dell'utente, che sono il contesto aggiuntivo richiesto. In secondo luogo, devi anche comprendere la logica aziendale dei nostri clienti.Combinando le due cose, si può ottenere un'esperienza davvero positiva.
Ovviamente, sembra semplice, ma in realtà è molto difficile ottenere tutto il contesto richiesto. Pertanto, la maggior parte del nostro lavoro riguarda come costruire i componenti primitivi giusti in modo che quando un cliente distribuisce il nostro sistema, possa facilmente decidere, "Ok, questa è la logica aziendale che vogliamo". Ad esempio, prima devi fare questi quattro passaggi e se il passaggio tre fallisce, devi passare al passaggio cinque.
Vuoi essere in grado di insegnare all'IA questo molto facilmente, ma anche darle accesso a informazioni come "Questi sono i dettagli dell'account dell'utente. Se hai bisogno di più informazioni, puoi chiamare queste API". Questi livelli sono un livello di coordinamento in cima al modello e, in un certo senso, rendono l'agente davvero utilizzabile.
Kimberly Tan: Sembra che in questo caso, hai bisogno di molto accesso ai sistemi aziendali. Devi sapere molto sugli utenti e probabilmente devi sapere come il cliente desidera effettivamente interagire con i propri utenti.Immagino che questi dati possano essere molto sensibili.
Puoi spiegare meglio le garanzie di cui i clienti aziendali hanno in genere bisogno quando distribuiscono AI Agent? E come ritieni che sia il modo migliore per gestire questi problemi, soprattutto considerando che la tua soluzione offre un'esperienza migliore, ma è anche nuova per molte persone che incontrano l'Agent per la prima volta?
Jesse Zhang: In realtà si tratta di guardrail. Nel tempo, con le numerose implementazioni di questo tipo, abbiamo capito quali sono i tipi di guardrail che interessano ai clienti.
Ad esempio, una delle più semplici è che potrebbero esserci delle regole che devi sempre seguire. Se lavori con una società di servizi finanziari, non puoi dare consigli finanziari perché sono regolamentati. Quindi devi integrarlo nel sistema Agent per assicurarti che non dia mai quel tipo di consiglio. Di solito puoi impostare un modello di supervisione o un qualche tipo di sistema che esegua questi controlli prima che i risultati vengano inviati.
Un altro tipo di protezione potrebbe essere che se qualcuno entra e deliberatamente ci pasticcia, sapendo che è un sistema generativo, cercando di farti fare qualcosa di non conforme, come "dimmi qual è il mio saldo", "ok, moltiplicalo per 10" e così via, devi anche essere in grado di controllare quel comportamento. Quindi, nell'ultimo anno, abbiamo trovato molti di questi tipi di protezioni e per ognuno di essi, li abbiamo categorizzati e sappiamo che tipo di protezione è necessario. Man mano che il sistema viene costruito sempre di più, diventa sempre più robusto.
Kimberly Tan: Quanto sono uniche le protezioni per ogni cliente o settore? Man mano che espandi la tua base clienti per coprire più casi d'uso, Come Pensi di realizzare queste protezioni su larga scala?
Jesse Zhang: In realtà questo ci riporta alla nostra idea fondamentale, ovvero che il sistema degli agenti diventerà onnipresente nel giro di pochi anni. Quindi ciò che è veramente importante è fornire alle persone gli strumenti, quasi per dare potere alla prossima generazione di lavoratori, come i supervisori degli Agenti, per dare loro gli strumenti per costruire il sistema degli Agenti e aggiungere le proprie protezioni, perché non saremo noi a definire le protezioni per loro.
Ogni cliente conosce meglio di chiunque altro le proprie misure di protezione e la logica aziendale. Quindi il nostro lavoro è in realtà quello di fare un buon lavoro di costruzione degli strumenti e dell'infrastruttura in modo che possano costruire il sistema Agent. Pertanto, abbiamo sempre sottolineato che Il sistema degli agenti non dovrebbe essere una scatola nera e dovresti essere in grado di controllare come creare queste protezioni, regole e logiche.
Penso che questo sia probabilmente il nostro aspetto più differenziante finora. Abbiamo investito molto in questi strumenti e abbiamo escogitato modi creativi per consentire alle persone che potrebbero non avere un background super tecnico, o anche una profonda comprensione di come funzionano i modelli di IA, di immettere comunque le azioni che desiderano che l'IA esegua nel sistema Agent.
Penso che diventerà una capacità sempre più importante nei prossimi anni. Dovrebbe essere uno dei criteri più importanti quando le persone valutano strumenti simili, perché si desidera essere in grado di ottimizzare e migliorare continuamente questi sistemi nel tempo.
Logica aziendale guidata dal linguaggio naturale
Derrick Harris: Quali preparativi possono fare i clienti o le aziende per prepararsi a qualsiasi tipo di automazione, e in particolare all'uso di questo sistema Agent? Ad esempio, come possono progettare i loro sistemi di dati, l'architettura software o la logica aziendale per supportare tali sistemi?
Perché ritengo che gran parte della tecnologia dell'intelligenza artificiale sia inizialmente innovativa, ma quando si tratta di sistemi legacy esistenti, spesso si scontra con un gran caos.
Jesse Zhang: Se qualcuno sta costruendo da zero, ci sono molte best practice che possono semplificare il tuo lavoro. Ad esempio, come strutturare la tua knowledge base. Abbiamo scritto su alcune di queste e introdotto alcuni metodi che possono semplificare l'acquisizione di informazioni da parte dell'IA e migliorarne l'accuratezza. Un suggerimento specifico è quello di dividere la knowledge base in parti modulari, anziché avere un unico grande articolo con più risposte.
Quando si imposta l'API, è possibile renderla più adatta al sistema Agent e impostare permessi e output in modo che sia facile per il sistema Agent assimilare informazioni senza dover fare molti calcoli per trovare la risposta. Queste sono alcune misure tattiche che possono essere adottate, ma non direi che ci sia qualcosa che deve essere fatto per utilizzare il sistema Agent.
Derrick Harris: Una buona documentazione è sempre importante, in sostanza si tratta di organizzare le informazioni in modo efficace.
Kimberly Tan: Sembra che se si cerca di insegnare alle persone come dirigere il sistema Agent affinché funzioni nel modo più adatto ai propri clienti o a casi d'uso specifici, allora potrebbe essere necessaria molta sperimentazione con la progettazione dell'interfaccia utente e dell'esperienza utente, oppure si dovrebbero tracciare nuove strade in questo campo completamente nuovo, perché è molto diverso dal software tradizionale.
Sono curioso, cosa ne pensi? Come dovrebbero apparire UI e UX in un mondo Agent-first? Come pensi che cambierà nei prossimi anni?
Jesse Zhang: Non direi che abbiamo risolto questo problema. Penso che potremmo aver trovato un ottimo locale che funziona per i nostri attuali clienti, ma è ancora un'area di ricerca in corso, per noi e per molti altri.
Il problema principale risale a quanto detto prima, ovvero che hai un sistema Agent. Innanzitutto, come puoi vedere chiaramente cosa sta facendo e come sta prendendo decisioni? Quindi, come puoi usare queste informazioni per decidere cosa deve essere aggiornato e quale feedback dovrebbe essere dato all'IA? È qui che gli elementi dell'interfaccia utente si uniscono, in particolare la seconda parte.
Riteniamo che, col tempo, l'interfaccia utente e l'esperienza utente saranno sempre più basate sul linguaggio naturale, perché è così che ragiona il sistema dell'agente, ovvero è fondamentalmente la base per l'addestramento dei grandi modelli linguistici (LLM).
All'estremo, se hai un agente super intelligente che fondamentalmente pensa come un essere umano, puoi mostrargli cose, spiegargli cose, dargli feedback e lui si aggiornerà nella sua "mente". Puoi immaginare di avere una persona molto capace che si unisce al tuo team, gli insegni qualcosa, lui inizia a lavorare e poi continui a dargli feedback, puoi mostrargli cose nuove, nuovi documenti, diagrammi, ecc.
Penso che nel caso estremo, si svilupperà in questa direzione: le cose diventeranno più conversazionali, più basate sul linguaggio naturale e le persone smetteranno di costruire sistemi con alberi decisionali complessi come facevano una volta, catturando ciò che si desidera, ma questo approccio può facilmente crollare. Una volta dovevamo farlo perché non c'erano LLM, ma ora che i sistemi Agent stanno diventando sempre più potenti, UI e UX diventeranno più conversazionali.
Kimberly Tan: Circa un anno e mezzo fa, quando Decagon ha iniziato, c'era la percezione generale che LLM fosse molto applicabile a molti casi d'uso, ma in realtà era solo una specie di "wrapper GPT", in cui le aziende potevano semplicemente chiamare un modello sottostante tramite un'API e risolvere immediatamente i loro problemi di supporto.
Ma ovviamente, poiché le aziende scelgono di usare soluzioni come Decagon invece di seguire direttamente quella strada, si scopre che non è così. Mi chiedevo se potessi spiegare perché è così. Cosa ha reso esattamente le sfide della costruzione interna più complesse del previsto? Quali idee sbagliate avevano sul concetto?
Jesse Zhang: Non c'è niente di sbagliato nell'essere un "wrapper GPT", potresti dire che Purcell è un wrapper AWS o qualcosa del genere. Di solito, quando le persone usano questo termine, intendono qualcosa di dispregiativo.
La mia opinione personale è che se stai costruendo un sistema di agenti, per definizione userai sicuramente LLM come strumento. Quindi stai effettivamente costruendo su qualcosa che esiste già, proprio come faresti normalmente su AWS o GCP.
Ma il vero problema in cui potresti imbatterti è se il software che sviluppi su LLM non è abbastanza "pesante" o complesso da fare la differenza.
Guardando indietro, per noi, ciò che vendiamo è fondamentalmente software. In realtà siamo come una normale azienda di software, tranne per il fatto che utilizziamo LLM come parte del software e come uno degli strumenti. Ma quando le persone acquistano questo tipo di prodotto, vogliono principalmente il software stesso. Vogliono strumenti in grado di monitorare l'IA, in grado di scavare a fondo nei dettagli di ogni conversazione dell'IA, in grado di fornire feedback, in grado di costruire e adattare costantemente il sistema.
Quindi questo è il nocciolo del nostro software. Anche con il sistema Agent in sé, il problema che le persone hanno è che è bello fare una demo, ma se vuoi renderla pronta per la produzione e davvero rivolta al cliente, devi risolvere molti problemi di vecchia data, come prevenire il fenomeno dell'"illusione" e gestire i cattivi attori che cercano di creare scompiglio. Dobbiamo anche assicurarci che la latenza sia sufficientemente bassa, il tono sia appropriato e così via.
Abbiamo parlato con molti team, e loro hanno fatto degli esperimenti, hanno creato una versione preliminare, e poi si sono resi conto, "Oh, davvero, non vogliamo essere noi quelli che continuano a costruire questi dettagli nelle fasi successive". Non volevano nemmeno essere quelli che continuano ad aggiungere nuova logica al team del servizio clienti. Quindi, a questo punto, sembra più appropriato scegliere di collaborare con altri.
Kimberly Tan: Hai menzionato alcuni problemi a lungo termine, come la necessità di avere a che fare con cattivi attori, ecc.Credo che molti ascoltatori che stanno valutando l'utilizzo di AI Agent siano preoccupati per i nuovi percorsi di attacco alla sicurezza che potrebbero presentarsi dopo l'introduzione di LLM, o per i nuovi rischi per la sicurezza che potrebbero presentarsi dopo l'introduzione del sistema Agent. Cosa ne pensi di questi problemi? E quali sono le best practice per garantire la massima sicurezza aziendale quando si ha a che fare con Agente?
Jesse Zhang: In termini di sicurezza, ci sono alcune misure ovvie che possono essere prese, che ho menzionato prima, come la necessità di misure di protezione. Il problema principale è che le preoccupazioni delle persone riguardo agli LLM sono che non sono deterministici.
Ma la buona notizia è che puoi effettivamente mettere la maggior parte delle operazioni sensibili e complesse dietro un muro deterministico, e il calcolo avviene lì quando chiama l'API. Quindi non ti affidi completamente a LLM per gestirlo, e questo evita molti dei problemi principali.
Ma ci sono ancora situazioni in cui, ad esempio, un malintenzionato interferisce o qualcuno cerca di far allucinare il sistema. Abbiamo osservato che in molti dei principali clienti con cui lavoriamo, i loro team di sicurezza entrano ed eseguono fondamentalmente un test "red team" sui nostri prodotti, trascorrendo settimane a lanciare continuamente vari possibili attacchi al sistema per cercare di trovare vulnerabilità. Man mano che AI Agent diventa sempre più popolare, potremmo vedere questo accadere sempre più spesso, perché questo è uno dei modi migliori per testare se un sistema è efficace. Si tratta di lanciargli qualcosa attraverso un test red team e vedere se riesce a superare le difese.
Ci sono anche startup che stanno sviluppando strumenti di red team o che consentono alle persone di fare questi tipi di test da sole, che è una tendenza che stiamo osservando in questo momento. Molte delle aziende con cui lavoriamo, in una fase successiva del ciclo di vendita, faranno in modo che il loro team di sicurezza, o lavori con un team esterno, esegua stress test del sistema. Per noi, essere in grado di superare questo tipo di test è un must. Quindi, in definitiva, è questo che conta.
Derrick Harris: È qualcosa che incoraggiate i vostri clienti a fare? Perché quando parliamo di policy AI, menzioniamo un aspetto importante, che è il livello applicativo, e sottolineiamo l'importanza di mettere il responsabilità sugli utenti di LLM e sulle persone che gestiscono l'applicazione, anziché semplicemente dare la colpa al modello stesso. Vale a dire, i clienti dovrebbero condurre test di red team, identificare casi d'uso specifici e percorsi di attacco e determinare quali vulnerabilità devono essere protette, anziché semplicemente affidarsi alla protezione di sicurezza già impostata da OpenAI o da altre aziende.
Jesse Zhang: Sono completamente d'accordo. Penso anche che potrebbe emergere una nuova ondata di requisiti di notifica, simili alla certificazione SOC 2 e alla certificazione HIPAA che tutti stanno ottenendo ora, che sono richieste in diversi settori. Di solito, quando vendi un prodotto SaaS generico, i clienti richiederanno test di penetrazione e dobbiamo anche fornire il nostro report sui test di penetrazione. Per AI Agent, potrebbero esserci requisiti simili in futuro e qualcuno potrebbe nominarli, ma questo è fondamentalmente un nuovo modo per testare se il sistema Agent è abbastanza potente.
Kimberly Tan: Una cosa interessante è che ovviamente tutti sono molto entusiasti delle nuove innovazioni di modello e delle innovazioni tecnologiche che vengono introdotte da tutti i grandi laboratori. Come azienda di intelligenza artificiale, ovviamente non fai le tue ricerche, ma sfrutti quella ricerca e crei un sacco di software attorno ad essa per consegnarla al cliente finale.
Ma il tuo lavoro si basa su una tecnologia in rapida evoluzione. Sono curioso, come azienda di IA applicata, come fai a tenere il passo con i nuovi cambiamenti tecnologici e a capire come influenzano l'azienda, pur essendo in grado di prevedere la tua roadmap di prodotto e di creare esigenze degli utenti? Più in generale, quali strategie dovrebbero adottare le aziende di IA applicata in situazioni simili?
Jesse Zhang: In realtà puoi dividere l'intero stack in parti diverse. Ad esempio, LLM è in basso se guardi il livello applicativo. Potresti avere alcuni strumenti nel mezzo che ti aiutano a gestire LLM o a fare delle valutazioni e cose del genere. Quindi, la parte superiore è fondamentalmente ciò che abbiamo costruito, che è in realtà come un SaaS standard.
Quindi, la maggior parte del nostro lavoro non è poi così diversa dal software normale, eccetto per il fatto che abbiamo una componente di ricerca extra: LLM cambia troppo velocemente. Dobbiamo ricercare cosa possono fare, in cosa sono bravi e quale modello dovrebbe essere usato per svolgere un certo compito. Questo è un grosso problema perché sia OpenAI che Anthropic stanno lanciando nuove tecnologie e anche Gemini sta gradualmente migliorando.
Perciò, devi avere il tuo meccanismo di valutazione per capire quale modello è adatto all'uso in quale situazione. A volte hai anche bisogno di una messa a punto precisa, ma la domanda è: quando fare la messa a punto precisa? Quando vale la pena fare la messa a punto precisa? Questi sono probabilmente i principali problemi di ricerca relativi agli LLM su cui ci stiamo concentrando. Ma almeno finora, non pensiamo che SaaS stia cambiando rapidamente, perché non dipendiamo dallo strato intermedio. Quindi, fondamentalmente, sono gli LLM a cambiare. Non cambiano molto spesso e, quando lo fanno, di solito si tratta di un aggiornamento. Ad esempio, Claude 3.5 sonnet è stato aggiornato qualche mese fa e in quel momento abbiamo pensato: "Ok, dovremmo passare al nuovo modello invece di continuare a usare quello vecchio?"
Dobbiamo solo eseguire una serie di valutazioni e, una volta passati al nuovo modello, non ci pensiamo più perché stai già utilizzando il nuovo modello. Poi è uscita la versione o1 e la situazione era simile. Pensa a dove può essere utilizzata. Nel nostro caso, o1 è un po' lento per la maggior parte dei casi d'uso rivolti al cliente, quindi possiamo utilizzarlo per un po' di lavoro di background. In definitiva, abbiamo solo bisogno di avere un buon sistema per la ricerca del modello.
Kimberly Tan: Con quale frequenza valuti un nuovo modello e decidi se sostituirlo?
Jesse Zhang: Valutiamo ogni volta che esce un nuovo modello. Devi assicurarti che, anche se il nuovo modello è più intelligente, non rompa alcuni dei casi d'uso che hai già creato. Questo può succedere. Ad esempio, il nuovo modello potrebbe essere più intelligente nel complesso, ma in alcuni casi estremi, ha prestazioni scadenti su una scelta A/B in uno dei tuoi flussi di lavoro. Ecco per cosa valutiamo.
Penso che nel complesso, il tipo di intelligenza che ci interessa di più è quella che definirei "capacità di seguire le istruzioni". Vogliamo che il modello diventi sempre più bravo a seguire le istruzioni. Se è così, allora è sicuramente vantaggioso per noi, e questo è molto positivo.
Sembra che la ricerca recente si sia concentrata di più sul tipo di intelligenza che implica il ragionamento, come una migliore programmazione e migliori operazioni matematiche. Anche questo ci aiuta, ma non è importante quanto il miglioramento della capacità di seguire l'istruzione.
Kimberly Tan: Un punto molto interessante che hai menzionato, e che ritengo sia anche molto esclusivo di Decagon, è che avete creato internamente un'ampia infrastruttura di valutazione per assicurarvi di sapere esattamente come si comporta ogni modello in base alla serie di test che fornite.
Puoi spiegarlo meglio? Quanto è importante questa infrastruttura di valutazione interna e, in particolare, in che modo dà a te e ai tuoi clienti fiducia nelle prestazioni dell'agente? Perché alcune di queste valutazioni sono anche rivolte al cliente.
Jesse Zhang: Penso che sia molto importante, perché senza questa infrastruttura di valutazione sarebbe molto difficile per noi procedere rapidamente.
Se ritieni che ogni modifica abbia un'alta probabilità di rompere qualcosa, allora non apporterai modifiche rapidamente. Ma se hai un meccanismo di valutazione, allora quando c'è una modifica importante, un aggiornamento del modello o arriva qualcosa di nuovo, puoi confrontarlo direttamente con tutti i test di valutazione. Se i risultati della valutazione sono buoni, puoi pensare: ok, abbiamo fatto un miglioramento, oppure puoi rilasciarlo con sicurezza senza preoccuparti troppo.
Quindi, nel nostro campo, la valutazione richiede il contributo del cliente, perché è il cliente a decidere se qualcosa è corretto o meno. Naturalmente, possiamo verificare alcuni problemi di alto livello, ma solitamente il cliente fornisce casi d'uso specifici e ci dice qual è la risposta corretta, o quale deve essere, quale tono deve mantenere, cosa deve dire.
La valutazione si basa su questo. Quindi dobbiamo assicurarci che il nostro sistema di valutazione sia sufficientemente robusto. All'inizio, lo abbiamo costruito noi stessi e non è così difficile da mantenere. Sappiamo anche che ci sono alcune aziende di valutazione e ne abbiamo esplorate alcune. Forse a un certo punto, prenderemo in considerazione l'idea di adottarle, ma per ora, il sistema di valutazione non è più un punto dolente per noi.
Kimberly Tan: Un argomento molto popolare oggi è la multimodalità, ovvero gli agenti AI dovrebbero essere in grado di interagire in tutte le forme che gli umani usano oggi, che si tratti di testo, video, voce, ecc. So che Decagon è nato come testo. Dal tuo punto di vista, quanto è importante è multimodale agli agenti AI? Secondo te, qual è il lasso di tempo entro cui diventerà mainstream o addirittura uno standard?
Jesse Zhang: È importante e, dal punto di vista aziendale, non è particolarmente difficile aggiungere una nuova modalità. Non è semplice, ma il nocciolo è questo: se risolvi altri problemi, come quelli che ho menzionato, ad esempio, costruire l'IA, monitorarla e avere la logica giusta, allora aggiungere una nuova modalità non è la cosa più difficile da fare. Quindi, per noi, avere tutte le modalità ha molto senso ed espande il nostro mercato. Siamo fondamentalmente agnostici in termini di modalità e costruiamo il nostro Agente per ogni modalità.
In generale, ci sono due fattori limitanti: prima di tutto, il cliente è pronto ad adottare la nuova modalità? Penso che abbia molto senso iniziare con il testo, perché è il modo in cui le persone adottano più attivamente, ed è meno rischioso per loro, più facile da monitorare e più facile da capire. L'altra grande modalità è la voce. Ovviamente, penso che ci sia ancora spazio nel mercato e l'accettazione della voce da parte degli utenti deve ancora migliorare. Al momento, stiamo assistendo ad alcuni early adopter che hanno iniziato ad adottare Voice Agents, il che è molto entusiasmante. L'altro aspetto sono le sfide tecniche. La maggior parte delle persone concorderebbe sul fatto che l'asticella è più alta per la voce. Se stai parlando con qualcuno al telefono, hai bisogno di una latenza vocale molto breve. Se interrompi qualcuno, deve rispondere in modo naturale.
Poiché la latenza del parlato è inferiore, devi essere più intelligente nel modo in cui calcoli. Se sei in una chat e il tempo di risposta è di cinque-otto secondi, difficilmente lo noti e sembra molto naturale. Ma se ci vogliono cinque-otto secondi per rispondere al telefono, sembra un po' innaturale. Quindi ci sono più sfide tecniche con il parlato. Man mano che queste sfide tecniche vengono risolte e l'interesse nell'adottare il parlato aumenta nel mercato, il parlato come nuova modalità diventerà mainstream.
Un modello di business che supera la fiducia
Kimberly Tan: Prima di continuare, vorrei parlare un po' di più del modello di business dell'agente AI. Quando si inizia costruito AI Agent o discusso con i clienti del sistema che usano, dei dati che elaborano e delle loro preoccupazioni, c'è stato qualcosa che ti ha sorpreso? Quali sono alcune delle cose non intuitive o sorprendenti che Decagon ha dovuto fare per servire meglio i clienti aziendali?
Jesse Zhang: Penso che la cosa più sorprendente sia stata la misura in cui le persone erano disposte a parlare con noi quando abbiamo iniziato. Dopotutto, eravamo solo in due. Avevamo entrambi avviato aziende in precedenza, quindi conoscevamo un sacco di persone, ma nonostante ciò, per ogni imprenditore, quando si vuole avviare una conversazione di referral, se ciò che si sta dicendo non è particolarmente convincente, la conversazione è solitamente piuttosto tiepida.
Ma quando abbiamo iniziato a parlare di questo caso d'uso, ho trovato davvero sorprendente quanto le persone fossero entusiaste di parlarne. Perché l'idea sembra così ovvia. Potresti pensare che, poiché è un'idea così ovvia, qualcun altro deve averla già fatta, o deve esserci già una soluzione, o qualcun altro deve aver già trovato un qualche tipo di soluzione. Ma penso che abbiamo colto un buon momento, quel caso d'uso è davvero grande e le persone ci tengono davvero. Come ho detto prima, quel caso d'uso è davvero adatto per prendere AI Agent e spingerlo in produzione, perché puoi implementarlo in modo incrementale ed essere in grado di tracciare il ROI.
Per me è stata una piacevole sorpresa, ma ovviamente c'è molto lavoro da fare dopo, devi lavorare con i clienti, devi costruire il prodotto, devi capire che direzione prendere. Nella fase iniziale, è stata davvero una scoperta sorprendente.
Derrick Harris: Kimberly, mi sembra di dover menzionare quel post del blog che hai scritto, RIP to RPA, che tocca molti argomenti il attività di automazione e startup.Credi che esista un fenomeno per cui queste attività o soluzioni automatizzate non sono poi così ideali e quindi le persone sono sempre alla ricerca di una soluzione migliore?
Di seguito sono riportati alcuni dettagli: Sì, credo proprio di sì. Vorrei dire alcune cose. Innanzitutto, se un'idea è ovvia per tutti, ma non c'è un'azienda chiara che la risolva, o nessuno indica un'azienda e dice "Dovresti usare questo", allora significa che il problema non è stato effettivamente risolto.
In un certo senso, è un'opportunità completamente aperta per un'azienda di sviluppare una soluzione. Perché, come hai detto, abbiamo seguito Decagon come investitori fin dall'inizio. Li abbiamo osservati navigare nel labirinto creativo e quando hanno deciso di andare in questa direzione e hanno iniziato a parlare con i clienti, è diventato chiaro che tutti i clienti erano alla disperata ricerca di una soluzione nativa abilitata all'intelligenza artificiale. Questo è uno dei problemi che ho menzionato prima, dove molte persone pensano che sia solo un wrapper GPT. Ma l'interesse dei clienti che Decagon ha ricevuto fin dall'inizio ci ha fatto capire subito che molti di questi problemi sono molto più complicati di quanto le persone si aspettino.
Penso che questo fenomeno si stia verificando in tutti i settori, che si tratti di assistenza clienti o di automazione professionale in determinati settori verticali. Penso che uno dei punti sottovalutati sia, come ha detto Jesse in precedenza, la capacità di misurare chiaramente il ritorno sull'investimento (ROI) dell'automazione delle attività. Perché, se si vuole convincere qualcuno ad accettare un agente AI, in realtà si sta compiendo un certo "salto nel vuoto", perché si tratta di un territorio molto sconosciuto a molte persone.
Se è possibile automatizzare un processo molto specifico che è un processo di generazione di fatturato ovvio, o un processo che in precedenza costituiva un collo di bottiglia nell'azienda, o un importante centro di costo che aumenta linearmente con la crescita dei clienti o del fatturato, allora sarà più facile ottenere l'accettazione per l'agente AI. La capacità di trasformare tali problemi in un processo più produttivo, scalabile come il software tradizionale, è molto interessante.
Kimberly Tan: Ho un'ultima domanda prima di proseguire. Ricordo che Jesse, nelle nostre discussioni precedenti, diceva sempre che la sfida più grande per le aziende che adottano software o agenti AI sarebbero state le allucinazioni. Ma una volta mi hai detto che in realtà questo non è il problema principale. Puoi spiegare perché la percezione delle allucinazioni è in qualche modo fuorviante e cosa preoccupa di più le persone?
Jesse Zhang: Penso che le persone si preoccupino delle allucinazioni, ma sono più interessate al valore che possono fornire. Quasi tutte le aziende con cui lavoriamo si concentrano sugli stessi pochi problemi, quasi esattamente gli stessi: quale percentuale di conversazioni puoi risolvere? Quanto sono soddisfatti i miei clienti? Quindi il problema delle allucinazioni può essere classificato come una terza categoria, ovvero quanto è accurato. In generale, i primi due fattori sono più importanti quando si valuta.
Diciamo che stai parlando con una nuova attività e hai fatto un ottimo lavoro sui primi due fattori, e hai ricevuto molto supporto dalla dirigenza e da tutti nel team. Sono tipo, "Oh mio Dio, la nostra esperienza cliente è diversa. Ogni cliente ora ha il suo assistente personale che può contattarci in qualsiasi momento. Abbiamo dato loro delle ottime risposte, sono molto soddisfatti, ed è multilingue e disponibile 24 ore su 24, 7 giorni su 7." Questa è solo una parte, e hai anche risparmiato un sacco di soldi.
Quindi, una volta raggiunti quegli obiettivi, ottieni molto supporto e un sacco di vento a favore per guidare il lavoro. Ovviamente, il problema dell'illusione alla fine deve essere risolto, ma non è la cosa di cui sono più preoccupati. Il modo per risolvere l'illusione è lo stesso che ho menzionato prima: le persone ti metteranno alla prova. Potrebbe esserci una fase di proof-of-concept in cui esegui effettivamente conversazioni reali e hanno membri del team che monitorano e verificano l'accuratezza. Se va bene, allora di solito va a buon fine.
Inoltre, come ho detto prima, puoi impostare delle misure di protezione rigorose per le informazioni sensibili, come non dover necessariamente rendere generico il contenuto sensibile. Quindi la questione dell'illusione è un punto di discussione nella maggior parte delle transazioni. Non è un argomento poco importante. Attraverserai questo processo, ma non è mai il fulcro della conversazione.
Kimberly Tan: Ora passiamo al modello di business di AI Agent. Oggi, c'è un grande argomento su come stabilire il prezzo di questi AI Agent.
Storicamente, molti software SaaS sono prezzati in base al numero di postazioni perché sono software di workflow che mirano a singoli dipendenti e sono utilizzati per migliorare la produttività dei dipendenti. Tuttavia, AI Agent non è collegato alla produttività dei singoli dipendenti come i software tradizionali.
Molte persone pensano che il metodo di determinazione dei prezzi basato sul numero di posti potrebbe non essere più applicabile. Sono curioso di sapere Come hai pensato a questo dilemma nei primi giorni e a come hai deciso di stabilire il prezzo di Decagon. Inoltre, quale pensi sarà la tendenza futura del prezzo del software man mano che AI Agent diventa sempre più comune?
Jesse Zhang: La nostra opinione su questo problema è che in passato il prezzo del software era calcolato a postazione perché la sua portata era basata grossomodo sul numero di persone che potevano utilizzarlo. Ma per la maggior parte degli agenti AI, il valore che fornisci non dipende dal numero di persone che lo gestiscono, ma piuttosto dalla quantità di lavoro prodotto. Ciò è coerente con il punto che ho menzionato prima: se il ritorno sull'investimento (ROI) è molto misurabile, allora anche il livello di output di lavoro è molto chiaro.
La nostra opinione è che il prezzo in base al numero di posti non sia sicuramente applicabile. Puoi stabilire il prezzo in base all'output del lavoro. Quindi, il modello di prezzo che offri dovrebbe essere che più lavoro fai, più paghi.
Per noi, ci sono due modi ovvi per stabilire il prezzo. Puoi stabilire il prezzo delle conversazioni oppure puoi stabilire il prezzo delle conversazioni che l'IA risolve effettivamente. Penso che una delle lezioni interessanti che abbiamo imparato è che la maggior parte delle persone ha scelto il modello di prezzo delle conversazioni. Il motivo è che il vantaggio principale del prezzo per soluzione è che paghi per ciò che il L'intelligenza artificiale sì.
Ma la domanda che segue è: cosa si considera una "soluzione"? Innanzitutto, nessuno vuole approfondire la questione, perché diventa: "Se qualcuno entra arrabbiato e tu lo mandi via, perché dovremmo pagare per questo?"
Ciò crea una situazione imbarazzante e rende anche un po' strani gli incentivi per i fornitori di IA, perché la fatturazione per soluzione significa "Dobbiamo solo risolvere quante più conversazioni possibili e allontanare alcune persone". Ma ci sono molti casi in cui è meglio portare il problema all'attenzione del pubblico piuttosto che semplicemente allontanarlo, e ai clienti non piace questo tipo di gestione. Pertanto, la fatturazione per conversazione porterà più semplicità e prevedibilità.
Kimberly Tan: Quanto pensi che durerà il futuro modello di determinazione dei prezzi?Perché in questo momento quando si parla di ROI, di solito ci si basa sulla spesa passata che potrebbe essere stata utilizzata per coprire i costi di manodopera. Man mano che gli agenti AI diventano più comuni, pensi che a lungo termine l'AI verrà confrontata con i costi di manodopera e che questo sia un parametro di riferimento appropriato? In caso contrario, come vedi i prezzi a lungo termine oltre i costi di manodopera?
Jesse Zhang: Penso che a lungo termine il prezzo dell'agente AI potrebbe essere ancora legato principalmente ai costi di manodopera, perché è questo il bello dell'agente: la spesa precedente per i servizi può ora essere trasferita al software.
Questa parte della spesa potrebbe essere da 10 a 100 volte superiore a quella della spesa per il software, quindi gran parte del costo si sposterà sul software. Pertanto, i costi di manodopera diventeranno naturalmente un punto di riferimento. Per i nostri clienti, il ROI è molto chiaro. Se puoi risparmiare X milioni di costi di manodopera, allora ha senso adottare questa soluzione. Ma a lungo termine, questa potrebbe essere una via di mezzo.
Perché anche alcuni prodotti che non sono buoni come il nostro Agent accetteranno prezzi più bassi. È come la classica situazione SaaS, dove tutti competono per la quota di mercato.
Kimberly Tan: Cosa riserva il futuro alle attuali aziende SaaS, in particolare a quelle i cui prodotti potrebbero non essere stati sviluppati in modo nativo per l'intelligenza artificiale o che hanno un prezzo a postazione e quindi non possono adattarsi a un modello di prezzo orientato ai risultati?
Jesse Zhang: Per alcune aziende tradizionali, è davvero un po' complicato se provano a lanciare un prodotto AI Agent perché non possono prezzarlo usando un modello di posti. Se non hai più bisogno di così tanti Agent, è difficile mantenere i ricavi con il prodotto esistente. Questo è un problema per le aziende tradizionali, ma è difficile dirlo. Le aziende tradizionali hanno sempre il vantaggio dei canali di distribuzione. Anche se il prodotto non è buono come quello della nuova azienda, le persone sono riluttanti a impegnarsi per accettare un nuovo fornitore con solo 80% della stessa qualità.
Quindi, innanzitutto, se sei una startup come noi, devi assicurarti che il tuo prodotto sia tre volte migliore del prodotto tradizionale. In secondo luogo, questa è una tipica competizione tra aziende tradizionali e startup. Le aziende tradizionali hanno naturalmente una tolleranza al rischio inferiore perché hanno un gran numero di clienti. Se commettono un errore nell'iterazione rapida, ciò causerà enormi perdite. Tuttavia, le startup possono iterare più velocemente, quindi il processo di iterazione stesso può portare a un prodotto migliore. Questo è il ciclo usuale. Per noi, siamo sempre stati orgogliosi della nostra velocità di consegna, della qualità del prodotto e dell'esecuzione del nostro team. Ecco perché abbiamo vinto l'accordo attuale.
Kimberly Tan: Puoi fare delle previsioni sul futuro dell'IA sul posto di lavoro? Ad esempio, come cambierà le esigenze o le capacità dei dipendenti, o come interagiscono i dipendenti umani e gli agenti di IA?Quali nuove buone pratiche o norme pensi che diventeranno la norma sul posto di lavoro man mano che gli agenti di intelligenza artificiale si diffonderanno?
Jesse Zhang: Il primo e più importante cambiamento è che siamo convinti che in futuro i dipendenti trascorreranno molto più tempo sul posto di lavoro a sviluppare e gestire agenti di intelligenza artificiale, in modo simile al ruolo dei supervisori di intelligenza artificiale. Anche se la tua posizione non è ufficialmente quella di "supervisore AI", molto del tempo che eri solito dedicare al tuo lavoro sarà dedicato alla gestione di questi agenti, perché gli agenti possono darti molta influenza.
Abbiamo visto questo in molte distribuzioni in cui le persone che un tempo erano team leader ora trascorrono molto tempo a monitorare l'IA, ad esempio, per assicurarsi che non abbia problemi o per apportare modifiche. Monitorano le prestazioni complessive per vedere se ci sono aree specifiche che necessitano attenzione, se ci sono lacune nella knowledge base che potrebbero aiutare l'IA a migliorare e se l'IA può colmare tali lacune.
Il lavoro che deriva dal lavorare con un agente dà l'impressione che in futuro i dipendenti trascorreranno una notevole quantità di tempo interagendo con gli agenti AI. Questo è un concetto fondamentale della nostra azienda, come ho detto prima. Per questo motivo, il nostro intero prodotto è costruito attorno alla necessità di fornire alle persone strumenti, visualizzazione, interpretabilità e controllo. Penso che entro un anno questa diventerà una tendenza enorme.
Kimberly Tan: Ha molto senso. Di quali capacità pensi che avranno bisogno i supervisori AI in futuro? Quali sono le competenze per questo ruolo?
Jesse Zhang: Ci sono due aspetti. Una è l'osservabilità e l'interpretabilità, la capacità di comprendere rapidamente cosa sta facendo l'IA e come prende decisioni. L'altra è la capacità decisionale, o la parte di costruzione, come fornire feedback e come costruire una nuova logica. Penso che queste due cose siano due facce della stessa medaglia.
Kimberly Tan: Quali compiti pensi che andranno oltre le capacità dell'agente AI nel medio o lungo termine e dovranno ancora essere gestiti e svolti correttamente dagli esseri umani?
Jesse Zhang: Penso che dipenderà principalmente dal requisito di "perfezione" che ho menzionato prima. Ci sono molti compiti che hanno una tolleranza di errore molto bassa. In questi casi, qualsiasi strumento di IA è più un aiuto che un agente a tutti gli effetti.
Ad esempio, in alcuni settori più sensibili, come l'assistenza sanitaria o la sicurezza, dove devi essere quasi perfetto, allora in queste aree, gli agenti AI potrebbero diventare meno autonomi, ma ciò non significa che siano inutili. Penso che lo stile sarà diverso, in una piattaforma come la nostra, stai effettivamente distribuendo questi agenti per consentire loro di automatizzare l'intero lavoro.
Derrick Harris: E questo è tutto per questa puntata. Se hai trovato questo argomento interessante o stimolante, per favore vota il nostro podcast e condividilo con più persone.Ci aspettiamo di pubblicare l'episodio finale prima della fine dell'anno e riorganizzeremo i contenuti per il nuovo anno. Grazie per l'ascolto e vi auguro delle fantastiche feste (se state ascoltando durante le feste).
Video originale: Gli agenti di Al possono finalmente risolvere il problema del supporto clienti??