Repere

  • Magia LLM-urilor este că sunt foarte flexibile, se pot adapta la multe situații diferite și au inteligență de bază.
  • Credem că în timp, UI și UX vor deveni din ce în ce mai naturale bazate pe limbaj, pentru că așa gândește un sistem Agent, sau aceasta este, practic, baza antrenamentului pentru modele de limbaj mari (LLM).
  • Dacă doriți ca cineva să accepte un agent AI, de fapt ia un grad de „salt de credință”, deoarece pentru mulți oameni, acesta este un domeniu foarte necunoscut.

AI Agent remodelează experiența clientului

Jesse Zhang: Cum este construit de fapt un agent? Părerea noastră este că, în timp, va deveni din ce în ce mai mult ca un agent bazat pe limbaj natural, deoarece așa sunt antrenate modelele de limbaj mari (LLM).

Pe termen lung, dacă aveți un agent super inteligent care este de fapt ca un om, îi puteți arăta lucruri, îi puteți explica, îi puteți oferi feedback și va actualiza informațiile din mintea lui.

Vă puteți imagina că aveți un membru al echipei umane foarte capabil. Când se înscriu pentru prima dată, îi înveți ceva, încep să lucreze și apoi le oferi feedback și le arăți informații noi.

În cele din urmă, se va dezvolta în această direcție – va deveni mai conversațional și mai mult bazat pe limbajul natural, iar modul în care oamenii comunică între ei va deveni mai natural. Iar oamenii nu vor mai folosi acei arbori de decizie complicati pentru a capta cerințele, care pot funcționa, dar sunt predispuse să se prăbușească.

În trecut, a trebuit să facem asta pentru că nu aveam un model lingvistic mare. Dar acum, odată cu progresul continuu al Agentului, experiența utilizatorului (UX) și interfața cu utilizatorul (UI) vor deveni mai conversaționale.

Derrick Harris: Bună tuturor, bine ați venit la podcastul A16z AI. Sunt Derrick Harris și astăzi mi se vor alătura Jesse Zhang, co-fondator și CEO al Decagon, și Kimberly Tan, partener la a16z. Kimberly va modera discuția, iar Jesse își va împărtăși experiența de construire a Decagon și a produselor sale.

Dacă nu știți prea multe despre asta, Decagon este un startup care oferă agenți AI companiilor pentru a ajuta cu asistența clienților. Acești agenți nu sunt nici chatbot, nici pachete LLM pentru un singur apel API, ci agenți avansati extrem de personalizați care pot gestiona fluxuri de lucru complexe bazate pe nevoile specifice ale unei companii.

Pe lângă explicarea de ce au creat Decagon și modul în care este proiectat pentru a gestiona diferite medii LLM și clienți, Jesse vorbește și despre beneficiile unui model de afaceri care taxează pe conversație și despre modul în care agenții AI vor schimba abilitățile necesare liderilor de asistență pentru clienți.

De asemenea, merită menționat faptul că Kimberly a scris recent o postare pe blog intitulată „RIP to RPA, The Rise of Intelligent Automation”, despre care discutăm pe scurt în acest episod.

Este un punct de plecare excelent pentru a înțelege cum declanșează automatizarea în procesele de afaceri și vom oferi un link în notele emisiunii. Și, în sfârșit, ca o reamintire, conținutul acestui articol are doar scop informativ și nu trebuie considerat consultanță juridică, de afaceri, fiscală sau de investiții, nici nu trebuie utilizat pentru a evalua vreo investiție sau securitate și nu este îndreptat către niciun investitor în fondul a16z sau potențial investitor.

Jesse Zhang: O scurtă introducere asupra mea. M-am născut și am crescut în Boulder și am participat la o mulțime de concursuri de matematică și altele asemenea în copilărie. Am studiat informatica la Harvard și apoi am înființat o companie care a fost susținută și de a16z. Am fost în cele din urmă achiziționați de Niantic.

Apoi am început să construim Decagon. Afacerea noastră creează agenți AI pentru serviciul clienți. La început, am făcut asta pentru că am vrut să facem ceva care ne era foarte aproape de inimă.

Desigur, nimeni nu trebuie să fie învățat despre rolul agenților AI în serviciul pentru clienți, nu? Am vorbit cu toții la telefon cu companii aeriene, hoteluri etc. și am așteptat în așteptare. Deci ideea a venit de acolo.

Am discutat cu o mulțime de clienți pentru a afla exact ce fel de produs ar trebui să construim. Un lucru care a ieșit în evidență pentru noi a fost că, pe măsură ce am aflat mai multe despre agenții AI, am început să ne gândim la cum va fi viitorul când vor fi mulți dintre ei. Cred că toată lumea crede că vor exista o mulțime de agenți AI în viitor.

Ne gândim la ce vor face angajații care lucrează în jurul agenților AI? Ce fel de instrumente vor avea? Cum vor controla sau vedea agenții cu care lucrează sau îi vor gestiona?

Deci, acesta este nucleul modului în care am construit compania în jurul acestei întrebări. Cred că acesta este și ceea ce ne diferențiază acum, deoarece oferim acestor agenți AI diverse instrumente pentru a ajuta oamenii cu care lucrăm să construiască și să configureze acești agenți astfel încât să nu mai fie o „cutie neagră”. Acesta este modul în care ne construim brandul.

Derrick Harris: Ce te-a inspirat, din moment ce ultima ta companie a fost o companie video orientată spre consumatori, să treci în software-ul pentru întreprinderi?

Jesse Zhang: Mare întrebare. Cred că fondatorii sunt adesea „agnostici ai subiectului” atunci când vine vorba de alegerea unui subiect, pentru că, în realitate, atunci când abordezi un domeniu nou, de obicei ești destul de naiv. Deci, există un avantaj să privim lucrurile dintr-o perspectivă nouă. Așa că, când ne gândim la asta, aproape că nu existau restricții de subiecte.

Cred că acesta este un model foarte comun pentru oamenii cu medii mai cantitative, inclusiv eu. După ce ai încercat produse de larg consum, ai tendința de a gravita mai mult către software-ul enterprise, deoarece software-ul enterprise are probleme mai concrete.

Aveți clienți reali cu nevoi și bugete reale și lucruri de genul acesta și puteți optimiza și rezolva problemele pentru aceștia. Piața de consum este, de asemenea, foarte atractivă, dar se bazează mai mult pe intuiție decât pe bază de experimentare. Pentru mine personal, software-ul pentru întreprinderi se potrivește mai bine.

Kimberly Tan: În primul rând, putem începe cu această întrebare: Care sunt cele mai comune categorii de suport cu care se ocupă Decagon astăzi? Puteți detalia modul în care utilizați modelele lingvistice mari (LLM) pentru a rezolva aceste probleme și ce puteți face acum, ceea ce nu puteați face înainte?

Jesse Zhang: Dacă te uiți înapoi la automatizarea anterioară, s-ar putea să fi folosit arbori de decizie pentru a face ceva simplu, pentru a determina calea pe care să o urmezi. Dar toți am folosit chatboți și este o experiență destul de frustrantă.

Adesea, întrebarea dvs. nu poate primi un răspuns complet printr-un arbore de decizie. Așadar, ajungi să fii direcționat pe o cale de întrebare care este legată de întrebare, dar nu se potrivește exact cu ea. Acum, avem modele de limbaj mari (LLM). Magia LLM-urilor este că sunt foarte flexibile, se pot adapta la multe situații diferite și au inteligență de bază.

Când aplicați acest lucru la asistența pentru clienți sau când un client pune o întrebare, puteți oferi un serviciu mai personalizat. Acesta este primul punct, nivelul de personalizare s-a îmbunătățit foarte mult. Acest lucru deblochează valori mai mari. Puteți rezolva mai multe probleme, clienții sunt mai mulțumiți, iar satisfacția clienților crește.

Următorul pas natural este: dacă ai această inteligență, ar trebui să poți face mai multe lucruri pe care oamenii le pot face. Lucrurile pe care oamenii le pot face sunt că pot extrage date în timp real, pot lua măsuri și pot raționa prin mai mulți pași. Dacă un client pune o întrebare relativ complexă, poate „vreau să fac asta și asta”, iar AI-ul este pregătit doar să se ocupe de prima întrebare. LLM este suficient de inteligent pentru a recunoaște că există două întrebări aici. În primul rând, va rezolva prima problemă și apoi vă va ajuta să rezolvați a doua problemă.

Înainte de apariția LLM, acest lucru era practic imposibil. Așa că acum asistăm la o schimbare în ceea ce tehnologia este capabilă să facă, și asta datorită LLM.

Kimberly Tan: În acest context, cum ați defini un agent AI? Deoarece cuvântul „Agent” este folosit pe scară largă, sunt curios ce înseamnă de fapt în contextul Decagonului.

Jesse Zhang: Aș spune că Agent se referă mai mult la un sistem în care mai multe sisteme LLM (model de limbă mare) lucrează împreună. Aveți o invocare LLM, care, practic, implică trimiterea unui prompt și obținerea unui răspuns. Pentru un agent, doriți să puteți conecta mai multe astfel de invocări, poate chiar recursiv.

De exemplu, aveți un apel LLM care determină cum să gestionați mesajul și apoi poate declanșa alte apeluri care atrag mai multe date, efectuează acțiuni și repetă ceea ce a spus utilizatorul, poate chiar punând întrebări ulterioare. Deci, pentru noi, un agent poate fi înțeles ca o rețea de aproape apeluri LLM, apeluri API sau altă logică care lucrează împreună pentru a oferi o experiență mai bună.

Kimberly Tan: Pe acest subiect, poate putem vorbi mai multe despre infrastructura Agent pe care ați construit-o de fapt. Cred că un punct foarte interesant este că există multe demonstrații ale agenților AI pe piață, dar cred că există foarte puține exemple ale acestora care pot funcționa stabil într-un mediu de producție. Și este greu să știi din exterior ce este real și ce nu.

Deci, în opinia dvs., ce aspecte ale agenților AI de astăzi se descurcă bine și ce aspecte necesită încă progrese tehnologice pentru a le face mai robuste și mai fiabile?

Jesse Zhang: Viziunea mea este de fapt puțin diferită. Diferența dintre a determina dacă un agent AI este doar o demonstrație sau „funcționează cu adevărat” nu se află în întregime în tehnologia, deoarece cred că majoritatea oamenilor pot folosi aproximativ aceeași tehnologie. Cred că odată ce ai mers mai departe în dezvoltarea companiei tale, de exemplu, compania noastră este înființată de mai bine de un an, vei crea ceva foarte specific care se potrivește cazului tău de utilizare.

Dar, în final, toată lumea poate accesa același model și poate folosi tehnologie similară. Cred că cel mai mare factor de diferențiere a faptului că un agent AI poate funcționa eficient constă de fapt în forma cazului de utilizare. Este greu să știi acest lucru la început, dar privind în urmă, vei descoperi că există două atribute care sunt foarte importante pentru ca un agent AI să meargă dincolo de demonstrație și să intre în aplicarea practică.

Primul este că cazul de utilizare pe care îl rezolvați trebuie să aibă un ROI (rentabilitatea investiției) cuantificabil. Acest lucru este foarte important, deoarece dacă rentabilitatea investiției nu poate fi cuantificată, va fi dificil să convingi oamenii să folosească efectiv produsul tău și să plătească pentru el. În cazul nostru, indicatorul cantitativ este: ce procent din cererile de suport rezolvați? Deoarece acest număr este clar, oamenii îl pot înțelege – oh, bine, dacă rezolvi mai multe, pot compara acest rezultat cu cheltuielile mele curente și cu timpul petrecut. Deci, dacă există acest indicator, un alt indicator care este foarte important pentru noi este satisfacția clienților. Deoarece rentabilitatea investiției poate fi cuantificată cu ușurință, oamenii îl vor adopta cu adevărat.

Al doilea factor este că cazurile de utilizare trebuie să fie din ce în ce mai dificile. De asemenea, ar fi foarte dificil dacă ai avea nevoie de un Agent care să fie supraomenesc de la început, rezolvând aproape 100% din cazurile de utilizare. Pentru că, după cum știm, LLM-urile sunt nedeterministe, trebuie să aveți un fel de plan de urgență. Din fericire, există o caracteristică excelentă a cazurilor de utilizare de asistență, și anume că poți oricând escalada la un om. Chiar dacă poți rezolva doar jumătate din probleme, este totuși foarte valoros pentru oameni.

Deci, cred că acel suport are această caracteristică care îl face foarte potrivit pentru AI Agent. Cred că există multe alte domenii în care oamenii pot crea demonstrații impresionante în care nici măcar nu trebuie să te uiți îndeaproape pentru a înțelege de ce AI Agent ar fi util. Dar dacă trebuie să fie perfect de la început, atunci este foarte greu. Dacă este cazul, aproape nimeni nu va dori să încerce sau să-l folosească pentru că consecințele imperfecțiunii sale pot fi foarte grave – de exemplu, în ceea ce privește securitatea.

De exemplu, când oamenii fac simulări, au întotdeauna acest gând clasic: „O, ar fi grozav dacă LLM ar putea citi asta.” Dar este greu de imaginat pe cineva spunând: „Bine, agent AI, dă-i drumul. Cred că o poți face.” Pentru că dacă face o greșeală, consecințele pot fi foarte grave.

Jesse Zhang: Acest lucru este de obicei decis de clienții noștri și, de fapt, vedem o gamă foarte largă de diferențe. La o extremă, unii oameni își fac Agentul să arate ca un om, așa că există un avatar uman, un nume uman, iar răspunsurile sunt foarte naturale. Pe de altă parte, agentul pur și simplu afirmă că este AI și face acest lucru clar pentru utilizator. Cred că diferitele companii cu care lucrăm au poziții diferite în acest sens.

De obicei, dacă sunteți într-o industrie reglementată, trebuie să clarificați acest lucru. Ceea ce mi se pare interesant acum este că comportamentul clienților se schimbă. Pentru că mulți dintre clienții noștri primesc o mulțime de feedback pe rețelele sociale, cum ar fi „O, Doamne, aceasta este prima experiență de chat pe care am încercat-o vreodată și care de fapt pare atât de reală” sau „Este doar magie”. Și asta este grozav pentru ei, pentru că acum clienții lor învață, hei, dacă este o experiență AI, poate fi de fapt mai bună decât un om. Nu a fost cazul în trecut, pentru că cei mai mulți dintre noi au avut în trecut acest tip de experiență de servicii telefonice pentru clienți: „Bine, AI, AI, AI...”

Kimberly Tan: Ai menționat de câteva ori conceptul de personalizare. Toată lumea utilizează aceeași arhitectură tehnologică de bază, dar au nevoi de personalizare diferite în ceea ce privește serviciile de asistență. Poți vorbi despre asta? Mai exact, cum poți realiza personalizarea, astfel încât oamenii să poată spune online: „Doamne, aceasta este cea mai bună experiență de asistență pe care am avut-o vreodată”?

Jesse Zhang: Pentru noi, personalizarea vine din personalizarea pentru utilizator. Trebuie să înțelegeți informațiile de bază ale utilizatorului, care reprezintă contextul suplimentar necesar. În al doilea rând, trebuie să înțelegeți și logica de afaceri a clienților noștri.Dacă le combinați pe cele două, puteți oferi o experiență destul de bună.

Evident, acest lucru sună simplu, dar în realitate este foarte greu să obții tot contextul necesar. Prin urmare, cea mai mare parte a muncii noastre se referă la modul de a construi componentele primitive potrivite, astfel încât, atunci când un client implementează sistemul nostru, să poată decide cu ușurință: „Bine, aceasta este logica de afaceri pe care o dorim”. De exemplu, mai întâi trebuie să faceți acești patru pași, iar dacă pasul trei eșuează, trebuie să treceți la pasul cinci.

Doriți să puteți învăța AI acest lucru foarte ușor, dar și să îi oferiți acces la informații precum „Acesta sunt detaliile contului utilizatorului. Dacă aveți nevoie de mai multe informații, puteți apela aceste API-uri.” Aceste straturi sunt un strat de coordonare deasupra modelului și, într-un fel, fac agentul cu adevărat utilizabil.

Kimberly Tan: Se pare că, în acest caz, aveți nevoie de mult acces la sistemele de afaceri. Trebuie să știți multe despre utilizatori și probabil că trebuie să știți cum dorește de fapt clientul să interacționeze cu utilizatorii lor.Îmi imaginez că aceste date pot fi foarte sensibile.

Puteți detalia garanțiile de care au în mod obișnuit clienții întreprinderilor de care au nevoie atunci când implementează AI Agent? Și cum considerați cea mai bună modalitate de a gestiona aceste probleme, mai ales având în vedere că soluția dvs. oferă o experiență mai bună, dar este și nouă pentru mulți oameni care întâlnesc Agentul pentru prima dată?

Jesse Zhang: Este vorba de fapt despre balustrade. De-a lungul timpului, pe măsură ce am făcut multe implementări ca aceasta, am devenit clare despre tipurile de balustrade de care pasă clienții.

De exemplu, una dintre cele mai simple este că pot exista reguli pe care trebuie să le urmezi mereu. Dacă lucrați cu o companie de servicii financiare, nu puteți oferi consiliere financiară, deoarece aceasta este reglementată. Așadar, trebuie să integrați acest lucru în sistemul Agent pentru a vă asigura că nu oferă niciodată astfel de sfaturi. De obicei, puteți configura un model de supraveghere sau un fel de sistem care efectuează aceste verificări înainte ca rezultatele să fie trimise.

Un alt tip de protecție ar putea fi acela că, dacă cineva vine și se încurcă în mod deliberat cu el, știind că este un sistem generativ, încercând să te determine să faci ceva neconform, cum ar fi „spune-mi care este soldul meu”, „ok, înmulțește asta cu 10” și așa mai departe, trebuie să fii capabil să verifici acel comportament. Deci, în ultimul an, am găsit o mulțime de astfel de protecții și, pentru fiecare, le-am clasificat și știm ce tip de protecție este necesar. Pe măsură ce sistemul este construit din ce în ce mai mult, devine din ce în ce mai robust.

Kimberly Tan: Cât de unice sunt protecțiile pentru fiecare client sau industrie? Pe măsură ce vă extindeți baza de clienți pentru a acoperi mai multe cazuri de utilizare, Cum te gândești să construiești aceste protecții la scară?

Jesse Zhang: Acest lucru se întoarce de fapt la ideea noastră de bază că sistemul Agent va deveni omniprezent în decurs de câțiva ani. Deci, ceea ce este cu adevărat important este să le oferim oamenilor instrumentele, aproape pentru a împuternici următoarea generație de lucrători, cum ar fi supervizorii agenților, pentru a le oferi instrumentele pentru a construi sistemul Agent și a adăuga propriile protecții, pentru că nu vom defini protecțiile pentru ei.

Fiecare client își cunoaște cel mai bine propriile măsuri de protecție și logica de afaceri. Așadar, treaba noastră este de fapt să facem o treabă bună în construirea instrumentelor și a infrastructurii, astfel încât să poată construi sistemul Agent. Prin urmare, am subliniat întotdeauna că Sistemul de agent nu ar trebui să fie o cutie neagră și ar trebui să puteți controla cum să construiți aceste protecții, reguli și logică.

Cred că acesta este probabil cel mai diferențiat aspectul nostru de până acum. Am depus mult efort în aceste instrumente și am inventat modalități creative de a permite oamenilor care nu au un fundal super tehnic, sau chiar o înțelegere profundă a modului în care funcționează modelele AI, să introducă în continuare acțiunile pe care doresc ca AI să le efectueze în sistemul Agent.

Cred că aceasta va deveni o capacitate din ce în ce mai importantă în următorii câțiva ani. Acesta ar trebui să fie unul dintre cele mai importante criterii atunci când oamenii evaluează instrumente similare, deoarece doriți să puteți optimiza și îmbunătăți continuu aceste sisteme în timp.

Logica de afaceri condusă de limbajul natural

Derrick Harris: Ce pregătiri pot face clienții sau companiile pentru a se pregăti pentru orice tip de automatizare și, în special, pentru utilizarea acestui sistem Agent? De exemplu, cum își pot proiecta sistemele de date, arhitectura software sau logica de afaceri pentru a sprijini astfel de sisteme?

Pentru că cred că o mulțime de tehnologie AI este nouă la început, dar când vine vorba de sistemele moștenite existente, adesea se confruntă cu mult haos.

Jesse Zhang: Dacă cineva construiește de la zero acum, există o mulțime de cele mai bune practici care vă pot ușura munca. De exemplu, cum să vă structurați baza de cunoștințe. Am scris despre unele dintre acestea și am introdus câteva metode care pot face mai ușor pentru AI să ingereze informații și să le îmbunătățească acuratețea. O sugestie specifică este împărțirea bazei de cunoștințe în părți modulare, mai degrabă decât a avea un articol mare cu mai multe răspunsuri.

Când configurați API-ul, puteți să le faceți mai potrivite pentru sistemul Agent și să setați permisiunile și ieșirea într-un mod care facilitează ca sistemul Agent să ingereze informații fără a fi nevoie să faceți o mulțime de calcule pentru a găsi răspunsul. Acestea sunt câteva măsuri tactice care pot fi luate, dar nu aș spune că trebuie făcut ceva pentru a utiliza sistemul Agent.

Derrick Harris: O documentare bună este întotdeauna importantă, în esență este vorba despre organizarea eficientă a informațiilor.

Kimberly Tan: Se pare că dacă încerci să-i înveți pe oameni cum să direcționeze sistemul Agent să funcționeze într-un mod care se potrivește cel mai bine clienților lor sau cazurilor de utilizare specifice, atunci ar putea fi necesară o mulțime de experimentare cu designul UI și UX, sau trebuie să pornești noi drumuri în acest domeniu complet nou, deoarece este foarte diferit de software-ul tradițional.

Sunt curios, cum crezi despre asta? Cum ar trebui să arate interfața de utilizare și UX într-o lume bazată pe agent? Cum crezi că se va schimba în următorii câțiva ani?

Jesse Zhang: Nu aș spune că am rezolvat această problemă. Cred că am găsit un optim local care funcționează pentru clienții noștri actuali, dar este încă un domeniu de cercetare în curs, pentru noi și mulți alții.

Problema de bază se întoarce la ceea ce am menționat mai devreme, și anume că aveți un sistem Agent. În primul rând, cum puteți vedea clar ce face și cum ia decizii? Apoi, cum puteți utiliza aceste informații pentru a decide ce trebuie actualizat și ce feedback ar trebui să fie oferit AI? Aici se reunesc elementele UI, în special partea a doua.

Credem că, în timp, UI și UX vor deveni din ce în ce mai naturale bazate pe limbaj, pentru că așa gândește sistemul Agent sau, practic, aceasta este baza pentru formarea modelelor lingvistice mari (LLM).

În extremă, dacă aveți un agent super-inteligent care, practic, gândește ca un om, îi puteți arăta lucruri, îi puteți explica lucruri, îi puteți oferi feedback și se va actualiza în propria „minte”. Îți poți imagina că o persoană foarte capabilă se alătură echipei tale, îl înveți ceva, începe să lucreze, apoi îi continui să-i dai feedback, îi poți arăta lucruri noi, documente noi, diagrame etc.

Cred că, în cazul extrem, se va dezvolta în această direcție: lucrurile devin mai conversaționale, mai naturale bazate pe limbaj, iar oamenii încetează să construiască sisteme cu arbori de decizie complexe așa cum făceau înainte, captând ceea ce doriți, dar această abordare se poate deteriora cu ușurință. Trebuia să facem asta pentru că atunci nu existau LLM-uri, dar acum, că sistemele Agent devin din ce în ce mai puternice, UI și UX vor deveni mai conversaționale.

Kimberly Tan: Cu aproximativ un an și jumătate în urmă, când a început Decagon, a existat o percepție generală că LLM era foarte aplicabilă pentru multe cazuri de utilizare, dar de fapt era doar un fel de „înveliș GPT”, în care companiile puteau apela doar un model de bază printr-un API și își rezolva imediat problemele de suport.

Dar, evident, deoarece companiile aleg să folosească soluții precum Decagon în loc să meargă pe această cale direct, se dovedește că nu este cazul. Mă întrebam dacă ați putea explica de ce este așa. Ce anume a făcut ca provocările construcției interne să fie mai complexe decât se aștepta? Ce concepții greșite au avut despre concept?

Jesse Zhang: Nu este nimic în neregulă în a fi un „înveliș GPT”, ați putea spune că Purcell este un ambalaj AWS sau ceva de genul acesta. De obicei, atunci când oamenii folosesc acest termen, înseamnă ceva derogatoriu.

Părerea mea personală este că, dacă construiți un sistem de agenți, prin definiție veți folosi cu siguranță LLM ca instrument. Deci construiți de fapt pe ceva care există deja, așa cum ați construi în mod normal pe AWS sau GCP.

Dar adevărata problemă cu care te poți confrunta este dacă software-ul pe care îl construiești pe LLM nu este „greu” sau suficient de complex pentru a face diferența.

Privind în urmă, pentru noi, ceea ce vindem este practic software. Suntem de fapt ca o companie de software obișnuită, cu excepția faptului că folosim LLM ca parte a software-ului și ca unul dintre instrumente. Dar atunci când oamenii cumpără acest tip de produs, ei vor în principal software-ul în sine. Ei doresc instrumente care pot monitoriza AI, care pot săpa adânc în detaliile fiecărei conversații pe care o are AI, care pot oferi feedback, care pot construi și ajusta constant sistemul.

Deci acesta este nucleul software-ului nostru. Chiar și cu sistemul Agent în sine, problema pe care o au oamenii este că este grozav să faci un demo, dar dacă vrei să-l faci gata de producție și să fie cu adevărat orientat către clienți, trebuie să rezolvi o mulțime de probleme de lungă durată, cum ar fi prevenirea fenomenului de „iluzie” și a face față cu actori răi care încearcă să provoace ravagii. De asemenea, trebuie să ne asigurăm că latența este suficient de scăzută, că tonul este adecvat și așa mai departe.

Am vorbit cu o mulțime de echipe și au făcut câteva experimente, au construit o versiune preliminară și apoi și-au dat seama: „Oh, într-adevăr, nu vrem să fim noi cei care continuă să construim aceste detalii în etapele ulterioare.” Nici ei nu au vrut să fie cei care continuă să adauge o nouă logică echipei de servicii pentru clienți. Deci, în acest moment, pare mai potrivit să alegeți să colaborați cu alții.

Kimberly Tan: Ați menționat câteva probleme pe termen lung, cum ar fi nevoia de a face față actorilor răi etc.Cred că mulți ascultători care iau în considerare utilizarea AI Agent sunt îngrijorați de noile căi de atac de securitate care pot apărea după introducerea LLM-urilor sau de noile riscuri de securitate care pot apărea după introducerea sistemului Agent. Ce părere aveți despre aceste probleme? Și care sunt cele mai bune practici pentru a asigura securitatea întreprinderii de top atunci când aveți de-a face Agent?

Jesse Zhang: În ceea ce privește securitatea, sunt câteva măsuri evidente care pot fi luate, despre care am menționat mai devreme, precum necesitatea măsurilor de protecție. Problema de bază este că preocupările oamenilor cu privire la LLM-uri sunt că acestea nu sunt deterministe.

Dar vestea bună este că puteți pune de fapt majoritatea operațiunilor sensibile și complexe în spatele unui zid determinist, iar calculul are loc acolo când apelează API-ul. Deci nu vă bazați în întregime pe LLM pentru a le gestiona, iar asta evită multe dintre problemele de bază.

Dar există încă situații în care, de exemplu, intervine un actor rău sau cineva încearcă să facă halucinarea sistemului. Am observat că la mulți dintre clienții majori cu care lucrăm, echipele lor de securitate vor intra și vor efectua practic un test „echipă roșie” asupra produselor noastre, petrecând săptămâni întregi lansând în mod continuu diverse posibile atacuri asupra sistemului pentru a încerca să găsească vulnerabilități. Pe măsură ce AI Agent devine din ce în ce mai popular, este posibil să vedem că acest lucru se întâmplă din ce în ce mai des, deoarece aceasta este una dintre cele mai bune modalități de a testa dacă un sistem este eficient. Este să arunci ceva în el printr-un test al echipei roșii și să vezi dacă poate sparge apărarea.

Există, de asemenea, startup-uri care dezvoltă instrumente de echipă roșie sau le permit oamenilor să facă singuri aceste tipuri de teste, ceea ce este o tendință pe care o vedem chiar acum. Multe dintre companiile cu care lucrăm, într-o etapă ulterioară a ciclului de vânzări, vor avea echipa de securitate, sau vor lucra cu o echipă externă, să testeze sistemul. Pentru noi, a putea trece astfel de teste este o necesitate. Deci, până la urmă, la asta se rezumă.

Derrick Harris: Este ceva ce vă încurajați clienții să facă? Pentru că atunci când vorbim despre politicile AI, menționăm un aspect important, care este nivelul aplicației, și punem accent pe a responsabilitatea asupra utilizatorilor LLM și a persoanelor care execută aplicația, mai degrabă decât a da vina pe modelul în sine. Adică, clienții ar trebui să efectueze teste în echipă roșie, să identifice cazuri de utilizare specifice și căi de atac și să determine care vulnerabilități trebuie protejate, în loc să se bazeze pur și simplu pe protecția de securitate deja configurată de OpenAI sau de alte companii.

Jesse Zhang: Sunt complet de acord. De asemenea, cred că ar putea apărea un nou val de cerințe de notificare, similare cu certificarea SOC 2 și certificarea HIPAA pe care toată lumea le face acum, care sunt necesare în diferite industrii. De obicei, atunci când vindeți un produs SaaS generic, clienții vor solicita testare de penetrare și trebuie să furnizăm și raportul nostru de testare de penetrare. Pentru AI Agent, pot exista cerințe similare în viitor și cineva le poate numi, dar aceasta este, practic, o nouă modalitate de a testa dacă sistemul Agent este suficient de puternic.

Kimberly Tan: Un lucru care este interesant este că, evident, toată lumea este foarte încântată de noile descoperiri ale modelului și de descoperirile tehnologice care sunt introduse de toate marile laboratoare. În calitate de companie de inteligență artificială, evident că nu vă faceți propria cercetare, dar profitați de această cercetare și construiți o mulțime de software în jurul ei pentru a le livra clientului final.

Dar munca ta se bazează pe o tehnologie în schimbare rapidă. Sunt curios, în calitate de companie de IA aplicată, cum poți ține pasul cu noile schimbări tehnologice și să înțelegi cum acestea afectează compania, în timp ce poți să prezici propria foaie de parcurs pentru produse și să construiești nevoile utilizatorilor? Mai larg, ce strategii ar trebui să adopte companiile de IA aplicată în situații similare?

Jesse Zhang: De fapt, puteți împărți întreaga stivă în diferite părți. De exemplu, LLM este în partea de jos dacă vă uitați la stratul de aplicație. S-ar putea să aveți câteva instrumente la mijloc care vă ajută să gestionați LLM sau să faceți niște evaluări și chestii de genul ăsta. Apoi, partea de sus este practic ceea ce am construit, care este de fapt ca un SaaS standard.

Deci, cea mai mare parte a muncii noastre nu este de fapt atât de diferită de software-ul obișnuit, cu excepția faptului că avem o componentă suplimentară de cercetare - LLM se schimbă prea repede. Trebuie să cercetăm ce pot face, la ce sunt buni și ce model ar trebui folosit pentru a îndeplini o anumită sarcină. Aceasta este o problemă mare, deoarece atât OpenAI, cât și Anthropic lansează noi tehnologii, iar Gemeni se îmbunătățește treptat.

Prin urmare, trebuie să aveți propriul mecanism de evaluare pentru a înțelege ce model este potrivit pentru utilizare în ce situație. Uneori trebuie să faci un reglaj fin, dar întrebarea este: când să reglezi fin? Când merită reglarea fină? Acestea sunt probabil principalele probleme de cercetare legate de LLM pe care ne concentrăm. Dar cel puțin până acum, nu simțim că SaaS se schimbă rapid, pentru că nu suntem dependenți de stratul de mijloc. Deci, practic, LLM-urile sunt cele care se schimbă. Nu se schimbă foarte des și, atunci când o fac, de obicei este o actualizare. De exemplu, sonetul Claude 3.5 a fost actualizat în urmă cu câteva luni, iar în acel moment ne-am gândit: „Bine, ar trebui să trecem la noul model în loc să-l folosim în continuare pe cel vechi?”

Trebuie doar să facem o serie de evaluări și, odată ce am trecut la noul model, nu ne mai gândim la asta pentru că deja utilizați noul model. Apoi, a apărut versiunea o1, iar situația a fost similară. Gândiți-vă unde poate fi folosit. În cazul nostru, o1 este puțin lent pentru majoritatea cazurilor de utilizare adresate clienților, așa că îl putem folosi pentru unele lucrări de fundal. În cele din urmă, trebuie doar să avem un sistem bun pentru cercetarea modelelor.

Kimberly Tan: Cât de des evaluați un model nou și decideți dacă îl înlocuiți?

Jesse Zhang: Evaluăm de fiecare dată când apare un nou model. Trebuie să te asiguri că, deși noul model este mai inteligent, nu sparge unele dintre cazurile de utilizare pe care le-ai construit deja. Acest lucru se poate întâmpla. De exemplu, noul model poate fi mai inteligent în general, dar în unele cazuri extreme, are performanțe slabe la o alegere A/B într-unul dintre fluxurile dvs. de lucru. Pentru asta evaluăm.

Cred că, în general, tipul de inteligență la care ne pasă cel mai mult este ceea ce aș numi „abilitatea de a urmări instrucțiunile”. Ne dorim ca modelul să devină din ce în ce mai bun la respectarea instrucțiunilor. Dacă este cazul, atunci cu siguranță este benefic pentru noi și asta e foarte bine.

Se pare că cercetările recente s-au concentrat mai mult pe tipul de inteligență care implică raționament, cum ar fi o programare mai bună și operații matematice mai bune. Acest lucru ne ajută de asemenea, dar nu este la fel de important ca îmbunătățirea capacității de urmărire a instrucțiunilor.

Kimberly Tan: Un punct foarte interesant pe care l-ați menționat și cred că este, de asemenea, unic pentru Decagon, este că ați construit o mulțime de infrastructură de evaluare în interior, pentru a vă asigura că știți exact cum funcționează fiecare model în baza setului de teste pe care îl furnizați.

Puteți detalia acest lucru? Cât de importantă este această infrastructură de evaluare internă și, în special, cum vă oferă dumneavoastră și clienților dumneavoastră încredere în performanța Agentului? Pentru că unele dintre aceste evaluări sunt, de asemenea, orientate către clienți.

Jesse Zhang: Cred că este foarte important, pentru că fără această infrastructură de evaluare ne-ar fi foarte greu să repetăm rapid.

Dacă simți că fiecare schimbare are o probabilitate mare de a sparge ceva, atunci nu vei face schimbări rapid. Dar dacă aveți un mecanism de evaluare, atunci când există o schimbare majoră, o actualizare a modelului sau apare ceva nou, îl puteți compara direct cu toate testele de evaluare. Dacă rezultatele evaluării sunt bune, puteți simți: bine, am făcut o îmbunătățire sau o puteți elibera cu încredere fără să vă faceți prea multe griji.

Deci, în domeniul nostru, evaluarea necesită input din partea clientului, deoarece clientul este cel care decide dacă ceva este corect sau nu. Desigur, putem verifica unele probleme de nivel înalt, dar de obicei clientul oferă cazuri de utilizare specifice și ne spune care este răspunsul corect sau care trebuie să fie, ce ton trebuie să mențină, ce trebuie să spună.

Evaluarea se bazează pe aceasta. Așa că trebuie să ne asigurăm că sistemul nostru de evaluare este suficient de robust. La început, l-am construit singuri și nu este atât de greu de întreținut. De asemenea, știm că există câteva companii de evaluare și am explorat unele dintre ele. Poate la un moment dat, ne vom gândi dacă să le adoptăm, dar deocamdată sistemul de evaluare nu mai este un punct de durere pentru noi.

Kimberly Tan: Un subiect foarte popular astăzi este multimodalitatea, ceea ce înseamnă că agenții AI ar trebui să poată interacționa în toate formele pe care oamenii le folosesc astăzi, fie că este text, video, voce etc. Știu că Decagon a început ca bazat pe text. Din perspectiva ta, cât de important este multimodalitate la agenții AI? Care credeți că este intervalul de timp pentru ca acesta să devină mainstream sau chiar un standard?

Jesse Zhang: Este important, iar din perspectiva companiei, nu este deosebit de dificil să adăugați o nouă modalitate. Nu este simplu, dar miezul este: dacă rezolvi alte probleme, precum cele pe care le-am menționat – de exemplu, construirea IA, monitorizarea lui și a avea logica potrivită – atunci adăugarea unei noi modalități nu este cel mai dificil lucru de făcut. Deci, pentru noi, a avea toate modalitățile are foarte mult sens și ne extinde piața. Practic suntem agnostici ai modalității și ne construim propriul agent pentru fiecare modalitate.

În general, există doi factori limitativi: în primul rând, este clientul gata să adopte noua modalitate? Cred că are foarte mult sens să începi cu text, pentru că acesta este modul în care oamenii adoptă cel mai activ și este mai puțin riscant pentru ei, mai ușor de monitorizat și mai ușor de înțeles. Cealaltă modalitate mare este vocea. Evident, cred că mai este loc pe piață, iar acceptarea vocii de către utilizatori trebuie încă să se îmbunătățească. În acest moment, vedem câțiva primitori care au început să adopte agenți vocali, ceea ce este foarte interesant. Celălalt aspect sunt provocările tehnice. Majoritatea oamenilor ar fi de acord că ștacheta este mai ridicată pentru voce. Dacă vorbești cu cineva la telefon, ai nevoie de o latență foarte scurtă a vocii. Dacă întrerupi pe cineva, trebuie să răspundă natural.

Pentru că latența vorbirii este mai mică, trebuie să fii mai inteligent în modul în care calculezi. Dacă ești într-un chat și timpul de răspuns este de cinci până la opt secunde, cu greu îl observi și se simte foarte natural. Dar dacă este nevoie de cinci până la opt secunde pentru a răspunde la telefon, se simte puțin nefiresc. Deci, există mai multe provocări tehnice cu vorbirea. Pe măsură ce aceste provocări tehnice sunt rezolvate și interesul pentru adoptarea vorbirii crește pe piață, vorbirea ca o nouă modalitate va deveni mainstream.

Un model de afaceri care trece peste încredere

Kimberly Tan: Înainte de a continua, aș dori să vorbesc puțin mai mult despre modelul de afaceri AI Agent. Când tu prima construit Agent AI sau a discutat cu clienții despre sistemul pe care îl folosesc, datele pe care le prelucrează și preocupările lor, a existat ceva care v-a surprins? Care sunt unele dintre lucrurile neintuitive sau surprinzătoare pe care Decagon a trebuit să le facă pentru a servi mai bine clienții întreprinderilor?

Jesse Zhang: Cred că cel mai surprinzător lucru a fost măsura în care oamenii au fost dispuși să vorbească cu noi când am început. La urma urmei, eram doar doi. Am început amândoi companii înainte, așa că cunoșteam o mulțime de oameni, dar chiar și așa, pentru fiecare antreprenor, atunci când vrei să pornești o conversație de recomandare, dacă ceea ce spui nu este deosebit de convingător, conversația este de obicei destul de călduță.

Dar când am început să vorbim despre acest caz de utilizare, mi s-a părut destul de surprinzător cât de entuziasmați erau oamenii să vorbească despre el. Pentru că ideea pare atât de evidentă. Ai putea crede că, deoarece este o idee atât de evidentă, altcineva trebuie să fi făcut-o deja, sau trebuie să existe deja o soluție, sau altcineva trebuie să fi venit deja cu un fel de soluție. Dar cred că am prins un moment bun, acel caz de utilizare este foarte mare și oamenilor le pasă foarte mult de el. După cum am menționat mai devreme, acel caz de utilizare este foarte potrivit pentru a prelua AI Agent și a-l împinge în producție, deoarece îl puteți implementa progresiv și puteți urmări rentabilitatea investiției.

Asta a fost o surpriză plăcută pentru mine, dar evident că mai este mult de lucru după aceea, trebuie să lucrezi cu clienții, trebuie să construiești produsul, trebuie să-ți dai seama pe ce cale să mergi. În faza inițială, a fost într-adevăr o descoperire surprinzătoare.

Derrick Harris: Kimberly, simt că ar trebui să menționez acea postare pe blog pe care ai scris-o, RIP to RPA, care atinge multe a sarcini de automatizare și startup-uri.Crezi că există un fenomen în care aceste sarcini automatizate, sau soluții, nu sunt atât de ideale, așa că oamenii caută mereu o cale mai bună?

Kimberly Tan: Da, cred că da. Aș vrea să spun câteva lucruri. În primul rând, dacă o idee este evidentă pentru toată lumea, dar nu există o companie clară care să o rezolve sau nimeni nu arată către o companie și spune: „Ar trebui să utilizați asta”, atunci înseamnă că problema nu a fost de fapt rezolvată.

Într-un fel, este o oportunitate complet deschisă pentru o companie de a dezvolta o soluție. Pentru că, așa cum ați spus, l-am urmărit pe Decagon ca investitor încă de la început. I-am urmărit navigând prin labirintul creativ, iar când au decis să meargă în această direcție și au început să vorbească cu clienții, a devenit clar că toți clienții erau disperați după un fel de soluție nativă activată de AI. Aceasta este una dintre problemele pe care le-am menționat mai devreme, unde mulți oameni cred că este doar un înveliș GPT. Dar interesul clienților pe care Decagon l-a primit de la început ne-a făcut să realizăm devreme că multe dintre aceste probleme sunt mult mai complicate decât se așteaptă oamenii.

Cred că acest fenomen se întâmplă în toate industriile, fie că este vorba de servicii pentru clienți sau de automatizare profesională în anumite verticale. Cred că unul dintre punctele subestimate este, așa cum a menționat Jesse mai devreme, posibilitatea de a măsura în mod clar rentabilitatea investiției (ROI) a sarcinilor de automatizare. Pentru că, dacă ai de gând să convingi pe cineva să accepte un agent AI, de fapt ia un anumit grad de „salt de credință”, deoarece este un teritoriu foarte necunoscut pentru mulți oameni.

Dacă puteți automatiza un proces foarte specific care este fie un proces evident de generare a veniturilor, fie un proces care anterior constituia un blocaj în afacere, sau un centru de cost major care crește liniar odată cu creșterea clienților sau cu creșterea veniturilor, atunci va fi mai ușor să obțineți acceptarea agentului AI. Abilitatea de a transforma astfel de probleme într-un proces mai productiv care poate fi scalat ca software-ul tradițional este foarte atractivă.

Kimberly Tan: Am o ultimă întrebare înainte să trecem mai departe. Îmi amintesc că Jesse, în discuțiile noastre anterioare, spunea mereu că cea mai mare provocare pentru companiile care adoptă software sau agenți AI ar fi halucinațiile. Dar mi-ai spus odată că aceasta nu este de fapt problema principală. Puteți detalia de ce percepția halucinațiilor este oarecum înșelătoare și de ce oamenii sunt de fapt mai preocupați?

Jesse Zhang: Cred că oamenilor le pasă de halucinații, dar sunt mai preocupați de valoarea pe care o pot oferi. Aproape toate companiile cu care lucrăm se concentrează pe aceleași câteva probleme, aproape exact aceleași: ce procent de conversații poți rezolva? Cât de mulțumiți sunt clienții mei? Apoi problema halucinațiilor poate fi clasificată ca o a treia categorie, și anume cât de precisă este. În general, primii doi factori sunt mai importanți la evaluare.

Să presupunem că vorbești cu o nouă afacere și ai făcut o treabă foarte bună cu privire la primii doi factori și ai primit mult sprijin din partea conducerii și a tuturor celor din echipă. Ei spun: „Doamne, experiența clienților noștri este diferită. Fiecare client are acum propriul asistent personal care ne poate contacta oricând. Le-am dat răspunsuri grozave, sunt foarte mulțumiți și este multilingv și disponibil 24/7.” Aceasta este doar o parte din asta și, de asemenea, ai economisit o mulțime de bani.

Așa că, odată ce atingeți aceste obiective, obțineți mult sprijin și multe vânturi din coadă pentru a conduce munca. Desigur, problema iluziei trebuie rezolvată în cele din urmă, dar nu este lucrul care îi preocupă cel mai mult. Modul de a rezolva iluzia este același mod pe care l-am menționat mai înainte – oamenii te vor testa. Poate exista o fază de demonstrare a conceptului în care de fapt conduci conversații reale și au membrii echipei care monitorizează și verifică acuratețea. Dacă asta merge bine, atunci de obicei trece.

De asemenea, așa cum am menționat mai devreme, puteți stabili unele măsuri stricte de protecție pentru informațiile sensibile, cum ar fi nu trebuie neapărat să faceți generic conținutul sensibil. Deci problema iluziei este un punct de discuție în majoritatea tranzacțiilor. Nu este un subiect lipsit de importanță. Veți trece prin acest proces, dar nu este niciodată punctul central al conversației.

Kimberly Tan: Acum să trecem la modelul de afaceri al AI Agent. Astăzi, există un subiect mare despre cum să stabiliți prețul acestor agenți AI.

Din punct de vedere istoric, multe software-uri SaaS au prețuri în funcție de numărul de locuri, deoarece sunt software de flux de lucru care vizează angajații individuali și sunt utilizate pentru a îmbunătăți productivitatea angajaților. Cu toate acestea, AI Agent nu este legat de productivitatea angajaților individuali, cum ar fi software-ul tradițional.

Atât de mulți oameni cred că metoda de stabilire a prețurilor bazată pe numărul de locuri s-ar putea să nu mai fie aplicabilă. Sunt curios de Cum te-ai gândit la această dilemă în primele zile și la modul în care te-ai hotărât în cele din urmă să dai prețul lui Decagon. De asemenea, care credeți că va fi tendința viitoare a prețurilor software-ului, pe măsură ce AI Agent devine din ce în ce mai comun?

Jesse Zhang: Părerea noastră cu privire la această problemă este că, în trecut, software-ul avea prețul pe loc, deoarece scara sa se baza aproximativ pe numărul de persoane care puteau folosi software-ul. Dar pentru majoritatea agenților AI, valoarea pe care o oferiți nu depinde de numărul de oameni care o întrețin, ci mai degrabă de cantitatea de muncă produsă. Acest lucru este în concordanță cu punctul pe care l-am menționat mai devreme: dacă rentabilitatea investiției (ROI) este foarte măsurabilă, atunci și nivelul producției de muncă este foarte clar.

Părerea noastră este că prețurile în funcție de numărul de locuri cu siguranță nu se aplică. Puteți stabili prețul în funcție de rezultatul lucrării. Deci, modelul de preț pe care îl oferiți ar trebui să fie că, cu cât se lucrează mai mult, cu atât plătiți mai mult.

Pentru noi, există două moduri evidente de a stabili prețul. Puteți fie prețul conversațiilor, fie puteți stabili prețul conversațiilor pe care AI le rezolvă de fapt. Cred că una dintre lecțiile interesante pe care le-am învățat este că majoritatea oamenilor au ales modelul de preț al conversației. Motivul este că principalul avantaj al stabilirii prețurilor prin soluție este că plătești pentru ce a AI face.

Dar întrebarea care urmează este, ce este considerat o „soluție”? În primul rând, nimeni nu vrea să intre în acest lucru în profunzime, pentru că devine: „Dacă vine cineva supărat și tu îl trimiți, de ce ar trebui să plătim pentru asta?”

Acest lucru creează o situație incomodă și, de asemenea, face ca stimulentele pentru furnizorii de inteligență artificială să fie puțin ciudate, deoarece facturarea prin soluție înseamnă: „Trebuie doar să rezolvăm cât mai multe conversații și să alungăm unii oameni.” Dar există multe cazuri în care este mai bine să escaladați problema decât să o respingeți, iar clienților nu le place acest tip de manipulare. Prin urmare, facturarea prin conversație va aduce mai multă simplitate și predictibilitate.

Kimberly Tan: Cât timp crezi că va dura viitorul model de prețuri?Pentru că acum, când menționați rentabilitatea investiției, aceasta se bazează de obicei pe cheltuielile anterioare care ar fi putut fi folosite pentru a acoperi costurile cu forța de muncă. Pe măsură ce agenții AI devin din ce în ce mai des întâlniți, credeți că, pe termen lung, IA va fi comparată cu costurile forței de muncă și că acesta este un etalon adecvat? Dacă nu, cum vedeți prețurile pe termen lung dincolo de costurile forței de muncă?

Jesse Zhang: Cred că, pe termen lung, prețurile agenților AI pot fi încă legate în principal de costurile forței de muncă, deoarece aceasta este frumusețea Agentului – cheltuielile tale anterioare pentru servicii pot fi acum transferate către software.

Această parte a cheltuielilor ar putea fi de 10 până la 100 de ori mai mare decât cea a cheltuielilor cu software-ul, așa că o mare parte a costurilor se va transfera către software. Prin urmare, costurile cu forța de muncă vor deveni în mod firesc un reper. Pentru clienții noștri, rentabilitatea investiției este foarte clară. Dacă puteți economisi X milioane în costuri cu forța de muncă, atunci este logic să adoptați această soluție. Dar pe termen lung, acest lucru poate fi la mijloc.

Pentru că chiar și unele produse care nu sunt la fel de bune ca agentul nostru vor accepta prețuri mai mici. Aceasta este ca situația SaaS clasică, în care toată lumea concurează pentru cota de piață.

Kimberly Tan: Ce crezi că le rezervă viitorul companiilor actuale SaaS, în special celor ale căror produse ar putea să nu fi fost construite pentru AI în mod nativ sau care au un preț pe loc și, prin urmare, nu se pot adapta la un model de prețuri orientat spre rezultate?

Jesse Zhang: Pentru unele companii tradiționale, este într-adevăr puțin complicat dacă încearcă să lanseze un produs AI Agent, deoarece nu-l pot prețui folosind un model de scaun. Dacă nu mai aveți nevoie de atât de mulți agenți, este dificil să mențineți veniturile cu produsul existent. Aceasta este o problemă pentru companiile tradiționale, dar este greu de spus. Companiile tradiționale au întotdeauna avantajul canalelor de distribuție. Chiar dacă produsul nu este la fel de bun ca noua companie, oamenii sunt reticenți în a face efortul de a accepta un nou furnizor cu doar 80% de calitate.

Deci, în primul rând, dacă sunteți un startup ca noi, trebuie să vă asigurați că produsul dvs. este de trei ori mai bun decât produsul tradițional. În al doilea rând, aceasta este o competiție tipică între companiile tradiționale și startup-uri. Companiile tradiționale au în mod natural o toleranță la risc mai mică, deoarece au un număr mare de clienți. Dacă fac o greșeală în repetare rapidă, aceasta va provoca pierderi uriașe. Cu toate acestea, startup-urile pot itera mai repede, astfel încât procesul de iterare în sine poate duce la un produs mai bun. Acesta este ciclul obișnuit. Pentru noi, am fost întotdeauna mândri de viteza noastră de livrare, de calitatea produsului și de execuția echipei noastre. Acesta este motivul pentru care am câștigat acordul actual.

Kimberly Tan: Puteți face câteva predicții despre viitorul AI la locul de muncă? De exemplu, cum va schimba nevoile sau capacitățile angajaților sau modul în care angajații umani și agenții AI interacționează?Ce noi bune practici sau norme credeți că vor deveni norma la locul de muncă pe măsură ce agenții AI devin mai răspândiți?

Jesse Zhang: Prima și cea mai importantă schimbare este că suntem convinși că, în viitor, angajații vor petrece mult mai mult timp la locul de muncă construind și gestionând agenți AI, similar rolului de supraveghetori AI. Chiar dacă poziția ta nu este oficial un „supervizor AI”, o mare parte din timpul pe care obișnuiai să-ți petreci munca ta va fi transferat către gestionarea acestor agenți, deoarece agenții îți pot oferi o mare pârghie.

Am văzut acest lucru în multe implementări în care oamenii care au fost odată lideri de echipă acum petrec mult timp monitorând AI, de exemplu, pentru a ne asigura că nu are probleme sau pentru a face ajustări. Ei monitorizează performanța generală pentru a vedea dacă există domenii specifice care necesită atenție, dacă există lacune în baza de cunoștințe care ar putea ajuta IA să devină mai bună și dacă AI poate umple acele lacune.

Munca care vine odată cu lucrul cu un agent dă impresia că, în viitor, angajații vor petrece o perioadă semnificativă de timp interacționând cu agenții AI. Acesta este un concept de bază al companiei noastre, așa cum am menționat mai devreme. Prin urmare, întregul nostru produs este construit pentru a oferi oamenilor instrumente, vizualizare, interpretabilitate și control. Cred că într-un an, aceasta va deveni o tendință uriașă.

Kimberly Tan: Asta are foarte mult sens. De ce capacități credeți că vor avea nevoie în viitor supraveghetorii AI? Care este setul de aptitudini pentru acest rol?

Jesse Zhang: Există două aspecte. Una este observabilitatea și interpretabilitatea, capacitatea de a înțelege rapid ce face AI și cum ia decizii. Celălalt este capacitatea de a lua decizii, sau partea de construcție, cum să oferi feedback și cum să construiești o nouă logică. Cred că acestea două sunt două fețe ale aceleiași monede.

Kimberly Tan: Ce sarcini crezi că vor rămâne dincolo de capacitățile agentului AI pe termen mediu sau lung și vor trebui în continuare gestionate și îndeplinite corect de oameni?

Jesse Zhang: Cred că va depinde în principal de cerința de „perfecțiune” pe care am menționat-o mai devreme. Există multe sarcini care au o toleranță foarte scăzută la erori. În aceste cazuri, orice instrument AI este mai mult un ajutor decât un agent cu drepturi depline.

De exemplu, în unele industrii mai sensibile, cum ar fi asistența medicală sau securitatea, unde trebuie să fii aproape perfect, atunci în aceste domenii, agenții AI pot deveni mai puțin autonomi, dar asta nu înseamnă că sunt inutili. Cred că stilul va fi diferit, într-o platformă ca a noastră, de fapt implementați acești agenți pentru a le permite să automatizeze întreaga lucrare.

Derrick Harris: Și asta e tot pentru acest episod. Dacă ați găsit acest subiect interesant sau inspirator, vă rugăm să evaluați podcast-ul nostru și să îl distribuiți mai multor persoane.Ne așteptăm să lansăm episodul final înainte de sfârșitul anului și vom modifica conținutul pentru noul an. Vă mulțumim pentru ascultare și aveți un sezon minunat de sărbători (dacă ascultați în perioada sărbătorilor).

Videoclipul original: Agenții Al pot repara în sfârșit asistența pentru clienți?

Posturi similare

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *