Poudarki
- Čarobnost LLM je v tem, da so zelo prilagodljivi, se lahko prilagodijo številnim različnim situacijam in imajo osnovno inteligenco.
- Verjamemo, da bosta UI in UX sčasoma vse bolj temeljila na naravnem jeziku, ker je to način razmišljanja agentskega sistema oziroma je to v bistvu osnova usposabljanja za velike jezikovne modele (LLM).
- Če želite, da nekdo sprejme agenta za umetno inteligenco, dejansko sprejme določeno stopnjo "skoka vere", ker je za mnoge ljudi to zelo neznano področje.
AI Agent preoblikuje uporabniško izkušnjo
Jesse Zhang: Kako je agent pravzaprav zgrajen? Naše mnenje je, da bo sčasoma vse bolj podoben agentu, ki temelji na naravnem jeziku, ker se tako usposabljajo veliki jezikovni modeli (LLM).
Dolgoročno gledano, če imate super inteligentnega agenta, ki je dejansko kot človek, mu lahko pokažete stvari, mu razložite, mu daste povratne informacije in posodobil bo informacije v svojih mislih.
Lahko si predstavljate, da imate zelo sposobnega člana človeške ekipe. Ko se prvič pridružijo, jih nekaj naučiš, začnejo delati, nato pa jim daš povratno informacijo in jim pokažeš nove informacije.
Sčasoma se bo razvijal v tej smeri – postal bo bolj pogovoren in bolj temeljil na naravnem jeziku, način medsebojnega komuniciranja pa bo bolj naraven. In ljudje ne bodo več uporabljali teh zapletenih odločitvenih dreves za zajemanje zahtev, ki lahko delujejo, a so nagnjena k propadu.
V preteklosti smo to morali storiti, ker nismo imeli velikega jezikovnega modela. Zdaj pa bosta z nenehnim napredkom Agenta uporabniška izkušnja (UX) in uporabniški vmesnik (UI) postala bolj pogovorna.
Derrick Harris: Pozdravljeni vsi, dobrodošli v podkastu A16z AI. Sem Derrick Harris, danes pa se mi bosta pridružila Jesse Zhang, soustanovitelj in izvršni direktor Decagona, in Kimberly Tan, partnerica pri a16z. Kimberly bo vodila razpravo, Jesse pa bo delil svoje izkušnje pri gradnji Decagona in njegovih izdelkov.
Če o tem ne veste veliko, je Decagon startup, ki podjetjem zagotavlja agente AI za pomoč pri podpori strankam. Ti agenti niso niti klepetalni roboti niti LLM ovoji za en klic API-ja, ampak zelo prilagojeni napredni agenti, ki lahko upravljajo zapletene poteke dela na podlagi posebnih potreb podjetja.
Poleg razlage, zakaj so ustvarili Decagon in kako je zasnovan za obvladovanje različnih okolij LLM in strank, Jesse govori tudi o prednostih poslovnega modela, ki zaračunava na pogovor, in o tem, kako bodo agenti AI spremenili veščine, ki se zahtevajo od vodij podpore strankam.
Prav tako je treba omeniti, da je Kimberly nedavno napisala objavo v spletnem dnevniku z naslovom »RIP v RPA, Vzpon inteligentne avtomatizacije«, o kateri bomo na kratko razpravljali v tej epizodi.
Je odlično izhodišče za razumevanje, kako se avtomatizacija razvija v poslovnih procesih, in v opombah oddaje bomo zagotovili povezavo. In končno, kot opomnik, vsebina tega članka je zgolj informativne narave in se ne sme obravnavati kot pravni, poslovni, davčni ali naložbeni nasvet, niti se ne sme uporabljati za ocenjevanje katere koli naložbe ali varnosti in ni namenjen nobenemu vlagatelju v sklad a16z ali potencialnemu vlagatelju.
Jesse Zhang: Kratka predstavitev sebe. Rodil sem se in odraščal v Boulderju in kot otrok sem sodeloval na številnih matematičnih tekmovanjih in podobno. Študiral sem računalništvo na Harvardu in nato ustanovil podjetje, ki ga je prav tako podpiral a16z. Na koncu nas je kupil Niantic.
Nato smo začeli graditi Decagon. Naše podjetje gradi agente AI za storitve strankam. Na začetku smo to počeli, ker smo želeli delati nekaj, kar nam je zelo pri srcu.
Seveda nikogar ni treba poučiti o vlogi agentov AI v storitvah za stranke, kajne? Vsi smo že telefonirali z letalskimi družbami, hoteli itd. in čakali na čakanju. Torej je ideja prišla od tam.
Pogovarjali smo se z veliko strankami, da bi natančno ugotovili, kakšen izdelek bi morali izdelati. Ena stvar, ki je za nas izstopala, je bila, da smo, ko smo izvedeli več o agentih AI, začeli razmišljati o tem, kakšna bi bila prihodnost, ko bi jih bilo veliko. Mislim, da vsi verjamejo, da bo v prihodnosti veliko agentov AI.
Razmišljamo o tem, kaj bodo delali zaposleni, ki delajo okoli agentov AI? Kakšna orodja bodo imeli? Kako bodo nadzorovali ali si ogledali agente, s katerimi delajo ali jih upravljajo?
To je torej bistvo tega, kako smo zgradili podjetje okoli tega vprašanja. Mislim, da je to tudi tisto, kar nas zdaj razlikuje od drugih, saj tem agentom AI nudimo različna orodja, ki pomagajo ljudem, s katerimi delamo, zgraditi in konfigurirati te agente, tako da niso več »črna skrinjica«. Tako gradimo svojo blagovno znamko.
Derrick Harris: Kaj vas je navdihnilo, ker je bilo vaše zadnje podjetje video podjetje, obrnjeno k uporabnikom, da ste se preselili v poslovno programsko opremo?
Jesse Zhang: Odlično vprašanje. Mislim, da so ustanovitelji pri izbiri teme pogosto »tematski agnostiki«, ker si v resnici, ko pristopiš k novemu področju, običajno precej naiven. Torej obstaja prednost, če na stvari pogledamo s sveže perspektive. Torej, ko smo razmišljali o tem, omejitev glede tem skoraj ni bilo.
Mislim, da je to zelo pogost vzorec za ljudi z bolj kvantitativnimi ozadji, vključno z mano. Ko preizkusite potrošniške izdelke, se bolj nagibate k poslovni programski opremi, ker ima poslovna programska oprema konkretnejše težave.
Imate dejanske stranke z dejanskimi potrebami in proračuni in podobnimi stvarmi, za katere lahko optimizirate in rešite težave. Tudi potrošniški trg je zelo privlačen, vendar bolj temelji na intuiciji kot na eksperimentiranju. Zame osebno je programska oprema za podjetja boljša.
Kimberly Tan: Najprej lahko začnemo s tem vprašanjem: Katere so najpogostejše kategorije podpore, s katerimi se Decagon danes ukvarja? Ali lahko podrobneje opišete, kako uporabljate velike jezikovne modele (LLM) za reševanje teh težav in kaj lahko zdaj storite, česar prej niste mogli?
Jesse Zhang: Če pogledate nazaj na prejšnjo avtomatizacijo, ste morda uporabili odločitvena drevesa, da naredite nekaj preprostega, da določite, katero pot izbrati. Toda vsi smo že uporabljali klepetalne robote in to je precej frustrirajoča izkušnja.
Na vaše vprašanje pogosto ni mogoče v celoti odgovoriti z odločitvenim drevesom. Tako ste na koncu usmerjeni po poti vprašanj, ki je povezana z vprašanjem, vendar se z njim ne ujema povsem. Zdaj imamo velike jezikovne modele (LLM). Čarobnost LLM je v tem, da so zelo prilagodljivi, se lahko prilagodijo številnim različnim situacijam in imajo osnovno inteligenco.
Ko to uporabite za podporo strankam ali ko stranka postavi vprašanje, lahko zagotovite bolj prilagojeno storitev. To je prva točka, raven personalizacije se je močno izboljšala. To odklene višje meritve. Rešite lahko več težav, stranke so bolj zadovoljne in zadovoljstvo strank se poveča.
Naslednji naravni korak je: če imate to inteligenco, bi morali biti sposobni narediti več stvari, ki jih zmorejo ljudje. Stvari, ki jih ljudje lahko počnejo, so, da lahko črpajo podatke v realnem času, lahko ukrepajo in lahko razmišljajo skozi več korakov. Če stranka postavi razmeroma zapleteno vprašanje, morda "Želim narediti to in to," in je AI pripravljen obravnavati le prvo vprašanje. LLM je dovolj pameten, da prepozna, da sta tukaj dve vprašanji. Najprej bo rešil prvi problem, nato pa vam bo pomagal rešiti drugi problem.
Preden se je pojavil LLM, je bilo to v bistvu nemogoče. Tako smo zdaj priča koraku spremembe v tem, kaj je tehnologija sposobna narediti, in to zahvaljujoč LLM.
Kimberly Tan: Kako bi v tem kontekstu definirali agenta za umetno inteligenco? Ker se beseda "agent" pogosto uporablja, me zanima, kaj dejansko pomeni v kontekstu Decagona.
Jesse Zhang: Rekel bi, da se agent bolj nanaša na sistem, kjer več sistemov LLM (model velikega jezika) deluje skupaj. Imate priklic LLM, ki v bistvu vključuje pošiljanje poziva in prejemanje odgovora. Za agenta želite imeti možnost povezovanja več takšnih klicev, morda celo rekurzivno.
Na primer, imate klic LLM, ki določa, kako ravnati s sporočilom, nato pa lahko sproži druge klice, ki potegnejo več podatkov, izvedejo dejanja in ponavljajo, kar je rekel uporabnik, morda celo postavljajo dodatna vprašanja. Tako lahko za nas agenta razumemo kot mrežo klicev skoraj LLM, klicev API ali druge logike, ki skupaj zagotavljajo boljšo izkušnjo.
Kimberly Tan: V zvezi s to temo bi morda lahko več govorili o agentski infrastrukturi, ki ste jo dejansko zgradili. Mislim, da je ena zelo zanimiva točka ta, da je na trgu veliko predstavitev agentov AI, vendar menim, da je zelo malo primerov, ki lahko dejansko delujejo stabilno v produkcijskem okolju. In navzven je težko vedeti, kaj je resnično in kaj ne.
Torej, po vašem mnenju, kateri vidiki današnjih agentov AI delujejo dobro in kateri vidiki še vedno zahtevajo tehnološke preboje, da bodo bolj robustni in zanesljivi?
Jesse Zhang: Moj pogled je pravzaprav malo drugačen. Razlika med ugotavljanjem, ali je AI Agent samo demo ali »res delujoč«, ni v celoti v tehnološkem nizu, ker mislim, da večina ljudi morda uporablja približno isto tehnologijo. Mislim, da ko boste šli dlje v razvoju svojega podjetja, na primer naše podjetje je bilo ustanovljeno več kot eno leto, boste ustvarili nekaj zelo specifičnega, kar bo ustrezalo vašemu primeru uporabe.
Toda v končni analizi lahko vsi dostopajo do istega modela in uporabljajo podobno tehnologijo. Mislim, da je največja razlika v tem, ali lahko agent AI deluje učinkovito, dejansko v obliki primera uporabe. Na začetku je to težko vedeti, a če pogledamo nazaj, boste ugotovili, da sta dva atributa zelo pomembna za agenta AI, da preseže demonstracijo in vstopi v praktično uporabo.
Prvi je, da mora primer uporabe, ki ga rešite, imeti merljivo ROI (donosnost naložbe). To je zelo pomembno, kajti če donosnosti naložbe ni mogoče kvantificirati, bo ljudi težko prepričati, da vaš izdelek dejansko uporabljajo in zanj plačajo. V našem primeru je kvantitativni indikator: kolikšen odstotek zahtevkov za podporo rešite? Ker je ta številka jasna, jo ljudje lahko razumejo – oh, v redu, če razrešite več, lahko ta rezultat primerjam s svojimi trenutnimi stroški in porabljenim časom. Torej, če obstaja ta indikator, je še en indikator, ki je za nas zelo pomemben, zadovoljstvo strank. Ker je donosnost naložbe mogoče enostavno kvantificirati, jo bodo ljudje res sprejeli.
Drugi dejavnik je, da morajo biti primeri uporabe postopoma težji. Prav tako bi bilo zelo težko, če bi od začetka potrebovali agenta, ki bi bil nadčlovek in bi rešil skoraj 100% primerov uporabe. Ker kot vemo, so LLM-ji nedeterministični, morate imeti nekakšen načrt ukrepov ob nepredvidljivih dogodkih. Na srečo obstaja odlična značilnost primerov uporabe podpore, in to je, da lahko vedno stopnjujete na človeka. Tudi če lahko rešite samo polovico težav, je to za ljudi še vedno zelo dragoceno.
Zato menim, da ima ta podpora to lastnost, zaradi katere je zelo primerna za agenta AI. Mislim, da obstaja veliko drugih področij, kjer lahko ljudje ustvarijo impresivne predstavitve, kjer vam ni treba niti natančno pogledati, da bi razumeli, zakaj bi bil agent AI Agent uporaben. A če mora biti popolno že od začetka, potem je zelo težko. V tem primeru ga skoraj nihče ne bo želel preizkusiti ali uporabiti, saj so lahko posledice njegove nepopolnosti zelo resne – na primer glede varnosti.
Na primer, ko ljudje delajo simulacije, imajo vedno to klasično misel: "Oh, super bi bilo, če bi LLM lahko to prebral." Toda težko si je predstavljati, da bi nekdo rekel: »V redu, agent AI, izvoli. Verjamem, da zmoreš.” Kajti če se zmoti, so lahko posledice zelo resne.
Jesse Zhang: Za to se običajno odločijo naše stranke in dejansko vidimo zelo širok razpon razlik. V eni skrajnosti nekateri ljudje resnično naredijo svojega agenta videti kot človek, zato obstaja človeški avatar, človeško ime in odzivi so zelo naravni. Po drugi strani pa agent preprosto izjavi, da gre za AI in to uporabniku jasno pove. Mislim, da imajo različna podjetja, s katerimi sodelujemo, različna stališča glede tega.
Običajno, če ste v regulirani industriji, morate to jasno povedati. Zdaj se mi zdi zanimivo, da se vedenje strank spreminja. Ker veliko naših strank prejema veliko povratnih informacij o družbenih omrežjih, na primer: "O, moj bog, to je prva izkušnja klepeta, ki sem jo kadar koli poskusil, ki se dejansko zdi tako resnična," ali "To je preprosto čarobno." In to je za njih super, ker se zdaj njihove stranke učijo, hej, če gre za izkušnjo z umetno inteligenco, je dejansko lahko boljša od človeške. Temu v preteklosti ni bilo tako, saj je večina od nas že imela takšno izkušnjo telefonske službe za stranke: "V redu, AI, AI, AI ..."
Kimberly Tan: Nekajkrat ste omenili koncept personalizacije. Vsi uporabljajo isto osnovno tehnološko arhitekturo, vendar imajo različne potrebe po personalizaciji v smislu podpornih storitev. Lahko govoriš o tem? Natančneje, kako dosežete personalizacijo, da lahko ljudje na spletu rečejo: »Moj bog, to je najboljša izkušnja s podporo, kar sem jih kdaj imel«?
Jesse Zhang: za nas, personalizacija izhaja iz prilagajanja uporabniku. Razumeti morate informacije o ozadju uporabnika, kar je potreben dodatni kontekst. Drugič, razumeti morate tudi poslovno logiko naših strank.Če združite oboje, lahko zagotovite precej dobro izkušnjo.
Očitno se to sliši preprosto, vendar je v resnici zelo težko pridobiti ves zahtevani kontekst. Zato je večina našega dela namenjena temu, kako zgraditi prave primitivne komponente, tako da se lahko stranka, ko uvede naš sistem, zlahka odloči: "V redu, to je poslovna logika, ki jo želimo." Na primer, najprej morate narediti te štiri korake in če tretji korak ne uspe, morate iti na peti korak.
Želite, da bi lahko umetno inteligenco tega zelo enostavno naučili, vendar ji tudi omogočite dostop do informacij, kot je: »To so podrobnosti o uporabnikovem računu. Če potrebujete več informacij, lahko pokličete te API-je.« Ti sloji so koordinacijski sloj na vrhu modela in na nek način naredijo agenta res uporabnega.
Kimberly Tan: Zdi se, da v tem primeru potrebujete veliko dostopa do poslovnih sistemov. O uporabnikih morate vedeti veliko in verjetno morate vedeti, kako stranka dejansko želi komunicirati s svojimi uporabniki.Predstavljam si, da so ti podatki lahko zelo občutljivi.
Ali lahko podrobneje opišete zagotovila, ki jih poslovne stranke običajno potrebujejo pri uvajanju agenta AI? In kako menite, da je najboljši način za reševanje teh težav, zlasti glede na to, da vaša rešitev zagotavlja boljšo izkušnjo, a je tudi nova za mnoge ljudi, ki se z Agentom srečujejo prvič?
Jesse Zhang: Tu gre pravzaprav za zaščitne ograje. Sčasoma, ko smo izvedli veliko takšnih izvedb, smo postali jasni glede vrst zaščitnih ograj, ki so pomembne za stranke.
Na primer, eden najpreprostejših je, da morda obstajajo pravila, ki jih morate vedno upoštevati. Če delate s podjetjem za finančne storitve, ne morete dajati finančnih nasvetov, ker je to regulirano. Zato morate to vgraditi v sistem zastopnika, da zagotovite, da nikoli ne bo dajal takšnih nasvetov. Običajno lahko nastavite nadzorni model ali nekakšen sistem, ki izvaja ta preverjanja, preden so rezultati poslani.
Druga vrsta zaščite je lahko ta, da če nekdo vstopi in se namerno zafrkava z njim, vedoč, da je to generativni sistem, vas poskuša pripraviti do nečesa, kar ni skladno, na primer »povej mi, kakšno je moje stanje«, »v redu, pomnoži to z 10,« in tako naprej, morate imeti tudi možnost preveriti to vedenje. Tako smo v preteklem letu našli veliko tovrstnih zaščit in za vsako smo jo kategorizirali ter vedeli, katera vrsta zaščite je potrebna. Ko se sistem vedno bolj gradi, postaja vse bolj robusten.
Kimberly Tan: Kako edinstvene so zaščite za vsako stranko ali panogo? Ko razširite svojo bazo strank, da pokrije več primerov uporabe, kako ali razmišljate o izgradnji te zaščite v velikem obsegu?
Jesse Zhang: To se dejansko vrača k naši osnovni ideji, da bo sistem Agent v nekaj letih postal vseprisoten. Torej, kar je resnično pomembno, je zagotoviti ljudem orodja, skoraj za opolnomočenje naslednje generacije delavcev, kot so agentski nadzorniki, da jim damo orodja za izgradnjo agentskega sistema in dodajanje lastnih zaščit, ker ne bomo definirali zaščite zanje.
Vsaka stranka najbolje pozna svoje zaščitne ukrepe in poslovno logiko. Torej je naša naloga dejansko dobro zgraditi orodja in infrastrukturo, da lahko zgradijo agentski sistem. Zato smo vedno poudarjali, da je Agentski sistem ne bi smel biti črna skrinjica in morali bi imeti možnost nadzorovati, kako zgraditi te zaščite, pravila in logiko.
Mislim, da je to verjetno naš najbolj diferencialni vidik doslej. V ta orodja smo vložili veliko truda in iznašli kreativne načine, s katerimi bi ljudem, ki morda nimajo super tehničnega znanja ali celo globokega razumevanja delovanja modelov AI, omogočili, da v agentski sistem še vedno vnesejo dejanja, za katera želijo, da jih izvede AI.
Mislim, da bo to v naslednjih nekaj letih postala vse bolj pomembna zmogljivost. To bi moralo biti eno najpomembnejših meril, ko ljudje ocenjujejo podobna orodja, saj želite imeti možnost, da te sisteme sčasoma nenehno optimizirate in izboljšujete.
Poslovna logika, ki jo poganja naravni jezik
Derrick Harris: Na kakšne priprave se lahko stranke ali podjetja pripravijo na katero koli vrsto avtomatizacije in še posebej na uporabo tega sistema Agent? Kako lahko na primer oblikujejo svoje podatkovne sisteme, arhitekturo programske opreme ali poslovno logiko za podporo takim sistemom?
Ker menim, da je veliko tehnologij umetne inteligence sprva novih, ko pa gre za obstoječe podedovane sisteme, pogosto naleti na veliko kaosa.
Jesse Zhang: Če nekdo zdaj gradi iz nič, obstaja veliko najboljših praks, ki vam lahko olajšajo delo. Na primer, kako strukturirati svojo bazo znanja. Pisali smo o nekaterih od teh in predstavili nekaj metod, ki lahko AI olajšajo vnos informacij in izboljšajo njihovo natančnost. Poseben predlog je razdelitev baze znanja na modularne dele, namesto da bi imeli en velik članek z več odgovori.
Ko nastavljate API, jih lahko naredite bolj primerne za agentski sistem ter nastavite dovoljenja in izhod na način, ki agentskemu sistemu olajša zaužitje informacij, ne da bi morali opraviti veliko izračunov, da bi našli odgovor. To so nekateri taktični ukrepi, ki jih je mogoče sprejeti, vendar ne bi rekel, da je treba storiti karkoli, da bi lahko uporabljali sistem Agent.
Derrick Harris: Dobra dokumentacija je vedno pomembna, v bistvu gre za učinkovito organiziranje informacij.
Kimberly Tan: Zdi se, kot da če poskušate ljudi naučiti, kako usmerjati sistem Agent, da deluje na način, ki najbolj ustreza njihovim strankam ali posebnim primerom uporabe, bo morda potrebno veliko eksperimentiranja z zasnovo uporabniškega vmesnika in UX ali pa boste morali utreti nove poti na tem popolnoma novem področju, ker se zelo razlikuje od tradicionalne programske opreme.
Zanima me, kako se vam zdi to? Kako naj bi izgledala uporabniški vmesnik in UX v svetu, ki je prvi agent? Kaj mislite, kako se bo spremenilo v naslednjih nekaj letih?
Jesse Zhang: Ne bi rekel, da smo rešili ta problem. Mislim, da smo morda našli lokalni optimum, ki deluje za naše trenutne stranke, vendar je to še vedno področje raziskovanja za nas in mnoge druge.
Bistvena težava se vrača k temu, kar smo omenili prej, to je, da imate agentski sistem. Prvič, kako lahko jasno vidite, kaj počne in kako sprejema odločitve? Kako lahko potem uporabite te informacije, da se odločite, kaj je treba posodobiti in kakšne povratne informacije je treba dati AI? Tu se združijo elementi uporabniškega vmesnika, zlasti drugi del.
Menimo, da bosta UI in UX sčasoma vse bolj temeljila na naravnem jeziku, ker tako razmišlja sistem Agent oziroma je to v bistvu osnova za usposabljanje velikih jezikovnih modelov (LLM).
V skrajnem primeru, če imate superinteligentnega agenta, ki v bistvu razmišlja kot človek, mu lahko stvari pokažete, razložite, mu daste povratne informacije in posodobil se bo v svojem lastnem »umu«. Lahko si predstavljate, da se vam v ekipo pridruži zelo sposoben človek, ga nekaj naučite, začne delati, potem pa mu dajate povratne informacije, lahko mu pokažete nove stvari, nove dokumente, diagrame itd.
Mislim, da se bo v skrajnem primeru razvilo v tej smeri: stvari postanejo bolj pogovorne, bolj temeljijo na naravnem jeziku in ljudje nehajo graditi sisteme s kompleksnimi odločitvenimi drevesi, kot so nekoč, ki zajemajo, kar želite, vendar se ta pristop zlahka pokvari. Včasih smo to morali storiti, ker takrat še ni bilo LLM-jev, zdaj pa, ko postajajo agentski sistemi vedno močnejši, bosta UI in UX postala bolj pogovorna.
Kimberly Tan: Pred približno letom in pol, ko se je Decagon prvič začel, je obstajalo splošno mnenje, da je LLM zelo uporaben za številne primere uporabe, toda v resnici je šlo samo za nekakšen »ovitek GPT«, kjer so lahko podjetja samo poklicala osnovni model prek API-ja in takoj rešila svoje težave s podporo.
Toda očitno se je izkazalo, da se podjetja odločijo za uporabo rešitev, kot je Decagon, namesto da bi šla neposredno po tej poti, da temu ni tako. Zanima me, če mi lahko pojasnite, zakaj je temu tako. Kaj natančno je povzročilo, da so bili izzivi notranje gradnje bolj zapleteni od pričakovanih? Kakšne napačne predstave so imeli o konceptu?
Jesse Zhang: Nič ni narobe, če ste »GPT ovoj«, lahko bi rekli, da je Purcell ovoj AWS ali kaj podobnega. Običajno ljudje, ko uporabljajo ta izraz, pomenijo nekaj slabšalnega.
Moje osebno mnenje je, da če gradite agentski sistem, boste po definiciji zagotovo uporabljali LLM kot orodje. Torej dejansko gradite na nečem, kar že obstaja, tako kot bi običajno gradili na AWS ali GCP.
Toda resnična težava, na katero lahko naletite, je, če programska oprema, ki jo zgradite na LLM, ni dovolj »težka« ali zapletena, da bi kaj spremenila.
Če pogledamo nazaj, je za nas to, kar prodajamo, v bistvu programska oprema. Pravzaprav smo kot običajno programsko podjetje, le da LLM uporabljamo kot del programske opreme in kot eno od orodij. Toda ko ljudje kupijo tovrstne izdelke, želijo predvsem samo programsko opremo. Želijo orodja, ki lahko spremljajo AI, ki se lahko poglobijo v podrobnosti vsakega pogovora, ki ga ima AI, ki lahko dajejo povratne informacije, ki lahko nenehno gradijo in prilagajajo sistem.
To je torej jedro naše programske opreme. Tudi s samim sistemom Agent je težava, ki jo imajo ljudje, ta, da je kul narediti predstavitev, toda če ga želite pripraviti za proizvodnjo in se resnično soočiti s strankami, morate rešiti veliko dolgotrajnih težav, kot je preprečevanje pojava »iluzije« in spopadanje s slabimi igralci, ki poskušajo povzročiti opustošenje. Paziti moramo tudi, da je latenca dovolj nizka, ton ustrezen ipd.
Pogovarjali smo se s številnimi ekipami in izvedli so nekaj poskusov, izdelali predhodno različico, potem pa so ugotovili: "Oh, res, nočemo biti mi tisti, ki v poznejših fazah gradimo te podrobnosti." Prav tako niso želeli biti tisti, ki nenehno dodajajo novo logiko ekipi za pomoč strankam. Zato se na tej točki zdi bolj primerno, da se odločimo za sodelovanje z drugimi.
Kimberly Tan: Omenili ste nekaj dolgoročnih vprašanj, kot je potreba po soočanju s slabimi igralci itd.Verjamem, da so številni poslušalci, ki razmišljajo o uporabi agenta AI, zaskrbljeni zaradi novih poti varnostnih napadov, ki se lahko pojavijo po uvedbi LLM-jev, ali novih varnostnih tveganj, ki se lahko pojavijo po uvedbi sistema agenta. Kaj menite o teh vprašanjih? In katere so najboljše prakse za zagotavljanje vrhunske varnosti podjetja pri delu z Agent?
Jesse Zhang: Kar zadeva varnost, je mogoče sprejeti nekatere očitne ukrepe, ki sem jih omenil prej, na primer potrebo po zaščitnih ukrepih. Bistvena težava je, da ljudi skrbi, da študiji LLM niso deterministični.
Toda dobra novica je, da lahko večino občutljivih in zapletenih operacij dejansko postavite za deterministično steno in da se izračun zgodi tam, ko pokliče API. Torej se ne zanašate povsem na LLM, da bi to rešili, in s tem se izognete številnim ključnim težavam.
Ampak še vedno obstajajo situacije, ko se na primer vmeša slab igralec ali nekdo poskuša halucinirati sistemu. Opazili smo, da bodo pri mnogih večjih strankah, s katerimi sodelujemo, njihove varnostne ekipe vstopile in v bistvu izvedle test »rdeče ekipe« na naših izdelkih, pri čemer bodo tedne neprekinjeno izvajale različne možne napade na sistem, da bi odkrile ranljivosti. Ker postaja AI Agent vse bolj priljubljen, se lahko to dogaja vse pogosteje, saj je to eden najboljših načinov za preverjanje, ali je sistem učinkovit. Gre za to, da mu nekaj vržeš skozi preizkus rdeče ekipe in vidiš, ali lahko prebije obrambo.
Obstajajo tudi zagonska podjetja, ki razvijajo orodja za rdeče ekipe ali ljudem omogočajo, da sami opravijo te vrste testov, kar je trend, ki ga trenutno opažamo. Veliko podjetij, s katerimi sodelujemo, bo v poznejši fazi prodajnega cikla imelo svojo varnostno ekipo ali pa bo sodelovalo z zunanjo ekipo, ki bo testirala sistem v izjemnih situacij. Za nas je sposobnost opraviti tovrstne teste nujna. Torej, končno, to je tisto, kar se zmanjša.
Derrick Harris: Je to nekaj, k čemur spodbujate svoje stranke? Ker ko govorimo o politikah AI, omenjamo pomemben vidik, ki je aplikacijski sloj, in poudarjamo, da the odgovornost na uporabnike LLM in ljudi, ki izvajajo aplikacijo, namesto da preprosto krivijo sam model. To pomeni, da bi morali kupci opraviti testiranje rdeče ekipe, prepoznati posebne primere uporabe in poti napadov ter določiti, katere ranljivosti je treba zaščititi, namesto da se preprosto zanašajo na varnostno zaščito, ki so jo že vzpostavili OpenAI ali druga podjetja.
Jesse Zhang: Se popolnoma strinjam. Prav tako menim, da se lahko pojavi nov val zahtev glede obveščanja, podobnih certifikatom SOC 2 in HIPAA, ki ju zdaj izvajajo vsi in ki se zahtevata v različnih panogah. Običajno, ko prodajate generični izdelek SaaS, bodo stranke zahtevale testiranje prodora, prav tako pa moramo zagotoviti poročilo o testiranju prodora. Za agenta umetne inteligence bodo morda v prihodnosti podobne zahteve in kdo bo to morda imenoval, vendar je to v bistvu nov način za preizkušanje, ali je sistem agenta dovolj zmogljiv.
Kimberly Tan: Ena stvar, ki je zanimiva, je, da so očitno vsi zelo navdušeni nad novimi preboji modelov in tehnološkimi preboji, ki jih uvajajo vsi veliki laboratoriji. Kot podjetje z umetno inteligenco očitno ne izvajate lastnih raziskav, ampak izkoristite te raziskave in okoli njih zgradite veliko programske opreme, ki jo zagotovite končnemu kupcu.
Toda vaše delo temelji na hitro spreminjajoči se tehnologiji. Zanima me, kako kot podjetje, ki se ukvarja z umetno inteligenco, sledite novim tehnološkim spremembam in razumete, kako vplivajo na podjetje, hkrati pa lahko predvidite lasten načrt izdelkov in oblikujete potrebe uporabnikov? Gledano širše, kakšne strategije bi morala podjetja z umetno inteligenco sprejeti v podobnih situacijah?
Jesse Zhang: Pravzaprav lahko celoten kup razdelite na različne dele. Na primer, LLM je na dnu, če pogledate aplikacijski sloj. Morda imate nekaj orodij na sredini, ki vam pomagajo pri upravljanju LLM ali pri ocenjevanju in podobnih stvareh. Nato je zgornji del v bistvu tisto, kar smo zgradili, kar je pravzaprav kot standardni SaaS.
Tako se večina našega dela dejansko ne razlikuje tako zelo od običajne programske opreme, le da imamo dodatno raziskovalno komponento – LLM se spreminja prehitro. Raziskati moramo, kaj zmorejo, v čem so dobri in kateri model je treba uporabiti za izvedbo določene naloge. To je velika težava, ker tako OpenAI kot Anthropic uvajata nove tehnologije, Gemini pa se postopoma izboljšuje.
zato imeti morate svoj mehanizem ocenjevanja, da razumete, kateri model je primeren za uporabo v kateri situaciji. Včasih je treba tudi natančno prilagoditi, a vprašanje je: kdaj natančno nastaviti? Kdaj se fina nastavitev splača? To so verjetno glavna raziskovalna vprašanja, povezana z LLM, na katera se osredotočamo. A vsaj zaenkrat nimamo občutka, da bi se SaaS hitro spreminjal, saj nismo odvisni od srednje plasti. V bistvu so LLM tisti, ki se spreminjajo. Ne spreminjajo se pogosto, in ko se, je to običajno nadgradnja. Na primer, sonet Claude 3.5 je bil posodobljen pred nekaj meseci in takrat smo pomislili: "V redu, ali naj preklopimo na nov model, namesto da še naprej uporabljamo starega?"
Izvesti moramo le vrsto ocen in ko preklopimo na nov model, o tem ne razmišljamo več, ker novi model že uporabljate. Potem je prišla različica o1 in situacija je bila podobna. Razmislite, kje ga lahko uporabite. V našem primeru je o1 nekoliko počasen za večino primerov uporabe, ki se soočajo s strankami, zato ga lahko uporabimo za nekaj dela v ozadju. Konec koncev moramo imeti le dober sistem za raziskovanje modelov.
Kimberly Tan: Kako pogosto ocenite nov model in se odločite, ali ga boste zamenjali?
Jesse Zhang: Ocenjujemo vsakič, ko pride nov model. Poskrbeti morate, da kljub temu, da je novi model pametnejši, ne pokvari nekaterih primerov uporabe, ki ste jih že ustvarili. To se lahko zgodi. Na primer, novi model je lahko na splošno pametnejši, vendar v nekaterih skrajnih primerih slabo deluje pri izbiri A/B v enem od vaših delovnih tokov. To je tisto, po čemer ocenjujemo.
Na splošno mislim, da je vrsta inteligence, ki nas najbolj zanima, tisto, čemur bi rekel »sposobnost sledenja navodilom«. Želimo, da bi bil model vedno boljši pri sledenju navodilom. Če je tako, potem je to vsekakor koristno za nas, in to je zelo dobro.
Zdi se, da so se nedavne raziskave bolj osredotočile na vrsto inteligence, ki vključuje sklepanje, kot so boljše programiranje in boljše matematične operacije. Tudi to nam pomaga, vendar ni tako pomembno kot izboljšanje zmožnosti sledenja navodilom.
Kimberly Tan: Ena zelo zanimiva točka, ki ste jo omenili, in mislim, da je tudi zelo edinstvena za Decagon, je, da ste zgradili veliko infrastrukture za ocenjevanje v podjetju, da zagotovite, da natančno veste, kako deluje vsak model v nizu testov, ki jih zagotovite.
Lahko to podrobneje opišete? Kako pomembna je ta interna infrastruktura za ocenjevanje in kako vam in vašim strankam daje zaupanje v uspešnost agenta? Ker so nekatere od teh ocen obrnjene tudi k strankam.
Jesse Zhang: Mislim, da je zelo pomembno, saj bi brez te ocenjevalne infrastrukture zelo težko hitro ponavljali.
Če menite, da ima vsaka sprememba veliko verjetnost, da nekaj pokvari, potem sprememb ne boste naredili hitro. Če pa imate ocenjevalni mehanizem, potem ko pride do večje spremembe, posodobitve modela ali pride nekaj novega, lahko to neposredno primerjate z vsemi ocenjevalnimi testi. Če so rezultati ocenjevanja dobri, se lahko počutite: v redu, naredili smo izboljšavo, ali pa jo lahko izdate z zaupanjem, ne da bi vas preveč skrbelo.
Torej, na našem področju, ocenjevanje zahteva prispevek stranke, saj je stranka tista, ki se odloči, ali je nekaj pravilno ali ne. Seveda lahko preverimo nekatere težave na visoki ravni, vendar običajno stranka zagotovi posebne primere uporabe in nam pove, kakšen je pravilen odgovor ali kakšen mora biti, kakšen ton mora ohraniti, kaj mora povedati.
Ocena temelji na tem. Zato moramo zagotoviti, da je naš sistem ocenjevanja dovolj robusten. Na začetku smo ga gradili sami in ga ni tako težko vzdrževati. Vemo tudi, da obstaja nekaj ocenjevalnih podjetij, in nekatere smo raziskali. Mogoče bomo kdaj razmislili, ali bi jih sprejeli, a zaenkrat nam sistem ocenjevanja ni več boleča točka.
Kimberly Tan: Danes je zelo priljubljena tema multimodalnost, kar pomeni, da bi morali biti agenti AI sposobni komunicirati v vseh oblikah, ki jih ljudje danes uporabljajo, pa naj gre za besedilo, video, glas itd. Vem, da se je Decagon začel kot besedilo. Z vašega vidika, kako pomembno je multimodalnost agentom AI? Kakšen je po vašem mnenju čas, da postane mainstream ali celo standard?
Jesse Zhang: Pomembno je in z vidika podjetja ni posebej težko dodati novo modalnost. Ni preprosto, a bistvo je: če rešite druge probleme, kot so tisti, ki sem jih omenil – na primer zgraditi AI, ga spremljati in imeti pravo logiko – potem dodajanje nove modalnosti ni najtežje. Zato je za nas zelo smiselno imeti vse modalitete in širi naš trg. V bistvu smo agnostiki glede modalnosti in za vsako modalnost zgradimo svojega agenta.
Na splošno obstajata dva omejujoča dejavnika: Prvič, ali je stranka pripravljena sprejeti novo modalnost? Zdi se mi zelo smiselno začeti z besedilom, saj ljudje tako najbolj aktivno sprejemajo in je zanje manj tvegano, lažje ga spremljajo in lažje razumejo. Druga velika modalnost je glas. Očitno mislim, da je na trgu še vedno prostor in da se mora uporabnikovo sprejemanje glasu še izboljšati. Trenutno opažamo nekaj zgodnjih uporabnikov, ki so začeli sprejemati glasovne agente, kar je zelo razburljivo. Drugi vidik so tehnični izzivi. Večina ljudi bi se strinjala, da je lestvica za glas postavljena višje. Če se z nekom pogovarjate po telefonu, potrebujete zelo kratko zakasnitev govora. Če nekoga prekinete, se mora odzvati naravno.
Ker je zakasnitev govora nižja, morate biti bolj pametni pri računanju. Če ste v klepetu in je odzivni čas pet do osem sekund, tega komaj opazite in zdi se zelo naravno. Če pa traja od pet do osem sekund, da odgovorite po telefonu, se zdi nekoliko nenaravno. Pri govoru je torej več tehničnih izzivov. Ko bodo ti tehnični izzivi rešeni in se bo zanimanje za prevzemanje govora na trgu povečalo, bo govor kot nova modalnost postal mainstream.
Poslovni model, ki preskoči zaupanje
Kimberly Tan: Preden nadaljujemo, bi rada povedala nekaj več o poslovnem modelu AI Agent. Ko prvič zgrajena AI Agent ali razpravljali s strankami o sistemu, ki ga uporabljajo, podatkih, ki jih obdelujejo, in njihovih pomislekih, ali vas je kaj presenetilo? Katere so nekatere neintuitivne ali presenetljive stvari, ki jih je moral narediti Decagon, da bi bolje služil poslovnim strankam?
Jesse Zhang: Mislim, da je bila najbolj presenetljiva stopnja, do katere so se ljudje pripravljeni pogovarjati z nami, ko smo začeli. Konec koncev sva bila samo dva. Oba sva že ustanavljala podjetja, zato sva poznala veliko ljudi, a kljub temu je za vsakega podjetnika, ko želiš začeti pogovor o priporočilu, če to, kar govoriš, ni posebej prepričljivo, pogovor običajno precej mlačen.
Toda ko smo začeli govoriti o tem primeru uporabe, se mi je zdelo precej presenetljivo, kako navdušeni so ljudje govorili o tem. Ker se ideja zdi tako očitna. Morda mislite, da ker je to tako očitna zamisel, jo je moral že narediti nekdo drug ali že mora obstajati rešitev ali pa se je nekdo drug že domislil neke vrste rešitve. Ampak mislim, da smo ujeli dober trenutek, ta primer uporabe je res velik in ljudem je res mar za to. Kot sem že omenil, je ta primer uporabe res zelo primeren za uporabo AI Agenta in njegovo potiskanje v proizvodnjo, saj ga lahko izvajate postopoma in lahko sledite donosnosti naložbe.
To je bilo zame prijetno presenečenje, a očitno je po tem še veliko dela, delati moraš s kupci, graditi moraš produkt, ugotoviti moraš, v katero smer iti. V začetni fazi je bilo res presenetljivo odkritje.
Derrick Harris: Kimberly, zdi se mi, da bi moral omeniti objavo v blogu, ki si jo napisala, RIP to RPA, ki se dotika veliko the avtomatizacijske naloge in zagoni.Ali menite, da obstaja pojav, pri katerem te avtomatizirane naloge ali rešitve niso tako idealne, zato ljudje vedno iščejo boljši način?
Kimberly Tan: Da, res mislim. Rad bi povedal nekaj stvari. Prvič, če je ideja očitna vsem, vendar ni jasnega podjetja, ki bi jo rešilo, ali nihče ne pokaže na podjetje in reče: "To bi morali uporabiti," potem to pomeni, da problem dejansko ni rešen.
V nekem smislu gre za popolnoma odprto priložnost, da podjetje razvije rešitev. Ker, kot ste rekli, Decagon kot investitor spremljamo že od začetka. Opazovali smo jih, kako krmarijo po ustvarjalnem labirintu, in ko so se odločili iti v to smer in se začeli pogovarjati s strankami, je postalo jasno, da si vse stranke močno želijo nekakšne izvorne rešitve, ki podpira AI. To je ena od težav, ki sem jo omenil prej, kjer mnogi mislijo, da gre le za ovoj GPT. Toda zaradi zanimanja strank, ki ga je bil Decagon deležen že od samega začetka, smo že zgodaj spoznali, da so mnoga od teh vprašanj veliko bolj zapletena, kot ljudje pričakujejo.
Mislim, da se ta pojav dogaja v panogah, ne glede na to, ali gre za storitve za stranke ali profesionalno avtomatizacijo v določenih vertikalah. Mislim, da je ena od podcenjenih točk, kot je prej omenil Jesse, možnost jasnega merjenja donosnosti naložbe (ROI) avtomatiziranih nalog. Kajti, če želite nekoga pripraviti do tega, da sprejme agenta AI, dejansko sprejme določeno stopnjo "preskoka vere", ker je to za veliko ljudi zelo neznano področje.
Če lahko avtomatizirate zelo specifičen proces, ki je očiten proces ustvarjanja prihodkov, ali proces, ki je prej predstavljal ozko grlo v poslu, ali glavno stroškovno mesto, ki narašča linearno z rastjo strank ali rastjo prihodkov, potem boste lažje pridobili sprejem za agenta AI. Zmožnost spreminjanja takšnih težav v bolj produktivni proces, ki ga je mogoče prilagoditi kot tradicionalna programska oprema, je zelo privlačna.
Kimberly Tan: Imam še zadnje vprašanje, preden gremo naprej. Spominjam se, da je Jesse v najinih prejšnjih razpravah vedno govoril, da bodo največji izziv za podjetja, ki uporabljajo programsko opremo ali agente AI, halucinacije. Toda nekoč ste mi rekli, da to pravzaprav ni glavni problem. Ali lahko pojasnite, zakaj je dojemanje halucinacij nekoliko zavajajoče in kaj ljudi pravzaprav bolj skrbi?
Jesse Zhang: Mislim, da je ljudem vseeno za halucinacije, vendar jih bolj skrbi vrednost, ki jo lahko zagotovijo. Skoraj vsa podjetja, s katerimi sodelujemo, se osredotočajo na istih nekaj vprašanj, skoraj popolnoma enakih: kolikšen odstotek pogovorov lahko rešite? Kako zadovoljne so moje stranke? Nato lahko vprašanje halucinacij uvrstimo v tretjo kategorijo, in sicer, kako natančna je. Na splošno sta pri ocenjevanju pomembnejša prva dva dejavnika.
Recimo, da se pogovarjate z novim podjetjem in ste opravili res dobro delo glede prvih dveh dejavnikov ter imate veliko podpore vodstva in vseh v ekipi. Rečejo si: »O moj bog, naša izkušnja s strankami je drugačna. Vsaka stranka ima zdaj svojega osebnega asistenta, ki nas lahko kontaktira kadarkoli. Dali smo jim odlične odgovore, zelo so zadovoljni, poleg tega je večjezičen in na voljo 24/7.« To je le del tega, poleg tega pa ste prihranili veliko denarja.
Torej, ko enkrat dosežete te cilje, dobite veliko podpore in veliko vzpodbud za delo. Seveda je treba vprašanje iluzije na koncu rešiti, vendar to ni tisto, kar jih najbolj skrbi. Način za razrešitev iluzije je enak, kot sem že omenil – ljudje vas bodo preizkusili. Obstaja lahko faza dokazovanja koncepta, kjer dejansko izvajate resnične pogovore in imajo člani ekipe, ki spremljajo in preverjajo točnost. Če gre to dobro, potem običajno gre skozi.
Poleg tega lahko, kot sem že omenil, nastavite nekaj strogih zaščitnih ukrepov za občutljive podatke, na primer, da vam občutljive vsebine ni treba narediti generične. Torej je vprašanje iluzije predmet razprave v večini transakcij. Ni nepomembna tema. Šli boste skozi ta proces, vendar to nikoli ni središče pogovora.
Kimberly Tan: Zdaj pa preidimo na poslovni model agenta AI. Danes je velika tema o tem, kako določiti ceno tem agentom AI.
Zgodovinsko gledano se veliko programske opreme SaaS ceni glede na število sedežev, ker gre za programsko opremo za potek dela, ki je namenjena posameznim zaposlenim in se uporablja za izboljšanje produktivnosti zaposlenih. Vendar AI Agent ni povezan s produktivnostjo posameznih zaposlenih kot tradicionalna programska oprema.
Veliko ljudi misli, da metoda oblikovanja cen glede na število sedežev morda ne bo več uporabna. Zanima me kako ste razmišljali o tej dilemi v prvih dneh in o tem, kako ste se končno odločili za ceno Decagona. Poleg tega, kakšen bo po vašem mnenju prihodnji trend oblikovanja cen programske opreme, ko bo AI Agent vse pogostejši?
Jesse Zhang: Naše mnenje o tem vprašanju je, da je bila v preteklosti programska oprema ocenjena na sedež, ker je njena lestvica približno temeljila na številu ljudi, ki so lahko uporabljali programsko opremo. Toda za večino agentov AI vrednost, ki jo zagotovite, ni odvisna od števila ljudi, ki jo vzdržujejo, temveč od količine opravljenega dela. To je skladno s točko, ki sem jo omenil prej: če je donosnost naložbe (ROI) zelo merljiva, potem je tudi raven rezultatov dela zelo jasna.
Naše mnenje je, da oblikovanje cen po številu sedežev vsekakor ne velja. Ceno lahko določite glede na rezultate dela. Cenovni model, ki ga ponujate, bi torej moral biti tak, da več ko je opravljeno delo, več plačate.
Za nas obstajata dva očitna načina določanja cene. Pogovorom lahko določite ceno ali pa določite ceno pogovorom, ki jih umetna inteligenca dejansko reši. Mislim, da je ena od zanimivih lekcij, ki smo se jih naučili, ta, da je večina ljudi izbrala model pogovora in oblikovanja cen. Razlog je v tem, da je glavna prednost določanja cene glede na rešitev ta, da za kaj plačate the AI dela.
Toda vprašanje, ki sledi, je, kaj se šteje za "rešitev"? Prvič, nihče se noče poglobiti v to, ker postane: "Če nekdo pride jezen in ga pošljete stran, zakaj bi morali plačati za to?"
To ustvarja nerodno situacijo in naredi spodbude za ponudnike umetne inteligence nekoliko nenavadne, saj zaračunavanje po rešitvi pomeni: "Samo rešiti moramo čim več pogovorov in nekatere ljudi odriniti stran." Toda veliko je primerov, ko je bolje težavo stopnjevati, kot pa jo odriniti stran, in strankam takšno ravnanje ni všeč. Zato bo obračunavanje po pogovoru prineslo več enostavnosti in predvidljivosti.
Kimberly Tan: Kako dolgo mislite, da bo trajal prihodnji cenovni model?Ker zdaj, ko omenjate donosnost naložbe, običajno temelji na pretekli porabi, ki je bila morda uporabljena za kritje stroškov dela. Ali menite, da se bo dolgoročno umetna inteligenca primerjala s stroški dela in da je to ustrezno merilo uspešnosti, ko postajajo agenti z umetno inteligenco pogostejši? Če ne, kako vidite dolgoročno oblikovanje cen poleg stroškov dela?
Jesse Zhang: Mislim, da so cene agenta AI dolgoročno morda še vedno povezane predvsem s stroški dela, ker je to lepota agenta – vaša prejšnja poraba za storitve se lahko zdaj preusmeri na programsko opremo.
Ta del izdatkov bi lahko bil 10- do 100-krat večji od izdatkov za programsko opremo, zato se bo velik del stroškov prenesel na programsko opremo. Zato bodo stroški dela seveda postali merilo. Za naše stranke je donosnost naložbe zelo jasna. Če lahko prihranite X milijonov pri stroških dela, potem je smiselno sprejeti to rešitev. Toda na dolgi rok je to morda v sredini.
Ker bodo tudi nekateri izdelki, ki niso tako dobri kot naš agent, sprejeli nižje cene. To je kot klasična situacija SaaS, kjer vsi tekmujejo za tržni delež.
Kimberly Tan: Kakšna je po vašem mnenju prihodnost za sedanja podjetja SaaS, zlasti tista, katerih izdelki morda niso izvirno izdelani za AI ali katerih cena je določena na sedež in se zato ne morejo prilagoditi cenovnemu modelu, ki je usmerjen v rezultate?
Jesse Zhang: Za nekatera tradicionalna podjetja je res nekoliko težavno, če poskušajo lansirati izdelek AI Agent, ker ga ne morejo določiti z uporabo modela sedeža. Če ne potrebujete več toliko agentov, je težko ohraniti prihodke z obstoječim produktom. To je problem tradicionalnih podjetij, vendar je težko reči. Tradicionalna podjetja imajo vedno prednost distribucijskih kanalov. Tudi če izdelek ni tako dober kot novo podjetje, se ljudje neradi trudijo sprejeti novega dobavitelja s samo 80% kakovosti.
Torej, najprej, če ste startup kot mi, morate zagotoviti, da je vaš izdelek trikrat boljši od tradicionalnega izdelka. Drugič, to je tipično tekmovanje med tradicionalnimi podjetji in startupi. Tradicionalna podjetja imajo seveda manjšo toleranco do tveganja, ker imajo veliko strank. Če pri hitri ponovitvi naredijo napako, bo to povzročilo velike izgube. Vendar lahko startupi iterirajo hitreje, zato lahko sam proces iteracije vodi do boljšega izdelka. To je običajen cikel. Pri nas smo bili vedno ponosni na našo hitrost dostave, kakovost izdelkov in izvedbo naše ekipe. Zato smo dobili trenutni posel.
Kimberly Tan: Ali lahko podate nekaj napovedi o prihodnosti umetne inteligence na delovnem mestu? Na primer, kako bo spremenil potrebe ali zmožnosti zaposlenih ali kako medsebojno delujejo zaposleni in agenti AI?Katere nove najboljše prakse ali norme bodo po vašem mnenju postale norma na delovnem mestu, ko bodo agenti AI bolj razširjeni?
Jesse Zhang: Prva in najpomembnejša sprememba je, da smo prepričani, da bodo zaposleni v prihodnosti preživeli veliko več časa na delovnem mestu pri gradnji in upravljanju agentov AI, podobno kot vloga nadzornikov AI. Tudi če vaš položaj uradno ni »nadzornik AI«, bo veliko časa, ki ste ga porabili za svoje delo, preusmerjeno na upravljanje teh agentov, saj vam lahko agenti dajo veliko vpliva.
To smo videli pri številnih uvedbah, kjer ljudje, ki so bili nekoč vodje skupin, zdaj porabijo veliko časa za spremljanje umetne inteligence, na primer, da bi se prepričali, da nima težav, ali da bi naredili prilagoditve. Spremljajo splošno uspešnost, da bi ugotovili, ali obstajajo posebna področja, ki jim je treba posvetiti pozornost, ali obstajajo vrzeli v bazi znanja, ki bi lahko pomagale AI postati boljši, in ali lahko AI zapolni te vrzeli.
Delo, ki ga prinaša delo z agentom, daje vtis, da bodo zaposleni v prihodnosti porabili veliko časa za interakcijo z agenti AI. To je temeljni koncept našega podjetja, kot sem že omenil. Zato je naš celoten izdelek zgrajen okoli zagotavljanja orodij, vizualizacije, razlage in nadzora ljudem. Mislim, da bo to v enem letu postal velik trend.
Kimberly Tan: To je zelo smiselno. Katere zmogljivosti bodo po vašem mnenju nadzorniki AI potrebovali v prihodnosti? Kakšne so veščine za to vlogo?
Jesse Zhang: Obstajata dva vidika. Ena sta opazljivost in interpretabilnost, sposobnost hitrega razumevanja, kaj AI počne in kako sprejema odločitve. Drugi je sposobnost odločanja ali gradbeni del, kako dati povratne informacije in kako zgraditi novo logiko. Mislim, da sta to dvoje dve plati istega kovanca.
Kimberly Tan: Katere naloge bodo po vašem mnenju srednjeročno ali dolgoročno ostale zunaj zmožnosti agenta AI in jih bodo še vedno morali pravilno upravljati in izvajati ljudje?
Jesse Zhang: Mislim, da bo to predvsem odvisno od zahteve po "popolnosti", ki sem jo omenil prej. Obstaja veliko nalog, ki imajo zelo nizko toleranco za napake. V teh primerih je vsako orodje AI bolj pomoč kot polnopravni agent.
Na primer, v nekaterih bolj občutljivih panogah, kot sta zdravstvo ali varnost, kjer moraš biti skoraj popoln, potem lahko na teh področjih agenti AI postanejo manj avtonomni, vendar to ne pomeni, da so neuporabni. Mislim, da bo slog drugačen, na platformi, kot je naša, dejansko nameščate te agente, da jim omogočite avtomatizacijo celotnega dela.
Derrick Harris: In to je vse za to epizodo. Če se vam je ta tema zdela zanimiva ali navdihujoča, ocenite naš podcast in ga delite z več ljudmi.Pričakujemo, da bomo zadnjo epizodo izdali pred koncem leta, vsebino pa bomo prenovili za novo leto. Hvala za poslušanje in lepe praznike (če poslušate med počitnicami).
Izvirni video: Ali lahko Al agenti končno popravijo podporo strankam?