Izdvajamo
- Čarolija LLM-a je u tome što su vrlo fleksibilni, mogu se prilagoditi mnogim različitim situacijama i imaju osnovnu inteligenciju.
- Vjerujemo da će se s vremenom UI i UX sve više temeljiti na prirodnom jeziku, jer je to način na koji Agent sustav razmišlja ili je to u osnovi osnova obuke za velike jezične modele (LLM).
- Ako želite da netko prihvati AI Agenta, on zapravo uzima stupanj "preko vjere" jer za mnoge ljude ovo je vrlo nepoznato područje.
AI Agent preoblikuje korisničko iskustvo
Jesse Zhang: Kako je agent zapravo konstruiran? Naše je mišljenje da će s vremenom sve više nalikovati agentu temeljenom na prirodnom jeziku jer se tako obučavaju veliki jezični modeli (LLM).
Dugoročno gledano, ako imate superinteligentnog agenta koji je zapravo poput čovjeka, možete mu pokazati stvari, objasniti mu, dati povratnu informaciju, a on će ažurirati informacije u svom umu.
Možete zamisliti da imate vrlo sposobnog člana ljudskog tima. Kad se tek pridruže, naučite ih nečemu, počnu raditi, a onda im date povratnu informaciju i pokažete im nove informacije.
Na kraju će se razvijati u tom smjeru – postat će razgovorniji i više se temeljiti na prirodnom jeziku, a način na koji ljudi međusobno komuniciraju postat će prirodniji. I ljudi više neće koristiti ta komplicirana stabla odlučivanja za bilježenje zahtjeva, koja mogu funkcionirati, ali su sklona kolapsu.
U prošlosti smo to morali činiti jer nismo imali veliki jezični model. Ali sada, uz kontinuirani napredak Agenta, korisničko iskustvo (UX) i korisničko sučelje (UI) postat će razgovorljiviji.
Derrick Harris: Pozdrav svima, dobrodošli u A16z AI Podcast. Ja sam Derrick Harris, a danas će mi se pridružiti Jesse Zhang, suosnivač i izvršni direktor Decagona, i Kimberly Tan, partnerica u a16z. Kimberly će moderirati raspravu, a Jesse će podijeliti svoje iskustvo u izgradnji Decagona i njegovih proizvoda.
Ako ne znate puno o tome, Decagon je startup koji tvrtkama osigurava AI agente za pomoć s korisničkom podrškom. Ovi agenti nisu ni chatbotovi ni LLM omoti za jedan API poziv, već visoko prilagođeni napredni agenti koji mogu upravljati složenim tijekovima rada na temelju specifičnih potreba tvrtke.
Uz objašnjenje zašto su stvorili Decagon i kako je projektiran za rukovanje različitim LLM i korisničkim okruženjima, Jesse također govori o prednostima poslovnog modela koji naplaćuje po razgovoru i kako će AI agenti promijeniti vještine potrebne od voditelja korisničke podrške.
Također je vrijedno spomenuti da je Kimberly nedavno napisala post na blogu pod naslovom "RIP to RPA, Uspon inteligentne automatizacije", o čemu ćemo ukratko raspravljati u ovoj epizodi.
To je odlična polazna točka za razumijevanje razvoja automatizacije u poslovnim procesima, a poveznicu ćemo dati u bilješkama emisije. I na kraju, podsjećamo, sadržaj ovog članka je samo u informativne svrhe i ne bi se trebao smatrati pravnim, poslovnim, poreznim ili investicijskim savjetom, niti bi se trebao koristiti za procjenu bilo kakvog ulaganja ili sigurnosti, te nije usmjeren ni na jednog ulagača u a16z fond ili potencijalnog ulagača.
Jesse Zhang: Kratko predstavljanje sebe. Rođen sam i odrastao u Boulderu, a kao dijete sam sudjelovao u mnogim matematičkim natjecanjima i slično. Studirao sam informatiku na Harvardu, a zatim pokrenuo tvrtku koju je također podupirao a16z. Na kraju nas je preuzeo Niantic.
Zatim smo počeli graditi Decagon. Naš posao je izgradnja AI agenata za korisničku službu. U početku smo to radili jer smo htjeli raditi nešto što nam je jako priraslo srcu.
Naravno, nikoga ne treba poučavati o ulozi AI agenata u službi za korisnike, zar ne? Svi smo razgovarali telefonom sa zrakoplovnim kompanijama, hotelima itd. i čekali na čekanju. Dakle, ideja je došla odatle.
Razgovarali smo s mnogo kupaca kako bismo točno saznali kakvu bismo vrstu proizvoda trebali napraviti. Jedna stvar koja nam se isticala bila je da smo, kako smo učili više o agentima umjetne inteligencije, počeli razmišljati o tome kakva bi bila budućnost kad ih bude puno. Mislim da svi vjeruju da će u budućnosti biti puno AI agenata.
Ono o čemu razmišljamo je što će raditi zaposlenici koji rade oko AI agenata? Kakve će alate imati? Kako će kontrolirati ili vidjeti agente s kojima rade ili kojima upravljaju?
Dakle, ovo je srž načina na koji smo izgradili tvrtku oko ovog pitanja. Mislim da je to također ono što nas trenutno izdvaja, jer ovim agentima umjetne inteligencije pružamo razne alate kako bismo pomogli ljudima s kojima radimo da izgrade i konfiguriraju te agente tako da više ne budu "crna kutija". Tako gradimo naš brend.
Derrick Harris: Što vas je inspiriralo, budući da je vaša posljednja tvrtka bila video tvrtka okrenuta potrošačima, da prijeđete na poslovni softver?
Jesse Zhang: Sjajno pitanje. Mislim da su osnivači često "tematski agnostici" kada se radi o odabiru teme, jer u stvarnosti, kada pristupite novom području, obično ste prilično naivni. Dakle, postoji prednost gledanja stvari iz nove perspektive. Dakle, kada smo razmišljali o tome, gotovo da nije bilo ograničenja tema.
Mislim da je to vrlo uobičajen obrazac za ljude s većim kvantitativnim iskustvom, uključujući i mene. Nakon što ste isprobali potrošačke proizvode, skloni ste više težiti poslovnom softveru jer poslovni softver ima konkretnije probleme.
Imate stvarne klijente sa stvarnim potrebama i proračunima i sličnim stvarima, i možete optimizirati i riješiti probleme za njih. Tržište potrošača također je vrlo privlačno, ali se više temelji na intuiciji nego na eksperimentiranju. Meni osobno bolje odgovara poslovni softver.
Kimberly Tan: Prvo, možemo započeti s ovim pitanjem: Koje su najčešće kategorije podrške kojima se Decagon danas bavi? Možete li razraditi kako koristite velike jezične modele (LLM) za rješavanje ovih problema i što sada možete učiniti, a prije niste mogli?
Jesse Zhang: Ako se osvrnete na prethodnu automatizaciju, možda ste koristili stabla odlučivanja da napravite nešto jednostavno, da odredite kojim putem krenuti. Ali svi smo koristili chatbotove i to je prilično frustrirajuće iskustvo.
Često se na vaše pitanje ne može u potpunosti odgovoriti stablom odlučivanja. Tako da ste na kraju usmjereni niz pitanje koje je povezano s pitanjem, ali mu se ne podudara točno. Sada imamo velike jezične modele (LLM). Čarolija LLM-a je u tome što su vrlo fleksibilni, mogu se prilagoditi mnogim različitim situacijama i imaju osnovnu inteligenciju.
Kada ovo primijenite na korisničku podršku ili kada korisnik postavi pitanje, možete pružiti personaliziraniju uslugu. Ovo je prva točka, razina personalizacije se znatno poboljšala. Ovo otključava više metrike. Možete riješiti više problema, kupci su zadovoljniji, a zadovoljstvo kupaca raste.
Sljedeći prirodni korak je: ako imate tu inteligenciju, trebali biste moći učiniti više stvari koje ljudi mogu učiniti. Stvari koje ljudi mogu učiniti su da mogu izvući podatke u stvarnom vremenu, mogu poduzeti radnje i mogu razmišljati kroz više koraka. Ako kupac postavi relativno složeno pitanje, možda "Želim učiniti to i to", a AI je spremna riješiti samo prvo pitanje. LLM je dovoljno pametan da prepozna da ovdje postoje dva pitanja. Prvo će riješiti prvi problem, a zatim će vam pomoći da riješite drugi problem.
Prije nego što se LLM pojavio, to je u osnovi bilo nemoguće. Dakle, sada vidimo pomake u onome što tehnologija može učiniti, a to je zahvaljujući LLM-u.
Kimberly Tan: U ovom kontekstu, kako biste definirali AI agenta? Budući da se riječ "Agent" često koristi, zanima me što ona zapravo znači u kontekstu Decagona.
Jesse Zhang: Rekao bih da se Agent više odnosi na sustav u kojem više LLM (model velikog jezika) sustava radi zajedno. Imate poziv za LLM, koji u osnovi uključuje slanje upita i dobivanje odgovora. Za agenta, želite biti u mogućnosti povezati više takvih poziva, možda čak i rekurzivno.
Na primjer, imate LLM poziv koji određuje kako postupiti s porukom, a zatim može pokrenuti druge pozive koji privlače više podataka, izvode radnje i ponavljaju ono što je korisnik rekao, možda čak postavljajući dodatna pitanja. Dakle, za nas, Agent se može shvatiti kao mreža gotovo LLM poziva, API poziva ili druge logike koji rade zajedno kako bi pružili bolje iskustvo.
Kimberly Tan: Što se tiče ove teme, možda bismo mogli više razgovarati o agentskoj infrastrukturi koju ste zapravo izgradili. Mislim da je jedna vrlo zanimljiva točka ta da postoji mnogo demonstracija AI agenata na tržištu, ali mislim da postoji vrlo malo njihovih primjera koji zapravo mogu stabilno raditi u proizvodnom okruženju. I teško je izvana znati što je stvarno, a što nije.
Dakle, po vašem mišljenju, koji aspekti današnjih AI agenata rade dobro, a koji aspekti još uvijek zahtijevaju tehnološka otkrića kako bi bili robusniji i pouzdaniji?
Jesse Zhang: Moj pogled je zapravo malo drugačiji. Razlika između određivanja je li AI Agent samo demo ili "stvarno radi" ne leži u potpunosti u tehnologiji jer mislim da većina ljudi koristi otprilike istu tehnologiju. Mislim da ćete, nakon što ste otišli dalje u razvoju svoje tvrtke, na primjer, naša tvrtka postoji više od godinu dana, stvoriti nešto vrlo specifično što odgovara vašem slučaju korištenja.
Ali u konačnici, svatko može pristupiti istom modelu i koristiti sličnu tehnologiju. Mislim da najveća razlika u tome može li AI agent učinkovito raditi zapravo leži u obliku slučaja upotrebe. Teško je to znati na početku, ali gledajući unatrag, vidjet ćete da postoje dva atributa koja su vrlo važna za AI agenta kako bi otišao dalje od demonstracije i ušao u praktičnu primjenu.
Prvi je da slučaj upotrebe koji rješavate mora imati mjerljivi ROI (povrat ulaganja). Ovo je vrlo važno, jer ako se ROI ne može kvantificirati, bit će teško uvjeriti ljude da stvarno koriste vaš proizvod i plate za njega. U našem slučaju kvantitativni pokazatelj je: koliki postotak zahtjeva za podršku riješite? Budući da je ovaj broj jasan, ljudi ga mogu razumjeti – oh, u redu, ako riješite više, mogu usporediti ovaj rezultat sa svojim trenutnim troškovima i utrošenim vremenom. Dakle, ako postoji ovaj pokazatelj, drugi pokazatelj koji nam je jako bitan je zadovoljstvo kupaca. Budući da se ROI može lako kvantificirati, ljudi će to zaista prihvatiti.
Drugi faktor je da slučajevi upotrebe moraju biti postupno teži. Također bi bilo vrlo teško kada bi vam Agent trebao biti nadljudski od početka, rješavajući gotovo 100% slučajeva upotrebe. Budući da kao što znamo, LLM nisu deterministički, morate imati neku vrstu plana za nepredviđene situacije. Srećom, postoji sjajna značajka slučajeva korištenja podrške, a to je da uvijek možete eskalirati na čovjeka. Čak i ako možete riješiti samo pola problema, to je ljudima još uvijek vrlo vrijedno.
Tako da mislim da ta podrška ima ovu karakteristiku koja je čini vrlo prikladnom za AI Agent. Mislim da postoje mnoga druga područja u kojima ljudi mogu stvoriti impresivne demonstracije u kojima ne morate ni pažljivo pogledati da biste shvatili zašto bi AI Agent bio koristan. Ali ako mora biti savršeno od početka, onda je to jako teško. Ako je tako, gotovo nitko ga neće htjeti isprobati ili koristiti jer posljedice njegove nesavršenosti mogu biti vrlo ozbiljne – primjerice, u smislu sigurnosti.
Na primjer, kada ljudi rade simulacije, uvijek imaju ovu klasičnu misao: "Oh, bilo bi sjajno kada bi LLM mogao ovo pročitati." Ali teško je zamisliti da netko kaže: “U redu, agente umjetne inteligencije, samo napred. Vjerujem da ti to možeš.” Jer ako pogriješi, posljedice mogu biti vrlo ozbiljne.
Jesse Zhang: O tome obično odlučuju naši kupci, a zapravo vidimo vrlo širok raspon razlika. U jednoj krajnosti, neki ljudi stvarno čine da njihov agent izgleda kao čovjek, tako da postoji ljudski avatar, ljudsko ime, a odgovori su vrlo prirodni. S druge strane, Agent jednostavno izjavljuje da se radi o umjetnoj inteligenciji i to jasno daje do znanja korisniku. Mislim da različite tvrtke s kojima radimo imaju različite stavove o tome.
Obično, ako ste u reguliranoj industriji, to morate jasno dati do znanja. Ono što mi je sada zanimljivo je da se ponašanje kupaca mijenja. Budući da mnogi naši klijenti dobivaju puno povratnih informacija na društvenim mrežama, poput: "O moj Bože, ovo je prvo iskustvo chata koje sam ikada isprobao, a koje se zapravo čini tako stvarnim" ili "Ovo je jednostavno magija." I to je sjajno za njih, jer sada njihovi kupci uče, hej, ako se radi o AI iskustvu, zapravo može biti bolje od ljudskog. To nije bio slučaj u prošlosti, jer je većina nas u prošlosti imala takvo iskustvo telefonske korisničke službe: "U redu, AI, AI, AI..."
Kimberly Tan: Spomenuli ste koncept personalizacije nekoliko puta. Svi koriste istu temeljnu tehnološku arhitekturu, ali imaju različite potrebe za personalizacijom u smislu usluga podrške. Možeš li pričati o ovome? Konkretno, kako postići personalizaciju tako da ljudi mogu reći online: "Bože, ovo je najbolje iskustvo podrške koje sam ikada imao"?
Jesse Zhang: za nas, personalizacija dolazi od prilagodbe za korisnika. Morate razumjeti korisničke pozadinske informacije, što je potreban dodatni kontekst. Drugo, također morate razumjeti poslovnu logiku naših kupaca.Ako kombinirate to dvoje, možete pružiti prilično dobro iskustvo.
Očito, ovo zvuči jednostavno, ali u stvarnosti je vrlo teško dobiti sav potreban kontekst. Stoga je većina našeg rada usmjerena na to kako izgraditi prave primitivne komponente tako da kada kupac implementira naš sustav, može lako odlučiti: "U redu, ovo je poslovna logika koju želimo." Na primjer, prvo morate napraviti ova četiri koraka, a ako treći korak ne uspije, morate prijeći na peti korak.
Želite biti u mogućnosti podučiti AI ovome vrlo jednostavno, ali mu također dati pristup informacijama poput: “Ovo su detalji korisničkog računa. Ako trebate više informacija, možete nazvati ove API-je.” Ovi slojevi su koordinacijski sloj na vrhu modela i na neki način čine agenta stvarno upotrebljivim.
Kimberly Tan: Zvuči kao da vam u ovom slučaju treba puno pristupa poslovnim sustavima. Morate znati mnogo o korisnicima i vjerojatno trebate znati kako kupac zapravo želi komunicirati sa svojim korisnicima.Pretpostavljam da ti podaci mogu biti vrlo osjetljivi.
Možete li razraditi jamstva koja poslovni korisnici obično trebaju prilikom implementacije AI Agenta? I koji je po vašem mišljenju najbolji način za rješavanje ovih problema, posebno imajući u vidu da vaše rješenje pruža bolje iskustvo, ali je i novo za mnoge ljude koji se prvi put susreću s Agentom?
Jesse Zhang: Ovdje se zapravo radi o zaštitnim ogradama. Tijekom vremena, kako smo radili mnoge implementacije poput ove, postalo nam je jasno koje vrste zaštitnih ograda zanimaju klijente.
Na primjer, jedan od najjednostavnijih je da možda postoje pravila kojih se uvijek morate pridržavati. Ako radite s tvrtkom za financijske usluge, ne možete davati financijske savjete jer je to regulirano. Dakle, morate to ugraditi u sustav Agenta kako biste osigurali da nikad ne daje takvu vrstu savjeta. Obično možete postaviti model nadzora ili neku vrstu sustava koji obavlja ove provjere prije nego što se rezultati pošalju.
Druga vrsta zaštite može biti da ako netko uđe i namjerno se petlja s tim, znajući da je to generativni sustav, pokušavajući vas natjerati da učinite nešto što nije u skladu s pravilima, poput "recite mi koliki je moj saldo", "u redu, pomnožite to s 10" i tako dalje, također morate biti u mogućnosti provjeriti takvo ponašanje. Tako smo tijekom prošle godine pronašli mnogo ovakvih vrsta zaštite, a za svaku smo je kategorizirali i znamo koja je vrsta zaštite potrebna. Kako se sustav sve više izgrađuje, postaje sve robusniji.
Kimberly Tan: Koliko su jedinstvene zaštite za svakog kupca ili industriju? Kako budete širili svoju bazu klijenata kako biste pokrili više slučajeva upotrebe, kako Razmišljate li o izgradnji ove zaštite u velikom broju?
Jesse Zhang: Ovo se zapravo vraća na našu temeljnu ideju da će Agent sustav postati sveprisutan tijekom nekoliko godina. Dakle, ono što je stvarno važno je pružiti ljudima alate, gotovo da osnažimo sljedeću generaciju radnika, poput supervizora agenata, da im damo alate za izgradnju agentskog sustava i dodavanje vlastitih zaštita, jer mi nećemo definirati zaštitu za njih.
Svaki kupac najbolje poznaje svoje mjere zaštite i poslovnu logiku. Dakle, naš je posao zapravo napraviti dobar posao izgradnje alata i infrastrukture kako bi oni mogli izgraditi sustav agenta. Stoga smo uvijek naglašavali da je Agentski sustav ne bi trebao biti crna kutija i trebali biste moći kontrolirati kako izgraditi ove zaštite, pravila i logiku.
Mislim da je to vjerojatno naš najrazličitiji aspekt dosad. Uložili smo mnogo truda u ove alate i osmislili kreativne načine kako omogućiti ljudima koji možda nemaju super tehničko iskustvo, pa čak ni duboko razumijevanje načina na koji AI modeli funkcioniraju, da ipak unesu radnje koje žele da AI izvede u Agent sustav.
Mislim da će to postati sve važnija sposobnost u sljedećih nekoliko godina. To bi trebao biti jedan od najvažnijih kriterija kada ljudi ocjenjuju slične alate, jer želite imati mogućnost kontinuirane optimizacije i poboljšanja ovih sustava tijekom vremena.
Poslovna logika vođena prirodnim jezikom
Derrick Harris: Koje pripreme klijenti ili tvrtke mogu učiniti kako bi se pripremili za bilo koju vrstu automatizacije, a posebno za korištenje ovog agentskog sustava? Na primjer, kako mogu dizajnirati svoje podatkovne sustave, softversku arhitekturu ili poslovnu logiku za podršku takvim sustavima?
Zato što smatram da je većina AI tehnologija isprva nova, ali kada je riječ o postojećim naslijeđenim sustavima, često nailazi na mnogo kaosa.
Jesse Zhang: Ako netko sada gradi od nule, postoji mnogo najboljih praksi koje vam mogu olakšati posao. Na primjer, kako strukturirati svoju bazu znanja. Pisali smo o nekima od njih i predstavili neke metode koje AI-ju mogu olakšati unos informacija i poboljšati njihovu točnost. Jedan konkretan prijedlog je podijeliti bazu znanja na modularne dijelove, umjesto da imate jedan veliki članak s više odgovora.
Prilikom postavljanja API-ja, možete ih učiniti prikladnijima za sustav agenta i postaviti dopuštenja i izlaz na način koji olakšava sustavu agenta unos informacija bez potrebe za izvođenjem mnogo izračuna da bi se pronašao odgovor. To su neke taktičke mjere koje se mogu poduzeti, ali ne bih rekao da se nešto mora učiniti da bi se koristio Agent sustav.
Derrick Harris: Dobra dokumentacija uvijek je važna, u biti se radi o učinkovitom organiziranju informacija.
Kimberly Tan: Zvuči kao da ako pokušate naučiti ljude kako usmjeriti Agent sustav da radi na način koji najbolje odgovara njihovim klijentima ili specifičnim slučajevima upotrebe, tada će možda biti potrebno mnogo eksperimentiranja s UI i UX dizajnom ili ćete morati krčiti nove staze u ovom potpuno novom području, jer se jako razlikuje od tradicionalnog softvera.
Zanima me, kako ti misliš o ovome? Kako bi korisničko sučelje i korisnički doživljaj trebali izgledati u svijetu koji je prvi agent? Što mislite kako će se to promijeniti u sljedećih nekoliko godina?
Jesse Zhang: Ne bih rekao da smo riješili ovaj problem. Mislim da smo možda pronašli lokalni optimum koji funkcionira za naše trenutne klijente, ali to je još uvijek područje istraživanja, za nas i mnoge druge.
Suštinski problem vraća se na ono što smo ranije spomenuli, a to je da imate agentski sustav. Prvo, kako možete jasno vidjeti što radi i kako donosi odluke? Zatim, kako možete koristiti te informacije da odlučite što treba ažurirati i koje povratne informacije treba dati AI? Ovdje se spajaju elementi korisničkog sučelja, posebno drugi dio.
Mislimo da će se s vremenom UI i UX sve više temeljiti na prirodnom jeziku, jer tako razmišlja Agent sustav, odnosno to je u osnovi osnova za obuku velikih jezičnih modela (LLM).
U krajnjem slučaju, ako imate superinteligentnog agenta koji u osnovi razmišlja kao čovjek, možete mu pokazati stvari, objasniti mu stvari, dati mu povratnu informaciju, a on će se ažurirati u svom vlastitom "umu". Možete zamisliti da vam se tim pridruži vrlo sposobna osoba, naučite je nečemu, počne raditi, a onda mu stalno dajete povratne informacije, možete mu pokazati nove stvari, nove dokumente, dijagrame itd.
Mislim da će se u ekstremnom slučaju razvijati u ovom smjeru: stvari postaju više konverzacijske, više se temelje na prirodnom jeziku i ljudi prestaju graditi sustave sa složenim stablima odlučivanja kao prije, hvatajući ono što želite, ali ovaj se pristup lako može pokvariti. Prije smo to morali raditi jer tada nije bilo LLM-a, ali sada kada Agentski sustavi postaju sve moćniji, UI i UX postat će razgovorljiviji.
Kimberly Tan: Prije otprilike godinu i pol dana, kada je Decagon prvi put pokrenut, postojala je opća percepcija da je LLM vrlo primjenjiv na mnoge slučajeve upotrebe, ali zapravo je to bila samo neka vrsta "GPT omotača", gdje su tvrtke mogle jednostavno pozvati temeljni model putem API-ja i trenutno riješiti svoje probleme podrške.
No očito, kako tvrtke odlučuju koristiti rješenja poput Decagona umjesto da idu izravno tim putem, ispada da to nije slučaj. Pitao sam se možete li objasniti zašto je to tako. Što je točno izazove unutarnje izgradnje učinilo složenijima od očekivanog? Koje su zablude imali o konceptu?
Jesse Zhang: Nema ništa loše u tome što ste "GPT omotač", mogli biste reći da je Purcell AWS omotač ili nešto slično. Obično, kada ljudi koriste ovaj izraz, to znači nešto pogrdno.
Moje osobno mišljenje je da ako gradite agentski sustav, po definiciji ćete sigurno koristiti LLM kao alat. Dakle, zapravo gradite na nečemu što već postoji, kao što biste inače gradili na AWS-u ili GCP-u.
Ali pravi problem na koji možete naići je ako softver koji gradite na LLM-u nije dovoljno „težak“ ili složen da bi napravio razliku.
Gledajući unatrag, za nas je ono što prodajemo u osnovi softver. Mi smo zapravo kao obična softverska tvrtka, osim što LLM koristimo kao dio softvera i kao jedan od alata. Ali kad ljudi kupuju ovu vrstu proizvoda, uglavnom žele sam softver. Oni žele alate koji mogu nadzirati AI, koji mogu kopati duboko u detalje svakog razgovora koji AI vodi, koji mogu dati povratne informacije, koji mogu stalno graditi i prilagođavati sustav.
Dakle, to je srž našeg softvera. Čak i sa samim Agentskim sustavom, problem koji ljudi imaju je to što je cool napraviti demo, ali ako ga želite učiniti spremnim za proizvodnju i stvarno okrenutim klijentima, morate riješiti mnogo dugotrajnih problema, kao što je sprječavanje fenomena "iluzije" i suočavanje s lošim akterima koji pokušavaju izazvati pustoš. Također se moramo uvjeriti da je latencija dovoljno niska, da je ton prikladan i tako dalje.
Razgovarali smo s mnogo timova i oni su radili neke eksperimente, napravili preliminarnu verziju, a onda bi shvatili, "Oh, stvarno, mi ne želimo biti ti koji nastavljaju graditi te detalje u kasnijim fazama." Također nisu željeli biti ti koji stalno dodaju novu logiku korisničkom timu. Stoga se u ovom trenutku čini prikladnijim odlučiti surađivati s drugima.
Kimberly Tan: Spomenuli ste neka dugoročna pitanja, kao što je potreba suočavanja s lošim glumcima itd.Vjerujem da su mnogi slušatelji koji razmišljaju o korištenju AI Agenta zabrinuti zbog novih sigurnosnih napada koji se mogu pojaviti nakon uvođenja LLM-ova ili novih sigurnosnih rizika koji se mogu pojaviti nakon uvođenja Agent sustava. Što mislite o ovim pitanjima? I koje su najbolje prakse za osiguravanje vrhunske poslovne sigurnosti kada se radi o Agent?
Jesse Zhang: Što se tiče sigurnosti, postoje neke očite mjere koje se mogu poduzeti, a koje sam ranije spomenuo, poput potrebe za zaštitnim mjerama. Suštinski problem je da ljudi brinu o doktorskim studijama da nisu deterministički.
Ali dobra je vijest da većinu osjetljivih i složenih operacija zapravo možete staviti iza determinističkog zida, a računanje se događa tamo kada pozove API. Dakle, ne oslanjate se u potpunosti na LLM da to riješite, a time se izbjegava mnogo ključnih problema.
Ali još uvijek postoje situacije u kojima se, primjerice, umiješa loš glumac ili netko pokuša sustavu halucinirati. Primijetili smo da će kod mnogih većih kupaca s kojima radimo njihovi sigurnosni timovi ući i u osnovi izvesti test "crvenog tima" na našim proizvodima, provodeći tjedne neprestano lansirajući različite moguće napade na sustav kako bi pokušali pronaći ranjivosti. Kako AI Agent postaje sve popularniji, možda ćemo vidjeti da se to događa sve češće, jer je ovo jedan od najboljih načina za testiranje je li sustav učinkovit. To je baciti nešto na njega kroz test crvenog tima i vidjeti može li probiti obranu.
Postoje i startupi koji razvijaju alate crvenog tima ili omogućuju ljudima da sami rade takve testove, što je trend koji trenutno vidimo. Puno tvrtki s kojima surađujemo, u kasnijoj fazi prodajnog ciklusa, imat će svoj tim za sigurnost, ili će raditi s vanjskim timom, testirati sustav na stres. Za nas je prolaznost na takvim testovima neophodna. Dakle, u konačnici, to je ono na što se sve svodi.
Derrick Harris: Potičete li svoje kupce na ovo? Jer kada govorimo o politikama umjetne inteligencije, spominjemo važan aspekt, a to je aplikacijski sloj, i naglašavamo stavljanje the odgovornost na korisnicima LLM-a i ljudima koji pokreću aplikaciju, umjesto da jednostavno okrivljavaju sam model. Drugim riječima, korisnici bi trebali provesti testiranje crvenog tima, identificirati specifične slučajeve upotrebe i putove napada te odrediti koje ranjivosti treba zaštititi, umjesto da se jednostavno oslanjaju na sigurnosnu zaštitu koju su već postavili OpenAI ili druge tvrtke.
Jesse Zhang: Slažem se u potpunosti. Također mislim da bi se mogao pojaviti novi val zahtjeva za obavještavanje, sličan SOC 2 certifikatu i HIPAA certifikatu koje sada svi rade, a koji su potrebni u različitim industrijama. Obično, kada prodajete generički SaaS proizvod, kupci će zahtijevati testiranje prodora, a mi također moramo dostaviti naše izvješće o testiranju prodora. Za AI Agenta bi u budućnosti mogli postojati slični zahtjevi, a netko bi to mogao imenovati, ali ovo je u osnovi novi način testiranja je li Agent sustav dovoljno moćan.
Kimberly Tan: Jedna stvar koja je zanimljiva je da su očito svi jako uzbuđeni zbog novih otkrića modela i tehnoloških otkrića koja uvode svi veliki laboratoriji. Kao tvrtka koja se bavi umjetnom inteligencijom, očito ne provodite vlastita istraživanja, već iskorištavate to istraživanje i gradite puno softvera oko njega kako biste ga isporučili krajnjem kupcu.
Ali vaš se rad temelji na tehnologiji koja se brzo mijenja. Zanima me, kao tvrtka koja se bavi primijenjenom umjetnom inteligencijom, kako možete ići ukorak s novim tehnološkim promjenama i razumjeti kako one utječu na tvrtku, dok ste u mogućnosti predvidjeti vlastiti proizvodni plan i izgraditi potrebe korisnika? Općenito, koje bi strategije primijenjene AI tvrtke trebale usvojiti u sličnim situacijama?
Jesse Zhang: Zapravo možete podijeliti cijelu hrpu na različite dijelove. Na primjer, LLM je na dnu ako pogledate aplikacijski sloj. Možda imate neke alate u sredini koji vam pomažu u upravljanju LLM-om ili obavljanju neke evaluacije i sličnih stvari. Zatim, gornji dio je u osnovi ono što smo napravili, što je zapravo kao standardni SaaS.
Dakle, većina našeg rada zapravo se ne razlikuje toliko od uobičajenog softvera, osim što imamo dodatnu istraživačku komponentu – LLM se prebrzo mijenja. Moramo istražiti što oni mogu, u čemu su dobri i koji model treba koristiti za obavljanje određenog zadatka. Ovo je veliki problem jer i OpenAI i Anthropic pokreću nove tehnologije, a Gemini se također postupno poboljšava.
Stoga, morate imati vlastiti mehanizam procjene kako biste razumjeli koji je model prikladan za upotrebu u kojoj situaciji. Ponekad je potrebno i fino podešavanje, ali pitanje je: kada fino podešavanje? Kada se fino podešavanje isplati? Ovo su vjerojatno glavna istraživačka pitanja povezana s LLM-om na koja se fokusiramo. No, barem do sada, ne osjećamo da se SaaS brzo mijenja, jer ne ovisimo o srednjem sloju. Dakle, u osnovi, LLM su ti koji se mijenjaju. Ne mijenjaju se često, a kada se i mijenjaju, to je obično nadogradnja. Na primjer, sonet Claude 3.5 ažuriran je prije nekoliko mjeseci i tada smo pomislili: "U redu, trebamo li prijeći na novi model umjesto da nastavimo koristiti stari?"
Samo trebamo provesti niz procjena, a nakon što se prebacimo na novi model, više ne razmišljamo o tome jer vi već koristite novi model. Zatim je izašla o1 verzija, a situacija je bila slična. Razmislite gdje se može koristiti. U našem slučaju, o1 je malo spor za većinu slučajeva korištenja koji se suočavaju s korisnicima, tako da ga možemo koristiti za pozadinski rad. U konačnici, samo trebamo imati dobar sustav za istraživanje modela.
Kimberly Tan: Koliko često procjenjujete novi model i odlučujete hoćete li ga zamijeniti?
Jesse Zhang: Ocjenjujemo svaki put kada izađe novi model. Morate biti sigurni da, iako je novi model pametniji, ne pokvari neke od slučajeva upotrebe koje ste već izgradili. Ovo se može dogoditi. Na primjer, novi model općenito može biti pametniji, ali u nekim ekstremnim slučajevima ima lošu izvedbu na A/B izboru u jednom od vaših radnih procesa. To je ono što ocjenjujemo.
Mislim da je općenito vrsta inteligencije do koje nam je najviše stalo ono što bih nazvao "sposobnošću praćenja uputa". Želimo da model postaje sve bolji u praćenju uputa. Ako je tako, onda nam to svakako ide na ruku, i to jako dobro.
Čini se da su se novija istraživanja više usredotočila na vrstu inteligencije koja uključuje rasuđivanje, poput boljeg programiranja i boljih matematičkih operacija. To nam također pomaže, ali nije toliko važno koliko poboljšanje sposobnosti praćenja instrukcija.
Kimberly Tan: Jedna vrlo zanimljiva točka koju ste spomenuli, a mislim da je također vrlo jedinstvena za Decagon, jest da ste izgradili puno infrastrukture za procjenu unutar kuće kako biste bili sigurni da točno znate kako svaki model radi pod skupom testova koje pružate.
Možete li to elaborirati? Koliko je važna ova interna infrastruktura za ocjenjivanje i kako ona vama i vašim klijentima daje povjerenje u rad agenta? Budući da su neke od tih procjena također okrenute prema kupcima.
Jesse Zhang: Mislim da je to vrlo važno, jer bez ove infrastrukture za evaluaciju, bilo bi nam vrlo teško brzo ponavljati.
Ako smatrate da svaka promjena ima veliku vjerojatnost da će nešto pokvariti, tada nećete brzo napraviti promjene. Ali ako imate mehanizam ocjenjivanja, onda kada dođe do velike promjene, ažuriranja modela ili dođe nešto novo, možete to izravno usporediti sa svim testovima ocjenjivanja. Ako su rezultati evaluacije dobri, možete osjetiti: u redu, napravili smo poboljšanje ili ga možete objaviti s povjerenjem bez previše brige.
Dakle, na našem terenu, evaluacija zahtijeva input kupca, jer kupac je taj koji odlučuje je li nešto točno ili ne. Naravno, možemo provjeriti neke probleme visoke razine, ali obično kupac daje specifične slučajeve upotrebe i govori nam koji je točan odgovor ili kakav mora biti, kakav ton mora održati, što mora reći.
Procjena se temelji na tome. Stoga moramo osigurati da je naš sustav ocjenjivanja dovoljno robustan. U početku smo ga sami gradili i nije ga teško održavati. Također znamo da postoje neke tvrtke za procjenu i istražili smo neke od njih. Možda ćemo u jednom trenutku razmisliti hoćemo li ih usvojiti, ali za sada nam sustav ocjenjivanja više nije bolna točka.
Kimberly Tan: Danas je vrlo popularna tema multimodalnost, što znači da bi agenti umjetne inteligencije trebali moći komunicirati u svim oblicima koje ljudi danas koriste, bilo da se radi o tekstu, videu, glasu itd. Znam da je Decagon započeo kao tekst. Iz vaše perspektive, koliko važno je multimodalnost agentima umjetne inteligencije? Što mislite koji je vremenski okvir da postane mainstream ili čak standard?
Jesse Zhang: Važno je, a iz perspektive tvrtke, nije posebno teško dodati novi modalitet. Nije jednostavno, ali srž je: ako riješite druge probleme, kao što su oni koje sam spomenuo – na primjer, izgradnja AI-a, njegovo praćenje i ispravna logika – tada dodavanje novog modaliteta nije najteža stvar. Stoga za nas imanje svih modaliteta ima puno smisla i proširuje naše tržište. Mi smo u osnovi agnostici modaliteta i gradimo vlastitog agenta za svaki modalitet.
Općenito govoreći, postoje dva ograničavajuća faktora: Prvo, je li kupac spreman prihvatiti novi modalitet? Mislim da ima smisla krenuti s tekstom jer to je način na koji ljudi najaktivnije usvajaju, manje je riskantan za njih, lakše ga je pratiti i razumjeti. Drugi veliki modalitet je glas. Očito, mislim da još uvijek ima mjesta na tržištu i da se korisničko prihvaćanje glasa još treba poboljšati. Trenutačno vidimo neke rane korisnike koji su počeli prihvaćati glasovne agente, što je vrlo uzbudljivo. Drugi aspekt su tehnički izazovi. Većina ljudi bi se složila da je letvica postavljena više za glas. Ako s nekim razgovarate telefonom, potrebna vam je vrlo kratka latencija glasa. Ako nekoga prekinete, on mora odgovoriti prirodno.
Budući da je latencija govora niža, morate biti pametniji u načinu na koji računate. Ako ste u chatu i vrijeme odgovora je pet do osam sekundi, to jedva da primijetite i čini se vrlo prirodnim. Ali ako je potrebno pet do osam sekundi da odgovorite na telefon, to se čini pomalo neprirodnim. Dakle, postoji više tehničkih izazova s govorom. Kako se ovi tehnički izazovi rješavaju i interes za usvajanje govora raste na tržištu, govor kao novi modalitet postat će mainstream.
Poslovni model koji preskače povjerenje
Kimberly Tan: Prije nego što nastavimo, htjela bih govoriti nešto više o poslovnom modelu AI Agent. Kad prvi put izgrađena AI Agent ili razgovarali s korisnicima o sustavu koji koriste, podacima koje obrađuju i njihovim problemima, je li vas nešto iznenadilo? Koje su neke od neintuitivnih ili iznenađujućih stvari koje je Decagon morao učiniti kako bi bolje služio poslovnim korisnicima?
Jesse Zhang: Mislim da je najviše iznenadilo to koliko su ljudi bili voljni razgovarati s nama kad smo tek počeli. Uostalom, bilo nas je samo dvoje. Obojica smo već pokrenuli tvrtke, tako da smo poznavali mnogo ljudi, ali čak i tako, za svakog poduzetnika, kada želite pokrenuti razgovor o preporuci, ako ono što govorite nije posebno uvjerljivo, razgovor je obično prilično mlak.
Ali kad smo počeli razgovarati o ovom slučaju upotrebe, zapravo sam bio prilično iznenađujući koliko su ljudi uzbuđeni pričati o tome. Zato što se ideja čini tako očitom. Mogli biste pomisliti da, budući da je to tako očita ideja, netko drugi to već mora učiniti, ili već mora postojati rješenje, ili je netko drugi već smislio neko rješenje. Ali mislim da smo uhvatili dobar trenutak, taj slučaj korištenja je stvarno velik i ljudima je stvarno stalo do toga. Kao što sam već spomenuo, taj je slučaj upotrebe stvarno prikladan za preuzimanje AI Agenta i njegovo puštanje u proizvodnju, jer ga možete postupno implementirati i moći pratiti ROI.
To je za mene bilo ugodno iznenađenje, ali očito je nakon toga puno posla, morate raditi s kupcima, morate izgraditi proizvod, morate shvatiti kojim putem ići. U početnoj fazi to je doista bilo iznenađujuće otkriće.
Derrick Harris: Kimberly, osjećam da bih trebao spomenuti onaj post na blogu koji si napisala, RIP to RPA, koji dotiče mnogo the zadaci automatizacije i pokretanja.Mislite li da postoji fenomen u kojem ti automatizirani zadaci, odnosno rješenja, nisu toliko idealni, pa ljudi uvijek traže bolji način?
Kimberly Tan: Da, mislim da je tako. Želio bih reći nekoliko stvari. Prvo, ako je ideja svima očita, ali ne postoji jasna tvrtka koja bi je riješila ili nitko ne pokazuje na tvrtku i kaže: "Trebao bi upotrijebiti ovo", onda to znači da problem zapravo nije riješen.
U određenom smislu, to je potpuno otvorena prilika za tvrtku da razvije rješenje. Jer, kao što ste rekli, Decagon kao investitor pratimo od početka. Gledali smo ih kako se kreću kreativnim labirintom, a kada su odlučili ići u ovom smjeru i počeli razgovarati s kupcima, postalo je jasno da svi kupci očajnički traže neku vrstu izvornog rješenja s AI-om. Ovo je jedan od problema koje sam ranije spomenuo, gdje mnogi ljudi misle da je samo GPT omotač. Ali interes kupaca koji je Decagon bio od samog početka natjerao nas je da rano shvatimo da su mnoga od ovih pitanja mnogo kompliciranija nego što ljudi očekuju.
Mislim da se ovaj fenomen događa u svim industrijama, bilo da se radi o korisničkoj službi ili profesionalnoj automatizaciji u određenim vertikalama. Mislim da je jedna od podcijenjenih točaka, kao što je Jesse ranije spomenuo, mogućnost jasnog mjerenja povrata ulaganja (ROI) automatiziranih zadataka. Jer, ako želite nekoga natjerati da prihvati agenta umjetne inteligencije, oni zapravo prihvaćaju određeni stupanj "preko vjere" jer je to vrlo nepoznat teritorij za mnoge ljude.
Ako možete automatizirati vrlo specifičan proces koji je ili očiti proces generiranja prihoda, ili proces koji je prethodno predstavljao usko grlo u poslovanju, ili glavno troškovno mjesto koje raste linearno s rastom kupaca ili rastom prihoda, tada će biti lakše dobiti prihvaćanje za AI agenta. Sposobnost pretvaranja takvih problema u produktivniji proces koji se može skalirati poput tradicionalnog softvera vrlo je privlačna.
Kimberly Tan: Imam posljednje pitanje prije nego što krenemo dalje. Sjećam se da je Jesse, u našim prethodnim raspravama, uvijek govorio da bi najveći izazov za tvrtke koje usvajaju softver ili AI agente bile halucinacije. Ali jednom ste mi rekli da to zapravo nije glavni problem. Možete li pojasniti zašto je percepcija halucinacija donekle pogrešna i što ljude zapravo više brine?
Jesse Zhang: Mislim da je ljudima stalo do halucinacija, ali više su zabrinuti zbog vrijednosti koju mogu pružiti. Gotovo sve tvrtke s kojima surađujemo fokusiraju se na nekoliko istih problema, gotovo potpuno isto: koji postotak razgovora možete riješiti? Koliko su moji kupci zadovoljni? Zatim se pitanje halucinacije može klasificirati kao treća kategorija, naime koliko je točna. Općenito govoreći, prva dva faktora su važnija pri ocjenjivanju.
Recimo da razgovarate s novom tvrtkom i obavili ste jako dobar posao na prva dva čimbenika te imate veliku podršku vodstva i svih u timu. Oni kažu: "O moj Bože, naše korisničko iskustvo je drugačije. Svaki kupac sada ima svog osobnog asistenta koji nas može kontaktirati u bilo kojem trenutku. Dali smo im odlične odgovore, jako su zadovoljni, višejezičan je i dostupan 24/7.” To je samo dio toga, a također ste uštedjeli mnogo novca.
Dakle, kada postignete te ciljeve, dobit ćete puno podrške i mnogo poticaja za poticanje posla. Naravno, pitanje iluzije na kraju treba riješiti, ali to nije ono oko čega su oni najviše zabrinuti. Način rješavanja iluzije je isti način koji sam prije spomenuo - ljudi će vas testirati. Može postojati faza dokazivanja koncepta u kojoj zapravo vodite stvarne razgovore, a oni imaju članove tima koji nadziru i provjeravaju točnost. Ako to dobro prođe, obično prođe.
Također, kao što sam već spomenuo, možete postaviti neke stroge mjere zaštite za osjetljive informacije, kao što je ne morate nužno učiniti osjetljivi sadržaj generičkim. Dakle, pitanje iluzije je točka rasprave u većini transakcija. Nije nevažna tema. Proći ćete kroz ovaj proces, ali on nikada nije u središtu razgovora.
Kimberly Tan: Prijeđimo sada na poslovni model AI Agenta. Danas postoji velika tema o tome kako odrediti cijene ovih AI agenata.
Povijesno gledano, mnogi SaaS softveri imaju cijenu prema broju radnih mjesta jer su to softveri za tijek rada koji ciljaju na pojedinačne zaposlenike i koriste se za poboljšanje produktivnosti zaposlenika. Međutim, AI Agent nije povezan s produktivnošću pojedinačnih zaposlenika kao tradicionalni softver.
Toliko ljudi misli da metoda određivanja cijene koja se temelji na broju mjesta možda više nije primjenjiva. Zanima me kako razmišljali ste o ovoj dilemi u ranim danima i o tome kako ste konačno odlučili cijeniti Decagon. Također, što mislite koji će biti budući trend određivanja cijena softvera kako AI Agent postaje sve uobičajeniji?
Jesse Zhang: Naše stajalište o ovom problemu je da se u prošlosti softver određivao po cijeni jer se njegova ljestvica otprilike temeljila na broju ljudi koji su mogli koristiti softver. Ali za većinu AI agenata, vrijednost koju pružate ne ovisi o broju ljudi koji ga održavaju, već o količini obavljenog posla. Ovo je u skladu s onim što sam ranije spomenuo: ako je povrat ulaganja (ROI) vrlo mjerljiv, tada je i razina rezultata rada vrlo jasna.
Naš stav je da cijena po broju mjesta definitivno ne vrijedi. Možete odrediti cijenu na temelju rezultata rada. Dakle, model određivanja cijena koji nudite trebao bi biti takav da što više posla bude obavljeno, to više plaćate.
Za nas postoje dva očita načina za određivanje cijene. Možete odrediti cijenu razgovora ili možete odrediti cijenu razgovora koje AI zapravo rješava. Mislim da je jedna od zanimljivih lekcija koju smo naučili ta da je većina ljudi izabrala model određivanja cijena putem razgovora. Razlog je taj što je glavna prednost određivanja cijene prema rješenju to što plaćate za što the AI radi.
Ali pitanje koje slijedi je, što se smatra "rješenjem"? Prije svega, nitko ne želi ulaziti u ovo dublje, jer postaje: "Ako netko dođe ljut i vi ga otjerate, zašto bismo mi to platili?"
To stvara neugodnu situaciju i također čini poticaje za AI pružatelje pomalo čudnim, jer naplata prema rješenju znači: "Samo trebamo riješiti što više razgovora i odgurnuti neke ljude." Ali postoje mnogi slučajevi u kojima je bolje eskalirati problem nego ga samo odgurnuti, a klijenti ne vole takav način postupanja. Stoga će naplata po razgovoru donijeti više jednostavnosti i predvidljivosti.
Kimberly Tan: Što mislite koliko će trajati budući model cijena?Zato što upravo sada, kada spominjete ROI, obično se temelji na prošloj potrošnji koja je možda korištena za pokrivanje troškova rada. Kako AI agenti postaju sve češći, mislite li da će se dugoročno AI uspoređivati s troškovima rada i da je to prikladno mjerilo? Ako ne, kako vidite dugoročno određivanje cijena izvan troškova rada?
Jesse Zhang: Mislim da bi dugoročno cijene AI Agenta mogle biti primarno povezane s troškovima rada, jer je to ljepota Agenta – vaša prethodna potrošnja na usluge sada se može prebaciti na softver.
Ovaj bi dio izdataka mogao biti 10 do 100 puta veći od izdataka za softver, tako da će se velik dio troškova prebaciti na softver. Stoga će troškovi rada prirodno postati mjerilo. Za naše klijente, ROI je vrlo jasan. Ako možete uštedjeti X milijuna na troškovima rada, onda ima smisla usvojiti ovo rješenje. Ali dugoročno gledano, ovo bi moglo biti u sredini.
Jer čak i neki proizvodi koji nisu tako dobri kao naš agent prihvatit će niže cijene. Ovo je poput klasične SaaS situacije, gdje se svi natječu za tržišni udio.
Kimberly Tan: Što mislite da budućnost nosi sadašnje SaaS tvrtke, posebno one čiji proizvodi možda nisu izvorno izrađeni za AI ili čija se cijena određuje po sjedalu i stoga se ne mogu prilagoditi modelu određivanja cijena usmjerenom na rezultate?
Jesse Zhang: Za neke tradicionalne tvrtke doista je malo nezgodno ako pokušaju lansirati proizvod AI Agent jer ga ne mogu odrediti prema modelu sjedala. Ako vam više ne treba toliko agenata, teško je održati prihod s postojećim proizvodom. To je problem za tradicionalne tvrtke, ali teško je reći. Tradicionalne tvrtke uvijek imaju prednost distribucijskih kanala. Čak i ako proizvod nije tako dobar kao nova tvrtka, ljudi se nerado trude prihvatiti novog dobavljača sa samo 80% kvalitete.
Dakle, prvo, ako ste startup poput nas, morate osigurati da je vaš proizvod tri puta bolji od tradicionalnog proizvoda. Drugo, ovo je tipično natjecanje između tradicionalnih tvrtki i startupa. Tradicionalne tvrtke prirodno imaju manju toleranciju na rizik jer imaju velik broj kupaca. Ako pogriješe u brzoj iteraciji, to će uzrokovati ogromne gubitke. Međutim, startupi mogu iterirati brže, tako da sam proces iteracije može dovesti do boljeg proizvoda. Ovo je uobičajeni ciklus. Uvijek smo bili ponosni na našu brzinu isporuke, kvalitetu proizvoda i rad našeg tima. Zbog toga smo dobili trenutni ugovor.
Kimberly Tan: Možete li dati neka predviđanja o budućnosti umjetne inteligencije na radnom mjestu? Na primjer, kako će promijeniti potrebe ili sposobnosti zaposlenika, ili kako ljudski zaposlenici i AI agenti međusobno djeluju?Što mislite, koje će nove najbolje prakse ili norme postati norma na radnom mjestu kako AI agenti budu postajali sve rašireniji?
Jesse Zhang: Prva i najvažnija promjena je da smo uvjereni da će u budućnosti zaposlenici provoditi puno više vremena na radnom mjestu u izgradnji i upravljanju agentima umjetne inteligencije, slično ulozi nadzornika umjetne inteligencije. Čak i ako vaša pozicija službeno nije "nadzornik umjetne inteligencije", puno vremena koje ste prije provodili radeći svoj posao bit će preusmjereno na upravljanje ovim agentima, jer vam agenti mogu dati mnogo utjecaja.
To smo vidjeli u mnogim implementacijama gdje ljudi koji su nekoć bili vođe timova sada provode puno vremena nadzirući AI, na primjer, kako bi bili sigurni da nema problema ili kako bi napravili prilagodbe. Oni prate ukupnu izvedbu kako bi vidjeli postoje li određena područja na koja treba obratiti pozornost, postoje li praznine u bazi znanja koje bi mogle pomoći umjetnoj inteligenciji da postane bolja i može li umjetna inteligencija popuniti te praznine.
Posao koji dolazi uz rad s Agentom daje dojam da će u budućnosti zaposlenici provoditi značajnu količinu vremena u interakciji s AI Agentima. Ovo je temeljni koncept naše tvrtke, kao što sam ranije spomenuo. Stoga je cijeli naš proizvod izgrađen oko pružanja ljudima alata, vizualizacije, interpretabilnosti i kontrole. Mislim da će to za godinu dana postati veliki trend.
Kimberly Tan: To ima puno smisla. Što mislite koje će sposobnosti trebati AI nadzornicima u budućnosti? Koje su vještine potrebne za ovu ulogu?
Jesse Zhang: Dva su aspekta. Jedna je sposobnost promatranja i tumačenja, sposobnost brzog razumijevanja što AI radi i kako donosi odluke. Drugi je sposobnost donošenja odluka ili dio izgradnje, kako dati povratnu informaciju i kako izgraditi novu logiku. Mislim da su ovo dvoje dvije strane istog novčića.
Kimberly Tan: Što mislite koji će zadaci srednjoročno ili dugoročno ostati izvan sposobnosti agenta umjetne inteligencije te će njima i dalje trebati upravljati i ispravno ih izvršavati ljudi?
Jesse Zhang: Mislim da će to uglavnom ovisiti o zahtjevu za "savršenstvom" koji sam ranije spomenuo. Postoje mnogi zadaci koji imaju vrlo nisku toleranciju na pogreške. U tim je slučajevima bilo koji alat umjetne inteligencije više pomoć nego potpuni agent.
Na primjer, u nekim osjetljivijim industrijama, kao što je zdravstvo ili sigurnost, gdje morate biti gotovo savršeni, onda u tim područjima, AI agenti mogu postati manje autonomni, ali to ne znači da su beskorisni. Mislim da će stil biti drugačiji, na platformi kao što je naša, vi zapravo postavljate te agente kako biste im omogućili da automatiziraju cijeli posao.
Derrick Harris: I to je sve za ovu epizodu. Ako vam je ova tema zanimljiva ili inspirativna, ocijenite naš podcast i podijelite ga s više ljudi.Očekujemo da ćemo objaviti posljednju epizodu prije kraja godine i preinačit ćemo sadržaj za novu godinu. Hvala na slušanju i želim vam ugodne blagdane (ako slušate tijekom praznika).
Izvorni video: Mogu li Al agenti konačno popraviti korisničku podršku?