Zvýraznění
- Kouzlo LLM spočívá v tom, že jsou velmi flexibilní, dokážou se přizpůsobit mnoha různým situacím a mají základní inteligenci.
- Věříme, že časem se UI a UX stanou stále přirozenějšími jazyky, protože to je způsob, jakým Agent systém myslí, nebo je to v podstatě základ školení pro velké jazykové modely (LLM).
- Pokud chcete, aby někdo přijal agenta umělé inteligence, ve skutečnosti učiní určitý „skok víry“, protože pro mnoho lidí je to velmi neznámá oblast.
AI Agent přetváří zákaznickou zkušenost
Jesse Zhang: Jak je vlastně Agent konstruován? Náš názor je, že postupem času se bude stále více podobat agentovi založenému na přirozeném jazyce, protože tak se školí velké jazykové modely (LLM).
Z dlouhodobého hlediska, pokud máte superinteligentního agenta, který je ve skutečnosti jako člověk, můžete mu věci ukázat, vysvětlit mu, dát mu zpětnou vazbu a on aktualizuje informace v jeho mysli.
Dokážete si představit, že máte velmi schopného člena lidského týmu. Když se poprvé připojí, něco je naučíte, začnou pracovat a pak jim poskytnete zpětnou vazbu a ukážete jim nové informace.
Nakonec se to vyvine tímto směrem – stane se konverzační a více založené na přirozeném jazyce a způsob, jakým spolu lidé komunikují, se stane přirozenějším. A lidé už nebudou používat ty komplikované rozhodovací stromy k zachycení požadavků, které mohou fungovat, ale jsou náchylné ke kolapsu.
V minulosti jsme to museli dělat, protože jsme neměli velký jazykový model. Ale nyní, s neustálým pokrokem Agenta, bude uživatelská zkušenost (UX) a uživatelské rozhraní (UI) více konverzační.
Derrick Harris: Ahoj všichni, vítejte u A16z AI Podcast. Jsem Derrick Harris a dnes se ke mně připojí Jesse Zhang, spoluzakladatel a generální ředitel společnosti Decagon, a Kimberly Tan, partnerka a16z. Kimberly bude moderovat diskusi a Jesse se podělí o své zkušenosti s budováním Decagonu a jeho produktů.
Pokud o tom moc nevíte, Decagon je startup, který firmám poskytuje agenty AI, kteří jim pomáhají se zákaznickou podporou. Tito agenti nejsou ani chatboti, ani LLM obaly pro jediné volání API, ale vysoce přizpůsobení pokročilí agenti, kteří dokážou zvládnout složité pracovní postupy založené na specifických potřebách společnosti.
Kromě vysvětlení, proč vytvořili Decagon a jak je navržen tak, aby zvládal různá prostředí LLM a zákazníků, Jesse také hovoří o výhodách obchodního modelu, který účtuje za konverzaci, a o tom, jak agenti AI změní dovednosti požadované od vedoucích pracovníků zákaznické podpory.
Za zmínku také stojí, že Kimberly nedávno napsala blogový příspěvek s názvem „RIP to RPA, The Rise of Intelligent Automation“, o kterém stručně diskutujeme v této epizodě.
Je to skvělý výchozí bod pro pochopení toho, jak se automatizace rozvíjí v obchodních procesech, a v poznámkách k show vám poskytneme odkaz. A na závěr pro připomenutí, obsah tohoto článku slouží pouze pro informační účely a neměl by být považován za právní, obchodní, daňové nebo investiční poradenství, ani by neměl být používán k hodnocení jakékoli investice nebo cenného papíru a není zaměřen na žádného investora do fondu a16z nebo potenciálního investora.
Jesse Zhang: Krátký úvod pro sebe. Narodil jsem se a vyrostl v Boulderu a jako dítě jsem se účastnil spousty matematických soutěží a podobně. Vystudoval jsem informatiku na Harvardu a poté jsem založil společnost, za kterou také stála a16z. Nakonec nás získal Niantic.
Pak jsme začali stavět Decagon. Naší činností je budování AI agentů pro zákaznický servis. Na začátku jsme to dělali, protože jsme chtěli dělat něco, co nám bylo velmi blízké.
Samozřejmě, nikdo nemusí být poučován o roli agentů AI v zákaznických službách, že? Všichni jsme telefonovali s leteckými společnostmi, hotely atd. a čekali na čekání. Takže nápad vzešel odtud.
Mluvili jsme se spoustou zákazníků, abychom přesně zjistili, jaký druh produktu bychom měli postavit. Jedna věc, která pro nás stála, bylo, že jak jsme se dozvěděli více o AI Agentech, začali jsme přemýšlet o tom, jaká bude budoucnost, až jich bude hodně. Myslím, že každý věří, že v budoucnu bude spousta agentů AI.
Myslíme na to, co budou dělat zaměstnanci, kteří pracují kolem agentů AI? Jaké budou mít nástroje? Jak budou kontrolovat nebo prohlížet agenty, se kterými pracují nebo je spravují?
Takže toto je jádro toho, jak jsme na této otázce vybudovali společnost. Myslím, že to je také to, co nás právě teď odlišuje, protože těmto agentům AI poskytujeme různé nástroje, které lidem, se kterými pracujeme, pomáhají vytvářet a konfigurovat tyto agenty tak, aby již nebyli „černou skříňkou“. Takto budujeme naši značku.
Derrick Harris: Co vás inspirovalo k přechodu na podnikový software, protože vaše poslední společnost byla video společností zaměřenou na spotřebitele?
Jesse Zhang: Skvělá otázka. Myslím, že zakladatelé jsou často „agnostici k tématu“, pokud jde o výběr tématu, protože ve skutečnosti, když přistupujete k novému oboru, jste obvykle dost naivní. Takže je tu výhoda dívat se na věci z nové perspektivy. Takže když jsme o tom přemýšleli, neexistovala téměř žádná omezení tématu.
Myslím, že to je velmi běžný vzorec pro lidi s kvantitativnějším zázemím, včetně mě. Po vyzkoušení spotřebitelských produktů máte tendenci tíhnout více k podnikovému softwaru, protože podnikový software má konkrétnější problémy.
Máte skutečné zákazníky se skutečnými potřebami a rozpočty a podobnými věcmi a můžete pro ně optimalizovat a řešit problémy. Spotřebitelský trh je také velmi atraktivní, ale je více založen na intuici než na experimentování. Mně osobně více vyhovuje podnikový software.
Kimberly Tan: Nejprve můžeme začít touto otázkou: Jaké jsou nejčastější kategorie podpory, kterými se dnes Decagon zabývá? Můžete přiblížit, jak používáte velké jazykové modely (LLM) k řešení těchto problémů a co nyní můžete dělat, co jste dříve dělat nemohli?
Jesse Zhang: Pokud se podíváte zpět na předchozí automatizaci, možná jste použili rozhodovací stromy, abyste udělali něco jednoduchého, abyste určili, kterou cestou se vydat. Ale všichni jsme používali chatboty a je to docela frustrující zkušenost.
Na vaši otázku často nelze plně odpovědět rozhodovacím stromem. Takže nakonec budete nasměrováni na cestu otázky, která souvisí s otázkou, ale přesně jí neodpovídá. Nyní máme velké jazykové modely (LLM). Kouzlo LLM spočívá v tom, že jsou velmi flexibilní, dokážou se přizpůsobit mnoha různým situacím a mají základní inteligenci.
Když to použijete na zákaznickou podporu nebo když zákazník položí otázku, můžete poskytnout personalizovanější službu. Toto je první bod, úroveň personalizace se výrazně zlepšila. To odemkne vyšší metriky. Můžete vyřešit více problémů, zákazníci jsou spokojenější a spokojenost zákazníků se zvyšuje.
Dalším přirozeným krokem je: pokud máte tuto inteligenci, měli byste být schopni dělat více věcí, které mohou dělat lidé. Věci, které lidé mohou udělat, jsou, že mohou stahovat data v reálném čase, mohou jednat a mohou uvažovat prostřednictvím několika kroků. Pokud zákazník položí poměrně složitou otázku, možná „chci udělat to a to“ a AI je připravena zvládnout pouze první otázku. LLM je dostatečně chytrá, aby rozpoznala, že zde existují dvě otázky. Nejprve vyřeší první problém a pak vám pomůže vyřešit druhý problém.
Než přišla LLM, bylo to v podstatě nemožné. Nyní tedy vidíme skokovou změnu v tom, co technologie dokáže, a to díky LLM.
Kimberly Tan: Jak byste v tomto kontextu definovali agenta AI? Protože slovo „Agent“ je široce používané, jsem zvědavý, co to vlastně znamená v kontextu Decagonu.
Jesse Zhang: Řekl bych, že Agent odkazuje spíše na systém, kde spolupracuje více systémů LLM (velký jazykový model). Máte vyvolání LLM, které v podstatě zahrnuje odeslání výzvy a získání odpovědi. Pro agenta chcete mít možnost propojit více takových vyvolání, možná dokonce rekurzivně.
Máte například volání LLM, které určuje, jak se zprávou naložit, a pak může spustit další volání, která načítají další data, provádějí akce a opakují to, co uživatel řekl, a možná dokonce klade doplňující otázky. Takže pro nás lze Agenta chápat jako síť téměř LLM volání, volání API nebo jiné logiky, které společně poskytují lepší zážitek.
Kimberly Tan: Na toto téma si možná můžeme promluvit více o infrastruktuře agentů, kterou jste skutečně vybudovali. Myslím, že jedním velmi zajímavým bodem je, že na trhu je mnoho ukázek agentů AI, ale myslím si, že existuje jen velmi málo příkladů, které skutečně mohou fungovat stabilně v produkčním prostředí. A je těžké zvenčí poznat, co je skutečné a co ne.
Jaké aspekty dnešních agentů umělé inteligence si tedy podle vás vedou dobře a které aspekty stále vyžadují technologické průlomy, aby byly robustnější a spolehlivější?
Jesse Zhang: Můj pohled je ve skutečnosti trochu jiný. Rozdíl mezi určením, zda je AI Agent pouze demo nebo „skutečně fungující“, nespočívá zcela v technologickém zásobníku, protože si myslím, že většina lidí může používat zhruba stejnou technologii. Myslím si, že jakmile jdete ve vývoji své společnosti dále, například naše společnost existuje déle než rok, vytvoříte něco velmi specifického, co se hodí k vašemu případu použití.
Ale v konečném důsledku může každý přistupovat ke stejnému modelu a používat podobnou technologii. Myslím, že největší rozdíl v tom, zda agent AI může fungovat efektivně, ve skutečnosti spočívá ve formě případu použití. Na začátku je to těžké vědět, ale když se podíváte zpět, zjistíte, že existují dva atributy, které jsou velmi důležité pro to, aby agent AI překročil rámec demonstrace a vstoupil do praktické aplikace.
První je, že případ užití, který řešíte, musí mít kvantifikovatelnou ROI (návratnost investic). To je velmi důležité, protože pokud ROI nelze vyčíslit, bude těžké přesvědčit lidi, aby váš produkt skutečně používali a platili za něj. V našem případě je kvantitativní ukazatel: jaké procento žádostí o podporu řešíte? Protože je toto číslo jasné, lidé mu rozumějí – ach, dobře, pokud vyřešíte více, mohu tento výsledek porovnat se svými současnými výdaji a stráveným časem. Pokud tedy tento ukazatel existuje, dalším ukazatelem, který je pro nás velmi důležitý, je spokojenost zákazníků. Protože ROI lze snadno kvantifikovat, lidé si to skutečně osvojí.
Druhým faktorem je, že případy použití musí být postupně obtížnější. Bylo by také velmi obtížné, kdybyste potřebovali, aby agent byl od začátku nadčlověkem a vyřešil téměř 100% případů použití. Protože jak víme, LLM jsou nedeterministické, musíte mít nějaký pohotovostní plán. Naštěstí existuje skvělá funkce případů použití podpory, a to, že vždy můžete eskalovat na člověka. I když můžete vyřešit jen polovinu problémů, stále je to pro lidi velmi cenné.
Takže si myslím, že podpora má tuto vlastnost, díky které je velmi vhodná pro AI Agent. Myslím, že existuje mnoho dalších oblastí, kde mohou lidé vytvářet působivá dema, kde se ani nemusíte pořádně dívat, abyste pochopili, proč by byl AI Agent užitečný. Ale pokud to má být dokonalé hned od začátku, tak je to velmi těžké. Pokud tomu tak je, téměř nikdo jej nebude chtít vyzkoušet nebo použít, protože důsledky jeho nedokonalosti mohou být velmi vážné – například z hlediska bezpečnosti.
Například, když lidé dělají simulace, vždy mají tuto klasickou myšlenku: „Ach, bylo by skvělé, kdyby si to LLM mohla přečíst.“ Ale je těžké si představit, že někdo řekne: „Dobře, agente AI, jděte do toho. Věřím, že to dokážeš." Protože pokud udělá chybu, následky mohou být velmi vážné.
Jesse Zhang: Obvykle o tom rozhodují naši zákazníci a ve skutečnosti vidíme velmi širokou škálu rozdílů. V jednom extrému někteří lidé skutečně dělají svého agenta jako člověka, takže existuje lidský avatar, lidské jméno a reakce jsou velmi přirozené. Na druhou stranu Agent jednoduše uvádí, že jde o AI a dává to uživateli jasně najevo. Myslím, že různé společnosti, se kterými spolupracujeme, mají v této věci různé pozice.
Obvykle, pokud jste v regulovaném odvětví, musíte to objasnit. Co mě teď zajímá, je, že se mění chování zákazníků. Protože mnoho našich zákazníků dostává spoustu zpětné vazby na sociálních sítích, jako například: „Ach můj bože, tohle je první chatovací zážitek, který jsem kdy vyzkoušel, a skutečně mi to přijde tak reálné“ nebo „Tohle je prostě kouzlo.“ A to je pro ně skvělé, protože nyní se jejich zákazníci učí, hej, pokud je to zkušenost s umělou inteligencí, může to být ve skutečnosti lepší než člověk. V minulosti tomu tak nebylo, protože většina z nás měla v minulosti takovou zkušenost se zákaznickým servisem po telefonu: „Dobře, AI, AI, AI…“
Kimberly Tan: Několikrát jste zmínil koncept personalizace. Všichni používají stejnou základní technologickou architekturu, ale mají různé potřeby personalizace, pokud jde o podpůrné služby. Můžete o tom mluvit? Jak konkrétně dosáhnete personalizace, aby lidé mohli online říci: „Můj bože, tohle je nejlepší zkušenost s podporou, jakou jsem kdy měl“?
Jesse Zhang: pro nás personalizace vychází z přizpůsobení pro uživatele. Musíte porozumět základním informacím uživatele, což je další požadovaný kontext. Za druhé, musíte také porozumět obchodní logice našich zákazníků.Pokud obojí zkombinujete, můžete poskytnout docela dobrý zážitek.
Je zřejmé, že to zní jednoduše, ale ve skutečnosti je velmi obtížné získat všechny požadované souvislosti. Většina naší práce je proto na tom, jak postavit ty správné primitivní komponenty, aby se zákazník po nasazení našeho systému mohl snadno rozhodnout: „Dobře, tohle je obchodní logika, kterou chceme.“ Například nejprve musíte provést tyto čtyři kroky, a pokud třetí krok selže, musíte přejít ke kroku pět.
Chcete být schopni naučit AI toto velmi snadno, ale také jí poskytnout přístup k informacím jako: „Toto jsou podrobnosti o účtu uživatele. Pokud potřebujete další informace, můžete zavolat tato rozhraní API.“ Tyto vrstvy jsou koordinační vrstvou nad modelem a svým způsobem činí agenta skutečně použitelným.
Kimberly Tan: V tomto případě to zní tak, že potřebujete hodně přístupu k obchodním systémům. Musíte toho o uživatelích hodně vědět a pravděpodobně potřebujete vědět, jak chce zákazník skutečně komunikovat se svými uživateli.Domnívám se, že tato data mohou být velmi citlivá.
Můžete přiblížit záruky, které podnikoví zákazníci obvykle potřebují při nasazení AI Agenta? A jak považujete za nejlepší způsob, jak tyto problémy vyřešit, zejména s ohledem na to, že vaše řešení poskytuje lepší zkušenosti, ale je také nové pro mnoho lidí, kteří se s agentem setkávají poprvé?
Jesse Zhang: Tady jde vlastně o mantinely. Postupem času, jak jsme provedli mnoho implementací, jako je tato, jsme si ujasnili, o jaké typy mantinelů se zákazníci starají.
Jedním z nejjednodušších je například to, že mohou existovat pravidla, která musíte vždy dodržovat. Pokud pracujete se společností poskytující finanční služby, nemůžete poskytovat finanční poradenství, protože to je regulováno. Takže to musíte zabudovat do systému agentů, abyste zajistili, že nikdy nebude poskytovat takové rady. Obvykle můžete nastavit model dohledu nebo nějaký druh systému, který tyto kontroly provádí před odesláním výsledků.
Dalším druhem ochrany může být to, že když někdo přijde a záměrně se do toho zaplete, protože ví, že je to generativní systém, snaží se vás přimět k něčemu, co není v souladu, jako „řekni mi, jaký je můj zůstatek“, „dobře, vynásob to 10“ a tak dále, také musíte být schopni toto chování zkontrolovat. Takže za poslední rok jsme našli spoustu těchto druhů ochran a pro každou jsme ji kategorizovali a víme, jaký typ ochrany je potřeba. Jak je systém stále více vyvíjen, stává se stále robustnějším.
Kimberly Tan: Jak jedinečné jsou ochrany pro každého zákazníka nebo odvětví? Jak rozšiřujete svou zákaznickou základnu, abyste pokryli více případů použití, jak přemýšlíte o budování těchto ochran ve velkém měřítku?
Jesse Zhang: To se vlastně vrací k naší základní myšlence, že systém agentů se během několika let stane všudypřítomným. Takže to, co je opravdu důležité, je poskytnout lidem nástroje, téměř proto, abychom umožnili další generaci pracovníků, jako jsou supervizoři agentů, aby jim dali nástroje k vybudování systému agentů a přidali jejich vlastní ochrany, protože pro ně ochrany definovat nebudeme.
Každý zákazník zná nejlépe svá vlastní ochranná opatření a obchodní logiku. Naším úkolem je tedy odvést dobrou práci při budování nástrojů a infrastruktury, aby mohli budovat systém agentů. Proto jsme vždy zdůrazňovali, že Systém agentů by neměl být černou skříňkou a měli byste být schopni řídit, jak tyto ochrany, pravidla a logiku vybudovat.
Myslím, že to je zatím asi náš největší rozdíl. Do těchto nástrojů jsme vložili hodně úsilí a přišli s kreativními způsoby, jak umožnit lidem, kteří nemají super technické zázemí nebo dokonce hluboce nerozumí tomu, jak modely umělé inteligence fungují, stále vkládat akce, které má umělá inteligence provádět, do systému agentů.
Myslím, že se to v příštích několika letech stane stále důležitější schopností. To by mělo být jedním z nejdůležitějších kritérií, když lidé hodnotí podobné nástroje, protože chcete mít možnost tyto systémy průběžně optimalizovat a zlepšovat.
Obchodní logika poháněná přirozeným jazykem
Derrick Harris: Jak se mohou zákazníci nebo podniky připravit na jakýkoli typ automatizace, a zejména na použití tohoto systému agentů? Jak mohou například navrhnout své datové systémy, softwarovou architekturu nebo obchodní logiku, aby takové systémy podporovaly?
Protože mám pocit, že spousta technologií umělé inteligence je zpočátku nová, ale pokud jde o stávající starší systémy, často naráží na velký chaos.
Jesse Zhang: Pokud teď někdo staví od nuly, existuje spousta osvědčených postupů, které vám mohou usnadnit práci. Například jak strukturovat svou znalostní bázi. O některých z nich jsme psali a představili některé metody, které mohou AI usnadnit získávání informací a zlepšit jejich přesnost. Jedním konkrétním návrhem je rozdělit znalostní základnu na modulární části, spíše než mít jeden velký článek s více odpověďmi.
Při nastavování rozhraní API je můžete upravit tak, aby byly vhodnější pro systém Agent, a nastavit oprávnění a výstup způsobem, který systému Agenta usnadní ingestování informací, aniž by musel provádět mnoho výpočtů, aby našel odpověď. Toto jsou některá taktická opatření, která lze přijmout, ale neřekl bych, že je třeba něco udělat, aby bylo možné používat systém Agent.
Derrick Harris: Dobrá dokumentace je vždy důležitá, v podstatě jde o efektivní organizaci informací.
Kimberly Tan: Zní to, jako když se snažíte naučit lidi, jak nasměrovat systém agentů, aby fungoval způsobem, který nejlépe vyhovuje jejich zákazníkům nebo konkrétním případům použití, pak může být zapotřebí hodně experimentování s designem uživatelského rozhraní a UX, nebo budete muset vyrazit nové cesty v této zcela nové oblasti, protože se velmi liší od tradičního softwaru.
To by mě zajímalo, co si o tom myslíš? Jak by mělo vypadat UI a UX ve světě Agent-first? Jak se podle vás změní v příštích letech?
Jesse Zhang: Neřekl bych, že jsme tento problém vyřešili. Myslím, že jsme možná našli lokální optimum, které vyhovuje našim současným zákazníkům, ale pro nás i pro mnoho dalších je to stále probíhající oblast výzkumu.
Základní problém se vrací k tomu, co jsme zmínili dříve, tedy že máte systém agentů. Za prvé, jak můžete jasně vidět, co dělá a jak se rozhoduje? Jak pak můžete tyto informace použít k rozhodování o tom, co je třeba aktualizovat a jakou zpětnou vazbu by měla být poskytnuta AI? Zde se spojují prvky uživatelského rozhraní, zejména druhá část.
Myslíme si, že časem bude UI a UX stále přirozenější jazyk, protože tak uvažuje systém Agent, nebo to je v podstatě základ pro trénink velkých jazykových modelů (LLM).
V extrémním případě, pokud máte superinteligentního agenta, který v podstatě myslí jako člověk, můžete mu věci ukázat, vysvětlit mu, dát mu zpětnou vazbu a on se bude aktualizovat ve své vlastní „mysli“. Dokážete si představit, že se k vám do týmu připojí velmi schopný člověk, něco ho naučíte, on začne pracovat a pak mu stále dáváte zpětnou vazbu, můžete mu ukazovat nové věci, nové dokumenty, schémata atd.
Myslím, že v extrémním případě se to bude vyvíjet tímto směrem: věci se stanou konverzačními, přirozenějšími na jazyku a lidé přestanou budovat systémy se složitými rozhodovacími stromy jako kdysi, zachycují to, co chcete, ale tento přístup se může snadno zhroutit. Dříve jsme to museli dělat, protože tehdy neexistovaly žádné LLM, ale nyní, když jsou systémy agentů stále výkonnější, UI a UX budou více konverzační.
Kimberly Tan: Zhruba před rokem a půl, když Decagon poprvé začínal, panoval obecný názor, že LLM je velmi použitelný pro mnoho případů použití, ale ve skutečnosti to byl jen jakýsi „obal GPT“, kde společnosti mohly jednoduše zavolat základní model přes API a okamžitě vyřešit své problémy s podporou.
Ale samozřejmě, když se společnosti rozhodnou používat řešení jako Decagon místo toho, aby se vydaly touto cestou přímo, ukazuje se, že tomu tak není. Zajímalo by mě, jestli byste mohl vysvětlit, proč tomu tak je. Co přesně způsobilo, že výzvy vnitřního budování jsou složitější, než se očekávalo? Jaké mylné představy o konceptu měli?
Jesse Zhang: Není nic špatného na tom, být „obalem GPT“, dalo by se říci, že Purcell je obal AWS nebo něco takového. Obvykle, když lidé používají tento termín, znamená to něco hanlivého.
Můj osobní názor je, že pokud budujete systém agentů, z definice určitě budete používat LLM jako nástroj. Takže ve skutečnosti stavíte na něčem, co již existuje, stejně jako byste normálně stavěli na AWS nebo GCP.
Ale skutečný problém, na který můžete narazit, je, pokud software, který stavíte na LLM, není dostatečně „těžký“ nebo složitý, aby něco změnil.
Když se podíváme zpět, pro nás je to, co prodáváme, v podstatě software. Jsme vlastně jako běžná softwarová společnost, až na to, že používáme LLM jako součást softwaru a jako jeden z nástrojů. Ale když si lidé kupují tento druh produktu, chtějí hlavně samotný software. Chtějí nástroje, které dokážou monitorovat AI, které dokážou proniknout hluboko do detailů každé konverzace, kterou AI vede, které mohou poskytovat zpětnou vazbu, které mohou neustále budovat a upravovat systém.
Takže to je jádro našeho softwaru. Dokonce i se samotným systémem Agent je problém, který lidé mají v tom, že je skvělé udělat demo, ale pokud ho chcete připravit na produkci a skutečně orientovaný na zákazníka, musíte vyřešit spoustu dlouhodobých problémů, jako je předcházení fenoménu „iluze“ a vypořádání se se špatnými herci, kteří se snaží způsobit zmatek. Musíme se také ujistit, že latence je dostatečně nízká, tón je vhodný a tak dále.
Mluvili jsme se spoustou týmů a oni provedli nějaké experimenty, vytvořili předběžnou verzi a pak si uvědomili: "Oh, opravdu, nechceme být těmi, kdo budou tyto detaily budovat v pozdějších fázích." Také nechtěli být těmi, kdo stále přidávají novou logiku do týmu zákaznických služeb. V tuto chvíli se tedy zdá vhodnější zvolit si spolupráci s ostatními.
Kimberly Tan: Zmínil jste některé dlouhodobé problémy, jako je potřeba vypořádat se se špatnými herci atd.Věřím, že mnoho posluchačů, kteří zvažují použití AI Agenta, se obává nových cest k bezpečnostním útokům, které mohou nastat po zavedení LLM, nebo nových bezpečnostních rizik, která mohou nastat po zavedení systému Agent. Co si o těchto problémech myslíte? A jaké jsou nejlepší postupy pro zajištění špičkové podnikové bezpečnosti při jednání Činidlo?
Jesse Zhang: Pokud jde o bezpečnost, existují určitá zřejmá opatření, která lze přijmout, o kterých jsem se zmínil dříve, jako je potřeba ochranných opatření. Hlavním problémem je, že obavy lidí z LLM spočívají v tom, že nejsou deterministické.
Dobrou zprávou ale je, že většinu citlivých a složitých operací můžete ve skutečnosti umístit za deterministickou zeď a výpočet probíhá tam, když volá API. Takže se nespoléháte úplně na LLM, že to zvládne, a tím se vyhnete mnoha zásadním problémům.
Ale stále jsou situace, kdy se do toho vměšuje například špatný herec nebo se někdo snaží vyvolat v systému halucinace. Zjistili jsme, že u mnoha hlavních zákazníků, se kterými pracujeme, jejich bezpečnostní týmy vstoupí a v zásadě provedou „červený tým“ test našich produktů, přičemž tráví týdny nepřetržitým spouštěním různých možných útoků na systém, aby se pokusili najít zranitelná místa. Jak se AI Agent stává stále populárnějším, můžeme to vidět stále častěji, protože je to jeden z nejlepších způsobů, jak otestovat, zda je systém účinný. Jde o to hodit na něj něco přes červený týmový test a zjistit, jestli dokáže prorazit obranu.
Existují také startupy, které vyvíjejí nástroje pro červené týmy nebo umožňují lidem provádět tyto druhy testů sami, což je trend, který právě teď vidíme. Mnoho společností, se kterými spolupracujeme, bude mít v pozdější fázi prodejního cyklu svůj bezpečnostní tým nebo ve spolupráci s externím týmem zátěžový test systému. Pro nás je schopnost projít těmito druhy testů nutností. Takže nakonec o to jde.
Derrick Harris: Je to něco, k čemu své zákazníky povzbuzujete? Protože když mluvíme o zásadách AI, zmiňujeme důležitý aspekt, kterým je aplikační vrstva, a klademe důraz na uvedení na odpovědnost na uživatelích LLM a lidech provozujících aplikaci, spíše než prosté obviňování samotného modelu. To znamená, že zákazníci by měli provádět červené týmové testování, identifikovat konkrétní případy použití a cesty útoků a určit, které zranitelnosti je třeba chránit, spíše než se jednoduše spoléhat na bezpečnostní ochranu již nastavenou OpenAI nebo jinými společnostmi.
Jesse Zhang: naprosto souhlasím. Také si myslím, že se může objevit nová vlna požadavků na oznámení, podobně jako certifikace SOC 2 a certifikace HIPAA, kterou nyní všichni dělají a které jsou vyžadovány v různých odvětvích. Obvykle, když prodáváte generický produkt SaaS, zákazníci budou vyžadovat penetrační testování a my musíme také poskytnout naši zprávu o penetračním testování. Pro AI Agent mohou být v budoucnu podobné požadavky a někdo to může jmenovat, ale v zásadě jde o nový způsob, jak otestovat, zda je systém Agent dostatečně výkonný.
Kimberly Tan: Jedna věc, která je zajímavá, je, že všichni jsou zjevně nadšeni z objevů nových modelů a technologických průlomů, které zavádějí všechny velké laboratoře. Jako společnost s umělou inteligencí zjevně neprovádíte svůj vlastní výzkum, ale využíváte tento výzkum a vytváříte kolem něj spoustu softwaru, který můžete dodat koncovému zákazníkovi.
Vaše práce je však založena na rychle se měnících technologiích. Zajímalo by mě, jak jako společnost s aplikovanou umělou inteligencí držíte krok s novými technologickými změnami a chápete, jak ovlivňují společnost, a přitom jste schopni předvídat svůj vlastní produktový plán a vytvářet potřeby uživatelů? Obecněji řečeno, jaké strategie by měly společnosti aplikované AI v podobných situacích přijmout?
Jesse Zhang: Celý zásobník můžete vlastně rozdělit na různé části. Například LLM je na dně, pokud se podíváte na aplikační vrstvu. Můžete mít uprostřed nějaké nástroje, které vám pomohou řídit LLM nebo provádět nějaké hodnocení a podobně. Pak je horní část v podstatě to, co jsme postavili, což je vlastně jako standardní SaaS.
Většina naší práce se tedy ve skutečnosti příliš neliší od běžného softwaru, kromě toho, že máme další složku výzkumu – LLM se mění příliš rychle. Musíme prozkoumat, co umí, v čem jsou dobří a jaký model by měl být použit k provedení určitého úkolu. To je velký problém, protože OpenAI i Anthropic spouští nové technologie a Gemini se také postupně zlepšuje.
Proto, musíte mít svůj vlastní hodnotící mechanismus, abyste pochopili, který model je vhodný pro použití v které situaci. Občas je také potřeba doladit, ale otázka zní: kdy doladit? Kdy se doladění vyplatí? To jsou pravděpodobně hlavní výzkumné problémy související s LLM, na které se zaměřujeme. Ale alespoň zatím nemáme pocit, že by se SaaS rychle měnilo, protože nejsme závislí na střední vrstvě. V zásadě se tedy mění LLM. Nemění se příliš často, a když už ano, je to obvykle upgrade. Například sonet Claude 3.5 byl aktualizován před několika měsíci a tehdy jsme si řekli: "Dobře, měli bychom přejít na nový model, místo abychom nadále používali ten starý?"
Potřebujeme pouze provést sérii hodnocení, a jakmile přejdeme na nový model, už o tom nepřemýšlíme, protože už používáte nový model. Pak vyšla verze o1 a situace byla podobná. Přemýšlejte o tom, kde se dá použít. V našem případě je o1 pro většinu případů použití se zákazníky trochu pomalý, takže jej můžeme použít pro nějakou práci na pozadí. Nakonec potřebujeme mít dobrý systém pro modelový výzkum.
Kimberly Tan: Jak často hodnotíte nový model a rozhodujete se, zda jej vyměnit?
Jesse Zhang: Hodnotíme pokaždé, když vyjde nový model. Musíte se ujistit, že i když je nový model chytřejší, nenaruší některé případy použití, které jste již vytvořili. To se může stát. Nový model může být například celkově chytřejší, ale v některých extrémních případech se mu špatně daří při výběru A/B v jednom z vašich pracovních postupů. To je to, co hodnotíme.
Celkově si myslím, že typ inteligence, na kterém nám záleží nejvíce, je to, co bych nazval „schopností následovat instrukce“. Chceme, aby byl model stále lepší v dodržování pokynů. Pokud je to tak, tak je to pro nás určitě přínosné a to je moc dobře.
Zdá se, že nedávný výzkum se více zaměřil na typ inteligence, který zahrnuje uvažování, jako je lepší programování a lepší matematické operace. To nám také pomáhá, ale není to tak důležité jako zlepšení schopnosti následovat instrukce.
Kimberly Tan: Jeden velmi zajímavý bod, který jste zmínil, a myslím si, že je také velmi jedinečný pro Decagon, je, že jste si vybudovali mnoho vlastní infrastruktury pro hodnocení, abyste se ujistili, že přesně víte, jak si každý model vede v rámci sady testů, které poskytujete.
Můžete to upřesnit? Jak důležitá je tato interní infrastruktura hodnocení a jak konkrétně dává vám a vašim zákazníkům důvěru ve výkon agenta? Protože některá z těchto hodnocení jsou také orientovaná na zákazníka.
Jesse Zhang: Myslím si, že je to velmi důležité, protože bez této hodnotící infrastruktury by pro nás bylo velmi obtížné rychle iterovat.
Pokud máte pocit, že každá změna má vysokou pravděpodobnost, že něco pokazí, pak změny neprovedete rychle. Ale pokud máte hodnotící mechanismus, tak když dojde k zásadní změně, k aktualizaci modelu nebo přijde něco nového, můžete to přímo porovnat se všemi hodnotícími testy. Pokud jsou výsledky hodnocení dobré, můžete mít pocit: dobře, udělali jsme zlepšení, nebo to můžete s důvěrou vydat, aniž byste si dělali velké starosti.
Takže v našem oboru hodnocení vyžaduje vstup od zákazníka, protože zákazník je ten, kdo rozhoduje, zda je něco správné nebo ne. Samozřejmě můžeme zkontrolovat některé problémy na vysoké úrovni, ale obvykle zákazník poskytuje konkrétní případy použití a říká nám, jaká je správná odpověď nebo jaká musí být, jaký tón musí udržovat, co musí říkat.
Na tom je založeno hodnocení. Musíme se tedy ujistit, že náš systém hodnocení je dostatečně robustní. Na začátku jsme si ho postavili sami a na údržbu to není tak náročné. Víme také, že existují některé společnosti zabývající se posuzováním, a některé z nich jsme prozkoumali. Možná v určitou chvíli zvážíme, zda je přijmout, ale prozatím pro nás systém hodnocení již není bolestí.
Kimberly Tan: Dnes je velmi populární téma multimodalita, což znamená, že agenti AI by měli být schopni interagovat napříč všemi formami, které dnes lidé používají, ať už jde o text, video, hlas atd. Vím, že Decagon začínal jako textový. Z vašeho pohledu, jak důležité je multimodalita agentům AI? Jaký je podle vás časový rámec, aby se stal mainstreamem nebo dokonce standardem?
Jesse Zhang: Je důležité a z pohledu společnosti není nijak zvlášť obtížné přidat novou modalitu. Není to jednoduché, ale jádrem je: pokud řešíte jiné problémy, jako jsou ty, které jsem zmínil – například sestavení umělé inteligence, její sledování a správná logika – pak přidání nové modality není tou nejobtížnější věcí. Takže pro nás má všechny modality velký smysl a rozšiřuje to náš trh. V zásadě jsme agnostici modality a pro každou modalitu vytváříme vlastního agenta.
Obecně řečeno, existují dva omezující faktory: za prvé, je zákazník připraven přijmout nový způsob? Myslím, že má smysl začít textem, protože to je způsob, jakým lidé nejaktivněji přijímají a je pro ně méně riskantní, snáze se sleduje a snáze rozumí. Další velkou modalitou je hlas. Je zřejmé, že si myslím, že na trhu je stále prostor a akceptace hlasu uživateli se stále musí zlepšit. V tuto chvíli vidíme několik prvních osvojitelů, kteří začali adoptovat hlasové agenty, což je velmi vzrušující. Dalším aspektem jsou technické problémy. Většina lidí by souhlasila s tím, že pro hlas je laťka nastavena výše. Pokud s někým mluvíte po telefonu, potřebujete velmi krátkou hlasovou latenci. Pokud někoho vyrušíte, musí reagovat přirozeně.
Protože je latence řeči nižší, musíte být chytřejší ve způsobu výpočtu. Pokud jste v chatu a doba odezvy je pět až osm sekund, téměř si toho nevšimnete a je to velmi přirozené. Pokud ale odpověď na telefonu trvá pět až osm sekund, působí to trochu nepřirozeně. Takže s řečí je více technických problémů. Jakmile jsou tyto technické problémy vyřešeny a zájem o přejímání řeči na trhu roste, řeč jako nová modalita se stane hlavním proudem.
Obchodní model, který překonává důvěru
Kimberly Tan: Než budeme pokračovat, ráda bych promluvila trochu více o obchodním modelu AI Agent. Když jste první postavený Agent AI nebo diskutovali se zákazníky o systému, který používají, o datech, která zpracovávají, a jejich obavách, bylo něco, co vás překvapilo? Jaké jsou některé neintuitivní nebo překvapivé věci, které musel Decagon udělat, aby lépe sloužil podnikovým zákazníkům?
Jesse Zhang: Myslím, že nejpřekvapivější věcí bylo, do jaké míry byli lidé ochotni s námi mluvit, když jsme začínali. Vždyť jsme byli jen dva. Oba jsme předtím založili společnosti, takže jsme znali spoustu lidí, ale i tak pro každého podnikatele, když chcete zahájit konverzaci s doporučením, pokud to, co říkáte, není nijak zvlášť přesvědčivé, je konverzace obvykle dost vlažná.
Ale když jsme začali mluvit o tomto případu použití, ve skutečnosti mě docela překvapilo, jak nadšeně o tom lidé mluvili. Protože ta myšlenka se zdá být tak jasná. Možná si myslíte, že když je to tak zřejmý nápad, musel to už udělat někdo jiný, nebo už musí existovat řešení, nebo někdo jiný už s nějakým řešením přišel. Ale myslím, že jsme zachytili dobrý okamžik, ten případ použití je opravdu velký a lidem na něm opravdu záleží. Jak jsem již zmínil, tento případ použití se opravdu dobře hodí pro převzetí AI Agenta a jeho uvedení do produkce, protože jej můžete implementovat postupně a být schopni sledovat ROI.
To pro mě bylo příjemné překvapení, ale samozřejmě je po tom ještě spousta práce, musíte pracovat se zákazníky, musíte postavit produkt, musíte přijít na to, kterou cestou se vydat. V počáteční fázi to bylo opravdu překvapivé zjištění.
Derrick Harris: Kimberly, mám pocit, že bych měl zmínit ten blogový příspěvek, který jsi napsala, RIP to RPA, který se dotýká mnoha na automatizační úlohy a spouštění.Myslíte si, že existuje fenomén, kdy tyto automatizované úkoly, respektive řešení, nejsou tak ideální, takže lidé stále hledají lepší cestu?
Kimberly Tan: Ano, myslím si to. Rád bych řekl několik věcí. Za prvé, pokud je nápad každému zřejmý, ale neexistuje jasná společnost, která by ho vyřešila, nebo nikdo na společnost neukazuje a neříká: „Měli byste použít toto,“ pak to znamená, že problém nebyl ve skutečnosti vyřešen.
V jistém smyslu je to pro společnost zcela otevřená příležitost vyvinout řešení. Protože, jak jste řekl, sledujeme Decagon jako investora od začátku. Sledovali jsme, jak procházejí kreativním bludištěm, a když se rozhodli jít tímto směrem a začali mluvit se zákazníky, bylo jasné, že všichni zákazníci zoufale touží po nějakém nativním řešení s umělou inteligencí. Toto je jeden z problémů, o kterém jsem se zmínil dříve, kde si mnoho lidí myslí, že jde pouze o obal GPT. Zájem zákazníků, který Decagon od začátku zaznamenal, nás však brzy donutil uvědomit si, že mnohé z těchto problémů jsou mnohem složitější, než lidé očekávají.
Myslím, že tento fenomén se děje napříč průmyslovými odvětvími, ať už jde o služby zákazníkům nebo profesionální automatizaci v určitých vertikálách. Myslím, že jedním z podceňovaných bodů je, jak Jesse zmínil dříve, schopnost jasně měřit návratnost investic (ROI) automatizačních úkolů. Protože pokud chcete někoho přimět, aby přijal agenta umělé inteligence, ve skutečnosti učiní určitý „skok víry“, protože je to pro mnoho lidí velmi neznámé území.
Pokud dokážete automatizovat velmi specifický proces, který je buď zřejmým procesem generujícím příjmy, nebo procesem, který dříve představoval úzké místo v podnikání, nebo hlavním nákladovým střediskem, které se lineárně zvyšuje s růstem zákazníků nebo růstem tržeb, pak bude snazší získat přijetí pro AI Agenta. Schopnost přeměnit takové problémy na produktivnější proces, který lze škálovat jako tradiční software, je velmi atraktivní.
Kimberly Tan: Než půjdeme dál, mám poslední otázku. Pamatuji si, jak Jesse v našich předchozích diskuzích vždy říkal, že největší výzvou pro společnosti, které přijímají software nebo agenty AI, budou halucinace. Ale jednou jsi mi řekl, že to vlastně není ten hlavní problém. Můžete přiblížit, proč je vnímání halucinací poněkud zavádějící a co vlastně lidi více znepokojuje?
Jesse Zhang: Myslím, že lidem halucinace vadí, ale více se zajímají o hodnotu, kterou mohou poskytnout. Téměř všechny společnosti, se kterými spolupracujeme, se zaměřují na několik stejných problémů, téměř úplně stejné: jaké procento konverzací dokážete vyřešit? Jak jsou moji zákazníci spokojeni? Pak může být problém halucinací klasifikován jako třetí kategorie, konkrétně jak je přesný. Obecně lze říci, že při hodnocení jsou důležitější první dva faktory.
Řekněme, že mluvíte s novým podnikem a v prvních dvou faktorech jste odvedli opravdu dobrou práci a máte velkou podporu od vedení a všech členů týmu. Říkají: „Ach můj bože, naše zákaznická zkušenost je jiná. Každý zákazník má nyní svého osobního asistenta, který se na nás může kdykoliv obrátit. Dali jsme jim skvělé odpovědi, jsou velmi spokojeni a je to vícejazyčné a dostupné 24 hodin denně, 7 dní v týdnu.“ To k tomu prostě patří a navíc jste ušetřili spoustu peněz.
Jakmile tedy dosáhnete těchto cílů, získáte velkou podporu a spoustu zad, abyste mohli pracovat. Samozřejmě, že problém s iluzí musí být nakonec vyřešen, ale není to věc, která je nejvíce znepokojuje. Způsob, jak vyřešit iluzi, je stejný, jak jsem již zmínil – lidé vás budou testovat. Může existovat fáze ověřování konceptu, kdy skutečně vedete skutečné konverzace a členové týmu sledují a kontrolují přesnost. Pokud to jde dobře, pak to obvykle projde.
Také, jak jsem již zmínil, můžete nastavit některá přísná ochranná opatření pro citlivé informace, například nemusíte nutně generovat citlivý obsah. Otázka iluze je tedy předmětem diskuse ve většině transakcí. Není to nedůležité téma. Tímto procesem projdete, ale nikdy není středem konverzace.
Kimberly Tan: Nyní přejděme k obchodnímu modelu AI Agent. Dnes je velké téma o tom, jak nacenit tyto agenty AI.
Historicky je mnoho softwaru SaaS oceněno podle počtu míst, protože jde o software pro pracovní postupy, který se zaměřuje na jednotlivé zaměstnance a používá se ke zlepšení produktivity zaměstnanců. AI Agent však není spojen s produktivitou jednotlivých zaměstnanců jako tradiční software.
Tolik lidí si myslí, že metoda stanovení ceny podle počtu míst již nemusí být použitelná. jsem zvědavý jak Přemýšleli jste o tomto dilematu v prvních dnech a o tom, jak jste se nakonec rozhodli nacenit Decagon. Také, jaký bude podle vás budoucí trend cen softwaru, protože AI Agent se stává stále běžnějším?
Jesse Zhang: Náš názor na tento problém je, že v minulosti se software určoval cenou za sedadlo, protože jeho rozsah byl zhruba založen na počtu lidí, kteří mohli software používat. Pro většinu agentů AI však hodnota, kterou poskytujete, nezávisí na počtu lidí, kteří ji udržují, ale spíše na množství vyrobené práce. To je v souladu s bodem, který jsem zmínil dříve: pokud je návratnost investic (ROI) velmi měřitelná, pak je úroveň pracovního výkonu také velmi jasná.
Náš názor je, že cenotvorba podle počtu míst rozhodně neplatí. Cenu můžete stanovit na základě výstupu díla. Cenový model, který nabízíte, by tedy měl být takový, že čím více odvedené práce, tím více zaplatíte.
Pro nás existují dva zřejmé způsoby stanovení ceny. Můžete buď ocenit konverzace, nebo můžete ocenit konverzace, které AI skutečně řeší. Myslím, že jednou ze zajímavých lekcí, které jsme se naučili, je, že většina lidí zvolila model konverzace. Důvodem je, že hlavní výhodou nacenění podle řešení je, že platíte za co na AI ano.
Ale následuje otázka, co je považováno za „řešení“? Za prvé, nikdo nechce jít do toho do hloubky, protože to zní: „Pokud někdo přijde naštvaný a pošlete ho pryč, proč bychom za to měli platit?
To vytváří nepříjemnou situaci a také to dělá pobídky pro poskytovatele umělé inteligence poněkud zvláštní, protože účtování pomocí řešení znamená: „Potřebujeme vyřešit co nejvíce konverzací a odstrčit některé lidi pryč.“ Existuje však mnoho případů, kdy je lepší problém eskalovat, než jej jen odsouvat, a zákazníkům se tento způsob jednání nelíbí. Účtování konverzací tedy přinese větší jednoduchost a předvídatelnost.
Kimberly Tan: Jak dlouho si myslíte, že budoucí cenový model vydrží?Protože právě teď, když zmiňujete ROI, je to obvykle založeno na minulých výdajích, které mohly být použity na pokrytí mzdových nákladů. Jak se AI agenti stávají běžnějšími, myslíte si, že z dlouhodobého hlediska bude AI srovnávána s náklady na pracovní sílu a že je to vhodné měřítko? Pokud ne, jak vidíte dlouhodobou tvorbu cen nad rámec mzdových nákladů?
Jesse Zhang: Myslím si, že z dlouhodobého hlediska může být cena AI Agent stále primárně spojena s mzdovými náklady, protože v tom je krása Agenta – vaše předchozí výdaje za služby lze nyní přesunout na software.
Tato část výdajů může být 10 až 100krát vyšší než výdaje na software, takže velká část nákladů se přesune na software. Mzdové náklady se proto přirozeně stanou měřítkem. Pro naše zákazníky je návratnost investic velmi jasná. Pokud můžete ušetřit X milionů na mzdových nákladech, pak má smysl přijmout toto řešení. Ale z dlouhodobého hlediska to může být střední cesta.
Protože i některé produkty, které nejsou tak dobré jako náš Agent, budou akceptovat nižší ceny. Je to jako klasická situace SaaS, kde všichni soutěží o podíl na trhu.
Kimberly Tan: Co si myslíte, že má budoucnost pro současné společnosti SaaS, zejména pro ty, jejichž produkty možná nebyly vytvořeny pro AI nativně nebo které mají cenu za sedadlo, a proto se nemohou přizpůsobit cenovému modelu orientovanému na výsledky?
Jesse Zhang: Pro některé tradiční společnosti je skutečně trochu složité, když se pokoušejí spustit produkt AI Agent, protože jej nemohou ocenit pomocí modelu sedadla. Pokud již nepotřebujete tolik agentů, je obtížné udržet příjmy se stávajícím produktem. Pro tradiční firmy je to problém, ale těžko říct. Tradiční společnosti mají vždy výhodu distribučních kanálů. I když produkt není tak dobrý jako nová společnost, lidé se zdráhají vynaložit úsilí na přijetí nového dodavatele pouze s kvalitou 80%.
Takže za prvé, pokud jste startup jako my, musíte zajistit, aby váš produkt byl třikrát lepší než tradiční produkt. Za druhé, jde o typickou soutěž mezi tradičními společnostmi a startupy. Tradiční společnosti mají přirozeně nižší toleranci k riziku, protože mají velký počet zákazníků. Pokud udělají chybu v rychlé iteraci, způsobí to obrovské ztráty. Startupy však mohou iterovat rychleji, takže samotný proces iterace může vést k lepšímu produktu. Toto je obvyklý cyklus. Pro nás jsme vždy byli hrdí na naši rychlost dodání, kvalitu produktů a provedení našeho týmu. To je důvod, proč jsme vyhráli současnou dohodu.
Kimberly Tan: Můžete udělat nějaké předpovědi o budoucnosti AI na pracovišti? Jak to například změní potřeby nebo schopnosti zaměstnanců nebo jak interagují lidští zaměstnanci a agenti AI?Jaké nové osvědčené postupy nebo normy se podle vás stanou normou na pracovišti, až se agenti AI rozšíří?
Jesse Zhang: První a nejdůležitější změnou je, že jsme přesvědčeni, že v budoucnu budou zaměstnanci trávit mnohem více času na pracovišti budováním a správou AI agentů, podobně jako role supervizorů AI. I když vaše pozice není oficiálně „dozorce AI“, hodně času, který jste dříve trávili vykonáváním své práce, se přesune na řízení těchto agentů, protože agenti vám mohou poskytnout velký vliv.
Viděli jsme to v mnoha nasazeních, kde lidé, kteří byli kdysi vedoucími týmů, nyní tráví spoustu času sledováním AI, například aby se ujistili, že nemá problémy, nebo aby provedli úpravy. Sledují celkový výkon, aby zjistili, zda existují konkrétní oblasti, které vyžadují pozornost, zda existují mezery ve znalostní bázi, které by mohly pomoci AI zlepšit se, a zda AI může tyto mezery zaplnit.
Práce, která je spojena s prací s agentem, vyvolává dojem, že v budoucnu budou zaměstnanci trávit značné množství času interakcí s agenty AI. Toto je základní koncept naší společnosti, jak jsem již zmínil. Proto je celý náš produkt postaven na tom, že lidem poskytujeme nástroje, vizualizaci, interpretovatelnost a ovládání. Myslím, že do roka se z toho stane obrovský trend.
Kimberly Tan: To dává velký smysl. Jaké schopnosti budou podle vás v budoucnu nadřízení AI potřebovat? Jaké jsou dovednosti pro tuto roli?
Jesse Zhang: Existují dva aspekty. Jedním z nich je pozorovatelnost a interpretovatelnost, schopnost rychle pochopit, co AI dělá a jak se rozhoduje. Druhou je schopnost rozhodování neboli stavební část, jak dávat zpětnou vazbu a jak budovat novou logiku. Myslím, že tyto dvě strany jsou dvě strany téže mince.
Kimberly Tan: Jaké úkoly podle vás zůstanou ve střednědobém nebo dlouhodobém horizontu mimo možnosti agenta AI a budou i nadále muset být správně řízeny a prováděny lidmi?
Jesse Zhang: Myslím, že to bude záležet hlavně na požadavku na „dokonalost“, o kterém jsem se zmínil dříve. Existuje mnoho úloh, které mají velmi nízkou toleranci k chybám. V těchto případech je jakýkoli nástroj AI spíše pomocníkem než plnohodnotným agentem.
Například v některých citlivějších odvětvích, jako je zdravotnictví nebo bezpečnost, kde musíte být téměř dokonalí, pak v těchto oblastech mohou být AI Agenti méně autonomní, ale to neznamená, že jsou k ničemu. Myslím, že styl bude jiný, na platformě, jako je ta naše, ve skutečnosti nasazujete tyto agenty, abyste jim umožnili automatizovat celou práci.
Derrick Harris: A to je pro tuto epizodu vše. Pokud vás toto téma zaujalo nebo inspirovalo, ohodnoťte náš podcast a sdílejte jej s více lidmi.Očekáváme, že poslední epizodu vydáme do konce roku a obsah pro nový rok upravíme. Děkujeme za poslech a přejeme krásné svátky (pokud o prázdninách posloucháte).
Původní video: Mohou Al Agents konečně opravit zákaznickou podporu?