Kiemelések

  • Az LLM-ek varázsa abban rejlik, hogy nagyon rugalmasak, sokféle helyzethez tudnak alkalmazkodni, és alapvető intelligenciával rendelkeznek.
  • Hiszünk abban, hogy idővel a felhasználói felület és az UX egyre természetesebb nyelv alapú lesz, mert így gondolkodik egy Agent rendszer, vagy alapvetően ez az alapja a nagy nyelvi modellek (LLM) képzésének.
  • Ha azt akarja, hogy valaki elfogadjon egy mesterséges intelligencia-ügynököt, akkor valójában bizonyos fokú „ugrást tesz a hitében”, mert sok ember számára ez egy nagyon ismeretlen terület.

Az AI Agent átformálja az ügyfélélményt

Jesse Zhang: Hogyan épül fel valójában egy ügynök? Az a véleményünk, hogy idővel egyre inkább egy természetes nyelv alapú ügynökhöz fog hasonlítani, mert így képezik a nagy nyelvi modelleket (LLM).

Hosszú távon, ha van egy szuperintelligens ügynököd, aki valójában olyan, mint egy ember, akkor megmutathatod neki a dolgokat, elmagyarázhatod neki, visszajelzést adsz neki, és frissíteni fogja az elméjében lévő információkat.

El tudod képzelni, hogy van egy nagyon tehetséges emberi csapattag. Amikor először csatlakoznak, megtanítasz nekik valamit, elkezdenek dolgozni, majd visszajelzést adsz nekik, és új információkat mutatsz meg nekik.

Végül ebbe az irányba fog fejlődni – társalgóbbá és természetesebb nyelvezetűvé válik, természetesebbé válik az emberek egymás közötti kommunikációja. És az emberek többé nem fogják ezeket a bonyolult döntési fákat használni a követelmények rögzítésére, amelyek működhetnek, de hajlamosak az összeomlásra.

A múltban ezt kellett tennünk, mert nem volt nagy nyelvi modellünk. De most, az Agent folyamatos fejlődésével a felhasználói élmény (UX) és a felhasználói felület (UI) sokkal beszélgetőbbé válik.

Derrick Harris: Üdvözlünk mindenkit az A16z AI Podcastban. Derrick Harris vagyok, és ma csatlakozik hozzám Jesse Zhang, a Decagon társalapítója és vezérigazgatója, valamint Kimberly Tan, az a16z partnere. Kimberly moderálja a beszélgetést, Jesse pedig megosztja tapasztalatait a Decagon és termékei gyártásában.

Ha nem sokat tud róla, a Decagon egy olyan startup, amely mesterséges intelligencia-ügynököket biztosít a vállalkozásoknak, hogy segítsenek az ügyfélszolgálatban. Ezek az ügynökök nem chatbotok és nem LLM-burkolók egyetlen API-híváshoz, hanem nagymértékben testreszabott, fejlett ügynökök, amelyek képesek kezelni a vállalat speciális igényei alapján összetett munkafolyamatokat.

Amellett, hogy elmagyarázza, miért hozták létre a Decagont, és hogyan tervezték meg a különböző LLM- és ügyfélkörnyezetek kezelését, Jesse beszél a beszélgetésenkénti díjat felszámító üzleti modell előnyeiről, valamint arról, hogy az AI-ügynökök hogyan változtatják meg az ügyfélszolgálati vezetők készségeit.

Azt is érdemes megemlíteni, hogy Kimberly nemrég írt egy blogbejegyzést „RIP to RPA, The Rise of Intelligent Automation” címmel, amelyet ebben az epizódban röviden tárgyalunk.

Remek kiindulópont annak megértéséhez, hogy az automatizálás hogyan fejlődik ki az üzleti folyamatokban, és linket adunk a bemutató jegyzeteiben. És végül, emlékeztetőül, a cikk tartalma csak tájékoztató jellegű, és nem tekinthető jogi, üzleti, adózási vagy befektetési tanácsadásnak, és nem használható semmilyen befektetés vagy értékpapír értékelésére, és nem irányul egyetlen a16z alap befektetőjének vagy potenciális befektetőjének sem.

Jesse Zhang: Egy rövid bemutatkozás magamnak. Boulderben születtem és nőttem fel, gyerekkoromban rengeteg matematika versenyen és hasonlókon vettem részt. Informatikát tanultam a Harvardon, majd alapítottam egy céget, amely mögött szintén az a16z állt. Végül a Niantic felvásárolt minket.

Aztán elkezdtük építeni a Decagont. Vállalkozásunk AI-ügynököket épít az ügyfélszolgálathoz. Az elején azért csináltuk ezt, mert olyasmit szerettünk volna csinálni, ami nagyon közel állt a szívünkhöz.

Természetesen senkit sem kell megtanítani az AI-ügynökök ügyfélszolgálatban betöltött szerepére, igaz? Mindannyian telefonáltunk légitársaságokkal, szállodákkal stb., és várakoztunk. Szóval onnan jött az ötlet.

Rengeteg ügyféllel beszélgettünk, hogy pontosan milyen terméket építsünk. Egy dolog, ami feltűnt számunkra, az az volt, hogy ahogy többet tanultunk az AI-ügynökökről, elkezdtünk gondolkodni azon, hogy milyen lesz a jövő, amikor sok lesz. Azt hiszem, mindenki azt hiszi, hogy sok mesterséges intelligencia-ügynök lesz a jövőben.

Arra gondolunk, hogy mit fognak tenni az AI-ügynökök körül dolgozó alkalmazottak? Milyen eszközeik lesznek? Hogyan fogják ellenőrizni vagy tekinteni az ügynököket, akikkel együtt dolgoznak vagy kezelnek?

Tehát ez a lényege annak, hogyan építettük fel a vállalatot e kérdés köré. Azt hiszem, ez az, ami jelenleg megkülönböztet bennünket, mert ezeket az AI-ügynököket különféle eszközökkel látjuk el, amelyek segítségével az emberek, akikkel együtt dolgozunk, megépítik és konfigurálják ezeket az ügynököket, hogy többé ne legyenek „fekete dobozok”. Így építjük a márkánkat.

Derrick Harris: Mi ihlette Önt, mivel a legutóbbi cége fogyasztói videós cég volt, hogy áttérjen a vállalati szoftverekre?

Jesse Zhang: Remek kérdés. Úgy gondolom, hogy az alapítók gyakran „téma-agnosztikusak”, amikor a témaválasztásról van szó, mert a valóságban, amikor egy új területet közelítesz meg, általában elég naiv vagy. Tehát előnye van annak, ha új szemszögből nézzük a dolgokat. Így amikor ezen gondolkodtunk, szinte semmilyen témakorlátozás nem volt.

Azt hiszem, ez egy nagyon gyakori minta a mennyiségibb háttérrel rendelkező embereknél, beleértve engem is. A fogyasztói termékek kipróbálása után inkább a vállalati szoftverek felé hajlik, mert a vállalati szoftvereknek konkrétabb problémái vannak.

Valós ügyfelei vannak valós szükségletekkel, költségvetéssel és ehhez hasonló dolgokkal, és ezekre optimalizálhatja és megoldhatja a problémákat. A fogyasztói piac is nagyon vonzó, de inkább az intuíción alapul, mint a kísérletezésen. Nekem személy szerint a vállalati szoftverek jobban megfelelnek.

Kimberly Tan: Először is kezdhetjük ezzel a kérdéssel: Melyek a leggyakoribb támogatási kategóriák, amelyekkel a Decagon foglalkozik manapság? Kifejtenéd, hogyan használsz nagy nyelvi modelleket (LLM) ezeknek a problémáknak a megoldására, és mit tehetsz most, amit korábban nem?

Jesse Zhang: Ha visszatekint a korábbi automatizálásra, előfordulhat, hogy döntési fákat használt valami egyszerű feladatra, annak meghatározására, hogy melyik utat választja. De mindannyian használtunk chatbotokat, és ez elég frusztráló élmény.

Kérdésére gyakran nem adható teljes körű válasz a döntési fa segítségével. Így végül egy olyan kérdésútra irányítanak, amely kapcsolódik a kérdéshez, de nem pontosan egyezik vele. Jelenleg nagy nyelvi modelljeink vannak (LLM). Az LLM-ek varázsa abban rejlik, hogy nagyon rugalmasak, sokféle helyzethez tudnak alkalmazkodni, és alapvető intelligenciával rendelkeznek.

Ha ezt az ügyfélszolgálatnál alkalmazza, vagy ha egy ügyfél kérdést tesz fel, személyre szabottabb szolgáltatást nyújthat. Ez az első pont, a személyre szabottság szintje nagyot javult. Ez magasabb mutatókat nyit meg. Több problémát tud megoldani, az ügyfelek elégedettebbek, és nő az ügyfelek elégedettsége.

A következő természetes lépés a következő: ha rendelkezik ezzel az intelligenciával, akkor többet kell tudnia megtenni abból, amit az emberek képesek. Az emberek azt tehetik, hogy valós időben tudnak adatokat gyűjteni, lépéseket tudnak tenni, és több lépésen keresztül tudnak érvelni. Ha egy ügyfél egy viszonylag összetett kérdést tesz fel, akkor lehet, hogy „ezt és azt akarom csinálni”, és az AI csak az első kérdés kezelésére van felkészülve. Az LLM elég okos ahhoz, hogy felismerje, itt két kérdés van. Először is megoldja az első problémát, majd segít a második probléma megoldásában.

Az LLM megjelenése előtt ez gyakorlatilag lehetetlen volt. Tehát most egy lépéses változást látunk abban, hogy mire képes a technológia, és ez az LLM-nek köszönhető.

Kimberly Tan: Ebben az összefüggésben hogyan határozná meg az AI-ügynököt? Mivel az „ügynök” szót széles körben használják, kíváncsi vagyok, mit is jelent valójában a Decagon kontextusában.

Jesse Zhang: Azt mondanám, hogy az Agent inkább olyan rendszerre utal, ahol több LLM (nagy nyelvi modell) rendszer működik együtt. LLM-hívásod van, ami alapvetően egy felszólítás elküldését és a válasz megszerzését foglalja magában. Egy ügynök esetében több ilyen hívást szeretne összekapcsolni, esetleg rekurzív módon.

Például van egy LLM-hívása, amely meghatározza az üzenet kezelésének módját, majd további hívásokat indíthat el, amelyek több adatot vonnak be, műveleteket hajtanak végre, és megismétlik a felhasználó által mondottakat, esetleg további kérdéseket is feltehetnek. Tehát számunkra az ügynök szinte LLM-hívásokból, API-hívásokból vagy más logikából álló hálózatként fogható fel, amelyek együttműködve jobb élményt nyújtanak.

Kimberly Tan: Ebben a témában talán többet beszélhetünk az Ön által felépített ügynök-infrastruktúráról. Szerintem az egyik nagyon érdekes pont az, hogy sok mesterséges intelligencia-ügynök bemutató van a piacon, de úgy gondolom, hogy nagyon kevés olyan példa van rájuk, amely valóban stabilan tud működni éles környezetben. És nehéz kívülről tudni, hogy mi az igazi és mi nem.

Tehát véleménye szerint a mai mesterséges intelligencia-ügynökök mely aspektusai teljesítenek jól, és melyek azok, amelyek még mindig technológiai áttörést igényelnek, hogy robusztusabbak és megbízhatóbbak legyenek?

Jesse Zhang: Az én nézetem valójában egy kicsit más. A különbség aközött, hogy megállapítható, hogy egy AI-ügynök csak demó, vagy „tényleg működik”, nem teljesen a technológiai halmazban rejlik, mert szerintem a legtöbb ember nagyjából ugyanazt a technológiát használja. Úgy gondolom, hogy ha már tovább ment a cége fejlesztésében, például cégünk már több mint egy éve alakult, akkor valami nagyon specifikusat fog készíteni, ami illik az Ön használati esetéhez.

De végső soron mindenki hozzáférhet ugyanahhoz a modellhez és hasonló technológiát használhat. Azt hiszem, a legnagyobb különbség abban, hogy egy AI-ügynök hatékonyan tud-e dolgozni, valójában a használati eset formájában rejlik. Eleinte nehéz ezt tudni, de visszatekintve látni fogod, hogy két olyan tulajdonság van, amelyek nagyon fontosak egy AI-ügynök számára ahhoz, hogy túllépjen a demonstráción és a gyakorlati alkalmazáson.

Az első az, hogy a megoldott használati esetnek számszerűsíthető ROI-val (befektetésarányos megtérüléssel) kell rendelkeznie. Ez nagyon fontos, mert ha a ROI-t nem lehet számszerűsíteni, akkor nehéz lesz meggyőzni az embereket, hogy valóban használják a terméket és fizessenek érte. Esetünkben a mennyiségi mutató: a támogatási igények hány százalékát oldja meg? Mivel ez a szám egyértelmű, az emberek megértik – ó, oké, ha többet old meg, össze tudom hasonlítani ezt az eredményt az aktuális kiadásaimmal és idővel. Tehát, ha van ez a mutató, egy másik nagyon fontos mutató számunkra a vásárlói elégedettség. Mivel a ROI könnyen számszerűsíthető, az emberek valóban elfogadják.

A második tényező az, hogy a használati eseteknek fokozatosan nehezebbnek kell lenniük. Az is nagyon nehéz lenne, ha már a kezdetektől emberfeletti ügynökre lenne szükség, aki a felhasználási esetek közül majdnem 100%-t megoldana. Mivel, mint tudjuk, az LLM-ek nem determinisztikusak, szükség van valamilyen készenléti tervre. Szerencsére van egy nagyszerű tulajdonsága a támogatási felhasználási eseteknek, mégpedig az, hogy mindig eszkalálható az ember. Még akkor is, ha a problémáknak csak a felét tudja megoldani, ez akkor is nagyon értékes az emberek számára.

Tehát úgy gondolom, hogy ez a támogatás rendelkezik ezzel a tulajdonsággal, ami nagyon alkalmassá teszi az AI Agent számára. Azt hiszem, sok más terület is van, ahol az emberek lenyűgöző demókat készíthetnek, ahol nem is kell alaposan megnézni, hogy megértsük, miért lenne hasznos az AI Agent. De ha kezdettől fogva tökéletesnek kell lennie, akkor nagyon nehéz. Ha ez a helyzet, akkor szinte senki sem akarja kipróbálni vagy használni, mert tökéletlensége nagyon súlyos következményekkel járhat – például a biztonság szempontjából.

Például, amikor az emberek szimulációkat végeznek, mindig ez a klasszikus gondolat jár bennük: "Ó, jó lenne, ha az LLM ezt elolvasná." De nehéz elképzelni, hogy valaki azt mondja: „Rendben, AI-ügynök, hajrá. Hiszem, hogy meg tudod csinálni." Mert ha hibát követ el, annak nagyon súlyos következményei lehetnek.

Jesse Zhang: Ezt általában ügyfeleink döntik el, sőt, nagyon sokféle eltérést látunk. Az egyik véglet, hogy egyesek valóban emberhez hasonlítják az ügynöküket, tehát van egy emberi avatár, egy emberi név, és a válaszok nagyon természetesek. Másrészt az ügynök egyszerűen kijelenti, hogy ez mesterséges intelligencia, és ezt egyértelművé teszi a felhasználó számára. Úgy gondolom, hogy a különböző cégek, amelyekkel együtt dolgozunk, eltérő álláspontot képviselnek ezzel kapcsolatban.

Általában, ha Ön egy szabályozott iparágban dolgozik, ezt egyértelművé kell tennie. Amit most érdekesnek találok, az az, hogy az ügyfelek viselkedése megváltozik. Mivel sok ügyfelünk rengeteg visszajelzést kap a közösségi médiában, például: „Úristen, ez az első olyan csevegési élményem, amit valaha is kipróbáltam, és olyan valóságosnak tűnik”, vagy „Ez csak varázslat”. És ez nagyszerű nekik, mert most az ügyfeleik tanulnak. Hé, ha ez egy mesterséges intelligencia élmény, az valóban jobb lehet, mint egy ember. A múltban nem ez volt a helyzet, mert legtöbbünknek volt már ilyen telefonos ügyfélszolgálati tapasztalata a múltban: „Oké, AI, AI, AI…”

Kimberly Tan: Néhányszor említette a személyre szabás fogalmát. Mindenki ugyanazt a mögöttes technológiai architektúrát használja, de eltérő személyre szabási igényeik vannak a támogatási szolgáltatások tekintetében. Tudsz erről beszélni? Pontosabban, hogyan érheti el a személyre szabottságot, hogy az emberek azt mondhassák online: „Istenem, ez a valaha volt legjobb támogatási élményem”?

Jesse Zhang: nekünk, a személyre szabás a felhasználó testreszabásából származik. Meg kell értenie a felhasználó háttérinformációit, amely a szükséges további kontextus. Másodszor, meg kell értenie ügyfeleink üzleti logikáját is.Ha a kettőt kombinálja, akkor nagyon jó élményt nyújthat.

Nyilvánvalóan ez egyszerűen hangzik, de a valóságban nagyon nehéz megszerezni az összes szükséges kontextust. Ezért munkánk nagy része azon áll, hogyan építsük fel a megfelelő primitív összetevőket, hogy amikor egy ügyfél telepíti a rendszerünket, könnyen eldönthesse: „Rendben, ez az az üzleti logika, amit akarunk.” Például először ezt a négy lépést kell végrehajtania, és ha a harmadik lépés sikertelen, akkor az ötödik lépésre kell lépnie.

Szeretné, ha ezt nagyon könnyen megtaníthatná az AI-nak, de hozzáférést kell adnia olyan információkhoz is, mint például: „Ezek a felhasználói fiók adatai. Ha további információra van szüksége, hívja ezeket az API-kat." Ezek a rétegek egy koordinációs réteg a modell tetején, és bizonyos értelemben valóban használhatóvá teszik az ügynököt.

Kimberly Tan: Úgy tűnik, ebben az esetben sok hozzáférésre van szüksége az üzleti rendszerekhez. Sokat kell tudnod a felhasználókról, és valószínűleg tudnod kell, hogyan akar az ügyfél ténylegesen kapcsolatba lépni a felhasználóival.Úgy gondolom, hogy ezek az adatok nagyon érzékenyek lehetnek.

Kifejtené azokat a biztosítékokat, amelyekre a vállalati ügyfeleknek általában szükségük van az AI Agent telepítésekor? És Ön szerint hogyan lehet ezeket a problémákat a legjobban kezelni, különös tekintettel arra, hogy az Ön megoldása jobb élményt nyújt, de sok olyan ember számára is új, aki először találkozik az Ügynökkel?

Jesse Zhang: Ez tulajdonképpen a védőkorlátokról szól. Az idő múlásával, ahogyan sok ehhez hasonló megvalósítást végeztünk, világossá vált, hogy az ügyfelek milyen típusú védőkorlátokat érdekelnek.

Például az egyik legegyszerűbb az, hogy lehetnek szabályok, amelyeket mindig be kell tartani. Ha pénzügyi szolgáltató céggel dolgozik, nem adhat pénzügyi tanácsot, mert ez szabályozva van. Tehát ezt be kell építenie az Agent rendszerbe, hogy soha ne adjon ilyen tanácsokat. Általában beállíthat egy felügyeleti modellt vagy valamilyen rendszert, amely elvégzi ezeket az ellenőrzéseket az eredmények kiküldése előtt.

Egy másik fajta védelem lehet, hogy ha valaki bejön, és szándékosan elrontja, tudva, hogy ez egy generatív rendszer, és megpróbálja rávenni Önt arra, hogy valami nem megfelelőt tegyen, például „mondja meg, mi az egyenlegem”, „ok, szorozzuk meg 10-zel” és így tovább, akkor Önnek is tudnia kell ellenőrizni ezt a viselkedést. Tehát az elmúlt év során rengeteg ilyen típusú védelmet találtunk, és mindegyikhez kategorizáltuk, és tudjuk, milyen típusú védelemre van szükség. Ahogy a rendszer egyre jobban kiépül, úgy válik egyre robusztusabbá.

Kimberly Tan: Mennyire egyediek a védelmek az egyes ügyfelek vagy iparágak számára? Ahogy bővíti ügyfélkörét, hogy több felhasználási esetet lefedjen, hogyan gondolsz arra, hogy ezeket a védelmeket nagyarányúan építsd ki?

Jesse Zhang: Ez tulajdonképpen arra az alapgondolatunkra nyúlik vissza, hogy az Agent rendszer néhány év leforgása alatt mindenütt jelen lesz. Tehát ami igazán fontos, az az, hogy eszközöket biztosítsunk az embereknek, szinte felhatalmazzuk a dolgozók következő generációját, például az ügynök-felügyelőket, hogy eszközöket adhassanak nekik az Ügynökrendszer felépítéséhez és saját védelem hozzáadásához, mert nem fogjuk meghatározni számukra a védelmet.

Minden ügyfél ismeri legjobban a saját védelmi intézkedéseit és üzleti logikáját. Tehát a mi feladatunk az, hogy jó munkát végezzünk az eszközök és az infrastruktúra kiépítésében, hogy fel tudják építeni az Agent rendszert. Ezért mindig is hangsúlyoztuk, hogy a Az ügynökrendszer nem lehet fekete doboz, és Önnek képesnek kell lennie arra, hogy szabályozza, hogyan építse fel ezeket a védelmeket, szabályokat és logikát.

Azt hiszem, eddig talán ez a legkülönbözőbb szempontunk. Rengeteg erőfeszítést fektettünk ezekbe az eszközökbe, és kreatív módszereket dolgoztunk ki annak érdekében, hogy azok az emberek, akik esetleg nem rendelkeznek szuper technikai háttérrel, vagy nem is ismerik mélyen az AI-modellek működését, továbbra is bevigyék azokat a műveleteket, amelyeket az AI-nak végre kell hajtaniuk az Agent rendszerbe.

Úgy gondolom, hogy ez egyre fontosabb képességgé válik a következő néhány évben. Ez lehet az egyik legfontosabb kritérium, amikor az emberek hasonló eszközöket értékelnek, mert folyamatosan optimalizálni és javítani szeretné ezeket a rendszereket idővel.

A természetes nyelv által vezérelt üzleti logika

Derrick Harris: Milyen előkészületeket tehetnek az ügyfelek vagy a vállalkozások, hogy felkészüljenek bármilyen típusú automatizálásra, és különösen ennek az Agent rendszernek a használatára? Például hogyan tervezhetik meg adatrendszereiket, szoftverarchitektúrájukat vagy üzleti logikájukat az ilyen rendszerek támogatására?

Mert úgy érzem, hogy a mesterséges intelligencia sok technológiája eleinte újszerű, de amikor a meglévő örökölt rendszerekről van szó, gyakran nagy káoszba ütközik.

Jesse Zhang: Ha valaki most a nulláról építkezik, sok bevált gyakorlat létezik, amelyek megkönnyíthetik a munkáját. Például, hogyan kell felépíteni tudásbázisát. Írtunk ezek közül néhányról, és bemutattunk néhány módszert, amelyek megkönnyíthetik a mesterséges intelligencia számára az információk feldolgozását, és javíthatják azok pontosságát. Az egyik konkrét javaslat az, hogy a tudásbázist moduláris részekre ossza fel, ahelyett, hogy egyetlen nagy, több választ tartalmazó cikk lenne.

Az API beállításakor alkalmasabbá teheti őket az Agent rendszerhez, és beállíthatja az engedélyeket és a kimenetet oly módon, hogy az Agent rendszer könnyen feldolgozza az információkat anélkül, hogy sok számítást kellene végeznie a válasz megtalálásához. Ezek néhány taktikai intézkedés, amelyeket meg lehet tenni, de nem mondanám, hogy bármit is meg kell tenni az Agent rendszer használatához.

Derrick Harris: A jó dokumentáció mindig fontos, alapvetően az információk hatékony rendszerezéséről szól.

Kimberly Tan: Úgy hangzik, hogy ha meg akarja tanítani az embereket, hogyan irányítsa az Agent rendszert úgy, hogy az ügyfeleiknek vagy a konkrét felhasználási eseteknek a legjobban megfeleljen, akkor sok kísérletezésre lehet szükség a felhasználói felülettel és az UX tervezéssel, vagy új utakat kell bejárnia ezen a teljesen új területen, mert nagyon eltér a hagyományos szoftverektől.

Kíváncsi vagyok, mit gondolsz erről? Hogyan nézzen ki a felhasználói felület és a UX egy ügynök-első világban? Mit gondol, hogyan fog ez változni a következő években?

Jesse Zhang: Nem mondanám, hogy megoldottuk ezt a problémát. Úgy gondolom, hogy találtunk egy helyi optimumot, amely működik jelenlegi ügyfeleink számára, de ez még mindig folyamatban lévő kutatási terület számunkra és még sokan mások számára.

Az alapprobléma a korábban említettre nyúlik vissza, vagyis arra, hogy ügynökrendszere van. Először is, hogyan láthatja egyértelműen, hogy mit csinál, és hogyan hoz döntéseket? Ezután hogyan használhatja fel ezeket az információkat annak eldöntésére, hogy mit kell frissíteni, és milyen visszajelzést kell adni az AI-nak? Itt állnak össze a felhasználói felület elemei, különösen a második rész.

Úgy gondoljuk, hogy idővel a felhasználói felület és az UX egyre természetesebb nyelvi alapú lesz, mert így gondolkodik az Agent rendszer, vagy alapvetően ez az alapja a nagy nyelvi modellek (LLM) képzésének.

Extrém esetben, ha van egy szuperintelligens ügynökünk, aki alapvetően emberként gondolkodik, akkor megmutathat neki dolgokat, elmagyarázhat neki dolgokat, visszajelzést adhat neki, és a saját „elméjében” frissül. Elképzelheted, hogy egy nagyon rátermett ember csatlakozik a csapatodhoz, megtanítod neki valamit, elkezd dolgozni, majd folyamatosan visszajelzést adsz neki, mutathatsz neki új dolgokat, új dokumentumokat, diagramokat stb.

Szerintem szélsőséges esetben ebbe az irányba fog fejlődni: társalgásibb, természetesebb nyelvi alapúvá válnak a dolgok, és az emberek abbahagyják a komplex döntési fákkal való rendszerépítést, mint régen, megragadják, amit akarnak, de ez a megközelítés könnyen összeomolhat. Korábban ezt kellett tennünk, mert akkor még nem léteztek LLM-ek, de most, hogy az ügynökrendszerek egyre erősebbek, a felhasználói felület és az UX beszélgetőbbé válik.

Kimberly Tan: Körülbelül másfél évvel ezelőtt, amikor a Decagon először indult, általános volt az a felfogás, hogy az LLM nagyon sok felhasználási esetre alkalmazható, de valójában ez csak egyfajta „GPT-burkoló”, ahol a vállalatok egyszerűen meghívhattak egy mögöttes modellt egy API-n keresztül, és azonnal megoldhatták a támogatási problémáikat.

De nyilvánvaló, hogy mivel a vállalatok úgy döntenek, hogy olyan megoldásokat használnak, mint a Decagon, ahelyett, hogy közvetlenül ezen az úton mennének, kiderül, hogy nem ez a helyzet. Kíváncsi voltam, meg tudnád-e magyarázni, miért van ez így. Pontosan mi tette a vártnál bonyolultabbá a belső építkezés kihívásait? Milyen félreértéseik voltak a koncepcióval kapcsolatban?

Jesse Zhang: Nincs azzal semmi baj, ha „GPT-burkoló” vagy, mondhatnánk, hogy Purcell egy AWS-csomagoló, vagy valami hasonló. Általában, amikor az emberek ezt a kifejezést használják, az valami becsmérlőt jelent.

Személyes véleményem az, hogy ha ügynökrendszert építesz, akkor definíció szerint biztosan az LLM-t fogod használni eszközként. Tehát valójában valami már létezőre épít, ahogyan általában az AWS-re vagy a GCP-re építene.

Az igazi probléma azonban az, ha az LLM-re épített szoftver nem elég „nehéz” vagy bonyolult ahhoz, hogy változást hozzon.

Visszatekintve számunkra, amit eladunk, az alapvetően szoftver. Valójában olyanok vagyunk, mint egy szokásos szoftvercég, kivéve, hogy az LLM-et a szoftver részeként és az egyik eszközként használjuk. De amikor az emberek ilyen terméket vásárolnak, akkor elsősorban magát a szoftvert akarják. Olyan eszközöket szeretnének, amelyek képesek figyelni a mesterséges intelligenciát, mélyre tudnak ásni a mesterséges intelligencia minden beszélgetésének részleteit, visszajelzést tudnak adni, folyamatosan építik és módosítják a rendszert.

Tehát ez a szoftverünk magja. Még magával az Agent rendszerrel is az a probléma az emberekben, hogy menő demót készíteni, de ha gyártásra készre és valóban ügyfélközpontúvá akarjuk tenni, akkor sok régóta fennálló problémát meg kell oldanunk, például meg kell akadályozni az „illúzió” jelenséget, és meg kell küzdeni a rossz szereplőkkel, akik megpróbálnak pusztítást okozni. Arra is ügyelnünk kell, hogy a késleltetés elég alacsony legyen, a hangszín megfelelő legyen stb.

Sok csapattal beszélgettünk, és végeztek néhány kísérletet, elkészítettek egy előzetes verziót, majd rájöttek: "Ó, tényleg, nem akarunk mi építeni ezeket a részleteket a későbbi szakaszokban." Nem is akartak ők lenni azok, akik folyamatosan új logikát adnak az ügyfélszolgálati csapatnak. Tehát ezen a ponton helyénvalóbbnak tűnik a másokkal való együttműködés mellett dönteni.

Kimberly Tan: Említett néhány hosszú távú problémát, mint például a rossz színészekkel való foglalkozás stb.Úgy gondolom, hogy sok hallgató, aki az AI Agent használatát fontolgatja, aggódik az új biztonsági támadási utak miatt, amelyek az LLM-ek bevezetése után merülhetnek fel, vagy az új biztonsági kockázatok miatt, amelyek az Agent rendszer bevezetése után merülhetnek fel. Mi a véleményed ezekről a kérdésekről? És melyek a legjobb gyakorlatok a kiváló vállalati biztonság biztosításához, amikor foglalkozunk Ügynök?

Jesse Zhang: Biztonsági szempontból van néhány kézenfekvő intézkedés, amit korábban említettem, mint például a védőintézkedések szükségessége. A fő probléma az, hogy az emberek aggodalmai az LLM-ekkel kapcsolatban az, hogy nem deterministák.

De a jó hír az, hogy az érzékeny és összetett műveletek nagy részét determinisztikus fal mögé helyezhetjük, és a számítás ott történik, amikor meghívja az API-t. Tehát nem hagyatkozhat teljesen az LLM-re a kezelésében, és ezzel elkerülhető sok alapvető probléma.

De még mindig vannak olyan helyzetek, amikor például egy rossz színész beavatkozik, vagy valaki megpróbálja hallucinálni a rendszert. Megfigyeltük, hogy számos nagy ügyfélnél, akikkel együtt dolgozunk, biztonsági csapataik belépnek, és alapvetően „vörös csapat” tesztet hajtanak végre termékeinken, és hetekig folyamatosan különféle lehetséges támadásokat indítanak a rendszer ellen, hogy megkíséreljék megtalálni a sebezhetőséget. Ahogy az AI Agent egyre népszerűbbé válik, egyre gyakrabban láthatjuk ezt, mert ez az egyik legjobb módszer a rendszer hatékonyságának tesztelésére. Az, hogy dobjunk rá valamit egy piros csapat tesztjén, és nézzük meg, hogy át tudja-e törni a védelmet.

Vannak olyan induló vállalkozások is, amelyek red team-eszközöket fejlesztenek, vagy lehetővé teszik az emberek számára, hogy maguk végezzenek ilyen típusú teszteket, ami jelenleg egy tendencia. Az értékesítési ciklus egy későbbi szakaszában sok cég, amellyel dolgozunk, biztonsági csapattal, vagy külső csapattal dolgozva teszteli a rendszert. Számunkra elengedhetetlen, hogy átmenjünk az ilyen típusú teszteken. Szóval végül is erről van szó.

Derrick Harris: Erre buzdítja ügyfeleit? Mert amikor az AI-irányelvekről beszélünk, megemlítünk egy fontos szempontot, ez az alkalmazási réteg, és hangsúlyozzuk az elhelyezést a az LLM felhasználóira és az alkalmazást futtató személyekre nehezedik a felelősség, ahelyett, hogy egyszerűen magát a modellt hibáztatná. Ez azt jelenti, hogy az ügyfeleknek végre kell hajtaniuk a vörös csapat tesztelését, azonosítaniuk kell a konkrét használati eseteket és támadási útvonalakat, és meg kell határozniuk, mely sebezhetőségeket kell védeni, ahelyett, hogy egyszerűen az OpenAI vagy más cégek által már létrehozott biztonsági védelemre hagyatkoznának.

Jesse Zhang: teljesen egyetértek. Azt is gondolom, hogy a bejelentési követelmények új hulláma alakulhat ki, hasonlóan a SOC 2 tanúsítványhoz és a HIPAA tanúsításhoz, amelyet jelenleg mindenki csinál, és amelyeket a különböző iparágakban követelnek meg. Általában, amikor általános SaaS-terméket értékesít, az ügyfeleknek behatolási tesztre van szükségük, és meg kell adnunk a penetrációs tesztelési jelentésünket is. Az AI Agent esetében is hasonló követelmények lehetnek a jövőben, és valaki megnevezheti, de ez alapvetően egy új módszer annak tesztelésére, hogy az Agent rendszer elég erős-e.

Kimberly Tan: Az egyik érdekes dolog az, hogy nyilvánvalóan mindenkit nagyon izgatottak az új modellek és technológiai áttörések, amelyeket a nagy laboratóriumok bevezetnek. AI-cégként nyilvánvalóan nem végez saját kutatásokat, hanem kihasználja ezt a kutatást, és sok szoftvert épít körülötte, hogy eljuttassa a végfelhasználóhoz.

De az Ön munkája a gyorsan változó technológián alapul. Érdeklődöm, alkalmazott mesterséges intelligencia vállalatként hogyan tud lépést tartani az új technológiai változásokkal, és hogyan érti meg azok hatását a vállalatra, miközben képes előre jelezni saját terméktervét és felépíteni a felhasználói igényeket? Tágabb értelemben, milyen stratégiákat kell alkalmazniuk az alkalmazott mesterséges intelligencia vállalatoknak hasonló helyzetekben?

Jesse Zhang: Valójában az egész köteget különböző részekre oszthatja. Például az LLM alul van, ha az alkalmazási réteget nézzük. Lehet, hogy van néhány eszköz a közepén, amelyek segítik az LLM kezelését, vagy valamilyen értékelést és hasonlókat. Aztán a felső rész lényegében az, amit mi építettünk, ami valójában olyan, mint egy szabványos SaaS.

Tehát munkánk nagy része valójában nem különbözik annyira a hagyományos szoftverektől, kivéve, hogy van egy extra kutatási komponensünk – az LLM túl gyorsan változik. Utána kell járnunk, hogy mire képesek, miben jók, és melyik modellt érdemes használni egy bizonyos feladat elvégzéséhez. Ez nagy probléma, mert az OpenAI és az Anthropic is új technológiákat vezet be, és a Gemini is fokozatosan javul.

Ezért, saját értékelési mechanizmussal kell rendelkeznie ahhoz, hogy megértse, melyik modell milyen helyzetben használható. Néha finomhangolni is kell, de a kérdés az: mikor kell finomhangolni? Mikor éri meg a finomhangolás? Valószínűleg ezek az LLM-ekkel kapcsolatos fő kutatási kérdések, amelyekre összpontosítunk. De legalábbis eddig nem érezzük, hogy a SaaS gyorsan változna, mert nem függünk a középső rétegtől. Tehát alapvetően az LLM-ek változnak. Nem nagyon gyakran változnak, és ha igen, az általában frissítés. Például a Claude 3.5 szonettet néhány hónappal ezelőtt frissítették, és akkoriban azt gondoltuk: „Rendben, váltsunk az új modellre ahelyett, hogy a régit használnánk tovább?”

Csak le kell futtatnunk egy sor értékelést, és miután átváltottunk az új modellre, nem gondolunk rá többet, mert Ön már az új modellt használja. Aztán megjelent az o1-es verzió, és hasonló volt a helyzet. Gondolja át, hol lehet használni. Esetünkben az o1 kissé lassú a legtöbb ügyfél-szemléletű felhasználási esethez, így némi háttérmunkára tudjuk használni. Végső soron csak egy jó rendszerre van szükségünk a modellkutatáshoz.

Kimberly Tan: Milyen gyakran értékeli az új modellt, és dönti el, hogy lecseréli-e?

Jesse Zhang: Minden új modell megjelenését értékeljük. Meg kell győződnie arról, hogy bár az új modell okosabb, nem töri meg a már megépített használati esetek egy részét. Ez megtörténhet. Például az új modell összességében intelligensebb lehet, de bizonyos szélsőséges esetekben gyengén teljesít az egyik munkafolyamat A/B választása esetén. Ezért értékelünk.

Összességében úgy gondolom, hogy az intelligencia típusa, amelyre leginkább számítunk, az az, amit „utasításkövető képességnek” neveznék. Azt akarjuk, hogy a modell egyre jobban tudja követni az utasításokat. Ha ez a helyzet, akkor ez mindenképpen előnyös számunkra, és ez nagyon jó.

Úgy tűnik, hogy a legújabb kutatások inkább az intelligencia azon típusaira összpontosítanak, amelyek az érvelést foglalják magukban, mint például a jobb programozás és a jobb matematikai műveletek. Ez is segít nekünk, de nem annyira fontos, mint az utasításkövetési képesség fejlesztése.

Kimberly Tan: Egy nagyon érdekes dolog, amit említettél, és szerintem ez is nagyon egyedi a Decagon esetében, az az, hogy házon belül sok kiértékelési infrastruktúrát építettél ki, hogy megbizonyosodj arról, hogy pontosan tudod, hogyan teljesítenek az egyes modellek az Ön által biztosított tesztsorozat alatt.

Kifejtenéd ezt bővebben? Mennyire fontos ez a házon belüli értékelési infrastruktúra, és konkrétan hogyan erősíti Önt és ügyfeleit az Ügynök teljesítményében? Mert ezeknek az értékeléseknek egy része az ügyfelekre is vonatkozik.

Jesse Zhang: Nagyon fontosnak tartom, mert e kiértékelési infrastruktúra nélkül nagyon nehéz lenne gyorsan iterálnunk.

Ha úgy érzed, hogy minden változtatás nagy valószínűséggel eltör valamit, akkor nem fogsz gyorsan változtatni. De ha van értékelési mechanizmusa, akkor amikor jelentős változás történik, modellfrissítés vagy valami új jön, közvetlenül összehasonlíthatja az összes értékelési teszttel. Ha jók az értékelési eredmények, érezheti: oké, javítottunk, vagy bátran kiadhatja, anélkül, hogy túlzottan aggódna.

Tehát a mi területünkön Az értékeléshez az ügyfél hozzájárulása szükséges, mert az ügyfél dönti el, hogy valami helyes-e vagy sem. Természetesen ellenőrizhetünk néhány magas szintű problémát, de általában az ügyfél konkrét felhasználási eseteket ad meg, és elmondja, mi a helyes válasz, vagy minek kell lennie, milyen hangot kell fenntartania, mit kell mondania.

Az értékelés ezen alapul. Gondoskodnunk kell tehát arról, hogy értékelési rendszerünk kellően robusztus legyen. Eleinte mi magunk építettük, nem is olyan nehéz fenntartani. Azt is tudjuk, hogy van néhány értékelő cég, és ezek közül néhányat megvizsgáltunk. Talán valamikor megfontoljuk, hogy elfogadjuk-e őket, de egyelőre az értékelési rendszer már nem jelent fájdalmat számunkra.

Kimberly Tan: Napjainkban nagyon népszerű téma a multimodalitás, ami azt jelenti, hogy az AI-ügynököknek képesnek kell lenniük az emberek által manapság használt összes formában interakcióra, legyen szó szövegről, videóról, hangról stb. Tudom, hogy a Decagon szövegalapúnak indult. A te szemszögedből mennyire fontos a multimodalitás AI ügynökökhöz? Mit gondol, mi az az időkeret, amíg általánossá vagy akár standardsá válik?

Jesse Zhang: Fontos, és vállalati szempontból nem különösebben nehéz új modalitást hozzáadni. Ez nem egyszerű, de a lényeg: ha más problémákat old meg, például az általam említetteket – például az AI felépítése, annak monitorozása és a megfelelő logika –, akkor egy új modalitás hozzáadása nem a legnehezebb. Tehát számunkra nagyon logikus az összes mód megléte, és ez kiterjeszti piacunkat. Alapvetően modalitás-agnosztikusok vagyunk, és mindegyik modalitáshoz saját ügynököt építünk.

Általánosságban elmondható, hogy két korlátozó tényező van: először is, az ügyfél készen áll az új modalitás átvételére? Szerintem nagyon értelmes a szöveggel kezdeni, mert így fogadnak be a legaktívabban az emberek, és kevésbé kockázatos számukra, könnyebben nyomon követhető, könnyebben érthető. A másik nagy modalitás a hang. Nyilvánvalóan úgy gondolom, hogy van még hely a piacon, és a hangok felhasználói elfogadásán még javítani kell. Jelenleg néhány korai alkalmazót látunk, akik elkezdték a voice Agents alkalmazását, ami nagyon izgalmas. A másik szempont a technikai kihívások. A legtöbben egyetértenek azzal, hogy a léc magasabbra van állítva a hang tekintetében. Ha valakivel telefonon beszél, nagyon rövid hang késleltetésre van szüksége. Ha félbeszakít valakit, természetes módon kell válaszolnia.

Mivel a beszéd késleltetése alacsonyabb, okosabbnak kell lennie a számítás során. Ha csevegésben vesz részt, és a válaszidő 5-8 másodperc, ezt szinte észre sem veszi, és ez nagyon természetes. De ha öt-nyolc másodpercet vesz igénybe, hogy válaszoljon a telefonon, az kissé természetellenesnek tűnik. Tehát több technikai kihívás van a beszéddel. Ahogy ezek a technikai kihívások megoldódnak, és a beszéd alkalmazása iránti érdeklődés megnő a piacon, a beszéd, mint új modalitás általánossá válik.

Egy üzleti modell, amely átugorja a bizalmat

Kimberly Tan: Mielőtt folytatnánk, szeretnék egy kicsit többet beszélni az AI Agent üzleti modelljéről. Amikor először épült AI ügynök vagy megbeszélték az ügyfelekkel az általuk használt rendszert, az általuk feldolgozott adatokat és aggályaikat, volt valami, ami meglepte? Melyek azok a nem intuitív vagy meglepő dolgok, amelyeket a Decagonnak meg kellett tennie a vállalati ügyfelek jobb kiszolgálása érdekében?

Jesse Zhang: Azt hiszem, a legmeglepőbb az volt, hogy az emberek milyen mértékben voltak hajlandók beszélni velünk, amikor elkezdtük. Végül is csak ketten voltunk. Mindketten alapítottunk már céget, így sok embert ismertünk, de még így is minden vállalkozó számára, ha egy ajánló beszélgetést szeretne elindítani, ha a mondandója nem különösebben meggyőző, általában elég langyos a beszélgetés.

De amikor elkezdtünk beszélni erről a használati esetről, meglehetősen meglepőnek találtam, hogy az emberek mennyire izgatottak, hogy beszéljenek róla. Mert az ötlet annyira kézenfekvőnek tűnik. Azt gondolhatnánk, hogy mivel ez egy olyan kézenfekvő ötlet, biztos, hogy valaki más már megtette, vagy már biztos van megoldás, vagy valaki más már biztosan előállt valamilyen megoldással. De azt hiszem, elkaptunk egy jó pillanatot, ez a használati eset nagyon nagy, és az embereket nagyon érdekli. Ahogy korábban említettem, ez a használati eset nagyon alkalmas az AI Agent átvételére és a termelésbe tolására, mert fokozatosan implementálható, és nyomon követhető a ROI.

Ez kellemes meglepetés volt számomra, de nyilván sok munka van utána, dolgozni kell a vevőkkel, meg kell építeni a terméket, ki kell találni, hogy merre induljon el. A kezdeti szakaszban valóban meglepő felfedezés volt.

Derrick Harris: Kimberly, úgy érzem, meg kell említenem azt a blogbejegyzést, amit írtál, RIP to RPA, amely sok mindent érint a automatizálási feladatok és indítások.Ön szerint van olyan jelenség, amelyben ezek az automatizált feladatok vagy megoldások nem olyan ideálisak, ezért az emberek mindig jobb utat keresnek?

Kimberly Tan: Igen, azt hiszem. Szeretnék néhány dolgot elmondani. Először is, ha egy ötlet mindenki számára nyilvánvaló, de nincs egyértelmű cég a megoldására, vagy senki nem mutat egy cégre és azt mondja: „Használja ezt”, akkor az azt jelenti, hogy a probléma valójában nem oldódott meg.

Bizonyos értelemben teljesen nyitott lehetőség egy cég számára a megoldás kidolgozására. Mert ahogy mondtad, kezdettől fogva befektetőként követtük a Decagont. Láttuk, ahogy navigálnak a kreatív útvesztőben, és amikor elhatározták, hogy ebbe az irányba mennek, és elkezdtek beszélgetni az ügyfelekkel, világossá vált, hogy minden ügyfél kétségbeesetten vágyik valamiféle natív AI-kompatibilis megoldásra. Ez az egyik korábban említett probléma, ahol sokan azt hiszik, hogy ez csak egy GPT-burkoló. De a Decagon kezdettől fogva tapasztalt vásárlói érdeklődés már korán ráébredt arra, hogy ezek a kérdések sokkal bonyolultabbak, mint azt az emberek várják.

Úgy gondolom, hogy ez a jelenség iparágakban előfordul, legyen szó ügyfélszolgálatról vagy professzionális automatizálásról bizonyos vertikumokban. Szerintem az egyik alulértékelt pont az, ahogy Jesse korábban említette, hogy egyértelműen mérni tudja a feladatok automatizálásának megtérülését (ROI). Mert ha rá akarsz venni valakit, hogy elfogadjon egy mesterséges intelligencia-ügynököt, akkor valójában bizonyos fokú „ugrást tesz a hitben”, mert ez egy nagyon ismeretlen terület sok ember számára.

Ha automatizálni tud egy nagyon specifikus folyamatot, amely vagy nyilvánvaló bevételtermelő folyamat, vagy olyan folyamat, amely korábban szűk keresztmetszetet jelentett az üzletben, vagy olyan jelentős költséghelyet, amely lineárisan növekszik az ügyfelek növekedésével vagy a bevétel növekedésével, akkor könnyebb lesz elfogadni az AI-ügynököt. Nagyon vonzó az a képesség, hogy az ilyen problémákat termékesebb folyamatokká alakítsák, amelyek a hagyományos szoftverekhez hasonlóan méretezhetők.

Kimberly Tan: Még egy utolsó kérdésem van, mielőtt továbblépnénk. Emlékszem, Jesse korábbi megbeszéléseink során mindig azt mondta, hogy a szoftvereket vagy AI-ügynököket alkalmazó cégek számára a legnagyobb kihívást a hallucinációk jelentik. De egyszer azt mondtad, hogy valójában nem ez a fő probléma. Kifejtenéd, hogy miért félrevezető a hallucinációk észlelése, és valójában mi aggasztja jobban az embereket?

Jesse Zhang: Úgy gondolom, hogy az emberek törődnek a hallucinációkkal, de jobban aggódnak az általuk nyújtott érték miatt. Szinte az összes cég, amellyel dolgozunk, ugyanarra a néhány kérdésre fókuszál, szinte pontosan ugyanarra: a beszélgetések hány százalékát tudja megoldani? Mennyire elégedettek az ügyfeleim? Ekkor a hallucináció kérdése egy harmadik kategóriába sorolható, nevezetesen, hogy mennyire pontos. Általánosságban elmondható, hogy az első két tényező fontosabb az értékelés során.

Tegyük fel, hogy egy új vállalkozással beszél, és nagyon jó munkát végzett az első két tényezővel kapcsolatban, és sok támogatást kapott a vezetéstől és a csapat minden tagjától. Azt mondják: „Istenem, az ügyfélélményünk más. Mostantól minden ügyfélnek saját személyi asszisztense van, aki bármikor kapcsolatba léphet velünk. Remek válaszokat adtunk nekik, nagyon elégedettek, többnyelvű és éjjel-nappal elérhető.” Ez csak egy része, és sok pénzt is megtakarított.

Tehát amint eléri ezeket a célokat, sok támogatást és sok hátszelet kap a munka hajtásához. Természetesen az illúziók problémáját végül meg kell oldani, de nem ez aggasztja őket leginkább. Az illúzió feloldásának módja ugyanaz, mint korábban említettem – az emberek próbára tesznek. Előfordulhat egy koncepció bizonyítási szakasz, amikor ténylegesen valódi beszélgetéseket folytat, és a csapat tagjai figyelik és ellenőrzik a pontosságot. Ha ez jól megy, akkor általában átmegy.

Ezenkívül, amint azt korábban említettem, beállíthat néhány szigorú védelmi intézkedést az érzékeny információkhoz, például nem feltétlenül kell az érzékeny tartalmat általánossá tenni. Tehát az illúzió kérdése a legtöbb tranzakcióban vita tárgya. Nem lényegtelen téma. Ezen a folyamaton keresztül fog menni, de soha nem ez áll a beszélgetés középpontjában.

Kimberly Tan: Most térjünk át az AI Agent üzleti modelljére. Manapság nagy téma az AI-ügynökök árának megállapítása.

Történelmileg sok SaaS-szoftver ára az ülőhelyek száma alapján történik, mivel ezek olyan munkafolyamat-szoftverek, amelyek az egyes alkalmazottakat célozzák meg, és az alkalmazottak termelékenységének javítására szolgálnak. Az AI Agent azonban nem kapcsolódik az egyes alkalmazottak termelékenységéhez, mint a hagyományos szoftverekhez.

Sokan úgy gondolják, hogy a férőhelyek számán alapuló árképzési módszer már nem alkalmazható. kíváncsi vagyok rá hogyan gondoltál erre a dilemmára az első napokban, és arra, hogyan döntöttél végül a Decagon árazás mellett. Továbbá, mit gondol, mi lesz a szoftverárak jövőbeli trendje, ahogy az AI Agent egyre gyakoribb lesz?

Jesse Zhang: Az a véleményünk ezzel a kérdéssel kapcsolatban, hogy a múltban a szoftverek árát ülésenként határozták meg, mert a skálája nagyjából azon alapult, hogy hányan használhatták a szoftvert. De a legtöbb mesterségesintelligencia-ügynök esetében az Ön által biztosított érték nem a karbantartók számától függ, hanem az elvégzett munka mennyiségétől. Ez összhangban van azzal, amit korábban említettem: ha a befektetés megtérülése (ROI) nagyon mérhető, akkor a munkateljesítmény szintje is nagyon egyértelmű.

Az a véleményünk, hogy a férőhelyszám szerinti ár határozottan nem érvényes. A munka eredménye alapján árazhat. Tehát az Ön által kínált árazási modellnek olyannak kell lennie, hogy minél több munkát végez, annál többet fizet.

Számunkra két kézenfekvő módja van az árképzésnek. Beárazhatja a beszélgetéseket, vagy beárazhatja azokat a beszélgetéseket, amelyeket az AI valójában megold. Azt hiszem, az egyik érdekes tanulság, amit megtanultunk, hogy a legtöbben a beszélgetés-árazási modellt választották. Ennek az az oka, hogy a megoldásonkénti árképzés fő előnye, hogy miért fizet a Az AI igen.

De a következő kérdés az, hogy mit tekintünk „megoldásnak”? Először is, senki nem akar ebbe mélyen belemenni, mert így alakul: „Ha valaki dühösen bejön, és elküldi, miért fizetnénk érte?”

Ez kínos helyzetet teremt, és kissé furcsává teszi a mesterséges intelligencia szolgáltatók ösztönzését is, mert a megoldással történő számlázás azt jelenti, hogy „csak a lehető legtöbb beszélgetést kell megoldanunk, és el kell löknünk néhány embert.” De sok olyan eset van, amikor jobb, ha eszkalálják a problémát, nem pedig csak eltolni, és az ügyfelek nem szeretik az effajta kezelést. Ezért a beszélgetés útján történő számlázás egyszerűbbé és kiszámíthatóbbá teszi.

Kimberly Tan: Mit gondol, meddig fog tartani a jövőbeli árazási modell?Mert amikor most a ROI-t említi, az általában a korábbi kiadásokon alapul, amelyeket esetleg a munkaerőköltségek fedezésére használtak fel. Mivel az AI-ügynökök egyre gyakoribbak, úgy gondolja, hogy hosszú távon a mesterséges intelligencia a munkaerőköltségekhez fog hasonlítani, és ez megfelelő viszonyítási alap? Ha nem, hogyan látja a hosszú távú árazást a munkaerőköltségen túl?

Jesse Zhang: Úgy gondolom, hogy hosszú távon az AI Agent árazása továbbra is elsősorban a munkaerőköltségekhez köthető, mert ez az ügynök szépsége – a szolgáltatásokra fordított korábbi kiadásait most át lehet tolni a szoftverekre.

A kiadások ezen része a szoftverkiadások 10-100-szorosa lehet, így a költségek nagy része a szoftverre hárul. Ezért a munkaerőköltségek természetesen viszonyítási alapokká válnak. Ügyfeleink számára a ROI nagyon egyértelmű. Ha meg lehet takarítani X milliót a munkaerőköltségen, akkor érdemes ezt a megoldást alkalmazni. De hosszú távon ez a középút lehet.

Mert még néhány termék, amely nem olyan jó, mint az Ügynökünk, elfogadja az alacsonyabb árat. Ez olyan, mint a klasszikus SaaS helyzet, ahol mindenki a piaci részesedésért versenyez.

Kimberly Tan: Mit gondol, mit hoz a jövő a jelenlegi SaaS-cégek számára, különösen azoknak, amelyek termékei nem natívan mesterséges intelligencia számára készültek, vagy amelyek árai ülésenként vannak, és ezért nem tudnak alkalmazkodni egy eredményorientált árképzési modellhez?

Jesse Zhang: Egyes hagyományos cégek számára valóban egy kicsit trükkös, ha megpróbálnak AI Agent terméket piacra dobni, mert nem tudják beárazni ülésmodell használatával. Ha már nincs szüksége annyi ügynökre, nehéz fenntartani a bevételt a meglévő termékkel. Ez probléma a hagyományos cégeknél, de nehéz megmondani. A hagyományos cégeknek mindig előnyük van az értékesítési csatornákban. Még ha a termék nem is olyan jó, mint az új cég, az emberek nem hajlandók arra fordítani erőfeszítéseiket, hogy új beszállítót fogadjanak el, mindössze 80% minőséggel.

Tehát először is, ha Ön egy olyan startup, mint mi, meg kell győződnie arról, hogy terméke háromszor jobb, mint a hagyományos termék. Másodszor, ez egy tipikus verseny a hagyományos vállalatok és a startupok között. A hagyományos vállalatok természetesen alacsonyabb kockázattűréssel rendelkeznek, mivel nagy számú ügyfeleik vannak. Ha hibát követnek el a gyors iteráció során, az óriási veszteségeket okoz. Az induló vállalkozások azonban gyorsabban iterálhatnak, így maga az iterációs folyamat jobb termékhez vezethet. Ez a szokásos ciklus. Számunkra mindig is büszkék voltunk a szállítás gyorsaságára, a termék minőségére és csapatunk teljesítményére. Ezért nyertük meg a mostani szerződést.

Kimberly Tan: Tud néhány jóslatot adni a mesterséges intelligencia jövőjéről a munkahelyen? Például hogyan változtatja meg az alkalmazottak igényeit vagy képességeit, vagy hogyan hatnak egymásra az alkalmazottak és az AI-ügynökök?Ön szerint milyen új bevált gyakorlatok vagy normák válnak majd normává a munkahelyeken, ahogy az AI-ügynökök egyre szélesebb körben elterjednek?

Jesse Zhang: Az első és legfontosabb változás az, hogy meg vagyunk győződve arról, hogy a jövőben az alkalmazottak sokkal több időt töltenek majd a munkahelyen az AI-ügynökök felépítésével és menedzselésével, hasonlóan az AI-felügyelők szerepéhez. Még ha hivatalosan nem is „MI-felügyelő” a pozíciója, a munkája végzésével töltött idő nagy része ezen ügynökök irányítására telik, mivel az ügynökök sok befolyást tudnak adni.

Ezt számos telepítésnél tapasztaltuk, ahol az egykori csapatvezetők sok időt töltenek azzal, hogy megfigyeljék a mesterséges intelligenciát, például, hogy megbizonyosodjanak arról, hogy nincs-e probléma, vagy hogy kiigazításokat hajtsanak végre. Figyelemmel kísérik az általános teljesítményt, hogy megnézzék, vannak-e bizonyos területek, amelyekre figyelmet kell fordítani, vannak-e olyan hiányosságok a tudásbázisban, amelyek segíthetik a mesterséges intelligencia fejlesztését, és hogy a mesterséges intelligencia képes-e pótolni ezeket a hiányosságokat.

Az ügynökökkel végzett munka azt a benyomást kelti, hogy a jövőben az alkalmazottak jelentős mennyiségű időt töltenek majd az AI-ügynökökkel való interakcióval. Ez cégünk alapkoncepciója, ahogy korábban említettem. Ezért teljes termékünk arra épül, hogy eszközöket, vizualizációt, értelmezhetőséget és vezérlést biztosítsunk az embereknek. Szerintem egy éven belül ez hatalmas trend lesz.

Kimberly Tan: Ennek sok értelme van. Ön szerint milyen képességekre lesz szükségük az AI-felügyelőknek a jövőben? Milyen készségekkel rendelkezik ehhez a szerephez?

Jesse Zhang: Két szempont van. Az egyik a megfigyelhetőség és értelmezhetőség, az a képesség, hogy gyorsan megértsük, mit csinál az AI, és hogyan hoz döntéseket. A másik a döntési képesség, vagy az építő rész, hogy hogyan adjunk visszajelzést és hogyan építsünk új logikát. Szerintem ez a kettő ugyanannak az éremnek a két oldala.

Kimberly Tan: Ön szerint milyen feladatok maradnak meg közép- vagy hosszú távon az AI-ügynök képességein kívül, és amelyeket továbbra is az embereknek kell megfelelően kezelniük és végrehajtaniuk?

Jesse Zhang: Azt hiszem, ez elsősorban a korábban említett „tökéletesség” követelményétől függ majd. Sok olyan feladat van, amelynek nagyon alacsony a hibatűrése. Ezekben az esetekben minden mesterséges intelligencia eszköz inkább segítség, mint teljes értékű ügynök.

Például néhány érzékenyebb iparágban, például az egészségügyben vagy a biztonságban, ahol szinte tökéletesnek kell lenni, ezeken a területeken előfordulhat, hogy az AI-ügynökök kevésbé lesznek önállóak, de ez nem jelenti azt, hogy haszontalanok. Azt hiszem, a stílus más lesz, egy olyan platformon, mint a miénk, valójában azért telepíti ezeket az ügynököket, hogy lehetővé tegye számukra az egész munka automatizálását.

Derrick Harris: Ennyi az epizód. Ha érdekesnek vagy inspirálónak találta ezt a témát, kérjük, értékelje podcastunkat, és ossza meg több emberrel.Az utolsó epizódot várhatóan még az év vége előtt kiadjuk, és az új évre átdolgozzuk a tartalmat. Köszönjük, hogy meghallgatta, és jó nyaralást kívánok (ha az ünnepek alatt hallgatja).

Eredeti videó: Az Al Agents végre megjavítja az ügyfélszolgálatot?

Hasonló hozzászólások

Vélemény, hozzászólás?

Az e-mail címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöltük