Akcentai
- LLM magija yra ta, kad jie yra labai lankstūs, gali prisitaikyti prie įvairių situacijų ir turi pagrindinį intelektą.
- Tikime, kad laikui bėgant UI ir UX taps vis labiau natūralios kalbos pagrindu, nes taip mąsto agentų sistema arba tai iš esmės yra didelių kalbų modelių (LLM) mokymo pagrindas.
- Jei norite, kad kas nors priimtų dirbtinio intelekto agentą, jie iš tikrųjų daro tam tikrą „tikėjimo šuolį“, nes daugeliui žmonių tai yra labai nepažįstama sritis.
AI agentas keičia klientų patirtį
Jesse Zhang: Kaip iš tikrųjų sukuriamas agentas? Manome, kad laikui bėgant jis vis labiau taps panašus į natūralią kalbą pagrįstą agentą, nes taip mokomi dideli kalbos modeliai (LLM).
Ilgainiui, jei turite ypač protingą agentą, kuris iš tikrųjų yra kaip žmogus, galite jam parodyti dalykus, paaiškinti, pateikti atsiliepimų ir jis atnaujins informaciją savo mintyse.
Galite įsivaizduoti, kad turite labai pajėgų žmogaus komandos narį. Kai jie pirmą kartą prisijungia, jūs juos kažko išmokote, jie pradeda dirbti, o tada pateikiate jiems grįžtamąjį ryšį ir parodote naują informaciją.
Ilgainiui jis vystysis šia linkme – taps labiau šnekamesnis ir labiau pagrįstas natūralia kalba, o žmonių tarpusavio bendravimo būdas taps natūralesnis. Ir žmonės nebenaudos tų sudėtingų sprendimų medžių, kad užfiksuotų reikalavimus, kurie gali veikti, bet yra linkę žlugti.
Anksčiau tai turėjome daryti, nes neturėjome didelio kalbos modelio. Tačiau dabar, nuolat tobulėjant agentui, naudotojo patirtis (UX) ir vartotojo sąsaja (UI) taps labiau bendraujantys.
Derrickas Harrisas: Sveiki visi, sveiki atvykę į A16z AI podcast'ą. Aš esu Derrickas Harrisas, o šiandien prie manęs prisijungs Jesse Zhang, vienas iš Decagon įkūrėjų ir generalinis direktorius, bei Kimberly Tan, a16z partnerė. Kimberly moderuos diskusiją, o Jesse pasidalins savo patirtimi kuriant Decagon ir jo gaminius.
Jei daug apie tai nežinote, „Decagon“ yra startuolis, teikiantis dirbtinio intelekto agentus įmonėms, kad padėtų klientams. Šie agentai nėra nei pokalbių robotai, nei LLM paketai vienam API skambučiui, o labai pritaikyti pažangūs agentai, galintys tvarkyti sudėtingas darbo eigas pagal specifinius įmonės poreikius.
Jesse ne tik paaiškina, kodėl jie sukūrė „Decagon“ ir kaip jis suprojektuotas valdyti skirtingas LLM ir klientų aplinkas, bet ir pasakoja apie verslo modelio, kuris apmokestinamas už pokalbį, naudą ir kaip AI agentai pakeis klientų aptarnavimo lyderių įgūdžius.
Taip pat verta paminėti, kad Kimberly neseniai parašė tinklaraščio įrašą pavadinimu „RIP to RPA, The Rise of Intelligent Automation“, kurį trumpai aptariame šiame epizode.
Tai puikus atspirties taškas norint suprasti, kaip verslo procesuose įsibėgėja automatizavimas, o laidos pastabose pateiksime nuorodą. Ir galiausiai, primename, kad šio straipsnio turinys yra skirtas tik informaciniams tikslams ir neturėtų būti laikomas teisinėmis, verslo, mokesčių ar investavimo konsultacijomis, taip pat neturėtų būti naudojamas bet kokiai investicijai ar saugumui įvertinti, ir nėra nukreiptas į jokį a16z fondo investuotoją ar potencialų investuotoją.
Jesse Zhang: Trumpas prisistatymas apie save. Gimiau ir augau Boulderyje, vaikystėje dalyvavau daugybėje matematikos konkursų ir panašiai. Studijavau kompiuterių mokslą Harvarde, tada įkūriau įmonę, kurią taip pat palaikė a16z. Galiausiai mus įsigijo Niantic.
Tada pradėjome statyti Dekagoną. Mūsų verslas kuria dirbtinio intelekto agentus klientų aptarnavimui. Iš pradžių tai darėme, nes norėjome daryti tai, kas mums labai prie širdies.
Žinoma, niekas neturi būti mokomas apie AI agentų vaidmenį klientų aptarnavimo srityje, tiesa? Mes visi kalbėjome telefonu su oro linijomis, viešbučiais ir kt. ir laukėme sulaikyti. Taigi idėja kilo iš ten.
Kalbėjomės su daugybe klientų, norėdami tiksliai išsiaiškinti, kokį produktą turėtume sukurti. Vienas dalykas, kuris mums išsiskyrė, buvo tas, kad kai sužinojome daugiau apie AI agentus, pradėjome galvoti apie tai, kokia bus ateitis, kai jų bus daug. Manau, kad visi tiki, kad ateityje bus daug dirbtinio intelekto agentų.
Ką mes galvojame apie tai, ką darys darbuotojai, dirbantys su AI agentais? Kokius įrankius jie turės? Kaip jie kontroliuos ar peržiūrės agentus, su kuriais dirba arba kuriuos valdo?
Taigi tai yra esminis dalykas, kaip mes sukūrėme įmonę atsižvelgdami į šį klausimą. Manau, tai ir dabar mus išskiria, nes suteikiame šiems AI agentams įvairius įrankius, padedančius žmonėms, su kuriais dirbame, sukurti ir sukonfigūruoti šiuos agentus, kad jie nebebūtų „juodoji dėžė“. Taip mes kuriame savo prekės ženklą.
Derrickas Harrisas: Kas paskatino jus pereiti prie įmonės programinės įrangos, nes paskutinė jūsų įmonė buvo vaizdo įrašų įmonė, skirta vartotojams?
Jesse Zhang: Puikus klausimas. Manau, kad steigėjai dažnai yra „temų agnostikai“, kai reikia pasirinkti temą, nes iš tikrųjų, kai priartini prie naujos srities, dažniausiai esi gana naivus. Taigi yra pranašumų pažvelgti į dalykus iš naujos perspektyvos. Taigi, kai apie tai galvojame, temų apribojimų beveik nebuvo.
Manau, kad tai labai įprastas modelis žmonėms, turintiems daugiau kiekybinės kilmės, įskaitant mane. Išbandę plataus vartojimo produktus, esate linkę labiau linkti į įmonės programinę įrangą, nes įmonės programinė įranga turi konkretesnių problemų.
Turite realių klientų, turinčių realių poreikių, biudžetų ir panašių dalykų, todėl galite optimizuoti ir išspręsti jų problemas. Vartotojų rinka taip pat labai patraukli, tačiau ji labiau pagrįsta intuicija, o ne eksperimentavimu. Man asmeniškai labiau tinka įmonės programinė įranga.
Kimberly Tan: Pirma, galime pradėti nuo šio klausimo: kokios yra labiausiai paplitusios palaikymo kategorijos, su kuriomis šiandien susiduria Decagon? Ar galite paaiškinti, kaip šioms problemoms spręsti naudojate didelių kalbų modelius (LLM) ir ką dabar galite padaryti, ko negalėjote padaryti anksčiau?
Jesse Zhang: Jei pažvelgsite į ankstesnį automatizavimą, galbūt naudojote sprendimų medžius, kad padarytumėte ką nors paprasto, kad nustatytumėte, kurį kelią pasirinkti. Bet mes visi naudojome pokalbių robotus, ir tai gana varginanti patirtis.
Dažnai į jūsų klausimą negali atsakyti sprendimų medis. Taigi galiausiai būsite nukreipti klausimo keliu, kuris yra susijęs su klausimu, bet tiksliai jo neatitinka. Dabar turime didelius kalbų modelius (LLM). LLM magija yra ta, kad jie yra labai lankstūs, gali prisitaikyti prie įvairių situacijų ir turi pagrindinį intelektą.
Taikydami tai klientų aptarnavimo tarnybai arba kai klientas užduoda klausimą, galite teikti labiau suasmenintą paslaugą. Tai pirmas punktas, personalizavimo lygis labai pagerėjo. Tai atrakina aukštesnius rodiklius. Galite išspręsti daugiau problemų, klientai yra labiau patenkinti, o klientų pasitenkinimas didėja.
Kitas natūralus žingsnis yra toks: jei turite tokį intelektą, turėtumėte sugebėti padaryti daugiau dalykų, kuriuos gali padaryti žmonės. Žmonės, kuriuos gali padaryti, yra tai, kad jie gali gauti duomenis realiuoju laiku, gali imtis veiksmų ir mąstyti atlikdami kelis veiksmus. Jei klientas užduoda gana sudėtingą klausimą, galbūt „noriu padaryti tą ir tą“, o dirbtinis intelektas yra pasirengęs išspręsti tik pirmąjį klausimą. LLM yra pakankamai protingas, kad suprastų, jog čia yra du klausimai. Pirma, ji išspręs pirmąją problemą, o tada padės išspręsti antrąją problemą.
Prieš atsirandant LLM, tai iš esmės buvo neįmanoma. Taigi dabar matome, kad technologijos gali pasikeisti, ir tai yra dėka LLM.
Kimberly Tan: Kaip šiame kontekste apibrėžtumėte AI agentą? Kadangi žodis „agentas“ yra plačiai vartojamas, man įdomu, ką jis iš tikrųjų reiškia Decagon kontekste.
Jesse Zhang: Sakyčiau, kad agentas labiau reiškia sistemą, kurioje veikia kelios LLM (didelės kalbos modelio) sistemos. Turite LLM iškvietimą, kuris iš esmės apima raginimo siuntimą ir atsakymo gavimą. Agentui norite turėti galimybę sujungti kelis tokius iškvietimus, galbūt net rekursyviai.
Pavyzdžiui, turite LLM skambutį, kuris nustato, kaip tvarkyti pranešimą, ir tada jis gali suaktyvinti kitus skambučius, kurie surenka daugiau duomenų, atlieka veiksmus ir kartoja, ką pasakė vartotojas, galbūt net užduoda tolesnius klausimus. Taigi mums agentas gali būti suprantamas kaip beveik LLM skambučių, API iškvietimų ar kitos logikos, veikiančios kartu, kad būtų teikiama geresnė patirtis, tinklas.
Kimberly Tan: Šia tema galbūt galime daugiau pakalbėti apie jūsų sukurtą agento infrastruktūrą. Manau, kad vienas labai įdomus dalykas yra tai, kad rinkoje yra daug AI agentų demonstracijų, tačiau manau, kad yra labai mažai jų pavyzdžių, kurie iš tikrųjų gali stabiliai veikti gamybinėje aplinkoje. Ir iš išorės sunku suprasti, kas yra tikra, o kas ne.
Taigi, jūsų nuomone, kokie šiandieninių AI agentų aspektai veikia gerai, o kokiems aspektams vis dar reikia technologinių proveržių, kad jie taptų tvirtesni ir patikimesni?
Jesse Zhang: Mano požiūris iš tikrųjų yra šiek tiek kitoks. Skirtumas tarp nustatant, ar AI agentas yra tik demonstracinis variantas, ar „tikrai veikiantis“, slypi ne tik technologijų krūvoje, nes manau, kad dauguma žmonių gali naudoti maždaug tą pačią technologiją. Manau, kad kai tik nužengsite toliau savo įmonės plėtroje, pavyzdžiui, mūsų įmonė gyvuoja daugiau nei metus, sukursite kažką labai konkretaus, atitinkančio jūsų naudojimo atvejį.
Tačiau galiausiai visi gali pasiekti tą patį modelį ir naudoti panašias technologijas. Manau, kad didžiausias skirtumas, ar AI agentas gali efektyviai dirbti, iš tikrųjų yra naudojimo atvejo forma. Iš pradžių sunku tai žinoti, bet žvelgdami atgal pamatysite, kad yra dvi savybės, kurios yra labai svarbios dirbtinio intelekto agentui, kad jis neapsiribotų demonstravimu ir pradėtų pritaikyti praktiškai.
Pirma, jūsų išspręstas naudojimo atvejis turi turėti kiekybiškai įvertinamą IG (investicijų grąžą). Tai labai svarbu, nes jei IG negalima kiekybiškai įvertinti, bus sunku įtikinti žmones iš tikrųjų naudoti jūsų produktą ir už jį mokėti. Mūsų atveju kiekybinis rodiklis yra toks: kiek procentų paramos prašymų išsprendžiate? Kadangi šis skaičius yra aiškus, žmonės gali jį suprasti – o, gerai, jei išspręsite daugiau, galiu palyginti šį rezultatą su savo dabartinėmis išlaidomis ir praleistu laiku. Taigi, jei yra šis rodiklis, kitas mums labai svarbus rodiklis – klientų pasitenkinimas. Kadangi IG gali būti nesunkiai įvertinama, žmonės ją tikrai priims.
Antras veiksnys yra tai, kad naudojimo atvejai turi būti palaipsniui sunkesni. Taip pat būtų labai sunku, jei agentas nuo pat pradžių būtų antžmogiškas ir išspręstų beveik 100% naudojimo atvejų. Kadangi, kaip žinome, LLM yra nedeterministiniai, turite turėti tam tikrą nenumatytų atvejų planą. Laimei, yra puiki palaikymo atvejų ypatybė, tai yra tai, kad visada galite perteikti asmenį. Net jei galite išspręsti tik pusę problemų, žmonėms tai vis tiek labai vertinga.
Taigi manau, kad šis palaikymas turi šią savybę, todėl jis labai tinka AI agentui. Manau, kad yra daug kitų sričių, kur žmonės gali sukurti įspūdingas demonstracines versijas, kuriose net nereikia atidžiai žiūrėti, kad suprastum, kodėl AI agentas būtų naudingas. Bet jei jis turi būti tobulas nuo pat pradžių, tai labai sunku. Tokiu atveju beveik niekas nenorės jo išbandyti ar naudoti, nes jo netobulumo pasekmės gali būti labai rimtos, pavyzdžiui, saugumo požiūriu.
Pavyzdžiui, kai žmonės atlieka modeliavimą, jiems visada kyla tokia klasikinė mintis: „O, būtų puiku, jei LLM galėtų tai perskaityti“. Tačiau sunku įsivaizduoti, kad kažkas pasakytų: „Gerai, AI agente, pirmyn. Tikiu, kad tu gali tai padaryti“. Nes jei padarysite klaidą, pasekmės gali būti labai rimtos.
Jesse Zhang: Dažniausiai taip nusprendžia mūsų klientai, o iš tiesų matome labai daug skirtumų. Vienu kraštutinumu kai kurie žmonės iš tikrųjų padaro savo Agentą panašų į žmogų, todėl yra žmogaus avataras, žmogaus vardas, o atsakymai yra labai natūralūs. Kita vertus, agentas tiesiog teigia, kad tai yra AI, ir tai aiškiai parodo vartotojui. Manau, kad įvairios įmonės, su kuriomis dirbame, šiuo klausimu laikosi skirtingų pozicijų.
Paprastai, jei dirbate reguliuojamoje pramonėje, turite tai aiškiai pasakyti. Dabar man įdomu tai, kad klientų elgesys keičiasi. Kadangi daugelis mūsų klientų socialinėje žiniasklaidoje sulaukia daug atsiliepimų, pvz.: „O Dieve, tai pirmas mano išbandytas pokalbis, kuris iš tikrųjų atrodo toks tikras“ arba „Tai tiesiog magija“. Ir tai jiems puiku, nes dabar jų klientai mokosi. Ei, jei tai yra DI patirtis, tai iš tikrųjų gali būti geriau nei žmogus. Praeityje taip nebuvo, nes dauguma iš mūsų anksčiau turėjo tokią klientų aptarnavimo telefonu patirtį: „Gerai, AI, AI, AI...“
Kimberly Tan: Kelis kartus paminėjote personalizavimo sąvoką. Visi naudoja tą pačią pagrindinės technologijos architektūrą, tačiau jie turi skirtingus personalizavimo poreikius, susijusius su palaikymo paslaugomis. Ar galite apie tai pasikalbėti? Tiksliau, kaip pasiekti suasmeninimą, kad žmonės internete galėtų pasakyti: „Dieve mano, tai yra geriausia palaikymo patirtis, kurią aš kada nors turėjau“?
Jesse Zhang: mums, personalizavimas atsiranda dėl pritaikymo vartotojui. Turite suprasti pagrindinę vartotojo informaciją, kuri yra reikalingas papildomas kontekstas. Antra, jūs taip pat turite suprasti mūsų klientų verslo logiką.Jei derinsite abu dalykus, galėsite suteikti gana gerą patirtį.
Akivaizdu, kad tai skamba paprastai, tačiau iš tikrųjų labai sunku gauti visą reikiamą kontekstą. Todėl didžioji mūsų darbo dalis yra susijusi su tuo, kaip sukurti tinkamus primityvius komponentus, kad klientas, įdiegęs mūsų sistemą, galėtų lengvai nuspręsti: „Gerai, tai yra verslo logika, kurios norime“. Pavyzdžiui, pirmiausia turite atlikti šiuos keturis veiksmus, o jei trečias veiksmas nepavyksta, turite pereiti prie penkto veiksmo.
Norite labai lengvai išmokyti dirbtinį intelektą, bet taip pat suteikti jam prieigą prie informacijos, pvz., „Tai yra vartotojo paskyros informacija. Jei jums reikia daugiau informacijos, galite paskambinti šioms API. Šie sluoksniai yra modelio viršuje esantis koordinavimo sluoksnis ir tam tikra prasme agentas tampa tikrai tinkamas naudoti.
Kimberly Tan: Atrodo, kad šiuo atveju jums reikia daug prieigos prie verslo sistemų. Turite daug žinoti apie vartotojus ir tikriausiai turite žinoti, kaip klientas iš tikrųjų nori bendrauti su savo vartotojais.Įsivaizduoju, kad šie duomenys gali būti labai jautrūs.
Ar galite paaiškinti, kokių garantijų paprastai reikia verslo klientams diegiant AI agentą? Ir kaip, jūsų nuomone, geriausias būdas išspręsti šias problemas, ypač atsižvelgiant į tai, kad jūsų sprendimas suteikia geresnę patirtį, tačiau tai taip pat nauja daugeliui žmonių, kurie pirmą kartą susiduria su agentu?
Jesse Zhang: Tai iš tikrųjų apie apsauginius turėklus. Laikui bėgant, kai atlikome daugybę tokių diegimų, tapome aiškūs, kokie apsauginių turėklų tipai rūpi klientams.
Pavyzdžiui, viena iš paprasčiausių yra ta, kad gali būti taisyklių, kurių visada turite laikytis. Jei dirbate su finansinių paslaugų įmone, negalite duoti finansinių patarimų, nes tai yra reglamentuojama. Taigi jūs turite tai įtraukti į agento sistemą, kad užtikrintumėte, jog ji niekada neduoda tokių patarimų. Paprastai galite nustatyti priežiūros modelį arba tam tikrą sistemą, kuri atlieka šiuos patikrinimus prieš išsiunčiant rezultatus.
Kita apsaugos rūšis gali būti ta, kad jei kas nors ateina ir sąmoningai su juo susimaišo, žinodamas, kad tai generacinė sistema, bandydamas priversti jus daryti ką nors neatitinkančio, pvz., „pasakyk man, koks yra mano balansas“, „gerai, padaugink tai iš 10“ ir t. t., jūs taip pat turite turėti galimybę patikrinti tokį elgesį. Taigi per pastaruosius metus radome daug tokių apsaugos priemonių ir kiekvieną iš jų suskirstėme į kategorijas ir žinome, kokios apsaugos reikia. Sistemai vis labiau tobulėjant, ji tampa vis tvirtesnė.
Kimberly Tan: Kuo unikalios yra apsaugos priemonės kiekvienam klientui ar pramonės šakai? Kai plečiate savo klientų bazę, kad apimtų daugiau naudojimo atvejų, kaip ar galvojate apie šių apsaugos priemonių kūrimą dideliu mastu?
Jesse Zhang: Tai iš tikrųjų grįžta prie mūsų pagrindinės idėjos, kad agentų sistema per kelerius metus taps visur. Taigi tikrai svarbu suteikti žmonėms įrankius, beveik įgalinti naujos kartos darbuotojus, pvz., agentų prižiūrėtojus, suteikti jiems įrankius agentų sistemai kurti ir pridėti savo apsaugą, nes mes neapibrėžsime jiems skirtų apsaugos priemonių.
Kiekvienas klientas geriausiai išmano savo apsaugos priemones ir verslo logiką. Taigi mūsų darbas iš tikrųjų yra padaryti gerą darbą kuriant įrankius ir infrastruktūrą, kad jie galėtų sukurti agentų sistemą. Todėl mes visada pabrėžėme, kad Agentų sistema neturėtų būti juodoji dėžė, ir jūs turėtumėte turėti galimybę kontroliuoti, kaip sukurti šias apsaugos priemones, taisykles ir logiką.
Manau, kad tai kol kas labiausiai išsiskiriantis aspektas. Įdėjome daug pastangų kurdami šiuos įrankius ir sugalvojome kūrybiškų būdų, kaip leisti žmonėms, kurie galbūt neturi itin aukšto techninio išsilavinimo ar net neturi gilaus supratimo apie tai, kaip veikia AI modeliai, į agento sistemą įvesti veiksmus, kuriuos jie nori, kad AI atliktų.
Manau, kad per ateinančius kelerius metus tai taps vis svarbesniu pajėgumu. Tai turėtų būti vienas iš svarbiausių kriterijų, kai žmonės vertina panašius įrankius, nes norisi, kad ilgainiui šias sistemas būtų galima nuolat optimizuoti ir tobulinti.
Natūralios kalbos vedama verslo logika
Derrickas Harrisas: Kaip klientai ar įmonės gali pasiruošti bet kokio tipo automatizavimui, ypač šios agentų sistemos naudojimui? Pavyzdžiui, kaip jie gali sukurti savo duomenų sistemas, programinės įrangos architektūrą ar verslo logiką, kad palaikytų tokias sistemas?
Kadangi manau, kad daugelis dirbtinio intelekto technologijų iš pradžių yra naujoviškos, tačiau, kalbant apie esamas senas sistemas, dažnai susiduriama su dideliu chaosu.
Jesse Zhang: Jei kas nors dabar kuria nuo nulio, yra daug geriausios praktikos, kuri gali palengvinti jūsų darbą. Pavyzdžiui, kaip struktūrizuoti savo žinių bazę. Mes parašėme apie kai kuriuos iš jų ir pristatėme keletą metodų, kurie gali palengvinti AI įsisavinti informaciją ir pagerinti jos tikslumą. Vienas konkretus pasiūlymas yra padalinti žinių bazę į modulines dalis, o ne turėti vieną didelį straipsnį su keliais atsakymais.
Nustatydami API, galite padaryti jas labiau tinkamas agentų sistemai ir nustatyti leidimus bei išvestį taip, kad agento sistemai būtų lengviau gauti informaciją, nereikia atlikti daug skaičiavimų, kad rastų atsakymą. Tai yra keletas taktinių priemonių, kurių galima imtis, bet nesakyčiau, kad reikia ką nors padaryti norint naudoti agento sistemą.
Derrickas Harrisas: Geri dokumentai visada yra svarbūs, iš esmės tai yra veiksmingas informacijos organizavimas.
Kimberly Tan: Atrodo, kad jei bandote išmokyti žmones nukreipti agentų sistemą taip, kad ji veiktų taip, kad ji geriausiai atitiktų jų klientus ar konkrečius naudojimo atvejus, tada gali prireikti daug eksperimentuoti su vartotojo sąsaja ir UX dizainu arba jums teks ieškoti naujų pėdsakų šioje visiškai naujoje srityje, nes ji labai skiriasi nuo tradicinės programinės įrangos.
Man įdomu, kaip jūs apie tai manote? Kaip UI ir UX turėtų atrodyti pasaulyje, kuriame pirmiausia yra agentas? Kaip manote, ar tai pasikeis per ateinančius kelerius metus?
Jesse Zhang: Nepasakyčiau, kad šią problemą išsprendėme. Manau, kad galbūt radome vietinį optimalų variantą, kuris tinka mūsų dabartiniams klientams, tačiau tai vis dar yra mūsų ir daugelio kitų tyrimų sritis.
Pagrindinė problema kyla iš to, ką minėjome anksčiau, ty tai, kad turite agento sistemą. Pirma, kaip aiškiai matyti, ką ji daro ir kaip priima sprendimus? Tada kaip galite naudoti šią informaciją, kad nuspręstumėte, ką reikia atnaujinti ir kokie atsiliepimai turėtų būti pateikti AI? Čia susijungia vartotojo sąsajos elementai, ypač antroji dalis.
Manome, kad laikui bėgant vartotojo sąsaja ir vartotojo sąsaja taps vis labiau pagrįstos natūralia kalba, nes būtent taip mąsto agentų sistema arba tai iš esmės yra didelių kalbų modelių (LLM) mokymo pagrindas.
Kraštutiniu atveju, jei turite itin protingą agentą, kuris iš esmės mąsto kaip žmogus, galite jam parodyti dalykus, paaiškinti, pateikti atsiliepimų ir jis atsinaujins savo „galvoje“. Įsivaizduojate, kad prie jūsų komandos prisijungs labai gabus žmogus, jį kažko išmokote, jis pradeda dirbti, o tada nuolat pateikiate jam grįžtamąjį ryšį, galite jam parodyti naujus dalykus, naujus dokumentus, diagramas ir pan.
Manau, kad kraštutiniu atveju jis vystysis šia linkme: viskas taps labiau šnekamoji, labiau pagrįsta natūralia kalba, o žmonės nustoja kurti sistemas su sudėtingais sprendimų medžiais, kaip kadaise, fiksuodami tai, ko nori, tačiau toks požiūris gali lengvai sugesti. Anksčiau tai turėjome daryti, nes tada dar nebuvo LLM, bet dabar, kai agentų sistemos tampa vis galingesnės, vartotojo sąsaja ir UX taps labiau bendraujantys.
Kimberly Tan: Maždaug prieš pusantrų metų, kai „Decagon“ pirmą kartą pradėjo veikti, buvo bendras suvokimas, kad LLM labai tinka daugeliui naudojimo atvejų, tačiau iš tikrųjų tai buvo tik tam tikras „GPT paketas“, kai įmonės galėjo tiesiog iškviesti pagrindinį modelį per API ir akimirksniu išspręsti savo palaikymo problemas.
Tačiau akivaizdu, kad įmonėms pasirenkant tokius sprendimus kaip Decagon, o ne eiti tuo keliu tiesiogiai, paaiškėja, kad taip nėra. Man buvo įdomu, ar galėtumėte paaiškinti, kodėl taip yra. Dėl ko vidinės statybos iššūkiai buvo sudėtingesni, nei tikėtasi? Kokių klaidingų supratimų jie turėjo apie koncepciją?
Jesse Zhang: Nėra nieko blogo būti „GPT įvyniokliu“, galima sakyti, kad Purcell yra AWS įvynioklis ar kažkas panašaus. Paprastai, kai žmonės vartoja šį terminą, tai reiškia kažką menkinančio.
Mano asmeninis požiūris yra toks, kad jei kuriate agentų sistemą, pagal apibrėžimą jūs tikrai naudosite LLM kaip įrankį. Taigi jūs iš tikrųjų kuriate jau egzistuojantį dalyką, kaip įprastai kurtumėte naudodami AWS ar GCP.
Tačiau tikroji problema, su kuria galite susidurti, yra ta, kad programinė įranga, kurią kuriate ant LLM, nėra pakankamai „sunki“ ar sudėtinga, kad galėtų ką nors pakeisti.
Žvelgiant atgal, mums tai, ką parduodame, iš esmės yra programinė įranga. Iš tikrųjų esame kaip įprasta programinės įrangos įmonė, išskyrus tai, kad LLM naudojame kaip programinės įrangos dalį ir kaip vieną iš įrankių. Tačiau kai žmonės perka tokį produktą, jie dažniausiai nori pačios programinės įrangos. Jie nori įrankių, galinčių stebėti AI, kurie galėtų giliai įsigilinti į kiekvieno DI pokalbio detales, galėtų pateikti grįžtamąjį ryšį, kurie galėtų nuolat kurti ir koreguoti sistemą.
Taigi tai yra mūsų programinės įrangos pagrindas. Net ir naudojant pačią agentų sistemą, žmonių problema yra ta, kad puiku kurti demonstracinę versiją, bet jei norite, kad ji būtų paruošta gamybai ir tikrai būtų skirta klientams, turite išspręsti daugybę ilgalaikių problemų, pavyzdžiui, užkirsti kelią „iliuzijos“ reiškiniui ir susidoroti su blogais veikėjais, kurie bando sukelti sumaištį. Taip pat turime įsitikinti, kad vėlavimas yra pakankamai mažas, tonas tinkamas ir pan.
Kalbėjomės su daugybe komandų, jos atliko keletą eksperimentų, sukūrė preliminarią versiją, o tada suprato: „O, tikrai, mes nenorime būti tie, kurie ir toliau kuria šias detales vėlesniuose etapuose“. Jie taip pat nenorėjo būti tie, kurie nuolat papildo klientų aptarnavimo komandą naujos logikos. Taigi šiuo metu atrodo tikslingiau pasirinkti bendradarbiavimą su kitais.
Kimberly Tan: Jūs paminėjote kai kurias ilgalaikes problemas, tokias kaip būtinybė susidoroti su blogais aktoriais ir pan.Manau, kad daugelis klausytojų, ketinančių naudoti AI agentą, yra susirūpinę dėl naujų saugumo atakų kelių, kurie gali atsirasti įdiegus LLM, arba dėl naujų saugumo pavojų, kurie gali kilti įdiegus agento sistemą. Ką manote apie šias problemas? Ir kokia yra geriausia praktika siekiant užtikrinti aukščiausio lygio įmonės saugumą Agentas?
Jesse Zhang: Kalbant apie saugumą, galima imtis tam tikrų akivaizdžių priemonių, kurias minėjau anksčiau, pavyzdžiui, apsaugos priemonių poreikis. Pagrindinė problema yra ta, kad žmonių susirūpinimą LLM kelia tai, kad jie nėra deterministiniai.
Tačiau gera žinia yra ta, kad iš tikrųjų daugumą jautrių ir sudėtingų operacijų galite sudėti už deterministinės sienos, o skaičiavimas vyksta ten, kai iškviečia API. Taigi jūs visiškai nepasikliaujate LLM, kad tai tvarkytumėte, ir taip išvengsite daugelio pagrindinių problemų.
Tačiau vis dar pasitaiko situacijų, kai, pavyzdžiui, įsiterpia blogas aktorius arba kažkas bando priversti sistemą haliucinuoti. Pastebėjome, kad daugelio pagrindinių klientų, su kuriais dirbame, saugos komandos įeis ir iš esmės atliks mūsų produktų „raudonosios komandos“ testą, praleisdamos savaites nuolat vykdydamos įvairias galimas atakas prieš sistemą, siekdamos rasti pažeidžiamumą. Kadangi AI agentas tampa vis populiaresnis, tai galime pastebėti vis dažniau, nes tai yra vienas geriausių būdų patikrinti, ar sistema yra efektyvi. Tai yra mesti ką nors į jį per raudonosios komandos testą ir pamatyti, ar ji gali pralaužti gynybą.
Taip pat yra naujų įmonių, kurios kuria raudonosios komandos įrankius arba leidžia žmonėms patiems atlikti tokius testus, o tai šiuo metu pastebima tendencija. Daugelis įmonių, su kuriomis dirbame, vėlesniame pardavimo ciklo etape turės savo saugos komandą arba dirbs su išorine komanda, kuri išbandys sistemą nepalankiausiomis sąlygomis. Mums būtina išlaikyti tokius testus. Taigi, galų gale, viskas priklauso nuo to.
Derrickas Harrisas: Ar tai skatinate savo klientus? Nes kai kalbame apie AI politiką, paminime svarbų aspektą, tai yra taikomųjų programų lygmuo, ir akcentuojame įdėjimą . atsakomybė tenka LLM vartotojams ir žmonėms, kurie naudoja programą, o ne tiesiog kaltina patį modelį. Tai reiškia, kad klientai turėtų atlikti raudonosios komandos testavimą, nustatyti konkrečius naudojimo atvejus ir atakų kelius bei nustatyti, kuriuos pažeidžiamumus reikia apsaugoti, o ne tiesiog pasikliauti OpenAI ar kitų įmonių jau nustatyta saugumo apsauga.
Jesse Zhang: Visiškai sutinku. Taip pat manau, kad gali atsirasti nauja pranešimo reikalavimų banga, panaši į SOC 2 sertifikavimą ir HIPAA sertifikatą, kurį dabar daro visi, kurių reikalaujama įvairiose pramonės šakose. Paprastai, kai parduodate bendrąjį SaaS produktą, klientams reikės atlikti įsiskverbimo testą, o mes taip pat turime pateikti savo skverbties bandymo ataskaitą. AI agentui ateityje gali būti taikomi panašūs reikalavimai, ir kas nors gali tai pavadinti, tačiau tai iš esmės yra naujas būdas patikrinti, ar Agent sistema yra pakankamai galinga.
Kimberly Tan: Vienas dalykas, kuris yra įdomus, yra tai, kad akivaizdu, kad visi yra labai susijaudinę dėl naujų modelių proveržių ir technologinių proveržių, kuriuos pristato visos didžiosios laboratorijos. Kaip dirbtinio intelekto įmonė, jūs, žinoma, neatliekate savo tyrimų, bet naudojate šiuos tyrimus ir sukuriate daug programinės įrangos, kurią galite pateikti galutiniam klientui.
Tačiau jūsų darbas paremtas greitai besikeičiančiomis technologijomis. Man smalsu, kaip taikomojo dirbtinio intelekto įmonei, kaip sekti naujus technologinius pokyčius ir suprasti, kaip jie veikia įmonę, tuo pačiu galint numatyti savo produktų gaires ir kurti vartotojų poreikius? Kalbant plačiau, kokias strategijas AI įmonės turėtų taikyti panašiose situacijose?
Jesse Zhang: Iš tikrųjų galite padalyti visą krūvą į skirtingas dalis. Pavyzdžiui, LLM yra apačioje, jei žiūrite į taikymo sluoksnį. Viduryje galite turėti keletą įrankių, kurie padės valdyti LLM arba atlikti vertinimą ir panašius dalykus. Tada viršutinė dalis iš esmės yra tai, ką sukūrėme, o tai iš tikrųjų yra kaip standartinė SaaS.
Taigi, didžioji mūsų darbo dalis iš tikrųjų nesiskiria nuo įprastos programinės įrangos, išskyrus tai, kad turime papildomą tyrimo komponentą – LLM keičiasi per greitai. Turime ištirti, ką jie gali padaryti, ką jie gerai išmano ir kokį modelį naudoti norint atlikti tam tikrą užduotį. Tai didelė problema, nes tiek OpenAI, tiek Anthropic pristato naujas technologijas, o Gemini taip pat palaipsniui tobulėja.
Todėl Jūs turite turėti savo vertinimo mechanizmą, kad suprastumėte, kuris modelis yra tinkamas naudoti kokioje situacijoje. Kartais reikia ir patikslinti, bet kyla klausimas: kada patikslinti? Kada verta tikslinti? Tai tikriausiai yra pagrindiniai su LLM susiję tyrimų klausimai, į kuriuos mes sutelkiame dėmesį. Bet bent jau kol kas nejaučiame, kad SaaS greitai keičiasi, nes nesame priklausomi nuo vidurinio sluoksnio. Taigi iš esmės keičiasi LLM. Jie keičiasi ne itin dažnai, o kai keičiasi, dažniausiai tai yra atnaujinimas. Pavyzdžiui, Claude 3.5 sonetas buvo atnaujintas prieš kelis mėnesius ir tuo metu galvojome: „Gerai, ar turėtume pereiti prie naujo modelio, o ne toliau naudoti senąjį?
Mums tereikia atlikti daugybę vertinimų, o kai pereisime prie naujo modelio, daugiau apie tai negalvojame, nes jūs jau naudojate naująjį modelį. Tada pasirodė o1 versija ir situacija buvo panaši. Pagalvokite, kur jį galima panaudoti. Mūsų atveju o1 yra šiek tiek lėtas daugeliui klientų skirtų naudojimo atvejų, todėl galime jį naudoti kai kuriems foniniams darbams. Galiausiai mums tereikia turėti gerą modelių tyrimo sistemą.
Kimberly Tan: Kaip dažnai vertinate naują modelį ir nusprendžiate, ar jį pakeisti?
Jesse Zhang: Vertiname kiekvieną kartą, kai pasirodo naujas modelis. Turite įsitikinti, kad nors naujasis modelis yra išmanesnis, jis nepažeidžia kai kurių jau sukurtų naudojimo atvejų. Taip gali atsitikti. Pavyzdžiui, naujasis modelis apskritai gali būti išmanesnis, tačiau kai kuriais kraštutiniais atvejais jis prastai veikia pasirinkus A/B vienoje iš jūsų darbo eigų. Už tai mes ir vertiname.
Apskritai manau, kad intelektas, kuris mums rūpi labiausiai, yra tai, ką pavadinčiau „gebėjimu sekti nurodymus“. Norime, kad modelis taptų vis geresnis ir geriau vykdytų instrukcijas. Jei taip, tai tikrai mums naudinga, ir tai labai gerai.
Atrodo, kad naujausi tyrimai daugiau dėmesio skyrė intelekto tipui, kuris apima samprotavimą, pvz., geresnis programavimas ir geresnės matematinės operacijos. Tai mums taip pat padeda, bet ne taip svarbu, kaip mokymo sekimo gebėjimų tobulinimas.
Kimberly Tan: Vienas labai įdomus dalykas, kurį paminėjote, ir manau, kad jis taip pat labai unikalus Decagon, yra tai, kad jūs sukūrėte daug vertinimo infrastruktūros, kad įsitikintumėte, jog tiksliai žinote, kaip kiekvienas modelis veikia pagal pateiktų testų rinkinį.
Ar galite tai plačiau paaiškinti? Kiek svarbi ši vidinė vertinimo infrastruktūra ir kaip ji suteikia jums ir jūsų klientams pasitikėjimo agento veikla? Kadangi kai kurie iš šių vertinimų taip pat yra skirti klientams.
Jesse Zhang: Manau, tai labai svarbu, nes be šios vertinimo infrastruktūros mums būtų labai sunku greitai kartoti.
Jei jaučiate, kad kiekvienas pakeitimas turi didelę tikimybę ką nors sulaužyti, tada pokyčių greitai nepadarysite. Bet jei turite vertinimo mechanizmą, tada, kai įvyksta esminis pakeitimas, modelio atnaujinimas ar atsiranda kažkas naujo, galite jį tiesiogiai palyginti su visais vertinimo testais. Jei vertinimo rezultatai geri, galite pajusti: gerai, padarėme patobulinimą arba galite drąsiai tai išleisti per daug nesijaudindami.
Taigi mūsų srityje vertinimui reikalingas kliento indėlis, nes klientas yra tas, kuris nusprendžia, ar kažkas yra teisinga, ar ne. Žinoma, galime patikrinti kai kurias aukšto lygio problemas, tačiau dažniausiai klientas pateikia konkrečius naudojimo atvejus ir pasako, koks yra teisingas atsakymas arba koks jis turi būti, kokį toną turi išlaikyti, ką turi pasakyti.
Įvertinimas grindžiamas tuo. Taigi turime užtikrinti, kad mūsų vertinimo sistema būtų pakankamai tvirta. Iš pradžių statėme patys, o prižiūrėti nėra taip sunku. Taip pat žinome, kad yra keletas vertinimo įmonių, ir kai kurias iš jų ištyrėme. Galbūt kada nors svarstysime, ar juos priimti, bet kol kas vertinimo sistema mums nebėra skausmo taškas.
Kimberly Tan: Šiandien labai populiari tema yra multimodalumas, o tai reiškia, kad dirbtinio intelekto agentai turėtų turėti galimybę sąveikauti visomis formomis, kurias šiandien naudoja žmonės, nesvarbu, ar tai būtų tekstas, vaizdo įrašas, balsas ir tt. Žinau, kad Decagon pradėjo veikti kaip tekstas. Jūsų požiūriu, kaip svarbu yra multimodalumas dirbtinio intelekto agentams? Kaip manote, per kiek laiko jis taps įprasta ar net standartu?
Jesse Zhang: Tai svarbu, o įmonės požiūriu nėra ypač sunku pridėti naują būdą. Tai nėra paprasta, bet esmė yra tokia: jei išspręsite kitas problemas, tokias, kokias paminėjau, pavyzdžiui, sukurti dirbtinį intelektą, jį stebėti ir turėti tinkamą logiką, tada pridėti naują modalumą nėra pats sunkiausias dalykas. Taigi mums labai prasminga turėti visus būdus ir išplečia mūsų rinką. Iš esmės esame modalumo agnostikai ir kiekvienam modalumui kuriame savo agentą.
Apskritai, yra du ribojantys veiksniai: pirma, ar klientas pasirengęs taikyti naują būdą? Manau, kad prasminga pradėti nuo teksto, nes būtent taip žmonės priima aktyviausiai, jiems mažiau rizikinga, lengviau stebėti ir suprasti. Kitas didelis būdas yra balsas. Akivaizdu, kad, manau, rinkoje dar yra vietos, o vartotojų balso priėmimas dar turi pagerėti. Šiuo metu matome keletą ankstyvųjų naudotojų, kurie pradėjo naudoti balso agentus, o tai labai įdomu. Kitas aspektas – techniniai iššūkiai. Daugelis žmonių sutiktų, kad balso kartelė yra aukštesnė. Jei kalbate su kuo nors telefonu, jums reikia labai trumpos balso delsos. Jei ką nors pertraukiate, jis turi reaguoti natūraliai.
Kadangi kalbos vėlavimas yra mažesnis, turite būti protingesni skaičiuodami. Jei dalyvaujate pokalbyje ir atsakymo laikas yra nuo penkių iki aštuonių sekundžių, jūs to beveik nepastebite ir tai jaučiasi labai natūraliai. Tačiau jei atsakymas telefonu trunka nuo penkių iki aštuonių sekundžių, tai atrodo šiek tiek nenatūralu. Taigi kalbant yra daugiau techninių iššūkių. Kadangi šie techniniai iššūkiai yra išsprendžiami ir rinkoje didėja susidomėjimas kalba, kalba kaip naujas būdas taps įprasta.
Verslo modelis, peršokantis pasitikėjimą
Kimberly Tan: Prieš tęsdami, norėčiau šiek tiek daugiau pakalbėti apie AI agento verslo modelį. Kai tu pirmas pastatytas AI agentas arba aptarė su klientais jų naudojamą sistemą, apdorojamus duomenis ir susirūpinimą, ar buvo kažkas, kas jus nustebino? Kokius neintuityvius ar stebinančius dalykus „Decagon“ turėjo padaryti, kad galėtų geriau aptarnauti įmonės klientus?
Jesse Zhang: Manau, kad labiausiai nustebino tai, kiek žmonės buvo pasirengę su mumis kalbėtis, kai mes pirmą kartą pradėjome. Juk buvome tik dviese. Abu buvome įkūrę įmones anksčiau, todėl pažinojome daug žmonių, bet net ir tokiu atveju kiekvienam verslininkui, kai nori užmegzti pokalbį dėl rekomendacijų, jei tai, ką sakote, nėra ypač įtikinama, pokalbis paprastai būna gana drungnas.
Bet kai pradėjome kalbėti apie šį naudojimo atvejį, man iš tikrųjų buvo gana netikėta, kaip žmonės jaudinasi apie tai kalbėdami. Nes idėja atrodo tokia akivaizdi. Galite pamanyti, kad kadangi tai tokia akivaizdi idėja, kažkas kitas jau turi tai padaryti arba jau turi būti sprendimas, arba kažkas jau turi būti sugalvojęs kokį nors sprendimą. Bet manau, kad užfiksavome gerą momentą, tas naudojimo atvejis tikrai didelis ir žmonėms tai tikrai rūpi. Kaip jau minėjau anksčiau, šis naudojimo atvejis tikrai puikiai tinka paimti AI agentą ir pradėti jį gaminti, nes galite jį įdiegti palaipsniui ir stebėti IG.
Man tai buvo maloni staigmena, bet akivaizdu, kad po to reikia daug dirbti, reikia dirbti su klientais, kurti produktą, sugalvoti, kuriuo keliu eiti. Pradiniame etape tai buvo tikrai stebinantis atradimas.
Derrickas Harrisas: Kimberly, manau, kad turėčiau paminėti tą jūsų parašytą tinklaraščio įrašą RIP to RPA, kuris paliečia daug . automatizavimo užduotys ir paleidimai.Ar manote, kad yra reiškinys, kai šios automatizuotos užduotys ar sprendimai nėra tokie idealūs, todėl žmonės visada ieško geresnio būdo?
Kimberly Tan: Taip, aš taip manau. Norėčiau pasakyti keletą dalykų. Pirma, jei idėja yra akivaizdi visiems, bet nėra aiškios įmonės, kuri ją išspręstų, arba niekas nerodo į įmonę ir nesako: „Turėtumėte tai naudoti“, tai reiškia, kad problema iš tikrųjų nebuvo išspręsta.
Tam tikra prasme tai yra visiškai atvira galimybė įmonei sukurti sprendimą. Kadangi, kaip sakėte, mes nuo pat pradžių sekėme „Decagon“ kaip investuotoją. Stebėjome, kaip jie naršo kūrybiniame labirinte, o kai jie nusprendė eiti šia kryptimi ir pradėjo kalbėtis su klientais, tapo aišku, kad visi klientai labai trokšta kažkokio savaiminio AI palaikančio sprendimo. Tai viena iš anksčiau minėtų problemų, kai daugelis žmonių mano, kad tai tik GPT įvyniojimas. Tačiau klientų susidomėjimas Decagon nuo pat pradžių privertė mus anksti suprasti, kad daugelis šių problemų yra daug sudėtingesnės, nei žmonės tikisi.
Manau, kad šis reiškinys vyksta įvairiose pramonės šakose, nesvarbu, ar tai klientų aptarnavimas, ar profesionalus automatizavimas tam tikrose vertikalėse. Manau, kad vienas iš neįvertintų dalykų yra, kaip anksčiau minėjo Jesse, gebėjimas aiškiai įvertinti investicijų grąžą (IG) automatizuojant užduotis. Nes jei ketinate priversti ką nors priimti AI agentą, jie iš tikrųjų daro tam tikrą „tikėjimo šuolį“, nes daugeliui žmonių tai labai nepažįstama teritorija.
Jei galite automatizuoti labai konkretų procesą, kuris yra akivaizdus pajamų generavimo procesas arba procesas, kuris anksčiau buvo kliūtis versle, arba didelis išlaidų centras, kuris didėja tiesiškai didėjant klientų ar pajamų augimui, bus lengviau gauti AI agento sutikimą. Galimybė tokias problemas paversti labiau produktyviu procesu, kurį galima išplėsti kaip tradicinę programinę įrangą, yra labai patraukli.
Kimberly Tan: Turiu paskutinį klausimą prieš eidami toliau. Prisimenu, Jesse'as mūsų ankstesnėse diskusijose visada sakydavo, kad didžiausias iššūkis įmonėms, priimančioms programinę įrangą ar AI agentus, būtų haliucinacijos. Bet jūs man kartą pasakėte, kad iš tikrųjų tai nėra pagrindinė problema. Ar galite paaiškinti, kodėl haliucinacijų suvokimas yra šiek tiek klaidinantis ir kas žmonėms iš tikrųjų labiau rūpi?
Jesse Zhang: Manau, kad žmonėms rūpi haliucinacijos, bet jiems labiau rūpi jų teikiama vertė. Beveik visos įmonės, su kuriomis dirbame, daugiausia dėmesio skiria tiems patiems klausimams, beveik tiems patiems: kiek procentų pokalbių galite išspręsti? Kiek patenkinti mano klientai? Tada haliucinacijų problema gali būti priskiriama trečiajai kategorijai, būtent, kiek ji yra tiksli. Paprastai kalbant, pirmieji du veiksniai yra svarbesni vertinant.
Tarkime, kad kalbatės su nauja įmone ir padarėte tikrai gerą darbą dėl pirmųjų dviejų veiksnių, taip pat sulaukėte daug vadovybės ir visų komandos narių palaikymo. Jie sako: „O Dieve, mūsų klientų patirtis kitokia. Kiekvienas klientas dabar turi savo asmeninį asistentą, kuris gali bet kada susisiekti su mumis. Pateikėme jiems puikius atsakymus, jie yra labai patenkinti, tai yra daugiakalbis ir pasiekiamas 24 valandas per parą, 7 dienas per savaitę. Tai tik dalis to, ir jūs taip pat sutaupėte daug pinigų.
Taigi, kai pasieksite šiuos tikslus, gausite daug palaikymo ir daug užpakalinio vėjo, kad paskatintumėte darbą. Žinoma, iliuzijos problema galiausiai turi būti išspręsta, bet ne tai jiems labiausiai rūpi. Iliuzijos sprendimo būdas yra tas pats, kurį minėjau anksčiau – žmonės tave išbandys. Gali būti koncepcijos patikrinimo etapas, kai jūs iš tikrųjų vedate tikrus pokalbius, o komandos nariai stebi ir tikrina tikslumą. Jei viskas gerai, tai dažniausiai praeina.
Be to, kaip jau minėjau anksčiau, galite nustatyti tam tikras griežtas neskelbtinos informacijos apsaugos priemones, pvz., nebūtinai neskelbtiną turinį paversti bendru. Taigi iliuzijos klausimas yra diskusijų taškas daugelyje sandorių. Tai nėra nesvarbi tema. Jūs išgyvensite šį procesą, bet jis niekada nebus pokalbio centre.
Kimberly Tan: Dabar pereikime prie AI agento verslo modelio. Šiandien yra didelė tema, kaip nustatyti šių AI agentų kainą.
Istoriškai daugelio SaaS programinės įrangos kaina nustatoma pagal vietų skaičių, nes tai yra darbo eigos programinė įranga, skirta atskiriems darbuotojams ir naudojama darbuotojų našumui gerinti. Tačiau AI agentas nėra susijęs su atskirų darbuotojų produktyvumu, kaip tradicinė programinė įranga.
Daugelis žmonių mano, kad kainų nustatymo metodas, pagrįstas vietų skaičiumi, gali būti nebetaikomas. man įdomu kaip pradžioje galvojote apie šią dilemą ir apie tai, kaip galiausiai nusprendėte nustatyti Decagon kainą. Be to, kokia, jūsų manymu, bus programinės įrangos kainų nustatymo tendencija ateityje, kai AI agentas taps vis labiau paplitęs?
Jesse Zhang: Mūsų nuomonė šiuo klausimu yra tokia, kad anksčiau programinės įrangos kaina buvo mokama už vietą, nes jos mastas buvo apytiksliai pagrįstas žmonių, galinčių naudotis programine įranga, skaičiumi. Tačiau daugumai AI agentų jūsų teikiama vertė priklauso ne nuo ją prižiūrinčių žmonių skaičiaus, o nuo atlikto darbo kiekio. Tai atitinka mano anksčiau minėtą dalyką: jei investicijų grąža (IG) yra labai išmatuojama, tada darbo našumo lygis taip pat yra labai aiškus.
Mūsų nuomone, kainodara pagal vietų skaičių tikrai netaikoma. Galite nustatyti kainą pagal darbo produkciją. Taigi, jūsų siūlomas kainodaros modelis turėtų būti toks, kad kuo daugiau darbo atliksite, tuo daugiau sumokėsite.
Mums yra du akivaizdūs kainos nustatymo būdai. Galite įkainoti pokalbius arba pokalbius, kuriuos iš tikrųjų išsprendžia AI. Manau, kad viena iš įdomių pamokų, kurias išmokome, yra ta, kad dauguma žmonių pasirinko pokalbio kainodaros modelį. Priežastis ta, kad pagrindinis kainodaros pagal sprendimą pranašumas yra tai, kad už ką mokate . AI daro.
Tačiau kyla klausimas, kas laikoma „sprendimu“? Visų pirma, niekas nenori į tai gilintis, nes tai tampa: „Jei kas nors ateina supykęs ir tu jį išsiunčia, kodėl turėtume už tai mokėti?
Tai sukuria nepatogią situaciją, o taip pat šiek tiek keistas paskatas dirbtinio intelekto teikėjams, nes atsiskaitymas naudojant sprendimą reiškia: „Tiesiog reikia išspręsti kuo daugiau pokalbių ir atstumti kai kuriuos žmones“. Tačiau yra daug atvejų, kai geriau problemą eskaluoti, o ne tiesiog nustumti, o klientams toks elgesys nepatinka. Todėl atsiskaitymas pokalbio būdu suteiks daugiau paprastumo ir nuspėjamumo.
Kimberly Tan: Kaip manote, kiek truks būsimas kainodaros modelis?Nes šiuo metu, kai minite IG, ji paprastai grindžiama ankstesnėmis išlaidomis, kurios galėjo būti panaudotos darbo sąnaudoms padengti. Kadangi dirbtinio intelekto agentai tampa vis dažnesni, ar manote, kad ilgainiui dirbtinis intelektas bus lyginamas su darbo sąnaudomis ir ar tai yra tinkamas etalonas? Jei ne, kaip matote ilgalaikes kainodaras, neskaitant darbo sąnaudų?
Jesse Zhang: Manau, kad ilgalaikėje perspektyvoje AI agento kainodara vis tiek gali būti pirmiausia susieta su darbo sąnaudomis, nes tai yra agento grožis – jūsų ankstesnės išlaidos paslaugoms dabar gali būti perkeltos į programinę įrangą.
Ši išlaidų dalis gali būti 10–100 kartų didesnė už išlaidas programinei įrangai, todėl didelė išlaidų dalis bus perkelta į programinę įrangą. Todėl darbo sąnaudos natūraliai taps etalonu. Mūsų klientams IG yra labai aiški. Jei galite sutaupyti X mln. darbo sąnaudų, prasminga priimti šį sprendimą. Tačiau ilgainiui tai gali būti viduriukas.
Nes net kai kurie produktai, kurie nėra tokie geri kaip mūsų agentas, priims mažesnes kainas. Tai tarsi klasikinė SaaS situacija, kai visi konkuruoja dėl rinkos dalies.
Kimberly Tan: Kaip manote, kokia ateitis laukia dabartinėms SaaS įmonėms, ypač toms, kurių produktai gali būti ne sukurti dirbtiniam intelektui, arba kurių kaina yra už vieną vietą, todėl negali prisitaikyti prie į rezultatus orientuoto kainodaros modelio?
Jesse Zhang: Kai kurioms tradicinėms įmonėms iš tiesų yra šiek tiek sudėtinga pradėti dirbtinio intelekto agento produktą, nes jos negali nustatyti jo kainos naudodamos sėdynės modelį. Jei jums nebereikia tiek daug agentų, sunku išlaikyti pajamas naudojant esamą produktą. Tai tradicinių įmonių problema, bet sunku pasakyti. Tradicinės įmonės visada turi platinimo kanalų pranašumą. Net jei produktas nėra toks geras kaip naujos įmonės, žmonės nenori dėti pastangų, kad priimtų naują tiekėją, kurio kokybė yra tik 80%.
Taigi, pirma, jei esate pradedantysis, kaip ir mes, turite užtikrinti, kad jūsų produktas būtų tris kartus geresnis už tradicinį produktą. Antra, tai tipiška konkurencija tarp tradicinių įmonių ir startuolių. Tradicinės įmonės, žinoma, turi mažesnę rizikos toleranciją, nes turi daug klientų. Jei jie padarys klaidą greitai kartodami, tai sukels didžiulius nuostolius. Tačiau startuoliai gali kartotis greičiau, todėl pats iteracijos procesas gali lemti geresnį produktą. Tai įprastas ciklas. Mes visada didžiuojamės pristatymo greičiu, gaminių kokybe ir komandos darbu. Štai kodėl mes laimėjome dabartinį sandorį.
Kimberly Tan: Ar galite numatyti AI ateitį darbo vietoje? Pavyzdžiui, kaip tai pakeis darbuotojų poreikius ar galimybes arba kaip darbuotojai ir dirbtinio intelekto agentai sąveikauja?Kaip manote, kokios naujos geriausios praktikos ar normos taps norma darbo vietoje, kai dirbtinio intelekto agentai taps plačiau paplitę?
Jesse Zhang: Pirmas ir svarbiausias pokytis yra tai, kad esame įsitikinę, kad ateityje darbuotojai daug daugiau laiko praleis darbo vietoje kurdami ir valdydami AI agentus, panašiai kaip ir dirbtinio intelekto prižiūrėtojų vaidmuo. Net jei jūsų pareigos oficialiai nėra „AI prižiūrėtojas“, didžioji dalis laiko, kurį praleidote dirbdami savo darbą, bus perkelta į šių agentų valdymą, nes agentai gali suteikti jums daug svertų.
Tai matėme daugelyje diegimų, kai žmonės, kurie kažkada buvo komandos vadovai, dabar praleidžia daug laiko stebėdami dirbtinį intelektą, pavyzdžiui, norėdami įsitikinti, ar nėra problemų, arba atlikti pakeitimus. Jie stebi bendrą našumą, kad sužinotų, ar yra konkrečių sričių, į kurias reikia atkreipti dėmesį, ar žinių bazėje nėra spragų, kurios galėtų padėti dirbtiniam intelektui tobulėti, ir ar AI gali užpildyti šias spragas.
Darbas, susijęs su darbu su agentu, sudaro įspūdį, kad ateityje darbuotojai praleis daug laiko bendraudami su AI agentais. Tai yra pagrindinė mūsų įmonės koncepcija, kaip jau minėjau anksčiau. Todėl visas mūsų produktas yra sukurtas siekiant suteikti žmonėms įrankius, vizualizaciją, aiškinamumą ir valdymą. Manau, kad per metus tai taps didžiule tendencija.
Kimberly Tan: Tai labai prasminga. Kaip manote, kokių gebėjimų dirbtinio intelekto prižiūrėtojams prireiks ateityje? Kokie yra šio vaidmens įgūdžiai?
Jesse Zhang: Yra du aspektai. Vienas iš jų yra stebimumas ir aiškinamumas, gebėjimas greitai suprasti, ką AI daro ir kaip priima sprendimus. Kitas yra gebėjimas priimti sprendimus arba kūrimo dalis, kaip pateikti grįžtamąjį ryšį ir kaip sukurti naują logiką. Manau, kad šios dvi yra dvi tos pačios monetos pusės.
Kimberly Tan: Kokios užduotys, jūsų manymu, per vidutinės trukmės ar ilgalaikį laikotarpį viršys AI agento galimybes ir jas vis tiek turės tinkamai valdyti ir atlikti žmonės?
Jesse Zhang: Manau, kad tai daugiausia priklausys nuo „tobulumo“ reikalavimo, kurį minėjau anksčiau. Yra daug užduočių, kurių klaidų tolerancija yra labai maža. Tokiais atvejais bet koks AI įrankis yra labiau pagalba nei visavertis agentas.
Pavyzdžiui, kai kuriose jautresnėse pramonės šakose, tokiose kaip sveikatos priežiūra ar saugumas, kur jūs turite būti beveik tobulas, šiose srityse AI agentai gali tapti mažiau savarankiški, tačiau tai nereiškia, kad jie nenaudingi. Manau, kad stilius bus kitoks, tokioje platformoje kaip mūsų, jūs iš tikrųjų naudojate šiuos agentus, kad leistumėte jiems automatizuoti visą darbą.
Derrickas Harrisas: Ir tai viskas šiam epizodui. Jei ši tema jums pasirodė įdomi ar įkvepianti, įvertinkite mūsų podcast'ą ir pasidalykite ja su daugiau žmonių.Tikimės išleisti paskutinę seriją iki metų pabaigos ir pertvarkysime turinį naujiems metams. Dėkojame, kad klausotės ir linkime puikaus atostogų sezono (jei klausotės per šventes).
Originalus vaizdo įrašas: Ar gali „Al Agents“ pagaliau sutvarkyti klientų aptarnavimą?