Kohokohdat

  • LLM:ien taika on, että he ovat erittäin joustavia, voivat sopeutua moniin erilaisiin tilanteisiin ja niillä on perusälykkyys.
  • Uskomme, että ajan myötä käyttöliittymä ja UX muuttuvat yhä luonnollisemmiksi kielipohjaisiksi, koska näin Agenttijärjestelmä ajattelee, tai tämä on pohjimmiltaan suurten kielimallien (LLM) koulutuksen perusta.
  • Jos haluat jonkun hyväksyvän tekoälyagentin, hän itse asiassa tekee "uskon harppauksen", koska monille ihmisille tämä on hyvin tuntematon ala.

AI Agent muokkaa asiakaskokemusta

Jesse Zhang: Miten agentti oikeastaan rakennetaan? Näkemyksemme on, että ajan myötä siitä tulee yhä enemmän luonnollisen kielipohjaisen agentin kaltainen, koska näin suuria kielimalleja (LLM) koulutetaan.

Pitkällä aikavälillä, jos sinulla on superälykäs agentti, joka on todella kuin ihminen, voit näyttää sille asioita, selittää sille, antaa palautetta ja se päivittää tiedot mielessään.

Voit kuvitella, että sinulla on erittäin pätevä ihmisryhmän jäsen. Kun he liittyvät ensimmäisen kerran, opetat heille jotain, he alkavat työskennellä ja sitten annat heille palautetta ja näytät heille uutta tietoa.

Pikkuhiljaa se kehittyy tähän suuntaan – siitä tulee keskustelullisempaa ja luonnollisempaan kieleen perustuvaa, ja ihmisten kommunikaatiotavasta tulee luonnollisempaa. Eivätkä ihmiset enää käytä noita monimutkaisia päätöspuita vaatimusten kaappaamiseen, jotka voivat toimia, mutta jotka ovat taipuvaisia romahtamaan.

Aiemmin meidän piti tehdä tämä, koska meillä ei ollut laajaa kielimallia. Mutta nyt, Agentin jatkuvan edistymisen myötä, käyttökokemuksesta (UX) ja käyttöliittymästä (UI) tulee enemmän keskustelua.

Derrick Harris: Hei kaikki, tervetuloa A16z AI Podcastiin. Olen Derrick Harris, ja tänään minun kanssani ovat Jesse Zhang, yksi Decagonin perustajista ja toimitusjohtaja, ja Kimberly Tan, a16z:n kumppani. Kimberly moderoi keskustelua ja Jesse jakaa kokemuksiaan Decagonin ja sen tuotteiden rakentamisesta.

Jos et tiedä siitä paljoa, Decagon on startup-yritys, joka tarjoaa yrityksille tekoälyagentteja auttamaan asiakastuen kanssa. Nämä agentit eivät ole chatbotteja eivätkä LLM-kääreitä yksittäiselle API-kutsulle, vaan pitkälle räätälöityjä edistyneitä agentteja, jotka voivat käsitellä monimutkaisia työnkulkuja yrityksen erityistarpeiden perusteella.

Sen lisäksi, että Jesse selittää, miksi he loivat Decagonin ja kuinka se on suunniteltu käsittelemään erilaisia LLM- ja asiakasympäristöjä, Jesse puhuu myös keskustelukohtaisesti veloittavan liiketoimintamallin eduista ja siitä, kuinka tekoälyagentit muuttavat asiakastuen johtajilta vaadittavia taitoja.

On myös syytä mainita, että Kimberly kirjoitti äskettäin blogitekstin nimeltä "RIP to RPA, The Rise of Intelligent Automation", josta keskustelemme lyhyesti tässä jaksossa.

Se on loistava lähtökohta ymmärtää, miten automaatio on nousussa liiketoimintaprosesseissa, ja tarjoamme linkin näyttelyn muistiinpanoihin. Ja lopuksi, muistutuksena, tämän artikkelin sisältö on tarkoitettu vain tiedoksi, eikä sitä tule pitää laki-, liike-, vero- tai sijoitusneuvonnana, eikä sitä saa käyttää minkään sijoituksen tai arvopaperin arvioimiseen, eikä se ole suunnattu millekään a16z-rahastosijoittajalle tai potentiaaliselle sijoittajalle.

Jesse Zhang: Lyhyt esittely itsestäni. Olen syntynyt ja kasvanut Boulderissa, ja osallistuin lapsena moniin matematiikkakilpailuihin ja vastaaviin. Opiskelin tietojenkäsittelytiedettä Harvardissa ja perustin sitten yrityksen, jota myös tuki a16z. Lopulta Niantic osti meidät.

Sitten aloimme rakentaa Decagonia. Yrityksemme rakentaa tekoälyagentteja asiakaspalvelua varten. Aluksi teimme tämän, koska halusimme tehdä jotain, mikä oli hyvin lähellä sydäntämme.

Kenenkään ei tietenkään tarvitse opettaa tekoälyagenttien roolia asiakaspalvelussa, eikö niin? Olemme kaikki olleet puhelimessa lentoyhtiöiden, hotellien jne. kanssa ja odottaneet odotusta. Joten idea lähti sieltä.

Keskustelimme monien asiakkaiden kanssa selvittääksemme, millainen tuote meidän pitäisi rakentaa. Yksi asia, joka jäi meille mieleen, oli se, että kun opimme lisää tekoälyagenteista, aloimme miettiä, millaista tulevaisuus olisi, kun heitä oli paljon. Luulen, että kaikki uskovat, että tulevaisuudessa on paljon tekoälyagentteja.

Ajattelemme sitä, mitä tekoälyagenttien parissa työskentelevät työntekijät tekevät? Millaisia työkaluja heillä on? Miten he hallitsevat tai näkevät agentteja, joiden kanssa he työskentelevät tai joita he hallitsevat?

Tämä on siis ydin, jolla rakensimme yrityksen tämän kysymyksen ympärille. Luulen, että tämä erottaa meidät myös tällä hetkellä, koska tarjoamme näille tekoälyagenteille erilaisia työkaluja, jotka auttavat ihmisiä, joiden kanssa työskentelemme, rakentamaan ja konfiguroimaan agentteja niin, etteivät ne ole enää "musta laatikko". Näin rakennamme brändiämme.

Derrick Harris: Mikä inspiroi sinua siirtymään yritysohjelmistoihin, koska edellinen yrityksesi oli kuluttajille suunnattu videoyhtiö?

Jesse Zhang: Hieno kysymys. Mielestäni perustajat ovat usein "aiheen agnostikkoja" aiheen valinnassa, koska todellisuudessa, kun lähestyt uutta alaa, olet yleensä melko naiivi. Joten on etua tarkastella asioita uudesta näkökulmasta. Joten kun mietimme sitä, aiherajoituksia ei ollut juuri lainkaan.

Luulen, että se on hyvin yleinen malli ihmisille, joilla on enemmän määrällistä taustaa, minä mukaan lukien. Kun olet kokeillut kuluttajatuotteita, sinulla on taipumus keskittyä enemmän yritysohjelmistoihin, koska yritysohjelmistoissa on konkreettisempia ongelmia.

Sinulla on todellisia asiakkaita, joilla on todelliset tarpeet ja budjetit ja vastaavat, ja voit optimoida ja ratkaista ongelmia heidän puolestaan. Kuluttajamarkkinat ovat myös erittäin houkuttelevat, mutta ne perustuvat enemmän intuitioon kuin kokeilemiseen. Minulle henkilökohtaisesti yritysohjelmistot sopivat paremmin.

Kimberly Tan: Ensinnäkin voimme aloittaa tästä kysymyksestä: Mitkä ovat yleisimmät tukiluokat, joita Decagon käsittelee nykyään? Voitko tarkentaa, kuinka käytät suuria kielimalleja (LLM) näiden ongelmien ratkaisemiseen ja mitä voit tehdä nyt, mitä et voinut tehdä aiemmin?

Jesse Zhang: Jos katsot taaksepäin aiempaa automaatiota, olet saattanut käyttää päätöspuita tehdäksesi jotain yksinkertaista, määrittääksesi, mikä polku valita. Mutta olemme kaikki käyttäneet chatbotteja, ja se on melko turhauttava kokemus.

Usein kysymykseesi ei voida täysin vastata päätöspuulla. Joten sinut ohjataan kysymyspolulle, joka liittyy kysymykseen, mutta ei täsmälleen vastaa sitä. Nyt meillä on suuria kielimalleja (LLM). LLM:ien taika on, että he ovat erittäin joustavia, voivat sopeutua moniin erilaisiin tilanteisiin ja niillä on perusälykkyys.

Kun käytät tätä asiakastukeen tai kun asiakas kysyy, voit tarjota henkilökohtaisempaa palvelua. Tämä on ensimmäinen kohta, personoinnin taso on parantunut huomattavasti. Tämä avaa korkeammat mittarit. Voit ratkaista enemmän ongelmia, asiakkaat ovat tyytyväisempiä ja asiakastyytyväisyys kasvaa.

Seuraava luonnollinen askel on: jos sinulla on tämä äly, sinun pitäisi pystyä tekemään enemmän asioita, joita ihmiset voivat tehdä. Ihmiset voivat tehdä sen, että he voivat kerätä tietoja reaaliajassa, toimia ja järkeillä useiden vaiheiden kautta. Jos asiakas kysyy suhteellisen monimutkaisen kysymyksen, ehkä "Haluan tehdä tämän ja sen", ja tekoäly on valmis käsittelemään vain ensimmäisen kysymyksen. LLM on tarpeeksi älykäs tunnistamaan, että tässä on kaksi kysymystä. Ensin se ratkaisee ensimmäisen ongelman ja sitten auttaa sinua ratkaisemaan toisen ongelman.

Ennen LLM:n tuloa tämä oli käytännössä mahdotonta. Joten näemme nyt askeleen muutoksen siinä, mitä teknologia pystyy tekemään, ja se on LLM:n ansiota.

Kimberly Tan: Miten määrittelisit tekoälyagentin tässä yhteydessä? Koska sanaa "agentti" käytetään laajalti, olen utelias tietämään, mitä se itse asiassa tarkoittaa Decagonin yhteydessä.

Jesse Zhang: Sanoisin, että agentti viittaa enemmän järjestelmään, jossa useat LLM-järjestelmät (large language model) toimivat yhdessä. Sinulla on LLM-kutsu, joka sisältää periaatteessa kehotteen lähettämisen ja vastauksen saamisen. Agentti haluaa kyetä yhdistämään useita tällaisia kutsuja, ehkä jopa rekursiivisesti.

Sinulla on esimerkiksi LLM-puhelu, joka määrittää, kuinka viestiä käsitellään, ja sitten se voi laukaista muita puheluita, jotka keräävät lisää tietoa, suorittavat toimintoja ja toistavat, mitä käyttäjä sanoi, ja ehkä jopa kysyy jatkokysymyksiä. Joten meille agentti voidaan ymmärtää lähes LLM-kutsujen, API-kutsujen tai muun logiikan verkostona, jotka toimivat yhdessä paremman kokemuksen tarjoamiseksi.

Kimberly Tan: Tästä aiheesta voimme ehkä puhua enemmän agenttiinfrastruktuurista, jonka olet itse rakentanut. Mielestäni yksi erittäin mielenkiintoinen seikka on, että markkinoilla on monia AI-agenttien esittelyjä, mutta mielestäni niistä on hyvin vähän esimerkkejä, jotka voivat todella toimia vakaasti tuotantoympäristössä. Ja ulkopuolelta on vaikea tietää, mikä on totta ja mikä ei.

Mitkä osa-alueet tämän päivän tekoälyagenteissa voivat siis mielestäsi hyvin ja mitkä osa-alueet vaativat vielä teknologista läpimurtoa, jotta ne olisivat kestävämpiä ja luotettavampia?

Jesse Zhang: Oma näkemykseni on itse asiassa hieman erilainen. Ero sen määrittämisen välillä, onko tekoälyagentti vain demo vai "todella toimiva", ei ole täysin teknologiapinossa, koska uskon, että useimmat ihmiset saattavat käyttää suunnilleen samaa tekniikkaa. Uskon, että kun olet edennyt yrityksesi kehittämisessä pidemmälle, esimerkiksi yrityksemme on perustettu yli vuoden, luot jotain hyvin erityistä, joka sopii sinun käyttötilanteeseesi.

Mutta loppujen lopuksi jokainen voi käyttää samaa mallia ja samanlaista tekniikkaa. Uskon, että suurin ero siitä, voiko tekoälyagentti toimia tehokkaasti, on itse asiassa käyttötapauksen muodossa. Alussa on vaikea tietää tätä, mutta jälkeenpäin katsottuna huomaat, että tekoälyagentille on kaksi ominaisuutta, jotka ovat erittäin tärkeitä, jotta he voivat mennä esittelyä pidemmälle ja ryhtyä käytännön sovelluksiin.

Ensimmäinen on se, että ratkaisemallasi käyttötapauksella on oltava kvantifioitu ROI (sijoitetun pääoman tuotto). Tämä on erittäin tärkeää, koska jos sijoitetun pääoman tuottoprosenttia ei voida mitata, on vaikea saada ihmiset todella käyttämään tuotettasi ja maksamaan siitä. Meidän tapauksessamme määrällinen indikaattori on: kuinka monta prosenttia tukipyynnöistä ratkaiset? Koska tämä luku on selvä, ihmiset voivat ymmärtää sen – okei, jos ratkaiset enemmän, voin verrata tätä tulosta nykyisiin kuluihini ja käytettyyn aikaani. Joten jos tämä indikaattori on olemassa, toinen meille erittäin tärkeä indikaattori on asiakastyytyväisyys. Koska sijoitetun pääoman tuottoprosentti on helppo mitata, ihmiset todella ottavat sen käyttöön.

Toinen tekijä on, että käyttötapausten on oltava asteittain vaikeampia. Olisi myös erittäin vaikeaa, jos tarvitsisi agenttia yli-inhimillisenä alusta alkaen, joka ratkaisee lähes 100% käyttötapauksia. Koska kuten tiedämme, LLM:t ovat ei-deterministisiä, sinulla on oltava jonkinlainen varasuunnitelma. Onneksi tukikäyttötapauksissa on hieno ominaisuus, ja se on, että voit aina eskaloida ihmiselle. Vaikka voit ratkaista vain puolet ongelmista, se on silti erittäin arvokasta ihmisille.

Joten mielestäni tuella on tämä ominaisuus, joka tekee siitä erittäin sopivan AI Agentille. Uskon, että on monia muita aloja, joilla ihmiset voivat luoda vaikuttavia demoja, joissa sinun ei tarvitse edes katsoa tarkasti ymmärtääksesi, miksi AI Agent olisi hyödyllinen. Mutta jos sen on oltava täydellinen alusta alkaen, se on erittäin vaikeaa. Jos näin on, melkein kukaan ei halua kokeilla tai käyttää sitä, koska sen epätäydellisyyden seuraukset voivat olla erittäin vakavia – esimerkiksi turvallisuuden kannalta.

Esimerkiksi kun ihmiset tekevät simulaatioita, heillä on aina tämä klassinen ajatus: "Oi, olisi hienoa, jos LLM voisi lukea tämän." Mutta on vaikea kuvitella jonkun sanovan: "Okei, tekoälyagentti, anna mennä. Uskon, että pystyt siihen." Koska jos se tekee virheen, seuraukset voivat olla erittäin vakavia.

Jesse Zhang: Asiakkaamme päättävät yleensä tästä, ja itse asiassa näemme eroja erittäin laajasti. Yhdessä ääripäässä jotkut ihmiset todella tekevät agenttinsa näyttämään ihmiseltä, joten siellä on ihmisen avatar, ihmisen nimi, ja vastaukset ovat hyvin luonnollisia. Toisaalta agentti yksinkertaisesti ilmoittaa olevansa tekoäly ja tekee tämän selväksi käyttäjälle. Luulen, että eri yrityksillä, joiden kanssa työskentelemme, on tässä erilainen kanta.

Yleensä, jos olet säännellyllä alalla, sinun on tehtävä tämä selväksi. Mielenkiintoista on nyt se, että asiakkaiden käyttäytyminen on muuttumassa. Koska monet asiakkaistamme saavat paljon palautetta sosiaalisessa mediassa, kuten "Voi luoja, tämä on ensimmäinen kokeilemani chat-kokemus, joka tuntuu todella todelliselta" tai "Tämä on vain taikuutta." Ja se on heille hienoa, koska nyt heidän asiakkaat oppivat, hei, jos se on tekoälykokemus, se voi itse asiassa olla parempi kuin ihminen. Näin ei ollut aiemmin, koska useimmilla meistä on ollut tällainen puhelinasiakaspalvelukokemus aiemmin: ”Okei, AI, AI, AI…”

Kimberly Tan: Mainitsit personoinnin käsitteen muutaman kerran. Kaikki käyttävät samaa taustalla olevaa teknologia-arkkitehtuuria, mutta heillä on erilaiset personointitarpeet tukipalvelujen suhteen. Voitko puhua tästä? Tarkemmin sanottuna, miten saavutat personoinnin, jotta ihmiset voivat sanoa verkossa: "Luoja, tämä on paras tukikokemus, jonka olen koskaan saanut"?

Jesse Zhang: meille, personointi tulee käyttäjälle mukauttamisesta. Sinun on ymmärrettävä käyttäjän taustatiedot, mikä on vaadittava lisäkonteksti. Toiseksi sinun on myös ymmärrettävä asiakkaidemme liiketoimintalogiikka.Jos yhdistät nämä kaksi, voit tarjota melko hyvän kokemuksen.

Ilmeisesti tämä kuulostaa yksinkertaiselta, mutta todellisuudessa on erittäin vaikeaa saada kaikki tarvittava konteksti. Siksi suurin osa työstämme liittyy siihen, kuinka rakentaa oikeat primitiiviset komponentit niin, että kun asiakas ottaa järjestelmämme käyttöön, hän voi helposti päättää: "Okei, tämä on se liiketoimintalogiikka, jonka haluamme." Esimerkiksi sinun on ensin suoritettava nämä neljä vaihetta, ja jos vaihe kolme epäonnistuu, sinun on siirryttävä vaiheeseen viisi.

Haluat opettaa tekoälylle tämän helposti, mutta myös antaa sille pääsyn tietoihin, kuten "Tämä ovat käyttäjän tilitiedot. Jos tarvitset lisätietoja, voit soittaa näihin sovellusliittymiin." Nämä tasot ovat koordinaatiokerros mallin päällä, ja tavallaan ne tekevät agentista todella käyttökelpoisen.

Kimberly Tan: Kuulostaa siltä, että tässä tapauksessa tarvitset paljon pääsyä liiketoimintajärjestelmiin. Sinun on tiedettävä paljon käyttäjistä, ja sinun on luultavasti tiedettävä, kuinka asiakas todella haluaa olla vuorovaikutuksessa käyttäjiensä kanssa.Uskon, että nämä tiedot voivat olla erittäin arkaluonteisia.

Voitko tarkentaa takeita, joita yritysasiakkaat tyypillisesti tarvitsevat ottaessaan AI Agentin käyttöön? Ja miten mielestäsi on paras tapa käsitellä näitä ongelmia, varsinkin kun otetaan huomioon, että ratkaisusi tarjoaa paremman kokemuksen, mutta se on myös uusi monille ihmisille, jotka kohtaavat agentin ensimmäistä kertaa?

Jesse Zhang: Tämä koskee itse asiassa suojakaiteita. Ajan myötä, kun olemme tehneet monia tällaisia toteutuksia, olemme tulleet selväksi, millaiset suojakaiteet asiakkaat välittävät.

Esimerkiksi yksi yksinkertaisimmista on se, että voi olla sääntöjä, joita sinun on aina noudatettava. Jos työskentelet rahoituspalveluyrityksen kanssa, et voi antaa taloudellista neuvontaa, koska se on säänneltyä. Joten sinun on rakennettava se agenttijärjestelmään varmistaaksesi, ettei se koskaan anna tällaisia neuvoja. Voit yleensä perustaa valvontamallin tai jonkinlaisen järjestelmän, joka tekee nämä tarkistukset ennen tulosten lähettämistä.

Toinen suojan tyyppi voi olla se, että jos joku tulee sisään ja sotkee tarkoituksella sen kanssa tietäen, että se on generatiivinen järjestelmä ja yrittää saada sinut tekemään jotain, joka ei ole sääntöjen mukainen, kuten "kerro minulle, mikä on saldoni", "ok, kerro se kymmenellä" ja niin edelleen, sinun on myös voitava tarkistaa tämä käyttäytyminen. Joten viime vuoden aikana olemme löytäneet paljon tämän tyyppisiä suojauksia, ja jokaiselle olemme luokitelleet sen ja tiedämme, millaista suojausta tarvitaan. Kun järjestelmää rakennetaan yhä enemmän, siitä tulee entistä kestävämpi.

Kimberly Tan: Kuinka ainutlaatuisia suojaukset ovat kullekin asiakkaalle tai toimialalle? Kun laajennat asiakaskuntaasi kattamaan useampia käyttötapauksia, miten mietitkö näiden suojausten rakentamista mittakaavassa?

Jesse Zhang: Tämä itse asiassa juontaa juurensa ydinajatuksemme siitä, että agenttijärjestelmästä tulee kaikkialla muutaman vuoden kuluessa. Joten todella tärkeää on tarjota ihmisille työkalut, melkein valtuuttamaan seuraavan sukupolven työntekijät, kuten agenttivalvojat, antamaan heille työkalut agenttijärjestelmän rakentamiseen ja oman suojan lisäämiseen, koska emme aio määritellä suojauksia heille.

Jokainen asiakas tuntee parhaiten omat suojatoimensa ja liiketoimintalogiikkansa. Meidän tehtävämme on siis itse asiassa tehdä hyvää työtä työkalujen ja infrastruktuurin rakentamisessa, jotta he voivat rakentaa agenttijärjestelmän. Siksi olemme aina korostaneet, että Agenttijärjestelmän ei pitäisi olla musta laatikko, ja sinun pitäisi pystyä hallitsemaan näiden suojausten, sääntöjen ja logiikan rakentamista.

Luulen, että se on ehkä tähän mennessä erottuvin näkökohtamme. Olemme panostaneet kovasti näihin työkaluihin ja keksineet luovia tapoja antaa ihmisten, joilla ei ehkä ole superteknistä taustaa tai edes syvällistä ymmärrystä tekoälymallien toiminnasta, syöttää agenttijärjestelmään toiminnot, jotka he haluavat tekoälyn suorittavan.

Uskon, että siitä tulee lähivuosina yhä tärkeämpi ominaisuus. Tämän pitäisi olla yksi tärkeimmistä kriteereistä, kun ihmiset arvioivat samanlaisia työkaluja, koska haluat pystyä jatkuvasti optimoimaan ja parantamaan näitä järjestelmiä ajan mittaan.

Luonnollisen kielen ohjaama liikelogiikka

Derrick Harris: Mitä valmisteluja asiakkaat tai yritykset voivat tehdä valmistautuakseen kaikenlaiseen automaatioon ja erityisesti tämän agenttijärjestelmän käyttöön? Miten he voivat esimerkiksi suunnitella tietojärjestelmänsä, ohjelmistoarkkitehtuurinsa tai liiketoimintalogiikkansa tukemaan tällaisia järjestelmiä?

Koska minusta tuntuu, että monet tekoälytekniikat ovat aluksi uutta, mutta kun kyse on olemassa olevista vanhoista järjestelmistä, se kohtaa usein paljon kaaosta.

Jesse Zhang: Jos joku rakentaa nyt tyhjästä, on olemassa monia parhaita käytäntöjä, jotka voivat helpottaa työtäsi. Esimerkiksi tietopohjasi jäsentäminen. Olemme kirjoittaneet joistakin näistä ja ottaneet käyttöön joitain menetelmiä, jotka voivat helpottaa tekoälyn tiedon nielemistä ja parantaa sen tarkkuutta. Yksi erityinen ehdotus on jakaa tietokanta modulaarisiin osiin sen sijaan, että olisi yksi iso artikkeli, jossa on useita vastauksia.

Sovellusliittymää määritettäessä voit tehdä niistä sopivampia Agent-järjestelmään ja asettaa käyttöoikeudet ja lähdön tavalla, joka helpottaa Agent-järjestelmän tietojen nielemistä ilman, että vastauksen löytämiseksi tarvitsee tehdä paljon laskelmia. Nämä ovat joitain taktisia toimenpiteitä, joihin voidaan ryhtyä, mutta en sanoisi, että Agent-järjestelmän käyttämiseksi on tehtävä mitään.

Derrick Harris: Hyvä dokumentointi on aina tärkeää, pohjimmiltaan siinä on kyse tiedon tehokkaasta järjestämisestä.

Kimberly Tan: Kuulostaa siltä, että jos yrität opettaa ihmisiä ohjaamaan Agent-järjestelmää toimimaan tavalla, joka parhaiten sopii heidän asiakkailleen tai tiettyihin käyttötapauksiin, niin käyttöliittymän ja UX-suunnittelun kanssa voi olla tarpeen kokeilla paljon tai joudut räjähtämään uusia polkuja tällä täysin uudella alalla, koska se eroaa hyvin perinteisistä ohjelmistoista.

Olen utelias, mitä mieltä olet tästä? Miltä käyttöliittymän ja UX:n pitäisi näyttää agentti-ensimmäisessä maailmassa? Miten luulet sen muuttuvan muutaman seuraavan vuoden aikana?

Jesse Zhang: En sanoisi, että olisimme ratkaisseet tämän ongelman. Luulen, että olemme saaneet löytää paikallisen optimaalin, joka toimii nykyisille asiakkaillemme, mutta se on edelleen jatkuva tutkimusalue meille ja monille muille.

Ydinongelma palaa siihen, mitä mainitsimme aiemmin, eli että sinulla on agenttijärjestelmä. Ensinnäkin, kuinka voit nähdä selvästi, mitä se tekee ja miten se tekee päätöksiä? Kuinka sitten voit käyttää näitä tietoja päättääksesi, mitä päivitetään ja mitä palautetta tekoälylle tulisi antaa? Näissä käyttöliittymäelementit yhdistyvät, erityisesti toinen osa.

Uskomme, että ajan myötä käyttöliittymä ja UX muuttuvat yhä luonnollisemmiksi kielipohjaisiksi, koska näin Agenttijärjestelmä ajattelee, tai se on pohjimmiltaan perusta suurten kielimallien (LLM) koulutukselle.

Äärimmäisessä tapauksessa, jos sinulla on superälykäs agentti, joka ajattelee pohjimmiltaan kuin ihminen, voit näyttää sille asioita, selittää asioita, antaa palautetta ja se päivittyy omassa "mielessään". Voit kuvitella, että tiimiisi liittyy erittäin pätevä henkilö, opetat hänelle jotain, hän alkaa työskennellä, ja sitten annat hänelle jatkuvasti palautetta, voit näyttää hänelle uusia asioita, uusia asiakirjoja, kaavioita jne.

Uskon, että äärimmäisessä tapauksessa se kehittyy tähän suuntaan: asiat muuttuvat keskustelevammiksi, luonnollisemmiksi kielipohjaisiksi, ja ihmiset lakkaavat rakentamasta järjestelmiä monimutkaisilla päätöspuilla kuten ennen, vangitaen mitä haluat, mutta tämä lähestymistapa voi helposti hajota. Ennen meidän oli tehtävä tämä, koska silloin ei ollut LLM:itä, mutta nyt, kun agenttijärjestelmät ovat tulossa yhä tehokkaammiksi, käyttöliittymästä ja UX:stä tulee enemmän keskustelua.

Kimberly Tan: Noin puolitoista vuotta sitten, kun Decagon aloitti ensimmäisen kerran, oli yleinen käsitys, että LLM soveltui hyvin moniin käyttötapauksiin, mutta itse asiassa se oli vain jonkinlainen "GPT-kääre", jossa yritykset voivat vain kutsua taustalla olevaa mallia API:n kautta ja ratkaista tukiongelmansa välittömästi.

Mutta on selvää, että kun yritykset päättävät käyttää Decagonin kaltaisia ratkaisuja sen sijaan, että lähtisivät suoraan tälle tielle, käy ilmi, että näin ei ole. Mietin, voisitko selittää, miksi näin on. Mikä tarkalleen teki sisäisen rakentamisen haasteista odotettua monimutkaisempia? Mitä väärinkäsityksiä heillä oli konseptista?

Jesse Zhang: Ei ole mitään väärää olla "GPT-kääre", voisi sanoa, että Purcell on AWS-kääre tai jotain vastaavaa. Yleensä kun ihmiset käyttävät tätä termiä, se tarkoittaa jotain halventavaa.

Henkilökohtainen näkemykseni on, että jos rakennat agenttijärjestelmää, määritelmän mukaan aiot ehdottomasti käyttää LLM:ää työkaluna. Joten rakennat itse asiassa jo olemassa olevan päälle, aivan kuten tavallisesti rakennat AWS:n tai GCP:n pohjalta.

Mutta todellinen ongelma, johon voit törmätä, on, jos LLM:n päälle rakentamasi ohjelmisto ei ole tarpeeksi "raskas" tai monimutkainen vaikuttaakseen asiaan.

Jälkeenpäin katsottuna meille myymämme tuotteet ovat pohjimmiltaan ohjelmistoja. Olemme itse asiassa kuin tavallinen ohjelmistoyritys, paitsi että käytämme LLM:ää osana ohjelmistoa ja yhtenä työkaluista. Mutta kun ihmiset ostavat tällaista tuotetta, he haluavat pääasiassa itse ohjelmiston. He haluavat työkaluja, jotka voivat seurata tekoälyä, jotka voivat kaivaa syvälle jokaisen tekoälyn keskustelun yksityiskohtiin, jotka voivat antaa palautetta, jotka voivat jatkuvasti rakentaa ja säätää järjestelmää.

Se on siis ohjelmistomme ydin. Jopa itse agenttijärjestelmän kanssa ihmisten ongelmana on se, että demon tekeminen on siistiä, mutta jos haluat tehdä siitä tuotantovalmis ja todella asiakaslähtöisen, sinun on ratkaistava monia pitkäaikaisia ongelmia, kuten "illuusio"-ilmiön estäminen ja pahojen toimijoiden kanssa tekeminen, jotka yrittävät aiheuttaa tuhoa. Meidän on myös varmistettava, että latenssi on riittävän alhainen, ääni on sopiva ja niin edelleen.

Puhuimme monien ryhmien kanssa, ja he tekivät joitain kokeita, rakensivat alustavan version, ja sitten he tajusivat: "Oi, todellakin, emme halua olla niitä, jotka jatkavat näiden yksityiskohtien rakentamista myöhemmissä vaiheissa." He eivät myöskään halunneet olla niitä, jotka lisäävät jatkuvasti uutta logiikkaa asiakaspalvelutiimiin. Joten tässä vaiheessa näyttää sopivammalta valita yhteistyö muiden kanssa.

Kimberly Tan: Mainitsit joitain pitkän aikavälin ongelmia, kuten tarve käsitellä huonoja näyttelijöitä jne.Uskon, että monet AI-agentin käyttöä harkitsevat kuuntelijat ovat huolissaan uusista tietoturvahyökkäyspoluista, joita saattaa syntyä LLM:ien käyttöönoton jälkeen, tai uusista turvallisuusriskeistä, joita saattaa syntyä Agent-järjestelmän käyttöönoton jälkeen. Mitä mieltä olet näistä ongelmista? Ja mitkä ovat parhaat käytännöt huippuluokan yritysturvallisuuden varmistamiseen käsiteltäessä Agentti?

Jesse Zhang: Turvallisuuden suhteen voidaan toteuttaa joitain ilmeisiä toimenpiteitä, jotka mainitsin aiemmin, kuten suojatoimenpiteiden tarve. Ydinkysymys on, että ihmisten huoli LLM:istä on se, etteivät he ole deterministisiä.

Mutta hyvä uutinen on, että voit itse asiassa laittaa suurimman osan herkistä ja monimutkaisista toiminnoista deterministisen seinän taakse, ja laskenta tapahtuu siellä, kun se kutsuu API:ta. Joten et luota täysin LLM:ään sen hoitamisessa, ja sillä vältetään monet ydinongelmat.

Mutta silti on tilanteita, joissa esimerkiksi huono näyttelijä puuttuu tai joku yrittää saada järjestelmän hallusinoitumaan. Olemme havainneet, että monien suurten asiakkaiden kanssa, joiden kanssa työskentelemme, heidän tietoturvatiiminsä tulevat sisään ja periaatteessa suorittavat "punaisen tiimin" testin tuotteillemme ja viettävät viikkoja jatkuvasti käynnistäen erilaisia mahdollisia hyökkäyksiä järjestelmää vastaan yrittääkseen löytää haavoittuvuuksia. Kun AI Agentista tulee yhä suositumpi, voimme nähdä tämän tapahtuvan yhä useammin, koska tämä on yksi parhaista tavoista testata järjestelmän tehokkuutta. Se on heittää sille jotain punaisen joukkueen testin kautta ja katsoa, pystyykö se murtamaan puolustuksen.

On myös startuppeja, jotka kehittävät punaisen tiimin työkaluja tai antavat ihmisille mahdollisuuden tehdä tällaisia testejä itse, mikä on trendi, jota näemme tällä hetkellä. Monet yritykset, joiden kanssa teemme yhteistyötä myyntisyklin myöhemmässä vaiheessa, testaavat järjestelmän turvallisuustiiminsä tai ulkopuolisen tiimin kanssa. Meille tällaisten testien läpäiseminen on välttämätöntä. Siitä se siis lopulta johtuu.

Derrick Harris: Kannustatko asiakkaitasi tähän? Koska kun puhumme tekoälypolitiikoista, mainitsemme tärkeän näkökohdan, joka on sovelluskerros, ja korostamme sijoittamista ... vastuulla LLM:n käyttäjistä ja sovellusta käyttävistä ihmisistä sen sijaan, että syyttäisi vain mallia itseään. Toisin sanoen asiakkaiden tulee suorittaa punaisen tiimin testaus, tunnistaa tietyt käyttötapaukset ja hyökkäysreitit sekä määrittää, mitkä haavoittuvuudet on suojattava, sen sijaan, että luottaisivat vain OpenAI:n tai muiden yritysten jo luomaan tietoturvaan.

Jesse Zhang: Olen täysin samaa mieltä. Uskon myös, että ilmoitusvaatimusten uusi aalto saattaa ilmaantua, samankaltainen kuin SOC 2 -sertifiointi ja HIPAA-sertifiointi, joita kaikki tekevät nyt ja joita vaaditaan eri toimialoilla. Yleensä kun myyt geneeristä SaaS-tuotetta, asiakkaat vaativat penetraatiotestausta, ja meidän on myös toimitettava penetraatiotestausraporttimme. AI Agentille saattaa tulla samanlaisia vaatimuksia tulevaisuudessa, ja joku voi nimetä sen, mutta tämä on periaatteessa uusi tapa testata, onko Agent-järjestelmä tarpeeksi tehokas.

Kimberly Tan: Yksi asia, joka on mielenkiintoinen, on se, että kaikki ovat ilmeisesti innoissaan uusista mallien läpimurroista ja teknologisista läpimurroista, joita kaikki suuret laboratoriot esittelevät. Tekoälyyrityksenä et tietenkään tee omaa tutkimustasi, mutta hyödynnät tutkimusta ja rakennat sen ympärille paljon ohjelmistoja toimittaaksesi loppuasiakkaalle.

Mutta työsi perustuu nopeasti muuttuvaan teknologiaan. Olen utelias soveltavana tekoälyyrityksenä, kuinka pysyt mukana uusissa teknologisissa muutoksissa ja ymmärrät niiden vaikutuksen yritykseen samalla kun pystyt ennustamaan oman tuotesuunnitelmasi ja rakentamaan käyttäjien tarpeita? Mitä strategioita sovellettavien tekoälyyritysten tulisi omaksua vastaavissa tilanteissa laajemmin?

Jesse Zhang: Voit itse asiassa jakaa koko pinon eri osiin. Esimerkiksi LLM on alareunassa, jos katsot sovellustasoa. Sinulla saattaa olla välissä työkaluja, jotka auttavat sinua hallitsemaan LLM:ää tai tekemään arviointeja ja muuta sellaista. Sitten yläosa on pohjimmiltaan se, mitä rakensimme, mikä on itse asiassa kuin tavallinen SaaS.

Suurin osa työstämme ei siis oikeastaan eroa tavallisista ohjelmistoista, paitsi että meillä on ylimääräinen tutkimuskomponentti – LLM muuttuu liian nopeasti. Meidän on tutkittava, mitä he voivat tehdä, missä he ovat hyviä ja mitä mallia tulisi käyttää tietyn tehtävän suorittamiseen. Tämä on suuri ongelma, koska sekä OpenAI että Anthropic tuovat markkinoille uusia teknologioita, ja myös Gemini paranee vähitellen.

Siksi sinulla on oltava oma arviointimekanismi ymmärtääksesi, mikä malli sopii käytettäväksi missäkin tilanteessa. Joskus täytyy myös hienosäätää, mutta kysymys kuuluu: milloin hienosäätää? Milloin hienosäätö kannattaa? Nämä ovat luultavasti tärkeimmät LLM:iin liittyvät tutkimuskysymykset, joihin keskitymme. Mutta ainakaan toistaiseksi emme koe SaaS:n muuttuvan nopeasti, koska emme ole riippuvaisia keskikerroksesta. Eli periaatteessa LLM:t muuttuvat. Ne eivät muutu kovin usein, ja kun muuttuvat, se on yleensä päivitys. Esimerkiksi Claude 3.5 sonetti päivitettiin muutama kuukausi sitten, ja silloin ajattelimme: "Okei, pitäisikö meidän vaihtaa uuteen malliin sen sijaan, että jatkaisimme vanhan käyttöä?"

Meidän täytyy vain suorittaa sarja arviointeja, ja kun olemme siirtyneet uuteen malliin, emme ajattele sitä enää, koska käytät jo uutta mallia. Sitten ilmestyi o1-versio, ja tilanne oli samanlainen. Mieti missä sitä voi käyttää. Meidän tapauksessamme o1 on hieman hidas useimmissa asiakaskohtaisissa käyttötapauksissa, joten voimme käyttää sitä taustatyöhön. Viime kädessä tarvitsemme vain hyvän mallintutkimuksen järjestelmän.

Kimberly Tan: Kuinka usein arvioit uutta mallia ja päätät vaihtaa sen?

Jesse Zhang: Arvioimme aina, kun uusi malli ilmestyy. Sinun on varmistettava, että vaikka uusi malli on älykkäämpi, se ei riko joitakin jo rakennettuja käyttötapauksia. Tämä voi tapahtua. Esimerkiksi uusi malli voi olla kaiken kaikkiaan älykkäämpi, mutta joissakin ääritapauksissa se toimii huonosti A/B-valinnalla jossakin työnkulussasi. Sen perusteella arvioimme.

Kaiken kaikkiaan uskon, että se älykkyys, josta välitämme eniten, on se, mitä kutsuisin "opetuksen seuraamiseksi". Haluamme mallin kehittyvän yhä paremmin ohjeiden mukaan. Jos näin on, se on meille ehdottomasti hyödyllistä, ja se on erittäin hyvä.

Näyttää siltä, että viimeaikainen tutkimus on keskittynyt enemmän sellaiseen älykkyyteen, joka sisältää päättelyn, kuten parempaa ohjelmointia ja parempia matemaattisia operaatioita. Tämäkin auttaa meitä, mutta se ei ole yhtä tärkeää kuin opetuksen seuraamiskyvyn parantaminen.

Kimberly Tan: Yksi erittäin mielenkiintoinen mainitsemasi seikka, ja mielestäni se on myös hyvin ainutlaatuinen Decagonille, on se, että olet rakentanut paljon arviointiinfrastruktuuria talon sisällä varmistaaksesi, että tiedät tarkalleen, kuinka kukin malli toimii tarjoamiesi testien puitteissa.

Voitko tarkentaa tätä? Kuinka tärkeä tämä sisäinen arviointiinfrastruktuuri on ja miten se antaa sinulle ja asiakkaillesi luottamusta agentin suorituskykyyn? Koska osa näistä arvioinneista on myös asiakaskohtaisia.

Jesse Zhang: Mielestäni se on erittäin tärkeää, koska ilman tätä arviointiinfrastruktuuria meidän olisi erittäin vaikeaa iteroida nopeasti.

Jos sinusta tuntuu, että jokaisella muutoksella on suuri todennäköisyys rikkoa jotain, et tee muutoksia nopeasti. Mutta jos sinulla on arviointimekanismi, niin kun tapahtuu suuri muutos, mallipäivitys tai jotain uutta, voit verrata sitä suoraan kaikkiin arviointitesteihin. Jos arviointitulokset ovat hyvät, voit tuntea: okei, teimme parannuksen, tai voit vapauttaa sen luottavaisin mielin murehtimatta liikaa.

Joten alallamme arviointi vaatii asiakkaan panosta, koska asiakas päättää, onko jokin oikein vai ei. Tietysti voimme tarkistaa joitain korkean tason asioita, mutta yleensä asiakas antaa konkreettisia käyttötapauksia ja kertoo, mikä on oikea vastaus tai mikä sen pitää olla, mikä sävy sen tulee säilyttää, mitä sen pitää sanoa.

Arvio perustuu tähän. Meidän on siis varmistettava, että arviointijärjestelmämme on riittävän vankka. Aluksi rakensimme sen itse, eikä sitä ole niin vaikea ylläpitää. Tiedämme myös, että on olemassa joitakin arviointiyrityksiä, ja olemme tutkineet joitain niistä. Ehkä jossain vaiheessa harkitsemme, otammeko ne käyttöön, mutta toistaiseksi arviointijärjestelmä ei ole meille enää kipupiste.

Kimberly Tan: Erittäin suosittu aihe nykyään on multimodaalisuus, mikä tarkoittaa, että tekoälyagenttien pitäisi pystyä olemaan vuorovaikutuksessa kaikissa muodoissa, joita ihmiset käyttävät nykyään, olipa kyse tekstistä, videosta, puheesta jne. Tiedän, että Decagon aloitti tekstipohjaisena. Sinun näkökulmastasi, kuinka tärkeää on multimodaalisuutta tekoälyagenteille? Mikä on mielestäsi aika, jonka kuluessa siitä tulee valtavirtaa tai jopa standardi?

Jesse Zhang: Se on tärkeää, eikä yrityksen näkökulmasta ole erityisen vaikeaa lisätä uutta modaliteettia. Se ei ole yksinkertaista, mutta ydin on: jos ratkaiset muita ongelmia, kuten mainitsemiani – esimerkiksi tekoälyn rakentaminen, sen valvonta ja oikea logiikka – niin uuden modaliteetin lisääminen ei ole vaikein tehtävä. Joten meille kaikkien menetelmien käyttö on järkevää, ja se laajentaa markkinoitamme. Olemme pohjimmiltaan modaaliagnostikkoja ja rakennamme oman agenttimme jokaiselle modaalille.

Yleisesti ottaen on olemassa kaksi rajoittavaa tekijää: Ensinnäkin, onko asiakas valmis ottamaan käyttöön uuden tavan? Mielestäni on järkevää aloittaa tekstistä, koska se on tapa, jolla ihmiset omaksuvat aktiivisimmin, ja se on heille vähemmän riskialtista, helpompi seurata ja helpompi ymmärtää. Toinen suuri modaliteetti on ääni. Ilmeisesti uskon, että markkinoilla on vielä tilaa, ja käyttäjien äänen hyväksyntää on vielä parannettava. Tällä hetkellä näemme joitakin varhaisia käyttäjiä, jotka ovat alkaneet ottaa ääniagentteja käyttöön, mikä on erittäin jännittävää. Toinen näkökohta on tekniset haasteet. Useimmat ihmiset olisivat samaa mieltä siitä, että äänen palkki on asetettu korkeammalle. Jos puhut jonkun kanssa puhelimessa, tarvitset erittäin lyhyen puheviiveen. Jos keskeytät jonkun, hänen on reagoitava luonnollisesti.

Koska puheen latenssi on pienempi, sinun on oltava fiksumpi laskennassa. Jos olet chatissa ja vastausaika on viidestä kahdeksaan sekuntia, tuskin huomaat sitä ja se tuntuu hyvin luonnolliselta. Mutta jos puhelimessa vastaaminen kestää viidestä kahdeksaan sekuntia, se tuntuu hieman luonnottomalta. Puheen liittyy siis enemmän teknisiä haasteita. Kun nämä tekniset haasteet on ratkaistu ja kiinnostus puheen omaksumiseen kasvaa markkinoilla, puheesta tulee uutena modaliteettina valtavirtaa.

Liiketoimintamalli, joka hyppää luottamuksen yli

Kimberly Tan: Ennen kuin jatkamme, haluaisin puhua hieman enemmän AI Agent -liiketoimintamallista. Kun sinä ensin rakennettu Tekoälyagentti tai keskustellut asiakkaiden kanssa heidän käyttämänsä järjestelmästä, käsittelemistä tiedoista ja heidän huolenaiheistaan, yllättikö jokin? Mitä ei-intuitiivisia tai yllättäviä asioita Decagonin oli tehtävä palvellakseen paremmin yritysasiakkaita?

Jesse Zhang: Minusta yllättävin asia oli se, missä määrin ihmiset olivat halukkaita puhumaan meille, kun aloitimme. Loppujen lopuksi meitä oli vain kaksi. Olimme molemmat perustaneet yrityksiä aiemmin, joten tunsimme paljon ihmisiä, mutta silti jokaiselle yrittäjälle, kun haluat saada suosituskeskustelun käyntiin, jos sanomasi ei ole erityisen houkutteleva, keskustelu on yleensä melko haaleaa.

Mutta kun aloimme puhua tästä käyttötapauksesta, minusta oli todella yllättävää, kuinka innoissaan ihmiset olivat puhuessaan siitä. Koska idea näyttää niin ilmeiseltä. Saatat ajatella, että koska se on niin ilmeinen idea, jonkun muun on täytynyt jo tehdä se, tai ratkaisun on oltava jo olemassa, tai jonkun muun on täytynyt jo keksiä jonkinlainen ratkaisu. Mutta mielestäni saimme hyvän hetken, se käyttötapaus on todella suuri ja ihmiset todella välittävät siitä. Kuten aiemmin mainitsin, tuo käyttötapaus sopii todella hyvin AI Agentin ottamiseksi ja työntämiseksi tuotantoon, koska voit ottaa sen käyttöön asteittain ja seurata ROI:ta.

Se oli minulle iloinen yllätys, mutta ilmeisesti sen jälkeen on paljon työtä tehtävänä, on työskenneltävä asiakkaiden kanssa, sinun on rakennettava tuote, sinun on mietittävä, mihin suuntaan mennään. Alkuvaiheessa se oli todella yllättävä löytö.

Derrick Harris: Kimberly, minusta tuntuu, että minun pitäisi mainita kirjoittamasi blogikirjoitus, RIP to RPA, joka koskettaa monia ... automaatiotehtävät ja käynnistykset.Luuletko, että on olemassa ilmiö, jossa nämä automatisoidut tehtävät tai ratkaisut eivät ole niin ihanteellisia, joten ihmiset etsivät aina parempaa tapaa?

Kimberly Tan: Kyllä, luulen niin. Haluaisin sanoa muutaman asian. Ensinnäkin, jos idea on ilmeinen kaikille, mutta selkeää yritystä sen ratkaisemiseksi ei ole tai kukaan ei osoita yritykseen ja sano: "Sinun pitäisi käyttää tätä", se tarkoittaa, että ongelmaa ei ole varsinaisesti ratkaistu.

Tietyssä mielessä se on yritykselle täysin avoin mahdollisuus kehittää ratkaisua. Koska, kuten sanoit, olemme seuranneet Decagonia sijoittajana alusta asti. Olemme nähneet heidän navigoivan luovassa sokkelossa, ja kun he päättivät mennä tähän suuntaan ja alkoivat puhua asiakkaiden kanssa, kävi selväksi, että kaikki asiakkaat kaipasivat epätoivoisesti jonkinlaista natiivi tekoälyä tukevaa ratkaisua. Tämä on yksi aiemmin mainitsemistani ongelmista, jossa monet ihmiset ajattelevat, että se on vain GPT-kääre. Mutta Decagonin alusta asti saama asiakkaiden kiinnostus on saanut meidät ymmärtämään varhain, että monet näistä ongelmista ovat paljon monimutkaisempia kuin ihmiset odottavat.

Luulen, että tämä ilmiö tapahtuu eri toimialoilla, olipa kyseessä asiakaspalvelu tai ammattimainen automaatio tietyillä toimialoilla. Mielestäni yksi aliarvostetuista seikoista on, kuten Jesse aiemmin mainitsi, kyky mitata selkeästi automatisoinnin sijoitetun pääoman tuottoprosenttia (ROI). Koska jos aiot saada jonkun hyväksymään tekoälyagentin, hän itse asiassa tekee "uskon harppauksen", koska se on hyvin tuntematon alue monille ihmisille.

Jos pystyt automatisoimaan hyvin tietyn prosessin, joka on joko ilmeinen tuloja tuottava prosessi tai prosessi, joka oli aiemmin ollut pullonkaula liiketoiminnassa, tai merkittävä kustannuspaikka, joka kasvaa lineaarisesti asiakkaiden kasvun tai tulojen kasvun myötä, on helpompi saada hyväksyntä tekoälyagentiksi. Mahdollisuus muuttaa tällaiset ongelmat tuotteistetummaksi prosessiksi, joka voidaan skaalata perinteisten ohjelmistojen tapaan, on erittäin houkutteleva.

Kimberly Tan: Minulla on viimeinen kysymys ennen kuin siirrymme eteenpäin. Muistan Jessen aiemmissa keskusteluissamme aina sanoneen, että suurin haaste ohjelmistoja tai tekoälyagentteja käyttäville yrityksille olisi hallusinaatiot. Mutta sanoit minulle kerran, että tämä ei itse asiassa ole suurin ongelma. Voitko tarkentaa, miksi hallusinaatioiden käsitys on hieman harhaanjohtava ja mistä ihmiset ovat itse asiassa enemmän huolissaan?

Jesse Zhang: Luulen, että ihmiset välittävät hallusinaatioista, mutta he ovat enemmän huolissaan niiden tarjoamasta arvosta. Lähes kaikki yritykset, joiden kanssa työskentelemme, keskittyvät samoihin asioihin, lähes täsmälleen samaan: kuinka monta prosenttia keskusteluista voit ratkaista? Kuinka tyytyväisiä asiakkaani ovat? Silloin hallusinaatiokysymys voidaan luokitella kolmanteen luokkaan, nimittäin kuinka tarkka se on. Yleisesti ottaen kaksi ensimmäistä tekijää ovat tärkeämpiä arvioitaessa.

Oletetaan, että puhut uudelle yritykselle ja olet tehnyt todella hyvää työtä kahden ensimmäisen tekijän suhteen, ja olet saanut paljon tukea johtajilta ja kaikilta tiimin jäseniltä. He sanovat: "Voi luoja, asiakaskokemuksemme on erilainen. Jokaisella asiakkaalla on nyt oma henkilökohtainen avustaja, joka voi ottaa meihin yhteyttä milloin tahansa. Olemme antaneet heille loistavia vastauksia, he ovat erittäin tyytyväisiä, ja se on monikielinen ja käytettävissä 24/7.” Se on vain osa sitä, ja olet myös säästänyt paljon rahaa.

Joten kun saavutat nämä tavoitteet, saat paljon tukea ja paljon myötätuulta työn ajamiseen. Tietysti illuusiokysymys on lopulta ratkaistava, mutta se ei ole asia, josta he ovat eniten huolissaan. Tapa ratkaista illuusio on samalla tavalla kuin aiemmin mainitsin – ihmiset testaavat sinut. Saattaa olla konseptin todistamisvaihe, jossa käytät todellisia keskusteluja ja tiimin jäsenet valvovat ja tarkistavat tarkkuutta. Jos se menee hyvin, niin se yleensä menee läpi.

Kuten aiemmin mainitsin, voit myös asettaa tiukkoja suojaustoimenpiteitä arkaluonteisille tiedoille, esimerkiksi sinun ei välttämättä tarvitse tehdä arkaluontoisesta sisällöstä yleistä. Joten illuusiokysymys on keskustelunaihe useimmissa liiketoimissa. Se ei ole merkityksetön aihe. Käyt tämän prosessin läpi, mutta se ei ole koskaan keskustelun keskipiste.

Kimberly Tan: Siirrytään nyt tekoälyagentin liiketoimintamalliin. Tänään on suuri aihe näiden tekoälyagenttien hinnoittelusta.

Historiallisesti monet SaaS-ohjelmistot on hinnoiteltu paikkamäärän mukaan, koska ne ovat työnkulkuohjelmistoja, jotka on suunnattu yksittäisille työntekijöille ja joita käytetään parantamaan työntekijöiden tuottavuutta. AI Agent ei kuitenkaan liity yksittäisten työntekijöiden tuottavuuteen, kuten perinteiset ohjelmistot.

Niin monet ihmiset ajattelevat, että paikkamäärään perustuva hinnoittelumenetelmä ei ehkä ole enää voimassa. Olen utelias miten mietit tätä ongelmaa alkuaikoina ja kuinka päätit lopulta hinnoitella Decagonin. Lisäksi, mikä on mielestäsi ohjelmistojen hinnoittelun tulevaisuuden trendi, kun AI-agentti yleistyy?

Jesse Zhang: Näkemyksemme tästä asiasta on, että aiemmin ohjelmisto hinnoiteltiin paikkakohtaisesti, koska sen asteikko perustui karkeasti ohjelmistoa käyttävien ihmisten määrään. Mutta useimmille tekoälyagenteille antamasi arvo ei riipu sitä ylläpitävien ihmisten määrästä, vaan pikemminkin tuotetun työn määrästä. Tämä on sopusoinnussa aiemmin mainitsemani asian kanssa: jos sijoitetun pääoman tuotto (ROI) on hyvin mitattavissa, on myös työn tuottotaso hyvin selkeä.

Näkemyksemme on, että hinnoittelu paikkamäärän mukaan ei todellakaan päde. Voit hinnoitella työn tulosten perusteella. Joten tarjoamasi hinnoittelumallin tulisi olla, että mitä enemmän työtä tehdään, sitä enemmän maksat.

Meille on olemassa kaksi selvää tapaa hinnoitella. Voit joko hinnoitella keskustelut tai hinnoitella keskustelut, jotka tekoäly todella ratkaisee. Mielestäni yksi mielenkiintoisista opetuksista, joita opimme, on se, että useimmat ihmiset valitsivat keskusteluhinnoittelumallin. Syynä on se, että ratkaisukohtaisen hinnoittelun tärkein etu on se, että maksat mistä ... AI tekee.

Mutta seuraava kysymys on, mitä pidetään "ratkaisuna"? Ensinnäkin kukaan ei halua mennä tähän syvällisesti, koska siitä tulee: "Jos joku tulee vihaisena ja lähetät hänet pois, miksi meidän pitäisi maksaa siitä?"

Tämä luo kiusallisen tilanteen ja tekee myös tekoälyn tarjoajien kannustimista hieman outoa, sillä ratkaisulaskutus tarkoittaa: "Meidän pitää vain ratkaista mahdollisimman monta keskustelua ja työntää jotkut ihmiset pois." Mutta on monia tapauksia, joissa on parempi eskaloida ongelmaa kuin vain työntää sitä pois, ja asiakkaat eivät pidä tällaisesta käsittelystä. Siksi keskustelun kautta tapahtuva laskutus tuo lisää yksinkertaisuutta ja ennustettavuutta.

Kimberly Tan: Kuinka kauan luulet tulevan hinnoittelumallin kestävän?Koska juuri nyt, kun mainitset sijoitetun pääoman tuottoprosentin, se perustuu yleensä menneisiin kuluihin, joita on saatettu käyttää työvoimakustannusten kattamiseen. Kun tekoälyagentit yleistyvät, luuletko, että pitkällä aikavälillä tekoälyä verrataan työvoimakustannuksiin ja että tämä on sopiva vertailukohta? Jos ei, miten näet pitkän aikavälin hinnoittelun työvoimakustannusten lisäksi?

Jesse Zhang: Luulen, että pitkällä aikavälillä tekoälyagentin hinnoittelu saattaa silti olla ensisijaisesti sidoksissa työvoimakustannuksiin, koska se on agentin kauneus – aiemmat kulut palveluihin voidaan nyt siirtää ohjelmistoihin.

Tämä osa kustannuksista voi olla 10-100-kertainen ohjelmistokustannuksiin verrattuna, joten suuri osa kustannuksista siirtyy ohjelmistoihin. Siksi työvoimakustannuksista tulee luonnollisesti vertailukohta. Asiakkaillemme ROI on hyvin selvä. Jos voit säästää X miljoonaa työvoimakustannuksissa, on järkevää ottaa tämä ratkaisu käyttöön. Mutta pitkällä aikavälillä tämä voi olla keskitie.

Koska jopa jotkut tuotteet, jotka eivät ole yhtä hyviä kuin agenttimme, hyväksyvät alhaisemmat hinnat. Tämä on kuin klassinen SaaS-tilanne, jossa kaikki kilpailevat markkinaosuudesta.

Kimberly Tan: Mitä luulet nykyisten SaaS-yritysten tulevaisuuden olevan, varsinkin niille, joiden tuotteita ei ehkä ole valmistettu tekoälylle natiivisti tai jotka ovat hinnoiteltuja istuinkohtaisesti eivätkä siksi voi mukautua tulossuuntautuneeseen hinnoittelumalliin?

Jesse Zhang: Joillekin perinteisille yrityksille on todellakin hieman hankalaa, jos he yrittävät lanseerata AI Agent -tuotteen, koska he eivät voi hinnoitella sitä istuinmallilla. Jos et enää tarvitse niin monta agenttia, on vaikea ylläpitää tuloja olemassa olevalla tuotteella. Tämä on ongelma perinteisille yrityksille, mutta sitä on vaikea sanoa. Perinteisillä yrityksillä on aina etu jakelukanavista. Vaikka tuote ei olisikaan yhtä hyvä kuin uusi yritys, ihmiset ovat haluttomia käyttämään vaivaa hyväksyäkseen uuden toimittajan, jonka laatu on vain 80%.

Joten ensinnäkin, jos olet meidän kaltainen startup, sinun on varmistettava, että tuotteesi on kolme kertaa parempi kuin perinteinen tuote. Toiseksi tämä on tyypillinen kilpailu perinteisten yritysten ja startup-yritysten välillä. Perinteisillä yrityksillä on luonnollisesti pienempi riskinsietokyky, koska niillä on paljon asiakkaita. Jos he tekevät virheen nopeassa iteraatiossa, se aiheuttaa valtavia tappioita. Aloitusyritykset voivat kuitenkin iteroida nopeammin, joten iterointiprosessi itsessään voi johtaa parempaan tuotteeseen. Tämä on tavallinen kierto. Meille olemme aina olleet ylpeitä toimitusnopeudestamme, tuotteiden laadusta ja tiimimme suorituskyvystä. Tästä syystä olemme voineet nykyisen sopimuksen.

Kimberly Tan: Voitko tehdä ennusteita tekoälyn tulevaisuudesta työpaikalla? Esimerkiksi kuinka se muuttaa työntekijöiden tarpeita tai kykyjä tai kuinka työntekijät ja tekoälyagentit ovat vuorovaikutuksessa?Mistä uusista parhaista käytännöistä tai normeista arvelet muodostuvan normiksi työpaikalla, kun tekoälyagentit yleistyvät?

Jesse Zhang: Ensimmäinen ja tärkein muutos on se, että olemme vakuuttuneita siitä, että tulevaisuudessa työntekijät viettävät paljon enemmän aikaa työpaikalla tekoälyagenttien rakentamisessa ja johtamisessa, samoin kuin tekoälyvalvojat. Vaikka asemasi ei ole virallisesti "AI-valvoja", suuri osa työhösi käyttämästäsi ajasta siirtyy näiden agenttien hallintaan, koska agentit voivat antaa sinulle paljon vaikutusvaltaa.

Olemme nähneet tämän monissa käyttöönotuksissa, joissa ihmiset, jotka olivat aiemmin tiimijohtajia, viettävät nyt paljon aikaa tekoälyn tarkkailuun esimerkiksi varmistaakseen, ettei siinä ole ongelmia, tai tehdäkseen muutoksia. He seuraavat yleistä suorituskykyä nähdäkseen, onko tietyillä aloilla, joihin on kiinnitettävä huomiota, onko tietopohjassa aukkoja, jotka voivat auttaa tekoälyä parantamaan, ja voiko tekoäly täyttää nämä puutteet.

Agentin kanssa työskentelyyn liittyvä työ antaa vaikutelman, että työntekijät viettävät tulevaisuudessa huomattavan osan ajasta vuorovaikutuksessa tekoälyagenttien kanssa. Tämä on yrityksemme ydinkonsepti, kuten aiemmin mainitsin. Siksi koko tuotteemme perustuu työkalujen, visualisoinnin, tulkinnan ja hallinnan tarjoamiseen ihmisille. Uskon, että vuoden sisällä tästä tulee valtava trendi.

Kimberly Tan: Siinä on paljon järkeä. Mitä kykyjä tekoälyvalvojat mielestäsi tarvitsevat tulevaisuudessa? Mikä on tämän roolin taito?

Jesse Zhang: Siinä on kaksi näkökohtaa. Yksi niistä on havaittavuus ja tulkittavuus, kyky ymmärtää nopeasti, mitä tekoäly tekee ja miten se tekee päätöksiä. Toinen on päätöksentekokyky eli rakentamisen osa, miten palautetta annetaan ja miten rakennetaan uutta logiikkaa. Mielestäni nämä kaksi ovat saman kolikon kaksi puolta.

Kimberly Tan: Mitkä tehtävät jäävät mielestäsi tekoälyagentin kykyjen ulkopuolelle keskipitkällä tai pitkällä aikavälillä ja että ihmisten on silti hallittava ja suoritettava ne oikein?

Jesse Zhang: Luulen, että se riippuu pääasiassa aiemmin mainitsemastani "täydellisyyden" vaatimuksesta. On monia tehtäviä, joiden virhetoleranssi on erittäin alhainen. Näissä tapauksissa mikä tahansa tekoälytyökalu on enemmän apuväline kuin täysivaltainen agentti.

Esimerkiksi joillakin herkemmillä aloilla, kuten terveydenhuollossa tai turvallisuusalalla, joilla on oltava melkein täydellinen, näillä alueilla tekoälyagentit voivat muuttua vähemmän itsenäisiksi, mutta se ei tarkoita, että ne olisivat hyödyttömiä. Luulen, että tyyli on erilainen, meidän kaltaisella alustalla käytät näitä agentteja, jotta he voivat automatisoida koko työn.

Derrick Harris: Ja siinä kaikki tälle jaksolle. Jos pidit tästä aiheesta mielenkiintoisena tai inspiroivana, arvioi podcastimme ja jaa se muiden ihmisten kanssa.Odotamme julkaisevamme viimeisen jakson ennen vuoden loppua ja muokkaamme sisältöä uudelle vuodelle. Kiitos kuuntelusta ja hyvää lomakautta (jos kuuntelet loman aikana).

Alkuperäinen video: Voiko Al Agents vihdoin korjata asiakastuen?

Samankaltaisia viestejä

Vastaa

Sähköpostiosoitettasi ei julkaista. Pakolliset kentät on merkitty *