Önemli Noktalar

  • Hukuk alanındaki LLM'lerin büyüsü, çok esnek olmaları, birçok farklı duruma uyum sağlayabilmeleri ve temel zekaya sahip olmalarıdır.
  • Zamanla, UI ve UX'in giderek daha doğal dil tabanlı hale geleceğine inanıyoruz, çünkü bir Agent sisteminin düşünme şekli budur veya temel olarak büyük dil modelleri (LLM) için eğitimin temeli budur.
  • Birinin bir AI Ajanını kabul etmesini istiyorsanız, aslında bir nevi "inanç sıçraması" yapmış olursunuz, çünkü birçok insan için bu çok yabancı bir alandır.

AI Agent müşteri deneyimini yeniden şekillendiriyor

Jesse Zhang: Bir Agent aslında nasıl oluşturulur? Bizim görüşümüze göre, zamanla giderek daha fazla doğal dil tabanlı bir Agent'a benzeyecek çünkü büyük dil modelleri (LLM'ler) bu şekilde eğitiliyor.

Uzun vadede, eğer gerçekten insan gibi olan süper zeki bir aracınız varsa, ona bir şeyler gösterebilir, ona açıklayabilir, ona geri bildirim verebilirsiniz ve o da zihnindeki bilgileri güncelleyecektir.

Çok yetenekli bir insan ekip üyesine sahip olduğunuzu hayal edebilirsiniz. İlk katıldıklarında onlara bir şeyler öğretirsiniz, çalışmaya başlarlar ve sonra onlara geri bildirim verirsiniz ve onlara yeni bilgiler gösterirsiniz.

Sonunda, bu yönde gelişecektir - daha fazla konuşmaya ve daha fazla doğal dile dayalı hale gelecektir ve insanların birbirleriyle iletişim kurma biçimleri daha doğal hale gelecektir. Ve insanlar artık gereksinimleri yakalamak için işe yarayabilen ancak çökmeye meyilli olan bu karmaşık karar ağaçlarını kullanmayacaklardır.

Geçmişte, büyük bir dil modelimiz olmadığı için bunu yapmak zorundaydık. Ancak şimdi, Agent'ın sürekli ilerlemesiyle, kullanıcı deneyimi (UX) ve kullanıcı arayüzü (UI) daha sohbetvari hale gelecek.

Derrick Harris: Herkese merhaba, A16z AI Podcast'ine hoş geldiniz. Ben Derrick Harris ve bugün Decagon'un kurucu ortağı ve CEO'su Jesse Zhang ve a16z'de ortak olan Kimberly Tan bana katılacak. Kimberly tartışmayı yönetecek ve Jesse Decagon'u ve ürünlerini inşa etme deneyimini paylaşacak.

Hakkında fazla bir şey bilmiyorsanız, Decagon, işletmelere müşteri desteği konusunda yardımcı olmak için AI aracıları sağlayan bir girişimdir. Bu aracılar ne sohbet robotlarıdır ne de tek bir API çağrısı için LLM sarmalayıcılarıdır, ancak bir şirketin belirli ihtiyaçlarına göre karmaşık iş akışlarını işleyebilen son derece özelleştirilmiş gelişmiş aracılardır.

Jesse, Decagon'u neden oluşturduklarını ve farklı LLM ve müşteri ortamlarını ele almak üzere nasıl tasarlandığını açıklamanın yanı sıra, görüşme başına ücretlendirme yapan bir iş modelinin faydalarından ve AI Agent'ların müşteri destek liderlerinden beklenen becerileri nasıl değiştireceğinden de bahsediyor.

Ayrıca Kimberly'nin yakın zamanda "RIP to RPA, The Rise of Intelligent Automation" başlıklı bir blog yazısı yazdığını da belirtmekte fayda var; bu yazıyı bu bölümde kısaca ele alacağız.

Otomasyonun iş süreçlerinde nasıl yükselişe geçtiğini anlamak için harika bir başlangıç noktasıdır ve gösteri notlarında bir bağlantı sağlayacağız. Ve son olarak, bir hatırlatma olarak, bu makalenin içeriği yalnızca bilgilendirme amaçlıdır ve yasal, ticari, vergi veya yatırım tavsiyesi olarak değerlendirilmemeli, ayrıca herhangi bir yatırım veya menkul kıymeti değerlendirmek için kullanılmamalı ve herhangi bir a16z fon yatırımcısına veya potansiyel yatırımcıya yönelik değildir.

Jesse Zhang: Kendimle ilgili kısa bir tanıtım. Boulder'da doğdum ve büyüdüm ve çocukken birçok matematik yarışmasına ve benzeri etkinliklere katıldım. Harvard'da bilgisayar bilimi okudum ve ardından a16z tarafından da desteklenen bir şirket kurdum. Sonunda Niantic tarafından satın alındık.

Sonra Decagon'u inşa etmeye başladık. İşimiz müşteri hizmetleri için AI Agent'lar inşa etmek. Başlangıçta bunu yaptık çünkü kalbimize çok yakın bir şey yapmak istedik.

Elbette, müşteri hizmetlerinde AI Temsilcilerinin rolü hakkında kimsenin eğitim almasına gerek yok, değil mi? Hepimiz havayolları, oteller vb. ile telefonda görüştük ve beklemede kaldık. Yani fikir oradan geldi.

Tam olarak ne tür bir ürün inşa etmemiz gerektiğini öğrenmek için birçok müşteriyle görüştük. Bizim için öne çıkan bir şey, AI Agent'lar hakkında daha fazla şey öğrendikçe, bunların çok olduğu bir geleceğin nasıl olacağını düşünmeye başlamamızdı. Sanırım herkes gelecekte çok sayıda AI Agent olacağına inanıyor.

Düşündüğümüz şey, AI ajanları etrafında çalışan çalışanların ne yapacağıdır? Ne tür araçlara sahip olacaklar? Çalıştıkları veya yönettikleri ajanları nasıl kontrol edecekler veya görüntüleyecekler?

Yani şirketi bu soru etrafında kurmamızın özü bu. Bence bizi şu anda farklı kılan şey de bu, çünkü bu AI ajanlarına, birlikte çalıştığımız kişilerin bu ajanları oluşturmasına ve yapılandırmasına yardımcı olmak için çeşitli araçlar sağlıyoruz, böylece artık bir "kara kutu" olmuyorlar. Markamızı bu şekilde kuruyoruz.

Derrick Harris: Son şirketiniz tüketiciye yönelik bir video şirketi olduğundan, sizi kurumsal yazılım alanına geçmeye ne teşvik etti?

Jesse Zhang: Harika soru. Bence kurucular konu seçerken genellikle "konudan bağımsız" oluyorlar çünkü gerçekte yeni bir alana yaklaştığınızda genellikle oldukça saf oluyorsunuz. Yani olaylara yeni bir bakış açısıyla bakmanın bir avantajı var. Yani bunu düşündüğümüzde, neredeyse hiç konu kısıtlaması yoktu.

Bunun, benim de dahil olduğum, daha niceliksel geçmişe sahip kişiler için çok yaygın bir kalıp olduğunu düşünüyorum. Tüketici ürünlerini denedikten sonra, kurumsal yazılımlara daha fazla yönelme eğiliminde oluyorsunuz çünkü kurumsal yazılımların daha somut sorunları var.

Gerçek ihtiyaçları ve bütçeleri ve bunun gibi şeyleri olan gerçek müşterileriniz var ve bunlar için sorunları optimize edebilir ve çözebilirsiniz. Tüketici pazarı da oldukça çekicidir, ancak deneyimle yönlendirilmekten çok sezgiye dayanmaktadır. Bana göre, kurumsal yazılım daha uygun.

Kimberly Tan: Öncelikle şu soruyla başlayabiliriz: Decagon'un bugün ilgilendiği en yaygın destek kategorileri nelerdir? Bu sorunları çözmek için büyük dil modellerini (LLM'ler) nasıl kullandığınızı ve daha önce yapamadığınız şeyleri şimdi nasıl yapabildiğinizi açıklayabilir misiniz?

Jesse Zhang: Önceki otomasyonlara bakarsanız, basit bir şey yapmak, hangi yolu izleyeceğinizi belirlemek için karar ağaçlarını kullanmış olabilirsiniz. Ancak hepimiz sohbet robotlarını kullandık ve bu oldukça sinir bozucu bir deneyim.

Çoğu zaman sorunuz bir karar ağacı tarafından tam olarak cevaplanamaz. Bu yüzden soruyla ilgili ancak tam olarak eşleşmeyen bir soru yoluna yönlendirilirsiniz. Şimdi, büyük dil modellerimiz (LLM'ler) var. LLM'lerin büyüsü, çok esnek olmaları, birçok farklı duruma uyum sağlayabilmeleri ve temel zekaya sahip olmalarıdır.

Bunu müşteri desteğine uyguladığınızda veya bir müşteri soru sorduğunda daha kişiselleştirilmiş bir hizmet sağlayabilirsiniz. Bu ilk noktadır, kişiselleştirme seviyesi büyük ölçüde iyileştirilmiştir. Bu daha yüksek metriklerin kilidini açar. Daha fazla sorun çözebilirsiniz, müşteriler daha memnun olur ve müşteri memnuniyeti artar.

Bir sonraki doğal adım şudur: Eğer bu zekaya sahipseniz, insanların yapabildiği şeylerin daha fazlasını yapabilmelisiniz. İnsanların yapabildiği şeyler, gerçek zamanlı olarak veri çekebilmeleri, harekete geçebilmeleri ve birden fazla adımda akıl yürütebilmeleridir. Bir müşteri nispeten karmaşık bir soru sorarsa, belki "Bunu ve şunu yapmak istiyorum" ve yapay zeka yalnızca ilk soruyu ele almaya hazırdır. LLM, burada iki soru olduğunu fark edecek kadar akıllıdır. İlk olarak, ilk sorunu çözecek ve sonra ikinci sorunu çözmenize yardımcı olacaktır.

LLM ortaya çıkmadan önce, bu temelde imkansızdı. Bu yüzden şimdi teknolojinin neler yapabileceği konusunda bir adım değişikliği görüyoruz ve bu LLM sayesinde.

Kimberly Tan: Bu bağlamda, bir AI Agent'ı nasıl tanımlarsınız? "Agent" kelimesi yaygın olarak kullanıldığından, Decagon bağlamında bunun gerçekte ne anlama geldiğini merak ediyorum.

Jesse Zhang: Agent'ın daha çok birden fazla LLM (büyük dil modeli) sisteminin birlikte çalıştığı bir sisteme atıfta bulunduğunu söyleyebilirim. Temel olarak bir istem göndermeyi ve bir yanıt almayı içeren bir LLM çağrınız var. Bir Agent için, birden fazla böyle çağrıyı, belki de yinelemeli olarak bağlayabilmek istersiniz.

Örneğin, mesajın nasıl işleneceğini belirleyen bir LLM çağrınız var ve daha sonra daha fazla veri çeken, eylemler gerçekleştiren ve kullanıcının söyledikleri üzerinde yineleme yapan, hatta belki de takip soruları soran diğer çağrıları tetikleyebilir. Dolayısıyla bizim için bir Agent, daha iyi bir deneyim sağlamak için birlikte çalışan neredeyse LLM çağrıları, API çağrıları veya diğer mantıklardan oluşan bir ağ olarak anlaşılabilir.

Kimberly Tan: Bu konuda, belki de gerçekten inşa ettiğiniz Agent altyapısı hakkında daha fazla konuşabiliriz. Bence çok ilginç bir nokta, piyasada AI Agent'ların birçok gösteriminin olması, ancak bunların üretim ortamında gerçekten istikrarlı bir şekilde çalışabilen çok az örneğinin olduğunu düşünüyorum. Ve dışarıdan neyin gerçek neyin gerçek olmadığını bilmek zor.

Peki sizin görüşünüze göre, günümüzün Yapay Zeka Ajanlarının hangi yönleri iyi iş çıkarıyor ve hangi yönleri onları daha sağlam ve güvenilir kılmak için hala teknolojik atılımlara ihtiyaç duyuyor?

Jesse Zhang: Benim görüşüm aslında biraz farklı. Bir AI Agent'ın sadece bir demo mu yoksa "gerçekten çalışıyor" mu olduğunu belirlemenin arasındaki fark tamamen teknoloji yığınında yatmıyor, çünkü bence çoğu kişi aşağı yukarı aynı teknolojiyi kullanıyor olabilir. Bence şirketinizin gelişiminde daha da ileri gittiğinizde, örneğin şirketimiz bir yıldan uzun süredir kurulmuş durumda, kullanım durumunuza uyan çok özel bir şey yaratacaksınız.

Ama son tahlilde herkes aynı modele erişebilir ve benzer teknolojiyi kullanabilir. Bir yapay zeka aracının etkili bir şekilde çalışıp çalışmayacağını belirleyen en büyük farkın aslında kullanım senaryosunun biçiminde yattığını düşünüyorum. Başlangıçta bunu bilmek zor olabilir, ancak geriye dönüp baktığınızda bir AI aracının gösterinin ötesine geçip pratik uygulamaya girmesi için çok önemli olan iki özellik olduğunu göreceksiniz.

Birincisi, çözdüğünüz kullanım senaryosunun ölçülebilir bir ROI'ye (yatırım getirisi) sahip olması gerekir. Bu çok önemlidir, çünkü yatırım getirisi ölçülemezse, insanları ürününüzü gerçekten kullanmaya ve bunun için ödeme yapmaya ikna etmek zor olacaktır. Bizim durumumuzda, niceliksel gösterge şudur: destek taleplerinin yüzde kaçını çözüyorsunuz? Bu sayı açık olduğu için, insanlar bunu anlayabilir - tamam, daha fazlasını çözerseniz, bu sonucu mevcut harcamalarım ve harcadığım zamanla karşılaştırabilirim. Yani, bu gösterge varsa, bizim için çok önemli olan bir diğer gösterge de müşteri memnuniyetidir. Yatırım getirisi kolayca ölçülebildiği için, insanlar bunu gerçekten benimseyecektir.

İkinci etken ise kullanım durumlarının giderek daha zor hale getirilmesi gerekliliğidir. Ayrıca, başlangıçtan itibaren bir Agent'ın süper insan olması ve kullanım durumlarının neredeyse 100%'sini çözmesi gerekiyorsa bu da çok zor olurdu. Çünkü bildiğimiz gibi, LLM'ler kesin değildir, bir tür acil durum planınız olması gerekir. Neyse ki, destek kullanım durumlarının harika bir özelliği vardır ve bu da her zaman bir insana yükseltebilmenizdir. Sorunların sadece yarısını çözebilseniz bile, insanlar için yine de çok değerlidir.

Bu yüzden desteğin AI Agent için çok uygun hale getiren bir özelliğe sahip olduğunu düşünüyorum. İnsanların AI Agent'ın neden yararlı olacağını anlamak için yakından bakmanıza bile gerek kalmadan etkileyici demolar oluşturabilecekleri birçok başka alan olduğunu düşünüyorum. Ancak en başından itibaren mükemmel olması gerekiyorsa, o zaman çok zordur. Eğer durum buysa, neredeyse hiç kimse onu denemek veya kullanmak istemez çünkü kusurlu olmasının sonuçları çok ciddi olabilir - örneğin, güvenlik açısından.

Örneğin, insanlar simülasyonlar yaptıklarında, her zaman şu klasik düşünceye sahip olurlar: "Ah, keşke LLM bunu okuyabilseydi." Ancak birinin, "Tamam, AI Ajanı, yap. Bence yapabilirsin." dediğini hayal etmek zordur. Çünkü bir hata yaparsa, sonuçları çok ciddi olabilir.

Jesse Zhang: Bu genellikle müşterilerimiz tarafından kararlaştırılır ve aslında çok geniş bir fark yelpazesi görüyoruz. Bir uçta, bazı insanlar Temsilcilerini gerçekten bir insana benzetiyor, yani bir insan avatarı, bir insan adı var ve tepkiler çok doğal. Öte yandan, Temsilci basitçe AI olduğunu belirtiyor ve bunu kullanıcıya açıkça belirtiyor. Sanırım birlikte çalıştığımız farklı şirketlerin bu konuda farklı pozisyonları var.

Genellikle, düzenlenmiş bir sektördeyseniz, bunu açıkça belirtmeniz gerekir. Şu anda ilginç bulduğum şey, müşteri davranışının değişiyor olması. Çünkü müşterilerimizin çoğu sosyal medyada çok fazla geri bildirim alıyor, örneğin, "Aman Tanrım, bu gerçekten gerçek hissettiren ilk sohbet deneyimim" veya "Bu sadece sihir." Ve bu onlar için harika, çünkü artık müşterileri öğreniyor, hey, eğer bir yapay zeka deneyimiyse, aslında bir insandan daha iyi olabilir. Geçmişte durum böyle değildi, çünkü çoğumuz geçmişte bu tür bir telefon müşteri hizmetleri deneyimi yaşadık: "Tamam, yapay zeka, yapay zeka, yapay zeka..."

Kimberly Tan: Kişiselleştirme kavramından birkaç kez bahsettiniz. Herkes aynı temel teknoloji mimarisini kullanıyor ancak destek hizmetleri açısından farklı kişiselleştirme ihtiyaçları var. Bundan bahsedebilir misiniz? Özellikle, insanların çevrimiçi olarak "Aman Tanrım, bu şimdiye kadar yaşadığım en iyi destek deneyimi" diyebilmeleri için kişiselleştirmeyi nasıl başarıyorsunuz?

Jesse Zhang: Bizim için, Kişiselleştirme, kullanıcı için özelleştirmeden gelir. Kullanıcının arka plan bilgilerini, yani gereken ek bağlamı anlamanız gerekir. İkinci olarak, müşterilerimizin iş mantığını da anlamanız gerekir.İkisini birleştirirseniz oldukça iyi bir deneyim sunabilirsiniz.

Açıkçası, bu basit görünüyor, ancak gerçekte gerekli tüm bağlamı elde etmek çok zordur. Bu nedenle, çalışmalarımızın çoğu, bir müşteri sistemimizi dağıttığında kolayca "Tamam, istediğimiz iş mantığı bu" diye karar verebilsin diye doğru ilkel bileşenleri nasıl inşa edeceğimize yöneliktir. Örneğin, önce bu dört adımı yapmanız gerekir ve üçüncü adım başarısız olursa, beşinci adıma geçmeniz gerekir.

Bunu AI'ya çok kolay bir şekilde öğretebilmek istiyorsunuz, ancak aynı zamanda ona "Bu kullanıcının hesap bilgileri. Daha fazla bilgiye ihtiyacınız varsa, bu API'leri çağırabilirsiniz." gibi bilgilere erişim izni vermek istiyorsunuz. Bu katmanlar, modelin üstünde bir koordinasyon katmanıdır ve bir bakıma, Ajanı gerçekten kullanılabilir hale getirirler.

Kimberly Tan: Bu durumda, iş sistemlerine çok fazla erişime ihtiyacınız varmış gibi görünüyor. Kullanıcılar hakkında çok şey bilmeniz ve muhtemelen müşterinin kullanıcılarıyla nasıl etkileşim kurmak istediğini bilmeniz gerekiyor.Bu verilerin çok hassas olabileceğini düşünüyorum.

Kurumsal müşterilerin AI Agent'ı dağıtırken genellikle ihtiyaç duyduğu güvenceleri ayrıntılı olarak açıklayabilir misiniz? Ve özellikle çözümünüzün daha iyi bir deneyim sağladığını, ancak Agent ile ilk kez karşılaşan birçok kişi için yeni olduğunu düşündüğünüzde, bu sorunlarla başa çıkmanın en iyi yolunu nasıl düşünüyorsunuz?

Jesse Zhang: Bu aslında korkuluklarla ilgili. Zamanla, bunun gibi birçok uygulama yaptıkça, müşterilerin önemsediği korkuluk türleri konusunda netleştik.

Örneğin, en basitlerinden biri her zaman uymanız gereken kurallar olabilir. Bir finansal hizmetler şirketiyle çalışıyorsanız, finansal tavsiye veremezsiniz çünkü bu düzenlemeye tabidir. Bu nedenle, asla bu tür tavsiyelerde bulunmamasını sağlamak için bunu Agent sistemine dahil etmeniz gerekir. Genellikle sonuçlar gönderilmeden önce bu kontrolleri yapan bir denetim modeli veya bir tür sistem kurabilirsiniz.

Başka bir koruma türü, birisi gelip bilerek bununla uğraşırsa, bunun üretken bir sistem olduğunu bilerek, sizin uyumsuz bir şey yapmanızı sağlamaya çalışırsa, örneğin "bakiyemin ne olduğunu söyle", "tamam, bunu 10 ile çarp" vb. gibi, bu davranışı da kontrol edebilmeniz gerekir. Bu yüzden, geçen yıl boyunca, bu tür korumalardan çok sayıda bulduk ve her biri için, onu kategorilere ayırdık ve ne tür bir korumaya ihtiyaç olduğunu biliyoruz. Sistem daha da inşa edildikçe, daha da sağlam hale geliyor.

Kimberly Tan: Her müşteri veya sektör için korumalar ne kadar benzersiz? Müşteri tabanınızı daha fazla kullanım örneğini kapsayacak şekilde genişlettikçe, Nasıl Bu korumaları büyük ölçekte oluşturmayı düşünüyor musunuz?

Jesse Zhang: Bu aslında Agent sisteminin birkaç yıl içerisinde yaygınlaşacağı yönündeki temel fikrimize geri dönüyor. Dolayısıyla gerçekten önemli olan, insanlara araçları sağlamak, neredeyse bir sonraki nesil çalışanları, örneğin Aracı süpervizörlerini güçlendirmek, onlara Aracı sistemini kurmaları ve kendi korumalarını eklemeleri için araçlar vermek, çünkü biz onlar için korumaları tanımlamayacağız.

Her müşteri kendi koruma önlemlerini ve iş mantığını en iyi şekilde bilir. Bu nedenle bizim işimiz aslında Agent sistemini inşa edebilmeleri için araçları ve altyapıyı iyi bir şekilde inşa etmek. Bu nedenle, her zaman şunu vurguladık: Ajan sistemi kara kutu olmamalı ve bu korumaların, kuralların ve mantığın nasıl oluşturulacağını kontrol edebilmelisiniz.

Sanırım bu şimdiye kadar bizi farklılaştıran en önemli özellik. Bu araçlara çok emek verdik ve çok teknik bir geçmişe veya AI modellerinin nasıl çalıştığına dair derin bir anlayışa sahip olmayan kişilerin, AI'nın gerçekleştirmesini istedikleri eylemleri Agent sistemine girmelerine olanak tanıyan yaratıcı yollar geliştirdik.

Bunun önümüzdeki birkaç yıl içinde giderek daha önemli bir yetenek haline geleceğini düşünüyorum. İnsanlar benzer araçları değerlendirirken en önemli kriterlerden biri bu olmalı çünkü bu sistemleri zaman içinde sürekli olarak optimize edebilmek ve iyileştirebilmek istersiniz.

Doğal dil tarafından yönlendirilen iş mantığı

Derrick Harris: Müşteriler veya işletmeler, herhangi bir otomasyon türüne ve özellikle bu Agent sisteminin kullanımına hazırlanmak için hangi hazırlıkları yapabilir? Örneğin, veri sistemlerini, yazılım mimarilerini veya iş mantıklarını bu tür sistemleri destekleyecek şekilde nasıl tasarlayabilirler?

Çünkü birçok yapay zeka teknolojisinin ilk başta yenilikçi olduğunu, ancak mevcut eski sistemlere gelindiğinde sıklıkla çok fazla kaosla karşılaştığını düşünüyorum.

Jesse Zhang: Şu anda biri sıfırdan inşa ediyorsa, işinizi kolaylaştırabilecek birçok en iyi uygulama vardır. Örneğin, bilgi tabanınızı nasıl yapılandıracağınız. Bunlardan bazılarını yazdık ve yapay zekanın bilgileri sindirmesini ve doğruluğunu artırmasını kolaylaştırabilecek bazı yöntemler tanıttık. Belirli bir öneri, birden fazla cevabı olan tek bir büyük makaleye sahip olmak yerine bilgi tabanını modüler parçalara bölmektir.

API'yi kurarken, bunları Agent sistemi için daha uygun hale getirebilir ve Agent sisteminin cevabı bulmak için çok fazla hesaplama yapmasına gerek kalmadan bilgileri kolayca almasını sağlayacak şekilde izinleri ve çıktıları ayarlayabilirsiniz. Bunlar alınabilecek bazı taktik önlemlerdir, ancak Agent sistemini kullanmak için yapılması gereken herhangi bir şey olduğunu söyleyemem.

Derrick Harris: İyi dokümantasyon her zaman önemlidir, esasen bilgiyi etkili bir şekilde organize etmekle ilgilidir.

Kimberly Tan: İnsanlara Agent sistemini müşterilerine veya belirli kullanım durumlarına en uygun şekilde nasıl çalıştıracaklarını öğretmeye çalışırsanız, o zaman UI ve UX tasarımıyla ilgili çok sayıda deney yapmanız gerekebilir veya bu tamamen yeni alanda yeni yollar açmanız gerekebilir, çünkü bu geleneksel yazılımlardan çok farklıdır.

Merak ediyorum, siz bu konuda ne düşünüyorsunuz? Ajan odaklı bir dünyada UI ve UX nasıl olmalı? Önümüzdeki birkaç yıl içinde nasıl değişeceğini düşünüyorsunuz?

Jesse Zhang: Bu sorunu çözdüğümüzü söyleyemem. Mevcut müşterilerimiz için işe yarayan yerel bir optimum bulmuş olabiliriz ancak bu hala bizim ve diğer birçok kişi için devam eden bir araştırma alanı.

Temel sorun daha önce bahsettiğimiz şeye geri dönüyor, yani bir Agent sisteminiz var. İlk olarak, ne yaptığını ve nasıl kararlar aldığını nasıl net bir şekilde görebilirsiniz? Sonra, bu bilgileri neyin güncellenmesi gerektiğine ve AI'ya hangi geri bildirimin verilmesi gerektiğine karar vermek için nasıl kullanabilirsiniz? İşte UI öğelerinin bir araya geldiği yer burasıdır, özellikle ikinci kısım.

Zamanla UI ve UX'in giderek daha doğal dil tabanlı hale geleceğini düşünüyoruz, çünkü Agent sistemi bu şekilde düşünüyor veya büyük dil modelleri (LLM) eğitiminin temelini bu oluşturuyor.

Aşırı durumlarda, temelde bir insan gibi düşünen süper zeki bir aracınız varsa, ona şeyler gösterebilir, ona şeyler açıklayabilir, ona geri bildirim verebilirsiniz ve o kendi "zihninde" güncellenecektir. Ekibinize çok yetenekli birinin katıldığını, ona bir şeyler öğrettiğinizi, çalışmaya başladığını ve sonra ona geri bildirim vermeye devam ettiğinizi, ona yeni şeyler, yeni belgeler, diyagramlar vb. gösterebileceğinizi hayal edebilirsiniz.

Aşırı durumlarda bunun şu yönde gelişeceğini düşünüyorum: şeyler daha fazla konuşmaya dayalı, daha doğal dil tabanlı hale gelecek ve insanlar eskiden olduğu gibi karmaşık karar ağaçlarına sahip sistemler inşa etmeyi bırakıp ne istediğinizi yakalamayı bırakacak, ancak bu yaklaşım kolayca bozulabilir. Eskiden bunu yapmak zorundaydık çünkü o zamanlar LLM yoktu, ancak şimdi Agent sistemleri giderek daha güçlü hale geldiğinden, UI ve UX daha fazla konuşmaya dayalı hale gelecek.

Kimberly Tan: Yaklaşık bir buçuk yıl önce, Decagon ilk başladığında, LLM'nin birçok kullanım durumuna uygulanabilir olduğuna dair genel bir algı vardı, ancak aslında bu, şirketlerin bir API aracılığıyla temeldeki modeli çağırabildiği ve destek sorunlarını anında çözebildiği bir tür "GPT sarmalayıcısı" idi.

Ancak şirketler doğrudan bu yola girmek yerine Decagon gibi çözümler kullanmayı seçtikçe, durumun böyle olmadığı ortaya çıkıyor. Bunun neden böyle olduğunu açıklayabilir misiniz diye merak ediyordum. Dahili olarak inşa etmenin zorluklarını beklenenden daha karmaşık hale getiren şey tam olarak neydi? Kavram hakkında hangi yanlış anlamalara sahiptiler?

Jesse Zhang: "GPT sarmalayıcısı" olmakta yanlış bir şey yoktur, Purcell'in bir AWS sarmalayıcısı olduğunu veya buna benzer bir şey olduğunu söyleyebilirsiniz. Genellikle, insanlar bu terimi kullandığında, aşağılayıcı bir şey ifade eder.

Kişisel görüşüm, bir aracı sistemi oluşturuyorsanız, tanımı gereği kesinlikle bir araç olarak LLM kullanacağınızdır. Yani aslında normalde AWS veya GCP'de oluşturduğunuz gibi, halihazırda var olan bir şeyin üzerine oluşturuyorsunuz.

Ancak karşılaşabileceğiniz asıl sorun, LLM üzerine kurduğunuz yazılımın fark yaratacak kadar "ağır" veya karmaşık olmamasıdır.

Geriye dönüp baktığımızda, bizim için sattığımız şey temelde yazılımdır. Aslında normal bir yazılım şirketi gibiyiz, ancak LLM'yi yazılımın bir parçası ve araçlardan biri olarak kullanıyoruz. Ancak insanlar bu tür bir ürün satın aldıklarında, esas olarak yazılımın kendisini isterler. Yapay zekayı izleyebilen, yapay zekanın yaptığı her konuşmanın ayrıntılarını derinlemesine inceleyebilen, geri bildirim verebilen, sistemi sürekli olarak inşa edebilen ve ayarlayabilen araçlar isterler.

Yani yazılımımızın özü bu. Agent sisteminin kendisiyle bile, insanların yaşadığı sorun şu ki bir demo yapmak harika ama bunu üretime hazır ve gerçekten müşteriye dönük hale getirmek istiyorsanız, "illüzyon" fenomenini önlemek ve kargaşa yaratmaya çalışan kötü aktörlerle başa çıkmak gibi uzun süredir devam eden birçok sorunu çözmeniz gerekiyor. Ayrıca gecikmenin yeterince düşük olduğundan, tonun uygun olduğundan vb. emin olmalıyız.

Birçok ekiple konuştuk ve bazı deneyler yaptılar, ön bir sürüm oluşturdular ve sonra şunu fark ettiler: "Ah, gerçekten, bu detayları daha sonraki aşamalarda oluşturmaya devam edenler biz olmak istemiyoruz." Ayrıca müşteri hizmetleri ekibine yeni mantık ekleyenler de olmak istemiyorlardı. Bu noktada, başkalarıyla işbirliği yapmayı seçmek daha uygun görünüyor.

Kimberly Tan: Kötü aktörlerle başa çıkma ihtiyacı gibi bazı uzun vadeli sorunlardan bahsettiniz.AI Agent kullanmayı düşünen birçok dinleyicinin LLM'lerin tanıtımından sonra ortaya çıkabilecek yeni güvenlik saldırı yolları veya Agent sisteminin tanıtımından sonra ortaya çıkabilecek yeni güvenlik riskleri konusunda endişe duyduğuna inanıyorum. Bu konular hakkında ne düşünüyorsunuz? Ve bunlarla uğraşırken birinci sınıf kurumsal güvenliği sağlamak için en iyi uygulamalar nelerdir? Ajan?

Jesse Zhang: Güvenlik açısından, daha önce bahsettiğim koruyucu önlemlere ihtiyaç duyulması gibi alınabilecek bazı bariz önlemler var. Temel sorun, insanların LLM'ler hakkındaki endişelerinin deterministik olmamasıdır.

Ancak iyi haber şu ki hassas ve karmaşık işlemlerin çoğunu kesin bir duvarın arkasına koyabilirsiniz ve hesaplama API'yi çağırdığında orada gerçekleşir. Yani bunu halletmek için tamamen LLM'ye güvenmezsiniz ve bu da temel sorunların çoğunu ortadan kaldırır.

Ancak, örneğin kötü bir aktörün müdahale ettiği veya birinin sistemin halüsinasyon görmesini sağlamaya çalıştığı durumlar hâlâ var. Birlikte çalıştığımız birçok büyük müşteride, güvenlik ekiplerinin ürünlerimize girip temelde bir "kırmızı takım" testi gerçekleştirdiğini, haftalarca sistemde çeşitli olası saldırılar başlatarak güvenlik açıklarını bulmaya çalıştığını gözlemledik. AI Agent giderek daha popüler hale geldikçe, bunun daha sık gerçekleştiğini görebiliriz çünkü bu, bir sistemin etkili olup olmadığını test etmenin en iyi yollarından biridir. Bir kırmızı takım testiyle ona bir şey fırlatmak ve savunmaları aşıp aşamayacağını görmektir.

Ayrıca, kırmızı takım araçları geliştiren veya insanların bu tür testleri kendilerinin yapmasını sağlayan girişimler de var, ki bu şu anda gördüğümüz bir trend. Birlikte çalıştığımız şirketlerin çoğu, satış döngüsünün daha sonraki bir aşamasında, güvenlik ekiplerine veya harici bir ekiple çalışarak sistemi stres testine tabi tutacak. Bizim için bu tür testleri geçebilmek bir zorunluluk. Yani, sonuç olarak, mesele bu.

Derrick Harris: Müşterilerinizi bunu yapmaya teşvik ettiğiniz bir şey mi? Çünkü AI politikalarından bahsettiğimizde, önemli bir yönü, yani uygulama katmanını kastediyoruz ve ve LLM kullanıcılarına ve uygulamayı çalıştıran kişilere sorumluluk yüklemek yerine, modeli suçlamak daha iyidir. Yani, müşteriler kırmızı takım testleri yapmalı, belirli kullanım durumlarını ve saldırı yollarını belirlemeli ve hangi güvenlik açıklarının korunması gerektiğini belirlemelidir, yalnızca OpenAI veya diğer şirketler tarafından halihazırda kurulmuş güvenlik korumasına güvenmek yerine.

Jesse Zhang: Tamamen katılıyorum. Ayrıca, herkesin şu anda yaptığı ve farklı sektörlerde gerekli olan SOC 2 sertifikası ve HIPAA sertifikasına benzer şekilde yeni bir bildirim gereksinimleri dalgasının ortaya çıkabileceğini düşünüyorum. Genellikle, genel bir SaaS ürünü sattığınızda, müşteriler penetrasyon testi talep edecektir ve biz de penetrasyon testi raporumuzu sağlamalıyız. AI Agent için gelecekte benzer gereksinimler olabilir ve birileri buna isim verebilir, ancak bu temelde Agent sisteminin yeterince güçlü olup olmadığını test etmenin yeni bir yoludur.

Kimberly Tan: İlginç olan bir şey, herkesin tüm büyük laboratuvarlar tarafından tanıtılan yeni model atılımları ve teknolojik atılımlar konusunda çok heyecanlı olması. Bir AI şirketi olarak, siz kendi araştırmanızı yapmıyorsunuz, ancak bu araştırmayı değerlendiriyor ve son müşteriye sunmak için bunun etrafında çok sayıda yazılım oluşturuyorsunuz.

Ancak işiniz hızla değişen teknolojiye dayanıyor. Merak ediyorum, uygulamalı bir AI şirketi olarak, yeni teknolojik değişikliklere nasıl ayak uyduruyorsunuz ve kendi ürün yol haritanızı tahmin edip kullanıcı ihtiyaçlarını oluştururken bunların şirketi nasıl etkilediğini nasıl anlıyorsunuz? Daha genel olarak, uygulamalı AI şirketleri benzer durumlarda hangi stratejileri benimsemelidir?

Jesse Zhang: Aslında tüm yığını farklı parçalara bölebilirsiniz. Örneğin, uygulama katmanına bakarsanız LLM en alttadır. Ortada LLM'yi yönetmenize veya bazı değerlendirmeler yapmanıza ve bunun gibi şeylere yardımcı olan bazı araçlar olabilir. Sonra, en üst kısım temelde bizim oluşturduğumuz şeydir, ki bu aslında standart bir SaaS'a benzer.

Yani, işimizin çoğu aslında normal yazılımlardan çok da farklı değil, sadece ekstra bir araştırma bileşenimiz var - LLM çok hızlı değişiyor. Ne yapabileceklerini, nelerde iyi olduklarını ve belirli bir görevi gerçekleştirmek için hangi modelin kullanılması gerektiğini araştırmamız gerekiyor. Bu büyük bir sorun çünkü hem OpenAI hem de Anthropic yeni teknolojiler piyasaya sürüyor ve Gemini de giderek gelişiyor.

Öyleyse, Hangi modelin hangi durumda kullanılmaya uygun olduğunu anlamak için kendi değerlendirme mekanizmanıza sahip olmanız gerekir. Bazen ince ayar yapmanız da gerekir, ancak soru şudur: ne zaman ince ayar yapmalı? İnce ayar ne zaman değerlidir? Bunlar muhtemelen odaklandığımız LLM'lerle ilgili ana araştırma konularıdır. Ancak en azından şimdiye kadar, orta katmana bağımlı olmadığımız için SaaS'ın hızla değiştiğini hissetmiyoruz. Yani temelde, değişen LLM'ler. Çok sık değişmiyorlar ve değiştiklerinde de genellikle bir yükseltme oluyor. Örneğin, Claude 3.5 sone birkaç ay önce güncellendi ve o zaman "Tamam, eskisini kullanmaya devam etmek yerine yeni modele geçmeli miyiz?" diye düşündük.

Sadece bir dizi değerlendirme yapmamız gerekiyor ve yeni modele geçtiğimizde artık bunu düşünmüyoruz çünkü zaten yeni modeli kullanıyorsunuz. Sonra, o1 sürümü çıktı ve durum benzerdi. Nerede kullanılabileceğini düşünün. Bizim durumumuzda, o1 çoğu müşteriye dönük kullanım durumu için biraz yavaş, bu yüzden onu biraz arka plan çalışması için kullanabiliriz. Sonuç olarak, sadece model araştırması için iyi bir sisteme ihtiyacımız var.

Kimberly Tan: Yeni bir modeli ne sıklıkla değerlendiriyorsunuz ve onu değiştirip değiştirmemeye karar veriyorsunuz?

Jesse Zhang: Her yeni model çıktığında değerlendirme yaparız. Yeni model daha akıllı olsa bile, daha önce oluşturduğunuz kullanım durumlarından bazılarını bozmadığından emin olmalısınız. Bu olabilir. Örneğin, yeni model genel olarak daha akıllı olabilir, ancak bazı uç durumlarda, iş akışlarınızdan birinde A/B seçiminde kötü performans gösterebilir. Değerlendirme yapmamızın nedeni budur.

Bence genel olarak, en çok önemsediğimiz zeka türü "talimatları takip etme yeteneği" olarak adlandıracağım şeydir. Modelin talimatları takip etmede giderek daha iyi olmasını istiyoruz. Eğer durum buysa, o zaman bu kesinlikle bizim için faydalıdır ve bu çok iyidir.

Görünüşe göre son araştırmalar daha çok akıl yürütmeyi içeren zeka türüne odaklanmış durumda, örneğin daha iyi programlama ve daha iyi matematiksel işlemler. Bu da bize yardımcı oluyor, ancak talimatı takip eden yeteneğin iyileştirilmesi kadar önemli değil.

Kimberly Tan: Bahsettiğiniz çok ilginç bir nokta var ve bunun Decagon'a özgü olduğunu düşünüyorum. Sağladığınız test setinde her modelin nasıl performans gösterdiğini tam olarak bilmek için şirket içinde çok sayıda değerlendirme altyapısı kurmuş olmanız.

Bunu biraz açabilir misiniz? Bu şirket içi değerlendirme altyapısı ne kadar önemli ve özellikle size ve müşterilerinize Temsilcinin performansına dair nasıl güven veriyor? Çünkü bu değerlendirmelerin bazıları müşteriye yöneliktir.

Jesse Zhang: Bunun çok önemli olduğunu düşünüyorum, çünkü bu değerlendirme altyapısı olmadan hızlı bir şekilde yineleme yapmamız çok zor olurdu.

Her değişikliğin bir şeyi bozma olasılığının yüksek olduğunu düşünüyorsanız, o zaman değişiklikleri hızlı bir şekilde yapmazsınız. Ancak bir değerlendirme mekanizmanız varsa, büyük bir değişiklik, bir model güncellemesi veya yeni bir şey ortaya çıktığında, bunu doğrudan tüm değerlendirme testleriyle karşılaştırabilirsiniz. Değerlendirme sonuçları iyiyse, şunu hissedebilirsiniz: tamam, bir iyileştirme yaptık veya çok fazla endişelenmeden güvenle yayınlayabilirsiniz.

Yani bizim alanımızda, Değerlendirme müşteriden girdi gerektirir, çünkü bir şeyin doğru olup olmadığına müşteri karar verir. Elbette bazı üst düzey sorunları kontrol edebiliriz, ancak genellikle müşteri belirli kullanım durumları sağlar ve bize doğru cevabın ne olduğunu veya ne olması gerektiğini, hangi tonu koruması gerektiğini, ne söylemesi gerektiğini söyler.

Değerlendirme buna dayanıyor. Bu yüzden değerlendirme sistemimizin yeterince sağlam olduğundan emin olmalıyız. Başlangıçta kendimiz kurduk ve sürdürülmesi o kadar da zor değil. Ayrıca bazı değerlendirme şirketlerinin olduğunu biliyoruz ve bazılarını inceledik. Belki bir noktada onları benimseyip benimsememeyi düşünürüz, ancak şimdilik değerlendirme sistemi artık bizim için bir sorun değil.

Kimberly Tan: Günümüzde çok popüler bir konu olan çoklu modalite, yani AI ajanlarının insanların bugün kullandığı tüm biçimlerde, ister metin, ister video, ister ses olsun, etkileşim kurabilmesi gerektiği anlamına geliyor. Decagon'un metin tabanlı olarak başladığını biliyorum. Sizin bakış açınıza göre, multimodalitedir AI ajanlarına mı? Ana akım veya hatta bir standart haline gelmesi için zaman diliminin ne olduğunu düşünüyorsunuz?

Jesse Zhang: Önemlidir ve bir şirket perspektifinden bakıldığında yeni bir modalite eklemek özellikle zor değildir. Basit değildir, ancak özü şudur: Eğer bahsettiğim gibi diğer sorunları çözüyorsanız -örneğin, AI'yı oluşturmak, izlemek ve doğru mantığa sahip olmak- o zaman yeni bir modalite eklemek yapılacak en zor şey değildir. Dolayısıyla bizim için tüm modalitelere sahip olmak çok mantıklıdır ve pazarımızı genişletir. Biz temelde modaliteden bağımsızız ve her modalite için kendi Agent'ımızı oluşturuyoruz.

Genel olarak iki sınırlayıcı faktör vardır: Öncelikle, müşteri yeni yöntemi benimsemeye hazır mı? Bence metinle başlamak çok mantıklı çünkü insanlar en aktif şekilde bu yöntemi benimsiyor ve onlar için daha az riskli, izlenmesi daha kolay ve anlaşılması daha kolay. Diğer büyük yöntem ise ses. Açıkçası, pazarda hala yer olduğunu düşünüyorum ve kullanıcıların sese olan kabulünün hala iyileştirilmesi gerekiyor. Şu anda, sesli Ajanları benimsemeye başlayan bazı erken benimseyenleri görüyoruz, bu çok heyecan verici. Diğer bir husus ise teknik zorluklar. Çoğu kişi, ses için çıtanın daha yüksek olduğunu kabul edecektir. Telefonda biriyle konuşuyorsanız, çok kısa bir ses gecikmesine ihtiyacınız vardır. Birini bölerseniz, doğal bir şekilde yanıt vermesi gerekir.

Konuşmanın gecikmesi daha düşük olduğundan, hesaplama şeklinizde daha akıllı olmanız gerekir. Bir sohbetteyseniz ve yanıt süresi beş ila sekiz saniyeyse, bunu neredeyse fark etmezsiniz ve çok doğal gelir. Ancak telefonda yanıt vermek beş ila sekiz saniye sürüyorsa, biraz doğal olmayan gelir. Yani konuşmayla ilgili daha fazla teknik zorluk vardır. Bu teknik zorluklar çözüldükçe ve pazarda konuşmayı benimsemeye olan ilgi arttıkça, yeni bir yöntem olarak konuşma ana akım haline gelecektir.

Güvenin ötesine geçen bir iş modeli

Kimberly Tan: Devam etmeden önce, AI Agent iş modeli hakkında biraz daha konuşmak istiyorum. İlk olarak inşa edilmiş AI Agent veya müşterilerle kullandıkları sistem, işledikleri veriler ve endişeleri hakkında görüştünüz mü, sizi şaşırtan bir şey oldu mu? Decagon'un kurumsal müşterilere daha iyi hizmet verebilmek için yapmak zorunda kaldığı sezgisel olmayan veya şaşırtıcı şeyler nelerdir?

Jesse Zhang: Bence en şaşırtıcı şey, ilk başladığımızda insanların bizimle konuşmaya ne kadar istekli olduğuydu. Sonuçta, sadece ikimiz vardık. İkimiz de daha önce şirket kurmuştuk, bu yüzden birçok insanı tanıyorduk, ancak yine de, her girişimci için, bir tavsiye görüşmesi başlatmak istediğinizde, söyledikleriniz özellikle ilgi çekici değilse, görüşme genellikle oldukça ılık olur.

Ancak bu kullanım durumu hakkında konuşmaya başladığımızda, insanların bunun hakkında konuşmak için ne kadar heyecanlı olduklarını görünce gerçekten şaşırdım. Çünkü fikir çok açık görünüyor. Bu kadar açık bir fikir olduğu için, başka birinin bunu daha önce yapmış olması gerektiğini veya zaten bir çözüm olması gerektiğini veya başka birinin bir tür çözüm bulmuş olması gerektiğini düşünebilirsiniz. Ancak iyi bir anı yakaladığımızı düşünüyorum, bu kullanım durumu gerçekten büyük ve insanlar gerçekten umursuyor. Daha önce de belirttiğim gibi, bu kullanım durumu AI Agent'ı alıp üretime sokmak için gerçekten çok uygun, çünkü bunu artımlı olarak uygulayabilir ve yatırım getirisini takip edebilirsiniz.

Bu benim için hoş bir sürprizdi, ancak tabii ki bundan sonra yapılacak çok iş var, müşterilerle çalışmanız, ürünü inşa etmeniz, hangi yöne gideceğinizi bulmanız gerekiyor. İlk aşamada, gerçekten şaşırtıcı bir keşifti.

Derrick Harris: Kimberly, RPA'ya RIP, birçok konuya değinen blog yazınızdan bahsetmem gerektiğini düşünüyorum. ve otomasyon görevleri ve girişimler.Bu otomatize edilmiş görevlerin veya çözümlerin pek de ideal olmadığı, dolayısıyla insanların her zaman daha iyi bir yol aradığı bir olgu olduğunu düşünüyor musunuz?

Kimberly Tan: Evet, öyle düşünüyorum. Birkaç şey söylemek istiyorum. Öncelikle, bir fikir herkes için açıksa ancak bunu çözecek net bir şirket yoksa veya kimse bir şirketi işaret edip "Bunu kullanmalısın" demiyorsa, bu sorunun aslında çözülmediği anlamına gelir.

Bir anlamda, bir şirketin bir çözüm geliştirmesi için tamamen açık bir fırsat. Çünkü, dediğiniz gibi, Decagon'u başından beri bir yatırımcı olarak takip ediyoruz. Yaratıcı labirentte gezinmelerini izledik ve bu yöne gitmeye karar verip müşterilerle konuşmaya başladıklarında, tüm müşterilerin bir tür yerel AI destekli çözüm için çaresiz olduğu açıkça ortaya çıktı. Bu, daha önce bahsettiğim sorunlardan biri, birçok kişi bunun sadece bir GPT sarmalayıcısı olduğunu düşünüyor. Ancak Decagon'un başından beri gördüğü müşteri ilgisi, bu sorunların çoğunun insanların beklediğinden çok daha karmaşık olduğunu erken fark etmemizi sağladı.

Bu olgunun, ister müşteri hizmetleri ister belirli dikeylerdeki profesyonel otomasyon olsun, tüm sektörlerde gerçekleştiğini düşünüyorum. Jesse'nin daha önce de belirttiği gibi, hafife alınan noktalardan birinin, görevlerin otomasyonunun yatırım getirisini (YG) net bir şekilde ölçebilmek olduğunu düşünüyorum. Çünkü, eğer birinin bir yapay zeka ajanını kabul etmesini sağlayacaksanız, aslında bir nevi "inanç sıçraması" yapacaklardır; çünkü bu birçok insan için çok yabancı bir alan.

Açıkça gelir getiren bir süreç olan, daha önce işletmede darboğaz oluşturan veya müşteri büyümesi veya gelir büyümesiyle doğrusal olarak artan büyük bir maliyet merkezi olan çok özel bir süreci otomatikleştirebilirseniz, AI Agent için kabul almak daha kolay olacaktır. Bu tür sorunları geleneksel yazılımlar gibi ölçeklenebilen, daha ürünleştirilmiş bir sürece dönüştürme yeteneği oldukça cazip.

Kimberly Tan: Devam etmeden önce son bir sorum daha olacak. Jesse'nin önceki tartışmalarımızda, şirketlerin yazılım veya AI Agent'ları benimsemesindeki en büyük zorluğun halüsinasyonlar olacağını söylediğini hatırlıyorum. Ancak bir keresinde bana bunun aslında asıl sorun olmadığını söylemiştiniz. Halüsinasyon algısının neden biraz yanıltıcı olduğunu ve insanların aslında daha çok neyle ilgilendiğini açıklayabilir misiniz?

Jesse Zhang: İnsanların halüsinasyonları önemsediğini düşünüyorum, ancak sağlayabilecekleri değerle daha fazla ilgileniyorlar. Çalıştığımız şirketlerin neredeyse hepsi aynı birkaç konuya, neredeyse aynı şeylere odaklanıyor: konuşmaların yüzde kaçını çözebiliyorsunuz? Müşterilerim ne kadar memnun? O zaman halüsinasyon sorunu üçüncü bir kategori olarak sınıflandırılabilir, yani ne kadar doğru. Genel olarak konuşursak, değerlendirme yaparken ilk iki faktör daha önemlidir.

Diyelim ki yeni bir işletmeyle görüşüyorsunuz ve ilk iki faktörde gerçekten iyi bir iş çıkardınız ve liderlikten ve ekipteki herkesten çok destek aldınız. "Aman Tanrım, müşteri deneyimimiz farklı. Artık her müşterinin istediği zaman bizimle iletişime geçebilen kendi kişisel asistanı var. Onlara harika cevaplar verdik, çok memnunlar ve çok dilli ve 7/24 hizmet veriyor." diyorlar. Bu sadece bir kısmı ve ayrıca çok para tasarrufu da sağladınız.

Yani bu hedeflere ulaştığınızda, işi ilerletmek için çok fazla destek ve çok fazla destek rüzgarı elde edersiniz. Elbette, illüzyon sorununun nihayetinde çözülmesi gerekir, ancak en çok endişelendikleri şey bu değildir. İllüzyonu çözmenin yolu daha önce bahsettiğim yolla aynıdır - insanlar sizi test edecektir. Gerçek konuşmalar yaptığınız ve ekip üyelerinin doğruluğu izleyip kontrol ettiği bir kavram kanıtı aşaması olabilir. Bu iyi giderse, genellikle geçer.

Ayrıca, daha önce de belirttiğim gibi, hassas bilgiler için bazı katı koruma önlemleri ayarlayabilirsiniz, örneğin hassas içeriği genel yapmanız gerekmez. Bu nedenle yanılsama sorunu çoğu işlemde tartışılan bir konudur. Önemsiz bir konu değildir. Bu süreci yaşayacaksınız, ancak bu asla konuşmanın odak noktası değildir.

Kimberly Tan: Şimdi AI Agent'ın iş modeline geçelim. Bugün, bu AI Agent'ların nasıl fiyatlandırılacağına dair büyük bir konu var.

Tarihsel olarak, birçok SaaS yazılımı, bireysel çalışanları hedefleyen ve çalışan üretkenliğini artırmak için kullanılan iş akışı yazılımları oldukları için koltuk sayısına göre fiyatlandırılır. Ancak, AI Agent geleneksel yazılımlar gibi bireysel çalışanların üretkenliğiyle bağlantılı değildir.

Çok sayıda kişi koltuk sayısına dayalı fiyatlandırma yönteminin artık geçerli olmayabileceğini düşünüyor. Merak ediyorum Nasıl Bu ikilemi ilk günlerde düşündünüz ve sonunda Decagon'u fiyatlandırmaya nasıl karar verdiniz? Ayrıca, AI Agent giderek daha yaygın hale geldikçe yazılım fiyatlandırmasının gelecekteki eğiliminin ne olacağını düşünüyorsunuz?

Jesse Zhang: Bizim bu konudaki görüşümüz, geçmişte yazılımların koltuk başına fiyatlandırılmasıydı çünkü ölçeği, yazılımı kullanabilen kişi sayısına göre belirleniyordu. Ancak çoğu AI Agent için sağladığınız değer, onu sürdüren kişi sayısına değil, üretilen iş miktarına bağlıdır. Bu, daha önce bahsettiğim noktayla tutarlıdır: Yatırım getirisi (ROI) çok ölçülebilirse, iş çıktısı seviyesi de çok açıktır.

Bizim görüşümüze göre koltuk sayısına göre fiyatlandırma kesinlikle geçerli değildir. Çalışmanın çıktısına göre fiyatlandırma yapabilirsiniz. Bu nedenle, sunduğunuz fiyatlandırma modeli, ne kadar çok iş yapılırsa o kadar fazla ödeme yapmanız gerektiğidir.

Bizim için fiyatlandırmanın iki belirgin yolu var. Ya konuşmaları fiyatlandırabilirsiniz ya da AI'nın gerçekten çözdüğü konuşmaları fiyatlandırabilirsiniz. Öğrendiğimiz ilginç derslerden birinin çoğu insanın konuşma fiyatlandırma modelini seçmesi olduğunu düşünüyorum. Bunun nedeni, çözüme göre fiyatlandırmanın temel avantajının, ne için ödeme yaptığınızdır. ve Yapay zeka bunu yapar.

Ancak ardından gelen soru şudur: "Çözüm" olarak ne düşünülür? Öncelikle, kimse bu konuyu derinlemesine ele almak istemez, çünkü bu, "Birisi öfkeyle içeri girerse ve siz onu geri gönderirseniz, bunun bedelini neden biz ödeyelim?" haline gelir.

Bu garip bir durum yaratır ve AI sağlayıcıları için teşvikleri biraz garip hale getirir, çünkü çözüme göre faturalandırma, "Mümkün olduğunca çok konuşmayı çözmemiz ve bazı insanları uzaklaştırmamız gerekiyor." anlamına gelir. Ancak sorunu uzaklaştırmaktansa yükseltmenin daha iyi olduğu birçok durum vardır ve müşteriler bu tür bir muameleden hoşlanmaz. Bu nedenle, konuşmaya göre faturalandırma daha fazla basitlik ve öngörülebilirlik getirecektir.

Kimberly Tan: Gelecekteki fiyatlandırma modelinin ne kadar süreceğini düşünüyorsunuz?Çünkü şu anda ROI'den bahsettiğinizde, genellikle işçilik maliyetlerini karşılamak için kullanılmış olabilecek geçmiş harcamalara dayanıyor. AI Agent'lar daha yaygın hale geldikçe, uzun vadede AI'nın işçilik maliyetleriyle karşılaştırılacağını ve bunun uygun bir ölçüt olacağını düşünüyor musunuz? Değilse, işçilik maliyetlerinin ötesinde uzun vadeli fiyatlandırmayı nasıl görüyorsunuz?

Jesse Zhang: Uzun vadede, AI Agent fiyatlandırmasının hala öncelikli olarak işçilik maliyetlerine bağlı olacağını düşünüyorum, çünkü Agent'ın güzelliği şu: Hizmetlere yaptığınız önceki harcamalar artık yazılıma kaydırılabiliyor.

Harcamanın bu kısmı yazılım harcamasının 10 ila 100 katı olabilir, bu nedenle maliyetin çoğu yazılıma kayacaktır. Bu nedenle, işçilik maliyetleri doğal olarak bir ölçüt haline gelecektir. Müşterilerimiz için yatırım getirisi çok açıktır. İşçilik maliyetlerinde X milyon tasarruf edebiliyorsanız, bu çözümü benimsemek mantıklıdır. Ancak uzun vadede, bu orta yol olabilir.

Çünkü bizim Ajanımız kadar iyi olmayan bazı ürünler bile daha düşük fiyatlandırmayı kabul edecektir. Bu, herkesin pazar payı için rekabet ettiği klasik SaaS durumu gibidir.

Kimberly Tan: Özellikle ürünleri doğal olarak yapay zeka için geliştirilmemiş veya koltuk başına fiyatlandırılan ve bu nedenle sonuç odaklı bir fiyatlandırma modeline uyum sağlayamayan mevcut SaaS şirketlerinin geleceğinin ne olacağını düşünüyorsunuz?

Jesse Zhang: Bazı geleneksel şirketler için, bir AI Agent ürünü piyasaya sürmeye çalışırlarsa bu gerçekten biraz zordur çünkü bunu bir koltuk modeli kullanarak fiyatlandıramazlar. Artık çok sayıda Agent'a ihtiyacınız yoksa, mevcut ürünle gelir elde etmek zordur. Bu geleneksel şirketler için bir sorundur, ancak söylemesi zordur. Geleneksel şirketler her zaman dağıtım kanallarının avantajına sahiptir. Ürün yeni şirket kadar iyi olmasa bile, insanlar yalnızca 80% kalitesinde yeni bir tedarikçiyi kabul etmek için çaba harcamaya isteksizdir.

Yani, öncelikle, bizim gibi bir girişimseniz, ürününüzün geleneksel üründen üç kat daha iyi olduğundan emin olmalısınız. İkincisi, bu geleneksel şirketler ve girişimler arasında tipik bir rekabettir. Geleneksel şirketler doğal olarak daha düşük bir risk toleransına sahiptir çünkü çok sayıda müşterileri vardır. Hızlı yinelemede bir hata yaparlarsa, bu büyük kayıplara neden olur. Ancak, girişimler daha hızlı yineleme yapabilir, bu nedenle yineleme sürecinin kendisi daha iyi bir ürüne yol açabilir. Bu olağan döngüdür. Biz her zaman teslimat hızımızla, ürün kalitemizle ve ekibimizin yürütmesiyle gurur duyduk. Bu yüzden mevcut anlaşmayı kazandık.

Kimberly Tan: İşyerinde AI'nın geleceği hakkında bazı tahminlerde bulunabilir misiniz? Örneğin, çalışanların ihtiyaçlarını veya yeteneklerini veya insan çalışanların ve AI Temsilcilerinin etkileşimini nasıl değiştirecek?Yapay Zeka Aracıları daha yaygın hale geldikçe iş yerlerinde hangi yeni en iyi uygulamaların veya normların norm haline geleceğini düşünüyorsunuz?

Jesse Zhang: İlk ve en önemli değişiklik, gelecekte çalışanların iş yerlerinde AI yöneticilerinin rolüne benzer şekilde AI Agent'ları oluşturmak ve yönetmek için çok daha fazla zaman harcayacaklarına ikna olmamızdır. Pozisyonunuz resmi olarak bir "Yapay Zeka yöneticisi" olmasa bile, işinizi yapmaya harcadığınız zamanın çoğu bu Temsilcileri yönetmeye kayacaktır, çünkü Temsilciler size çok fazla kaldıraç sağlayabilir.

Bunu, bir zamanlar ekip lideri olan kişilerin artık AI'yı izlemek için çok zaman harcadığı birçok dağıtımda gördük, örneğin, AI'nın sorun yaşamadığından emin olmak veya ayarlamalar yapmak için. Dikkat edilmesi gereken belirli alanlar olup olmadığını, AI'nın daha iyi hale gelmesine yardımcı olabilecek bilgi tabanında boşluklar olup olmadığını ve AI'nın bu boşlukları doldurup dolduramayacağını görmek için genel performansı izliyorlar.

Bir Agent ile çalışmanın beraberinde getirdiği iş, gelecekte çalışanların AI Agent'larla etkileşime girerek önemli miktarda zaman harcayacakları izlenimini veriyor. Daha önce de belirttiğim gibi, bu şirketimizin temel bir kavramıdır. Bu nedenle ürünümüzün tamamı insanlara araçlar, görselleştirme, yorumlanabilirlik ve kontrol sağlamak üzerine kuruludur. Bir yıl içinde bunun çok büyük bir trend haline geleceğini düşünüyorum.

Kimberly Tan: Bu çok mantıklı. Yapay zeka yöneticilerinin gelecekte hangi yeteneklere ihtiyaç duyacağını düşünüyorsunuz? Bu rol için gereken beceri seti nedir?

Jesse Zhang: İki yönü var. Biri gözlemlenebilirlik ve yorumlanabilirlik, AI'nın ne yaptığını ve nasıl karar aldığını hızlıca anlama yeteneği. Diğeri karar alma yeteneği veya inşa kısmı, nasıl geri bildirim verileceği ve nasıl yeni mantık inşa edileceği. Ben bunların aynı madalyonun iki yüzü olduğunu düşünüyorum.

Kimberly Tan: Sizce hangi görevler orta veya uzun vadede yapay zeka aracının yeteneklerinin ötesinde kalacak ve yine de insanlar tarafından doğru bir şekilde yönetilmesi ve gerçekleştirilmesi gerekecek?

Jesse Zhang: Sanırım bu, daha önce bahsettiğim "mükemmellik" gerekliliğine bağlı olacak. Hata toleransı çok düşük olan birçok görev var. Bu durumlarda, herhangi bir AI aracı tam teşekküllü bir ajandan daha çok bir yardımcıdır.

Örneğin, sağlık veya güvenlik gibi neredeyse mükemmel olmanız gereken daha hassas bazı endüstrilerde, bu alanlarda AI Agent'lar daha az özerk hale gelebilir, ancak bu onların işe yaramaz olduğu anlamına gelmez. Bence stil farklı olacak, bizimki gibi bir platformda, aslında bu Agent'ları tüm işi otomatikleştirmelerine izin vermek için konuşlandırıyorsunuz.

Derrick Harris: Ve bu bölüm için hepsi bu kadar. Bu konuyu ilginç veya ilham verici bulduysanız, lütfen podcast'imizi derecelendirin ve daha fazla kişiyle paylaşın.Yıl sonundan önce final bölümü yayınlamayı umuyoruz ve içeriği yeni yıl için yeniden düzenliyoruz. Dinlediğiniz için teşekkürler ve harika bir tatil sezonu geçirmenizi dilerim (tatillerde dinliyorsanız).

Orijinal video: Al Agents Sonunda Müşteri Desteğini Düzeltebilir mi??

Benzer Yazılar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir