פַּסִים

  • הקסם של LLMs הוא שהם מאוד גמישים, יכולים להסתגל למצבים רבים ושונים, ובעלי אינטליגנציה בסיסית.
  • אנו מאמינים שעם הזמן, ה-UI וה-UX יהפכו ליותר ויותר מבוססי שפה טבעית, כי זו הדרך בה חושב מערכת Agent, או שזה בעצם הבסיס לאימון למודלים של שפה גדולה (LLM).
  • אם אתה רוצה שמישהו יקבל סוכן בינה מלאכותית, הוא למעשה לוקח מידה של "קפיצת אמונה" כי עבור אנשים רבים, זה תחום מאוד לא מוכר.

סוכן AI מעצב מחדש את חווית הלקוח

ג'סי ג'אנג: איך בעצם בנוי סוכן? ההשקפה שלנו היא שעם הזמן, זה יהפוך יותר ויותר כמו סוכן מבוסס שפה טבעית, כי כך מתאמנים מודלים של שפה גדולה (LLMs).

בטווח הארוך, אם יש לך סוכן סופר אינטליגנטי שהוא בעצם כמו אדם, אתה יכול להראות לו דברים, להסביר לו, לתת לו משוב, והוא יעדכן את המידע במוחו.

אתה יכול לדמיין שיש לך חבר צוות אנושי מאוד מוכשר. כשהם מצטרפים לראשונה, אתה מלמד אותם משהו, הם מתחילים לעבוד, ואז אתה נותן להם משוב ומראה להם מידע חדש.

בסופו של דבר, זה יתפתח בכיוון הזה - זה יהפוך לשיחתי יותר ויותר מבוסס על שפה טבעית, והאופן שבו אנשים מתקשרים זה עם זה יהפוך טבעי יותר. ואנשים לא ישתמשו עוד בעצי ההחלטה המסובכים האלה כדי ללכוד דרישות, שיכולות לעבוד אבל נוטות לקרוס.

בעבר, היינו צריכים לעשות זאת כי לא היה לנו מודל שפה גדול. אבל כעת, עם ההתקדמות המתמשכת של Agent, חווית המשתמש (UX) וממשק המשתמש (UI) יהפכו לשיחיים יותר.

דריק האריס: שלום לכולם, ברוכים הבאים לפודקאסט A16z AI. אני דריק האריס, והיום יצטרפו אלי ג'סי ג'אנג, מייסד שותף ומנכ"ל Decagon, וקימברלי טאן, שותפה ב-a16z. קימברלי תנחה את הדיון, וג'סי ישתף את הניסיון שלו בבניית Decagon ומוצריה.

אם אתה לא יודע הרבה על זה, Decagon הוא סטארט-אפ שמספק סוכני AI לעסקים כדי לסייע בתמיכת לקוחות. סוכנים אלה אינם צ'אטבוטים או עטיפות LLM עבור קריאת API בודדת, אלא סוכנים מתקדמים בהתאמה אישית שיכולים להתמודד עם זרימות עבודה מורכבות המבוססות על הצרכים הספציפיים של החברה.

בנוסף להסבר מדוע הם יצרו את Decagon וכיצד הוא מתוכנן לטפל בסביבות שונות של LLM וסביבות לקוחות, ג'סי גם מדבר על היתרונות של מודל עסקי שגובה תשלום עבור כל שיחה, וכיצד סוכני AI ישנו את הכישורים הנדרשים ממובילי תמיכת לקוחות.

ראוי גם להזכיר כי קימברלי כתבה לאחרונה פוסט בבלוג שכותרתו "RIP to RPA, The Rise of Intelligent Automation", עליו נדון בקצרה בפרק זה.

זוהי נקודת התחלה מצוינת להבנה כיצד האוטומציה ממריאה בתהליכים עסקיים, ואנו נספק קישור בהערות המופע. ולבסוף, כזכור, התוכן של מאמר זה מיועד למטרות אינפורמטיביות בלבד ואין לראות בו ייעוץ משפטי, עסקי, מס או השקעות, ואין להשתמש בו להערכת כל השקעה או נייר ערך, ואינו מכוון לכל משקיע בקרן a16z או למשקיע פוטנציאלי.

ג'סי ג'אנג: היכרות קצרה עם עצמי. נולדתי וגדלתי בבולדר, והשתתפתי בהמון תחרויות מתמטיקה וכדומה בילדותי. למדתי מדעי המחשב בהרווארד, ואז הקמתי חברה שגם היא מגובה ב-a16z. בסופו של דבר נרכשנו על ידי ניאנטיק.

ואז התחלנו לבנות את Decagon. העסק שלנו בונה סוכני בינה מלאכותית לשירות לקוחות. בהתחלה עשינו את זה כי רצינו לעשות משהו שהיה מאוד קרוב לליבנו.

כמובן, אין צורך ללמד אף אחד על תפקידם של סוכני AI בשירות לקוחות, נכון? כולנו דיברנו בטלפון עם חברות תעופה, מלונות וכו' וחיכינו בהמתנה. אז הרעיון הגיע משם.

דיברנו עם הרבה לקוחות כדי לברר בדיוק איזה סוג של מוצר עלינו לבנות. דבר אחד שבלט אצלנו הוא שככל שלמדנו יותר על סוכני AI, התחלנו לחשוב איך יהיה העתיד כשיהיו הרבה כאלה. אני חושב שכולם מאמינים שיהיו הרבה סוכני AI בעתיד.

מה שאנחנו חושבים עליו הוא מה יעשו העובדים שעובדים סביב סוכני AI? איזה סוג של כלים יהיו להם? איך הם ישלטו או יראו את הסוכנים שהם עובדים איתם או מנהלים?

אז זה הליבה של איך בנינו את החברה סביב השאלה הזו. אני חושב שזה גם מה שמייחד אותנו כרגע, כי אנחנו מספקים לסוכני AI האלה כלים שונים שיעזרו לאנשים איתם אנחנו עובדים לבנות ולהגדיר את הסוכנים האלה כך שהם לא יהיו עוד "קופסה שחורה". כך אנחנו בונים את המותג שלנו.

דריק האריס: מה נתן לך השראה, מאז שהחברה האחרונה שלך הייתה חברת וידאו מול צרכנים, לעבור לתוכנה ארגונית?

ג'סי ג'אנג: שאלה מצוינת. אני חושב שמייסדים הם לעתים קרובות "אגנוסטיים לנושאים" כשזה מגיע לבחירת נושא, כי במציאות, כשאתה ניגש לתחום חדש, אתה בדרך כלל די נאיבי. אז יש יתרון להסתכל על דברים מנקודת מבט חדשה. אז כשחשבנו על זה, כמעט לא היו הגבלות נושאים.

אני חושב שזה דפוס נפוץ מאוד עבור אנשים עם רקע כמותי יותר, כולל אני. לאחר שניסית מוצרי צריכה, אתה נוטה יותר לכיוון תוכנה ארגונית מכיוון שלתוכנה ארגונית יש בעיות קונקרטיות יותר.

יש לך לקוחות אמיתיים עם צרכים ותקציבים אמיתיים ודברים כאלה, ואתה יכול לייעל ולפתור בעיות עבורם. גם שוק הצרכנים אטרקטיבי מאוד, אבל הוא מבוסס יותר על אינטואיציה מאשר מונע על ידי ניסויים. עבורי באופן אישי, תוכנה ארגונית מתאימה יותר.

קימברלי טאן: ראשית, נוכל להתחיל בשאלה זו: מהן קטגוריות התמיכה הנפוצות ביותר בהן עוסקת Decagon כיום? האם אתה יכול לפרט כיצד אתה משתמש במודלים של שפה גדולה (LLMs) כדי לפתור את הבעיות האלה ומה אתה יכול לעשות עכשיו שלא יכולת לעשות קודם?

ג'סי ג'אנג: אם תסתכל אחורה על האוטומציה הקודמת, ייתכן שהשתמשת בעצי החלטה כדי לעשות משהו פשוט, כדי לקבוע באיזה נתיב ללכת. אבל כולנו השתמשנו בצ'אטבוטים, וזו חוויה די מתסכלת.

לעתים קרובות לא ניתן לענות על השאלה שלך במלואה על ידי עץ החלטות. אז בסופו של דבר מפנים אותך לנתיב שאלה שקשור לשאלה אבל לא בדיוק תואם אותה. כעת, יש לנו מודלים גדולים של שפה (LLMs). הקסם של LLMs הוא שהם מאוד גמישים, יכולים להסתגל למצבים רבים ושונים, ובעלי אינטליגנציה בסיסית.

כאשר אתה מיישם זאת על תמיכת לקוחות, או כאשר לקוח שואל שאלה, אתה יכול לספק שירות מותאם אישית יותר. זו הנקודה הראשונה, רמת ההתאמה האישית השתפרה מאוד. זה פותח מדדים גבוהים יותר. אתה יכול לפתור יותר בעיות, הלקוחות מרוצים יותר, ושביעות הרצון של הלקוחות עולה.

הצעד הטבעי הבא הוא: אם יש לך את האינטליגנציה הזו, אתה אמור להיות מסוגל לעשות יותר מהדברים שבני אדם יכולים לעשות. הדברים שבני אדם יכולים לעשות הם שהם יכולים למשוך נתונים בזמן אמת, הם יכולים לנקוט בפעולה, והם יכולים לחשוב דרך שלבים מרובים. אם לקוח שואל שאלה מורכבת יחסית, אולי "אני רוצה לעשות את זה וכך", וה-AI מוכן לטפל רק בשאלה הראשונה. LLM חכם מספיק כדי לזהות שיש כאן שתי שאלות. ראשית, זה יפתור את הבעיה הראשונה, ולאחר מכן יעזור לך לפתור את הבעיה השנייה.

לפני שה-LLM הגיע, זה בעצם היה בלתי אפשרי. אז אנחנו רואים כעת שינוי צעד במה שהטכנולוגיה מסוגלת לעשות, וזה הודות ל-LLM.

קימברלי טאן: בהקשר הזה, איך היית מגדיר סוכן בינה מלאכותית? מכיוון שהמילה "סוכן" נמצאת בשימוש נרחב, אני סקרן לדעת מה היא בעצם אומרת בהקשר של Decagon.

ג'סי ג'אנג: הייתי אומר ש-Agent מתייחס יותר למערכת שבה מספר מערכות LLM (מודל שפה גדול) עובדות יחד. יש לך קריאת LLM, שבעצם כוללת שליחת הנחיה וקבלת תגובה. עבור סוכן, אתה רוצה להיות מסוגל לחבר מספר קריאות כאלה, אולי אפילו רקורסיבית.

לדוגמה, יש לך קריאת LLM שקובעת איך לטפל בהודעה, ואז היא עשויה להפעיל שיחות אחרות שמושכות יותר נתונים, מבצעות פעולות וחוזרות על מה שהמשתמש אמר, אולי אפילו לשאול שאלות המשך. אז עבורנו, ניתן להבין סוכן כרשת של כמעט קריאות LLM, קריאות API או היגיון אחר שפועלים יחד כדי לספק חוויה טובה יותר.

קימברלי טאן: בנושא זה, אולי נוכל לדבר יותר על תשתית הסוכן שבנית בפועל. אני חושב שנקודה אחת מאוד מעניינת היא שיש הדגמות רבות של סוכני בינה מלאכותית בשוק, אבל אני חושב שיש מעט מאוד דוגמאות שלהם שבאמת יכולות לפעול ביציבות בסביבת ייצור. וקשה לדעת מבחוץ מה אמיתי ומה לא.

אז לדעתך, אילו היבטים של סוכני ה-AI של ימינו מצליחים, ואילו היבטים עדיין דורשים פריצות דרך טכנולוגיות כדי להפוך אותם לחזקים ואמינים יותר?

ג'סי ג'אנג: ההשקפה שלי היא למעשה קצת שונה. ההבדל בין קביעה אם סוכן AI הוא רק הדגמה או "באמת עובד" לא טמון כולו בערימת הטכנולוגיה, כי אני חושב שרוב האנשים משתמשים בערך באותה טכנולוגיה. אני חושב שברגע שתלך רחוק יותר בפיתוח החברה שלך, למשל, החברה שלנו הוקמה כבר יותר משנה, אתה תיצור משהו מאוד ספציפי שמתאים לשימוש שלך.

אבל בסופו של דבר, כולם יכולים לגשת לאותו מודל ולהשתמש בטכנולוגיה דומה. אני חושב שההבדל הגדול ביותר בין אם סוכן בינה מלאכותית יכול לעבוד ביעילות טמון בעצם בצורת מקרה השימוש. קשה לדעת את זה בהתחלה, אבל במבט לאחור, תגלו שיש שתי תכונות שחשובות מאוד לסוכן AI לעבור מעבר להדגמה ולהיכנס ליישום מעשי.

הראשון הוא שלמקרה השימוש שאתה פותר חייב להיות החזר ROI שניתן לכימות (החזר על השקעה). זה מאוד חשוב, כי אם לא ניתן לכמת את החזר ה-ROI, יהיה קשה לשכנע אנשים להשתמש במוצר שלך בפועל ולשלם עבורו. במקרה שלנו, המדד הכמותי הוא: איזה אחוז מבקשות תמיכה אתה פותר? מכיוון שהמספר הזה ברור, אנשים יכולים להבין אותו - אה, בסדר, אם תפתור יותר, אני יכול להשוות את התוצאה הזו להוצאות השוטפות ולזמן ההוצאות שלי. לכן, אם יש את האינדיקטור הזה, אינדיקטור נוסף שמאוד חשוב לנו הוא שביעות רצון הלקוחות. מכיוון שניתן לכמת בקלות את החזר ה-ROI, אנשים באמת יאמצו אותו.

הגורם השני הוא שמקרי השימוש חייבים להיות קשים יותר בהדרגה. זה גם יהיה קשה מאוד אם תזדקק לסוכן שיהיה על אנושי מההתחלה, שיפתור כמעט 100% ממקרי השימוש. מכיוון שכפי שאנו יודעים, לימודי LLM הם לא דטרמיניסטים, אתה חייב להיות תוכנית מגירה כלשהי. למרבה המזל, יש תכונה נהדרת של מקרי שימוש בתמיכה, והיא שאתה תמיד יכול להסלים לאדם. גם אם אתה יכול לפתור רק חצי מהבעיות, זה עדיין בעל ערך רב לאנשים.

אז אני חושב שלתמיכה יש את המאפיין הזה שהופך אותו למתאים מאוד לסוכן AI. אני חושב שיש הרבה תחומים אחרים שבהם אנשים יכולים ליצור הדגמות מרשימות שבהם אתה אפילו לא צריך להסתכל מקרוב כדי להבין למה סוכן AI יהיה שימושי. אבל אם זה צריך להיות מושלם מההתחלה, אז זה מאוד קשה. אם זה המקרה, כמעט אף אחד לא ירצה לנסות או להשתמש בו כי ההשלכות של חוסר השלמות שלו יכולות להיות חמורות מאוד – למשל, מבחינת אבטחה.

לדוגמה, כשאנשים עושים סימולציות, תמיד יש להם את המחשבה הקלאסית הזו: "הו, זה יהיה נהדר אם LLM יוכל לקרוא את זה." אבל קשה לדמיין מישהו אומר, "בסדר, סוכן AI, לך על זה. אני מאמין שאתה יכול לעשות את זה." כי אם הוא עושה טעות, ההשלכות עלולות להיות חמורות מאוד.

ג'סי ג'אנג: זה בדרך כלל נקבע על ידי הלקוחות שלנו, ולמעשה אנחנו רואים מגוון רחב מאוד של הבדלים. בקיצוניות אחת, יש אנשים שבאמת גורמים לסוכן שלהם להיראות כמו בן אדם, אז יש אווטאר אנושי, שם אנושי, והתגובות מאוד טבעיות. מצד שני, הסוכן פשוט קובע שזה AI ומבהיר זאת למשתמש. אני חושב שלחברות השונות שאנו עובדים איתן יש עמדות שונות בנושא.

בדרך כלל, אם אתה עוסק בענף מוסדר, אתה צריך להבהיר זאת. מה שמעניין אותי עכשיו הוא שהתנהגות הלקוחות משתנה. מכיוון שרבים מהלקוחות שלנו מקבלים הרבה משוב במדיה החברתית, כמו, "אוי אלוהים, זו חוויית הצ'אט הראשונה שניסיתי אי פעם שבעצם מרגישה כל כך אמיתית", או "זה פשוט קסם". וזה נהדר עבורם, כי עכשיו הלקוחות שלהם לומדים, היי, אם זו חווית בינה מלאכותית, היא למעשה יכולה להיות טובה יותר מאדם. זה לא היה המקרה בעבר, כי לרובנו הייתה חווית שירות לקוחות טלפונית מהסוג הזה בעבר: "אוקיי, AI, AI, AI..."

קימברלי טאן: הזכרת את מושג ההתאמה האישית כמה פעמים. כולם משתמשים באותה ארכיטקטורה טכנולוגית בסיסית, אבל יש להם צרכי התאמה אישית שונים מבחינת שירותי תמיכה. אתה יכול לדבר על זה? באופן ספציפי, איך משיגים התאמה אישית כדי שאנשים יוכלו לומר באינטרנט, "אלוהים אדירים, זו חווית התמיכה הטובה ביותר שחוויתי אי פעם"?

ג'סי ג'אנג: עבורנו, התאמה אישית מגיעה מהתאמה אישית עבור המשתמש. עליך להבין את מידע הרקע של המשתמש, שהוא ההקשר הנוסף הנדרש. שנית, אתה גם צריך להבין את ההיגיון העסקי של הלקוחות שלנו.אם תשלב את השניים, תוכל לספק חוויה די טובה.

ברור שזה נשמע פשוט, אבל במציאות קשה מאוד להשיג את כל ההקשר הנדרש. לכן, רוב העבודה שלנו היא על איך לבנות את הרכיבים הפרימיטיביים הנכונים, כך שכאשר לקוח פורס את המערכת שלנו, הם יכולים להחליט בקלות, "אוקיי, זה ההיגיון העסקי שאנחנו רוצים." לדוגמה, תחילה עליך לבצע את ארבעת השלבים הללו, ואם שלב שלישי נכשל, עליך לעבור לשלב חמישי.

אתה רוצה להיות מסוגל ללמד את AI זה בקלות רבה, אבל גם לתת לו גישה למידע כמו, "זהו פרטי החשבון של המשתמש. אם אתה צריך מידע נוסף, אתה יכול לקרוא לממשקי ה-API האלה." השכבות הללו הן שכבת תיאום על גבי המודל, ובמובן מסוים הן הופכות את הסוכן לשמיש באמת.

קימברלי טאן: נשמע שבמקרה הזה אתה צריך הרבה גישה למערכות העסקיות. אתה צריך לדעת הרבה על המשתמשים, וכנראה שאתה צריך לדעת איך הלקוח באמת רוצה לקיים אינטראקציה עם המשתמשים שלו.אני מתאר לעצמי שהנתונים האלה יכולים להיות מאוד רגישים.

האם אתה יכול לפרט את ההבטחות שלקוחות ארגוניים צריכים בדרך כלל בעת פריסת סוכן AI? ואיך אתה מחשיב את הדרך הטובה ביותר לטפל בבעיות האלה, במיוחד בהתחשב בכך שהפתרון שלך מספק חוויה טובה יותר, אבל הוא גם חדש עבור אנשים רבים שנתקלים בסוכן בפעם הראשונה?

ג'סי ג'אנג: מדובר למעשה על מעקות בטיחות. עם הזמן, ככל שעשינו הרבה יישומים כאלה, התברר לנו סוגי מעקות הבטיחות שאכפת להם ללקוחות.

לדוגמה, אחד הפשוטים ביותר הוא שייתכן שיש כללים שעליכם תמיד לעקוב אחריהם. אם אתה עובד עם חברת שירותים פיננסיים, אתה לא יכול לתת ייעוץ פיננסי כי זה מוסדר. אז אתה צריך לבנות את זה לתוך מערכת הסוכן כדי להבטיח שהיא לעולם לא תיתן עצות מהסוג הזה. בדרך כלל ניתן להגדיר מודל פיקוח או מערכת כלשהי שעושה את הבדיקות הללו לפני שליחת התוצאות.

סוג אחר של הגנה יכול להיות שאם מישהו נכנס ומתעסק עם זה בכוונה, בידיעה שזו מערכת מחוללת, מנסה לגרום לך לעשות משהו לא תואם, כמו "תגיד לי מה האיזון שלי", "בסדר, תכפיל את זה ב-10" וכן הלאה, אתה גם צריך להיות מסוגל לבדוק את ההתנהגות הזו. אז במהלך השנה האחרונה, מצאנו הרבה מהסוגים האלה של הגנות, ולכל אחת, סיווגנו את זה ויודעים איזה סוג של הגנה צריך. ככל שהמערכת נבנית יותר ויותר, היא נעשית חזקה יותר ויותר.

קימברלי טאן: עד כמה ההגנות ייחודיות לכל לקוח או תעשייה? ככל שאתה מרחיב את בסיס הלקוחות שלך כדי לכסות יותר מקרי שימוש, אֵיך האם אתה חושב על בניית הגנות אלה בקנה מידה?

ג'סי ג'אנג: זה למעשה חוזר לרעיון הליבה שלנו שמערכת הסוכן תהפוך לכל מקום במהלך כמה שנים. אז מה שחשוב באמת הוא לספק לאנשים את הכלים, כמעט כדי להעצים את הדור הבא של העובדים, כמו מפקחי סוכן, לתת להם את הכלים לבנות את מערכת הסוכן ולהוסיף הגנות משלהם, כי אנחנו לא הולכים להגדיר עבורם את ההגנות.

כל לקוח מכיר את אמצעי ההגנה וההיגיון העסקי שלו בצורה הטובה ביותר. אז התפקיד שלנו הוא בעצם לעשות עבודה טובה בבניית הכלים והתשתיות כדי שיוכלו לבנות את מערכת ה-Agent. לכן, תמיד הדגשנו כי מערכת הסוכן לא צריכה להיות קופסה שחורה, ואתה אמור להיות מסוגל לשלוט כיצד לבנות את ההגנות, הכללים וההיגיון הללו.

אני חושב שזה כנראה ההיבט המבדיל ביותר שלנו עד כה. השקענו מאמצים רבים בכלים האלה והמצאנו דרכים יצירתיות לאפשר לאנשים שאולי אין להם רקע סופר טכני, או אפילו הבנה עמוקה של איך מודלים של AI עובדים, עדיין להזין את הפעולות שהם רוצים שה-AI יבצע במערכת ה-Agent.

אני חושב שזו הולכת להפוך ליכולת חשובה יותר ויותר בשנים הקרובות. זה צריך להיות אחד הקריטריונים החשובים ביותר כאשר אנשים מעריכים כלים דומים, מכיוון שאתה רוצה להיות מסוגל לבצע אופטימיזציה ולשפר את המערכות הללו לאורך זמן.

היגיון עסקי המונע על ידי שפה טבעית

דריק האריס: אילו הכנות יכולים לקוחות או עסקים לעשות כדי להתכונן לכל סוג של אוטומציה, ובפרט לשימוש במערכת הסוכן הזו? לדוגמה, איך הם יכולים לעצב את מערכות הנתונים, ארכיטקטורת התוכנה או ההיגיון העסקי שלהם כדי לתמוך במערכות כאלה?

כי אני מרגיש שהרבה טכנולוגיות AI היא חדשנית בהתחלה, אבל כשזה מגיע למערכות קיימות מדור קודם, היא נתקלת לעתים קרובות בהרבה כאוס.

ג'סי ג'אנג: אם מישהו בונה מאפס עכשיו, יש הרבה שיטות עבודה מומלצות שיכולות להקל על העבודה שלך. לדוגמה, כיצד לבנות את בסיס הידע שלך. כתבנו על כמה מהם, והצגנו כמה שיטות שיכולות להקל על AI להטמיע מידע ולשפר את הדיוק שלו. הצעה ספציפית אחת היא לחלק את בסיס הידע לחלקים מודולריים, במקום לקיים מאמר אחד גדול עם מספר תשובות.

בעת הגדרת ה-API, ניתן להתאים אותם יותר למערכת ה-Agent, ולהגדיר הרשאות ופלט באופן שיקל על מערכת ה-Agent להטמיע מידע ללא צורך בהרבה חישובים כדי למצוא את התשובה. אלה כמה צעדים טקטיים שאפשר לנקוט, אבל לא הייתי אומר שיש משהו שצריך לעשות כדי להשתמש במערכת הסוכן.

דריק האריס: תיעוד טוב תמיד חשוב, בעיקרו של דבר מדובר בארגון מידע יעיל.

קימברלי טאן: זה נשמע שאם אתה מנסה ללמד אנשים איך לכוון את מערכת ה-Agent לפעול בצורה המתאימה ביותר ללקוחות שלהם או למקרי שימוש ספציפיים, אז ייתכן שיידרש ניסוי רב עם עיצוב ממשק המשתמש וה-UX, או שתצטרך לפלס נתיבים חדשים בתחום החדש לחלוטין הזה, כי זה שונה מאוד מתוכנה מסורתית.

אני סקרן, איך אתה חושב על זה? איך צריך להיראות ממשק המשתמש וה-UX בעולם של סוכן ראשון? איך לדעתך זה ישתנה בשנים הקרובות?

ג'סי ג'אנג: לא הייתי אומר שפתרנו את הבעיה הזו. אני חושב שאולי מצאנו אופטימום מקומי שעובד עבור הלקוחות הנוכחיים שלנו, אבל זה עדיין תחום מחקר מתמשך, עבורנו ורבים אחרים.

סוגיית הליבה חוזרת למה שהזכרנו קודם, כלומר שיש לך מערכת Agent. ראשית, איך אתה יכול לראות בבירור מה הוא עושה ואיך הוא מקבל החלטות? לאחר מכן, כיצד תוכל להשתמש במידע זה כדי להחליט מה צריך לעדכן ואיזה משוב יש לתת ל-AI? אלה הם המקום שבו מרכיבי ממשק המשתמש מתחברים, במיוחד החלק השני.

אנחנו חושבים שעם הזמן, ה-UI וה-UX יהפכו ליותר ויותר מבוססי שפה טבעית, כי כך חושבת מערכת ה-Agent, או שזה בעצם הבסיס לאימון מודלים של שפה גדולה (LLM).

באופן קיצוני, אם יש לך סוכן סופר אינטליגנטי שבעצם חושב כמו בן אדם, אתה יכול להראות לו דברים, להסביר לו דברים, לתת לו משוב, והוא יתעדכן ב"מוח" שלו. אתה יכול לדמיין שמצטרף לצוות שלך אדם מאוד מוכשר, אתה מלמד אותו משהו, הוא מתחיל לעבוד, ואז אתה ממשיך לתת לו משוב, אתה יכול להראות לו דברים חדשים, מסמכים חדשים, דיאגרמות וכו'.

אני חושב שבמקרה הקיצוני, זה יתפתח בכיוון הזה: דברים הופכים יותר לשיחה, מבוססי שפה טבעית יותר, ואנשים מפסיקים לבנות מערכות עם עצי החלטה מורכבים כמו פעם, וללכוד את מה שאתה רוצה, אבל הגישה הזו יכולה בקלות להתקלקל. פעם היינו צריכים לעשות את זה כי לא היו LLMs אז, אבל עכשיו כשמערכות ה-Agent נעשות חזקות יותר ויותר, ממשק המשתמש וה-UX יהפכו לשיחיים יותר.

קימברלי טאן: לפני כשנה וחצי, כאשר Decagon התחילה לראשונה, הייתה תפיסה כללית ש-LLM מתאימה מאוד למקרי שימוש רבים, אבל למעשה זה היה רק סוג של "עטיפה של GPT", שבה חברות יכלו פשוט לקרוא למודל הבסיסי דרך API ולפתור באופן מיידי את בעיות התמיכה שלהן.

אבל ברור שכאשר חברות בוחרות להשתמש בפתרונות כמו Decagon במקום ללכת ישירות במסלול הזה, מסתבר שזה לא המקרה. תהיתי אם תוכל להסביר למה זה המצב. מה בדיוק הפך את האתגרים של בנייה פנימית למורכבים מהצפוי? אילו תפיסות שגויות היו להם לגבי המושג?

ג'סי ג'אנג: אין שום דבר רע בלהיות "עטיפה של GPT", אפשר לומר ש-Purcell היא עטיפה של AWS או משהו כזה. בדרך כלל, כשאנשים משתמשים במונח הזה, זה אומר משהו גנאי.

דעתי האישית היא שאם אתה בונה מערכת סוכנים, בהגדרה אתה בהחלט הולך להשתמש ב-LLM ככלי. אז אתה בעצם בונה על משהו שכבר קיים, בדיוק כפי שאתה בונה בדרך כלל על AWS או GCP.

אבל הבעיה האמיתית שאתה יכול להיתקל בה היא אם התוכנה שאתה בונה על גבי LLM אינה "כבדה" או מורכבת מספיק כדי לעשות את ההבדל.

במבט לאחור, מבחינתנו, מה שאנחנו מוכרים הוא בעצם תוכנה. אנחנו למעשה כמו חברת תוכנה רגילה, אלא שאנו משתמשים ב-LLM כחלק מהתוכנה וכאחד הכלים. אבל כשאנשים קונים סוג כזה של מוצר, הם רוצים בעיקר את התוכנה עצמה. הם רוצים כלים שיכולים לנטר את ה-AI, שיוכלו לחפור עמוק בפרטים של כל שיחה שיש ל-AI, שיכולים לתת משוב, שיכולים כל הזמן לבנות ולהתאים את המערכת.

אז זו הליבה של התוכנה שלנו. אפילו עם מערכת ה-Agent עצמה, הבעיה שיש לאנשים היא שזה מגניב לעשות הדגמה, אבל אם אתה רוצה לעשות את זה מוכן להפקה ובאמת מול לקוחות, אתה צריך לפתור הרבה בעיות ארוכות שנים, כמו מניעת תופעת ה"אשליה" והתמודדות עם שחקנים גרועים שמנסים לגרום להרס. אנחנו גם צריכים לוודא שהשהייה נמוכה מספיק, הטון מתאים וכו'.

דיברנו עם הרבה צוותים, והם עשו כמה ניסויים, בנו גרסה ראשונית, ואז הם יבינו, "אה, באמת, אנחנו לא רוצים להיות אלה שימשיכו לבנות את הפרטים האלה בשלבים מאוחרים יותר." הם גם לא רצו להיות אלה שימשיכו להוסיף היגיון חדש לצוות שירות הלקוחות. אז בשלב זה, נראה כי נכון יותר לבחור לשתף פעולה עם אחרים.

קימברלי טאן: הזכרת כמה בעיות ארוכות טווח, כמו הצורך להתמודד עם שחקנים גרועים וכו'.אני מאמין שמאזינים רבים השוקלים להשתמש ב-AI Agent מודאגים מנתיבי התקפות אבטחה חדשים שעלולים להתעורר לאחר הצגת ה-LLMs, או מסיכוני האבטחה החדשים שעלולים להתעורר לאחר הצגת מערכת ה-Agent. מה דעתך על הנושאים הללו? ומהן השיטות המומלצות להבטחת אבטחה ארגונית מהשורה הראשונה בעת התמודדות עם סוֹכֵן?

ג'סי ג'אנג: מבחינת אבטחה, יש כמה אמצעים ברורים שאפשר לנקוט, שציינתי קודם, כמו הצורך באמצעי הגנה. סוגיית הליבה היא שהחששות של אנשים בנוגע ל-LLMs הם שהם לא דטרמיניסטים.

אבל החדשות הטובות הן שבעצם אתה יכול לשים את רוב הפעולות הרגישות והמורכבות מאחורי חומה דטרמיניסטית, והחישוב מתרחש שם כשהוא קורא ל-API. אז אתה לא סומך לחלוטין על LLM כדי לטפל בזה, וזה מונע הרבה מבעיות הליבה.

אבל עדיין יש מצבים שבהם, למשל, שחקן גרוע מפריע או שמישהו מנסה לגרום למערכת להזיות. ראינו כי ברבים מהלקוחות הגדולים איתם אנו עובדים, צוותי האבטחה שלהם יכנסו ובעצם יבצעו בדיקת "צוות אדום" על המוצרים שלנו, תוך שהם מבלים שבועות ברציפות בהתקפות שונות אפשריות על המערכת כדי לנסות למצוא נקודות תורפה. ככל שסוכן AI הופך יותר ויותר פופולרי, אנו עשויים לראות את זה קורה לעתים קרובות יותר ויותר, מכיוון שזו אחת הדרכים הטובות ביותר לבדוק אם מערכת יעילה. זה לזרוק עליו משהו דרך מבחן צוות אדום ולראות אם הוא יכול לפרוץ את ההגנות.

יש גם סטארט-אפים שמפתחים כלים לצוות אדום או מאפשרים לאנשים לבצע בדיקות מסוג זה בעצמם, וזו מגמה שאנו רואים כעת. הרבה מהחברות שאנו עובדים איתן, בשלב מאוחר יותר במחזור המכירות, יערכו את צוות האבטחה שלהן, או יעבדו עם צוות חיצוני, יבחנו את המערכת. עבורנו, היכולת לעבור מבחנים מסוג זה היא חובה. אז, בסופו של דבר, זה מה שזה מסתכם.

דריק האריס: האם זה משהו שאתה מעודד את הלקוחות שלך לעשות? כי כשאנחנו מדברים על מדיניות AI, אנחנו מזכירים היבט חשוב, שהוא שכבת היישום, ואנחנו שמים דגש על הצבת את אחריות על המשתמשים של LLM והאנשים שמפעילים את האפליקציה, במקום פשוט להאשים את המודל עצמו. כלומר, לקוחות צריכים לערוך בדיקות צוות אדום, לזהות מקרי שימוש ספציפיים ונתיב תקיפה ולקבוע אילו פרצות יש להגן, במקום פשוט להסתמך על הגנת האבטחה שכבר הוגדרה על ידי OpenAI או חברות אחרות.

ג'סי ג'אנג: אני מסכים לגמרי. אני גם חושב שייתכן שצץ גל חדש של דרישות הודעה, בדומה לאישור SOC 2 והסמכת HIPAA שכולם עושים כעת, הנדרשים בתעשיות שונות. בדרך כלל, כאשר אתה מוכר מוצר SaaS גנרי, הלקוחות ידרשו בדיקות חדירה, ועלינו גם לספק את דוח בדיקות החדירה שלנו. עבור סוכן AI, ייתכן שיהיו דרישות דומות בעתיד, ומישהו יכול לתת לזה שם, אבל זו בעצם דרך חדשה לבדוק אם מערכת הסוכן חזקה מספיק.

קימברלי טאן: דבר אחד שמעניין הוא שברור שכולם מאוד מתרגשים מפריצות הדרך החדשות של הדגמים ופריצות הדרך הטכנולוגיות שמציגות כל המעבדות הגדולות. כחברת בינה מלאכותית, אתה כמובן לא עושה מחקר משלך, אבל אתה ממנף את המחקר הזה ובונה סביבו הרבה תוכנה כדי לספק ללקוח הסופי.

אבל העבודה שלך מבוססת על טכנולוגיה המשתנה במהירות. אני סקרן, כחברת בינה מלאכותית יישומית, איך אתה מתעדכן בשינויים טכנולוגיים חדשים ומבינים כיצד הם משפיעים על החברה תוך כדי יכולת לחזות את מפת הדרכים של המוצר שלך ולבנות את צרכי המשתמש? באופן רחב יותר, אילו אסטרטגיות מיושם על חברות בינה מלאכותית לאמץ במצבים דומים?

ג'סי ג'אנג: למעשה ניתן לחלק את כל הערימה לחלקים שונים. לדוגמה, LLM נמצא בתחתית אם אתה מסתכל על שכבת היישום. אולי יש לך כמה כלים באמצע שעוזרים לך לנהל LLM או לעשות הערכה ודברים כאלה. ואז, החלק העליון הוא בעצם מה שבנינו, שהוא למעשה כמו SaaS סטנדרטי.

אז, רוב העבודה שלנו למעשה לא כל כך שונה מתוכנה רגילה, אלא שיש לנו מרכיב מחקר נוסף - LLM משתנה מהר מדי. אנחנו צריכים לחקור מה הם יכולים לעשות, במה הם טובים, ובאיזה מודל יש להשתמש כדי לבצע משימה מסוימת. זו בעיה גדולה מכיוון שגם OpenAI וגם Anthropic משיקות טכנולוגיות חדשות, וגם Gemini משתפרת בהדרגה.

לָכֵן, אתה צריך להיות בעל מנגנון הערכה משלך כדי להבין איזה דגם מתאים לשימוש באיזה מצב. לפעמים צריך גם לכוון, אבל השאלה היא: מתי לכוון? מתי כדאי לבצע כוונון עדין? אלו כנראה נושאי המחקר העיקריים הקשורים ללימודי LLM שבהם אנו מתמקדים. אבל לפחות עד כה, אנחנו לא מרגישים ש-SaaS משתנה במהירות, כי אנחנו לא תלויים בשכבה האמצעית. אז בעצם, אלו ה-LLMs שמשתנים. הם לא משתנים לעתים קרובות, וכשהם משתנים, זה בדרך כלל שדרוג. לדוגמה, הסונטה של קלוד 3.5 עודכנה לפני מספר חודשים, ובאותה תקופה חשבנו, "אוקיי, האם עלינו לעבור לדגם החדש במקום להמשיך להשתמש בישן?"

אנחנו רק צריכים להריץ סדרה של הערכות, וברגע שעברנו למודל החדש, אנחנו לא חושבים על זה יותר כי אתם כבר משתמשים במודל החדש. ואז, יצאה גרסת o1, והמצב היה דומה. תחשוב היכן ניתן להשתמש בו. במקרה שלנו, o1 מעט איטי עבור רוב מקרי השימוש מול לקוחות, כך שנוכל להשתמש בו לעבודת רקע. בסופו של דבר, אנחנו רק צריכים שתהיה לנו מערכת טובה למחקר מודלים.

קימברלי טאן: באיזו תדירות אתה מעריך דגם חדש ומחליט אם להחליף אותו?

ג'סי ג'אנג: אנו מעריכים כל פעם שדגם חדש יוצא. עליכם לוודא שלמרות שהדגם החדש חכם יותר, הוא לא שובר חלק ממקרי השימוש שכבר בניתם. זה יכול לקרות. לדוגמה, הדגם החדש עשוי להיות חכם יותר בסך הכל, אך במקרים קיצוניים מסוימים הוא מתפקד בצורה גרועה בבחירת A/B באחד מתזרימי העבודה שלך. בשביל זה אנחנו מעריכים.

אני חושב שבסך הכל, סוג האינטליגנציה שהכי אכפת לנו ממנו הוא מה שהייתי מכנה "הוראה בעקבות יכולת". אנחנו רוצים שהמודל יהיה טוב יותר ויותר בביצוע ההוראות. אם זה המצב, אז זה בהחלט מועיל לנו, וזה טוב מאוד.

נראה שהמחקרים האחרונים התמקדו יותר בסוג האינטליגנציה הכרוכה בהיגיון, כמו תכנות טוב יותר ופעולות מתמטיות טובות יותר. זה גם עוזר לנו, אבל זה לא חשוב כמו שיפור יכולת ההוראה הבאה.

קימברלי טאן: נקודה מאוד מעניינת שהזכרת, ולדעתי היא גם מאוד ייחודית ל-Decagon, היא שבנית הרבה תשתית הערכה פנימית כדי לוודא שאתה יודע בדיוק איך כל דגם מתפקד תחת סט הבדיקות שאתה מספק.

אתה יכול לפרט על זה? עד כמה חשובה תשתית הערכה פנימית זו, ובאופן ספציפי איך היא מעניקה לך וללקוחות שלך אמון בביצועים של הסוכן? מכיוון שחלק מההערכות הללו הן גם מול לקוחות.

ג'סי ג'אנג: אני חושב שזה מאוד חשוב, מכיוון שללא תשתית ההערכה הזו, יהיה לנו קשה מאוד לחזור על הפעולה במהירות.

אם אתה מרגיש שלכל שינוי יש סבירות גבוהה לשבור משהו, אז לא תבצע שינויים במהירות. אבל אם יש לך מנגנון הערכה, אז כשיש שינוי גדול, עדכון מודל או משהו חדש מגיע, אתה יכול להשוות אותו ישירות עם כל מבחני ההערכה. אם תוצאות ההערכה טובות, אתה יכול להרגיש: בסדר, עשינו שיפור, או שאתה יכול לשחרר את זה בביטחון מבלי לדאוג יותר מדי.

אז, בתחום שלנו, הערכה דורשת קלט מהלקוח, כי הלקוח הוא זה שמחליט אם משהו נכון או לא. כמובן, אנחנו יכולים לבדוק כמה בעיות ברמה גבוהה, אבל בדרך כלל הלקוח מספק מקרי שימוש ספציפיים ואומר לנו מה התשובה הנכונה, או מה היא חייבת להיות, איזה טון עליו לשמור, מה עליו לומר.

ההערכה מבוססת על כך. אז עלינו לוודא שמערכת ההערכה שלנו חזקה מספיק. בהתחלה בנינו את זה בעצמנו, וזה לא כל כך קשה לתחזק אותו. אנחנו גם יודעים שיש כמה חברות הערכה, ובדקנו כמה מהן. אולי בשלב מסוים, נשקול אם לאמץ אותם, אבל לעת עתה, מערכת ההערכה כבר לא מהווה נקודת כאב עבורנו.

קימברלי טאן: נושא מאוד פופולרי היום הוא מולטי-מודאליות, כלומר סוכני AI צריכים להיות מסוגלים לקיים אינטראקציה בכל הצורות שבני אדם משתמשים בהן כיום, בין אם זה טקסט, וידאו, קול וכו'. אני יודע ש-Decagon התחיל את דרכו כמבוסס טקסט. מנקודת המבט שלך, כמה חשוב הוא מולטי-מודאליות לסוכני AI? מה לדעתך מסגרת הזמן כדי שזה יהפוך למיינסטרים או אפילו לסטנדרט?

ג'סי ג'אנג: זה חשוב, ומנקודת מבט של החברה, זה לא קשה במיוחד להוסיף אופנה חדשה. זה לא פשוט, אבל הליבה היא: אם אתה פותר בעיות אחרות, כמו אלה שציינתי – למשל, בניית ה-AI, ניטור שלו וההיגיון הנכון – אז הוספת מודאליות חדשה היא לא הדבר הכי קשה לעשות. אז מבחינתנו, יש את כל השיטות הגיוני מאוד, וזה מרחיב את השוק שלנו. אנחנו בעצם אגנוסטים של מודאליות, ואנחנו בונים סוכן משלנו לכל צורה.

באופן כללי, ישנם שני גורמים מגבילים: ראשית, האם הלקוח מוכן לאמץ את השיטה החדשה? אני חושב שזה הגיוני מאוד להתחיל עם טקסט, כי זו הדרך שבה אנשים מאמצים בצורה הכי פעילה, וזה פחות מסוכן עבורם, קל יותר למעקב וקל יותר להבנה. האופציה הגדולה השנייה היא קול. ברור, אני חושב שעדיין יש מקום בשוק, וקבלת הקול של המשתמשים עדיין צריכה להשתפר. כרגע, אנחנו רואים כמה מאמצים מוקדמים שהחלו לאמץ סוכני קול, וזה מאוד מרגש. ההיבט השני הוא האתגרים הטכניים. רוב האנשים יסכימו שהרף מוגדר גבוה יותר לקול. אם אתה מדבר עם מישהו בטלפון, אתה צריך זמן אחזור קול קצר מאוד. אם אתה מפריע למישהו, הוא צריך להגיב באופן טבעי.

מכיוון שזמן הדיבור נמוך יותר, אתה צריך להיות חכם יותר בדרך החישוב. אם אתה בצ'אט וזמן התגובה הוא חמש עד שמונה שניות, אתה כמעט לא שם לב לזה וזה מרגיש מאוד טבעי. אבל אם זה לוקח חמש עד שמונה שניות להגיב בטלפון, זה מרגיש קצת לא טבעי. אז יש אתגרים טכניים יותר עם דיבור. ככל שהאתגרים הטכניים הללו ייפתרו והעניין באימוץ הדיבור יגדל בשוק, הדיבור כאופן חדש יהפוך למיינסטרים.

מודל עסקי שמדלג מעל אמון

קימברלי טאן: לפני שנמשיך, אני רוצה לדבר קצת יותר על המודל העסקי של סוכן AI. כשאתה לראשונה בנוי סוכן בינה מלאכותית או שוחח עם לקוחות על המערכת שבה הם משתמשים, הנתונים שהם מעבדים והחששות שלהם, האם היה משהו שהפתיע אותך? מה הם חלק מהדברים הלא אינטואיטיביים או המפתיעים שדקגון היה צריך לעשות כדי לשרת טוב יותר לקוחות ארגוניים?

ג'סי ג'אנג: אני חושב שהדבר הכי מפתיע היה המידה שבה אנשים היו מוכנים לדבר איתנו כשהתחלנו. אחרי הכל, היינו רק שניים. שנינו הקמנו חברות בעבר, אז הכרנו הרבה אנשים, אבל למרות זאת, עבור כל יזם, כשאתה רוצה להתחיל שיחת הפניה, אם מה שאתה אומר לא משכנע במיוחד, השיחה היא בדרך כלל די פושרת.

אבל כשהתחלנו לדבר על מקרה השימוש הזה, דווקא מצאתי שזה די מפתיע עד כמה אנשים התרגשו לדבר על זה. כי הרעיון נראה כל כך ברור. אולי תחשוב שמכיוון שזה רעיון כל כך ברור, מישהו אחר בטח כבר עשה את זה, או שבטח כבר יש פתרון, או שמישהו אחר כבר מצא פתרון כלשהו. אבל אני חושב שתפסנו רגע טוב, מקרה השימוש הזה הוא ממש גדול ולאנשים באמת אכפת ממנו. כפי שציינתי קודם, מקרה השימוש הזה באמת מתאים ללקחת סוכן AI ולדחוף אותו לייצור, מכיוון שאתה יכול ליישם אותו בהדרגה ולהיות מסוגל לעקוב אחר החזר ה-ROI.

זו הייתה הפתעה נעימה עבורי, אבל ברור שיש הרבה עבודה לעשות אחרי זה, צריך לעבוד עם לקוחות, צריך לבנות את המוצר, צריך להבין באיזו דרך ללכת. בשלב הראשוני, זה היה באמת תגלית מפתיעה.

דריק האריס: קימברלי, אני מרגיש שאני צריך להזכיר את הפוסט הזה בבלוג שכתבת, RIP ל-RPA, שנוגע בהרבה את משימות אוטומציה וסטארטאפים.האם אתה חושב שיש תופעה שבה המשימות האוטומטיות האלה, או הפתרונות, לא כל כך אידיאליים, אז אנשים תמיד מחפשים דרך טובה יותר?

קימברלי טאן: כן, אני חושב שכן. אני רוצה לומר כמה דברים. ראשית, אם רעיון ברור לכולם, אבל אין חברה ברורה שתפתור אותו, או שאף אחד לא מצביע על חברה ואומר "אתה צריך להשתמש בזה", אז זה אומר שהבעיה לא נפתרה בפועל.

במובן מסוים, זוהי הזדמנות פתוחה לחלוטין עבור חברה לפתח פתרון. כי כפי שאמרת, אנחנו עוקבים אחרי דקאגון כמשקיע מההתחלה. צפינו בהם מנווטים במבוך היצירתי, וכשהם החליטו ללכת בכיוון הזה והתחילו לדבר עם לקוחות, התברר שכל הלקוחות נואשים לאיזשהו פתרון מקורי בינה מלאכותית. זו אחת הבעיות שהזכרתי קודם, שבה אנשים רבים חושבים שזו רק עטיפה של GPT. אבל ההתעניינות של הלקוחות שקיבלה דקאגון מההתחלה גרמה לנו להבין בשלב מוקדם שרבים מהנושאים האלה הם הרבה יותר מסובכים ממה שאנשים מצפים.

אני חושב שהתופעה הזו מתרחשת בכל תעשיות, בין אם זה שירות לקוחות או אוטומציה מקצועית בתחומים מסוימים. אני חושב שאחת הנקודות לא מוערכות היא, כפי שג'סי הזכיר קודם לכן, היכולת למדוד בבירור את ההחזר על ההשקעה (ROI) של אוטומציה של משימות. מכיוון שאם אתה מתכוון לגרום למישהו לקבל סוכן AI, הוא למעשה לוקח מידה של "קפיצת אמונה" כי זה טריטוריה מאוד לא מוכרת עבור הרבה אנשים.

אם אתה יכול לבצע אוטומציה של תהליך מאוד ספציפי שהוא תהליך ברור שיוצר הכנסות, או תהליך שהיווה בעבר צוואר בקבוק בעסק, או מרכז עלויות גדול שגדל באופן ליניארי עם צמיחת הלקוחות או גידול ההכנסות, אז יהיה קל יותר לקבל קבלה לסוכן AI. היכולת להפוך בעיות כאלה לתהליך פרודוקטיבי יותר שניתן להגדיל כמו תוכנה מסורתית היא מאוד אטרקטיבית.

קימברלי טאן: יש לי שאלה אחרונה לפני שנמשיך הלאה. אני זוכר שג'סי, בדיונים הקודמים שלנו, תמיד אמר שהאתגר הגדול ביותר עבור חברות המאמצות תוכנה או סוכני בינה מלאכותית יהיו הזיות. אבל פעם אמרת לי שזו בעצם לא הבעיה העיקרית. האם אתה יכול לפרט מדוע התפיסה של הזיות מעט מטעה וממה אנשים בעצם מודאגים יותר?

ג'סי ג'אנג: אני חושב שלאנשים כן אכפת מהזיות, אבל הם מודאגים יותר מהערך שהם יכולים לספק. כמעט כל החברות שאנו עובדים איתן מתמקדות באותם נושאים מעטים, כמעט בדיוק אותו הדבר: כמה אחוז מהשיחות אתה יכול לפתור? עד כמה הלקוחות שלי מרוצים? ואז סוגיית ההזיה עשויה להיות מסווגת כקטגוריה שלישית, כלומר עד כמה היא מדויקת. באופן כללי, שני הגורמים הראשונים חשובים יותר בעת הערכה.

נניח שאתה מדבר עם עסק חדש ועשית עבודה ממש טובה בשני הגורמים הראשונים, וקיבלת תמיכה רבה מההנהגה ומכולם בצוות. הם כמו, "אוי אלוהים, חווית הלקוח שלנו שונה. לכל לקוח יש כעת עוזר אישי משלו שיכול לפנות אלינו בכל עת. נתנו להם תשובות מצוינות, הם מאוד מרוצים, וזה רב לשוני וזמין 24/7”. זה רק חלק מהעניין, וגם חסכתם הרבה כסף.

אז ברגע שאתה משיג את המטרות האלה, אתה מקבל הרבה תמיכה והרבה רוח גב כדי להניע את העבודה. כמובן שבסופו של דבר צריך לפתור את סוגיית האשליה, אבל זה לא הדבר שהם הכי מודאגים ממנו. הדרך לפתור את האשליה היא אותה דרך שציינתי קודם - אנשים יבחנו אותך. יכול להיות שיש שלב של הוכחת מושג שבו אתה בעצם מנהל שיחות אמיתיות ויש להם חברי צוות שעוקבים אחר ובודקים את הדיוק. אם זה הולך טוב, אז זה בדרך כלל עובר.

כמו כן, כפי שציינתי קודם, אתה יכול להגדיר כמה אמצעי הגנה קפדניים למידע רגיש, כמו שאתה לא בהכרח צריך להפוך תוכן רגיש לגנרי. אז סוגיית האשליה היא נקודה לדיון ברוב העסקאות. זה לא נושא חסר חשיבות. אתה תעבור את התהליך הזה, אבל הוא אף פעם לא במוקד השיחה.

קימברלי טאן: עכשיו בואו נעבור למודל העסקי של סוכן AI. כיום, ישנו נושא גדול על איך לתמחר את סוכני הבינה המלאכותית האלה.

מבחינה היסטורית, תוכנות SaaS רבות מתומחרות לפי מספר המושבים מכיוון שהן תוכנות זרימת עבודה המכוונות לעובדים בודדים ומשמשות לשיפור פרודוקטיביות העובדים. עם זאת, סוכן AI אינו מקושר לפרודוקטיביות של עובדים בודדים כמו תוכנה מסורתית.

כל כך הרבה אנשים חושבים ששיטת התמחור המבוססת על מספר המושבים אולי כבר לא ישימה. אני סקרן לגבי אֵיך חשבת על הדילמה הזו בימים הראשונים ואיך החלטת לבסוף לתמחר את Decagon. כמו כן, מה לדעתך תהיה המגמה העתידית של תמחור תוכנה כאשר סוכן AI יהפוך נפוץ יותר ויותר?

ג'סי ג'אנג: השקפתנו בנושא זה היא שבעבר, התוכנה תומחרה למושב כי קנה המידה שלה התבסס בערך על מספר האנשים שיכולים להשתמש בתוכנה. אבל עבור רוב סוכני ה-AI, הערך שאתה מספק אינו תלוי במספר האנשים ששומרים עליו, אלא בכמות העבודה המופקת. זה תואם את הנקודה שהזכרתי קודם: אם ההחזר על ההשקעה (ROI) הוא מאוד מדיד, אז גם רמת תפוקת העבודה ברורה מאוד.

השקפתנו היא שהתמחור לפי מספר המושבים בהחלט לא חל. ניתן לתמחר לפי תפוקת העבודה. לכן, מודל התמחור שאתה מציע צריך להיות שככל שנעשה יותר עבודה, אתה משלם יותר.

עבורנו, יש שתי דרכים ברורות לתמחר. אתה יכול לתמחר שיחות, או שאתה יכול לתמחר את השיחות שה-AI פותר בפועל. אני חושב שאחד הלקחים המעניינים שלמדנו הוא שרוב האנשים בחרו במודל תמחור השיחה. הסיבה היא שהיתרון העיקרי של תמחור לפי פתרון הוא שאתה משלם על מה את AI עושה זאת.

אבל השאלה הבאה היא, מה נחשב "פתרון"? קודם כל, אף אחד לא רוצה להיכנס לזה לעומק, כי זה הופך להיות, "אם מישהו נכנס כועס ואתה שולח אותו, למה שנשלם על זה?"

זה יוצר מצב מביך וגם הופך את התמריצים לספקי בינה מלאכותית קצת מוזרים, כי חיוב לפי פתרון פירושו, "אנחנו רק צריכים לפתור כמה שיותר שיחות ולדחוף כמה אנשים משם." אבל ישנם מקרים רבים שבהם עדיף להסלים את הנושא במקום פשוט להרחיק אותו, ולקוחות לא אוהבים טיפול מסוג זה. לכן, חיוב באמצעות שיחה יביא ליותר פשטות וניבוי.

קימברלי טאן: כמה זמן לדעתך יחזיק מעמד מודל התמחור העתידי?מכיוון שכרגע כשאתה מזכיר את החזר ה-ROI, זה בדרך כלל מבוסס על הוצאה קודמת שאולי שימשה לכיסוי עלויות העבודה. ככל שסוכני בינה מלאכותית הופכים נפוצים יותר, האם אתה חושב שבטווח הארוך, בינה מלאכותית תושווה לעלויות העבודה ושזהו אמת מידה מתאימה? אם לא, איך אתה רואה תמחור לטווח ארוך מעבר לעלות העבודה?

ג'סי ג'אנג: אני חושב שבטווח הארוך, תמחור סוכן בינה מלאכותית עדיין עשוי להיות קשור בעיקר לעלויות העבודה, כי זה היופי של הסוכן - כעת ניתן להעביר את ההוצאה הקודמת שלך על שירותים לתוכנה.

חלק זה של ההוצאה יכול להיות פי 10 עד 100 מההוצאות על תוכנה, כך שהרבה מהעלות תעבור לתוכנה. לכן, עלויות העבודה יהפכו באופן טבעי למבחן. עבור הלקוחות שלנו, ה-ROI ברור מאוד. אם אתה יכול לחסוך X מיליון בעלויות עבודה, אז הגיוני לאמץ את הפתרון הזה. אבל בטווח הארוך, זה עשוי להיות באמצע.

כי אפילו מוצרים מסוימים שאינם טובים כמו הסוכן שלנו יקבלו תמחור נמוך יותר. זה כמו המצב הקלאסי של SaaS, שבו כולם מתחרים על נתח שוק.

קימברלי טאן: מה לדעתך צופן העתיד לחברות ה-SaaS הנוכחיות, במיוחד אלה שייתכן שהמוצרים שלהן לא נבנו עבור AI באופן מקורי או שמתומחרים לפי מושב ולכן לא יכולים להסתגל למודל תמחור מכוון תוצאה?

ג'סי ג'אנג: עבור כמה חברות מסורתיות, זה באמת קצת מסובך אם הם מנסים להשיק מוצר AI Agent כי הם לא יכולים לתמחר אותו באמצעות דגם מושב. אם כבר לא צריך כמה שיותר סוכנים, קשה לשמור על הכנסות עם המוצר הקיים. זו בעיה עבור חברות מסורתיות, אבל קשה לומר. לחברות מסורתיות תמיד יש את היתרון של ערוצי הפצה. גם אם המוצר לא טוב כמו החברה החדשה, אנשים לא ששים להשקיע את המאמץ כדי לקבל ספק חדש עם 80% בלבד באיכות.

אז ראשית, אם אתה סטארטאפ כמונו, עליך לוודא שהמוצר שלך טוב פי שלושה מהמוצר המסורתי. שנית, מדובר בתחרות אופיינית בין חברות מסורתיות וסטארטאפים. לחברות מסורתיות יש מטבע הדברים סובלנות סיכון נמוכה יותר מכיוון שיש להן מספר רב של לקוחות. אם הם עושים טעות באיטרציה מהירה, זה יגרום להפסדים אדירים. עם זאת, סטארט-אפים יכולים לחזור מהר יותר, כך שתהליך האיטרציה עצמו יכול להוביל למוצר טוב יותר. זה המחזור הרגיל. עבורנו, תמיד היינו גאים במהירות האספקה שלנו, באיכות המוצר ובביצוע הצוות שלנו. זו הסיבה שזכינו בעסקה הנוכחית.

קימברלי טאן: האם תוכל לחזות כמה תחזיות לגבי עתיד הבינה המלאכותית במקום העבודה? לדוגמה, כיצד זה ישנה את צרכי העובדים או היכולות, או כיצד עובדים אנושיים וסוכני AI מתקשרים?אילו שיטות עבודה מומלצות או נורמות חדשות, לדעתך, יהפכו לנורמה במקום העבודה ככל שסוכני בינה מלאכותית יהפכו לנפוצים יותר?

ג'סי ג'אנג: השינוי הראשון והחשוב ביותר הוא שאנו משוכנעים שבעתיד, העובדים יבלו הרבה יותר זמן במקום העבודה בבניית וניהול סוכני בינה מלאכותית, בדומה לתפקידם של מפקחי בינה מלאכותית. גם אם תפקידך אינו "מפקח בינה מלאכותית" באופן רשמי, הרבה מהזמן שהקדשת לביצוע עבודתך יועבר לניהול הסוכנים הללו, מכיוון שסוכנים יכולים לתת לך מינוף רב.

ראינו זאת בפריסות רבות שבהן אנשים שהיו פעם ראשי צוות מבלים כעת זמן רב בניטור AI, למשל, כדי לוודא שאין לו בעיות או לבצע התאמות. הם עוקבים אחר הביצועים הכוללים כדי לראות אם יש תחומים ספציפיים שדורשים תשומת לב, אם יש פערים בבסיס הידע שיכולים לעזור ל-AI להשתפר, והאם ה-AI יכול למלא את הפערים האלה.

העבודה הנלווית לעבודה עם סוכן נותנת את הרושם שבעתיד, העובדים ישקיעו פרק זמן משמעותי באינטראקציה עם סוכני בינה מלאכותית. זהו תפיסת ליבה של החברה שלנו, כפי שציינתי קודם. לכן, כל המוצר שלנו בנוי סביב מתן כלים לאנשים, הדמיה, פרשנות ושליטה. אני חושב שתוך שנה, זה יהפוך לטרנד ענק.

קימברלי טאן: זה הגיוני מאוד. אילו יכולות לדעתך יצטרכו מפקחי בינה מלאכותית בעתיד? מהי הכישורים לתפקיד זה?

ג'סי ג'אנג: יש שני היבטים. האחת היא יכולת צפייה ופרשנות, היכולת להבין במהירות מה ה-AI עושה וכיצד הוא מקבל החלטות. השני הוא יכולת קבלת ההחלטות, או חלק הבנייה, איך לתת משוב ואיך לבנות היגיון חדש. אני חושב ששני אלה הם שני צדדים של אותו מטבע.

קימברלי טאן: אילו משימות לדעתך יישארו מעבר ליכולותיו של סוכן הבינה המלאכותית בטווח הבינוני או הארוך ועדיין יצטרכו לנהל ולבצע בצורה נכונה על ידי בני אדם?

ג'סי ג'אנג: אני חושב שזה יהיה תלוי בעיקר בדרישה ל"שלמות" שהזכרתי קודם. יש הרבה משימות שיש להן סובלנות נמוכה מאוד לטעויות. במקרים אלה, כל כלי AI הוא יותר כלי עזר מאשר סוכן מן המניין.

לדוגמה, בכמה תעשיות רגישות יותר, כמו שירותי בריאות או אבטחה, שבהם אתה צריך להיות כמעט מושלם, אז באזורים אלה, סוכני AI עשויים להיות פחות אוטונומיים, אבל זה לא אומר שהם חסרי תועלת. אני חושב שהסגנון יהיה שונה, בפלטפורמה כמו שלנו, אתה למעשה פורס את הסוכנים האלה כדי לתת להם להפוך את העבודה כולה לאוטומטית.

דריק האריס: וזה הכל לפרק הזה. אם מצאתם נושא זה מעניין או מעורר השראה, אנא דרג את הפודקאסט שלנו ושתף אותו עם אנשים נוספים.אנו מצפים לשחרר את הפרק האחרון לפני סוף השנה ונבצע עיבוד מחדש של התוכן לקראת השנה החדשה. תודה על ההקשבה ושיהיה לך עונת חגים נהדרת (אם אתה מקשיב במהלך החגים).

סרטון מקורי: האם סוכני אל יכולים סוף סוף לתקן את תמיכת הלקוחות?

פוסטים דומים

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *