“做AI產品經理太難了?!苯谀X極體的同事參加了一場開發(fā)者大會,一位產品經理向我們坦言:“AI時代,做產品的方法論沒變,但以往熟悉的東西幾乎都被清零了。”
用戶需求被清零了,大模型到底能用來做什么,用戶自己是不清楚的,需求是空白的,需求調研、產品定義,就要花費好幾個月的時間。
好不容易定義好了,基礎模型的一個更新,就有可能將前期所做的工作、功能規(guī)劃等推倒重來。
“比如GPT-4o出現(xiàn)之后,語音對話的能力是我們完全意想不到的,就又得把產品開發(fā)過程再來一遍……”
而縱觀一年多來推陳出新的數百個大模型,GPT-4o可以說是產品化程度非常高的一個了。
比如OpenAI發(fā)布會上展示的“AI視頻通話”,使用戶與AI進行實時的、跟真人對話一樣自然的視頻交流。國內模型廠商也很快推出了類似的AI視頻通話功能,不少媒體和用戶都表示“體驗炸裂”。
但半年時間過去,發(fā)現(xiàn)在最初的震驚與新鮮感過后,在真正的軟件生態(tài)里,還是沒有看到“AI視頻通話”被大規(guī)模、高頻率地用起來,更別提激活用戶的付費欲望了。為什么會這樣?
我們就從“AI視頻通話”說開去,聊聊AI產品化、商業(yè)化到底要經過哪些磨礪。
鉆石原礦被開采出來,其實并不璀璨奪目,是經由工匠們的切割打磨,被鑲嵌成鉆石首飾,包裝為“愛情象征”,才走進大眾消費市場,價值實現(xiàn)了百倍千倍攀升。
類GPT-4o大模型就類似于原礦,作為“交互天花板”,潛在商業(yè)價值很大,但必須經過產品化的精細打磨與包裝,才能被大眾用戶廣泛接受,實現(xiàn)其真正的價值和應用潛力。
而基于類GPT-4o所誕生的“AI視頻通話”,雖然向產品化邁進了一步,但依然屬于原型的基礎能力。
盡管OpenAI、智譜等模廠已經針對“AI視頻通話”這一應用,打磨了諸如響應速度、具體用例等產品側的細節(jié),并融入到ChatGPT、智譜清言APP等產品當中。但作為一種軟件應用來說,這種與通用場景相結合的落地模式,還是比較粗陋。
首先,需求過于寬泛。
AI視頻通話,技術上相當于讓AI擁有“眼睛”和“嘴”,具備察言觀色、跟真人對話的能力。這很容易就讓人想到AI陪伴,人與AI談天說地、談情說愛。
直接將AI視頻通話能力嫁接在聊天機器人上,本質依然是AI聊天,能力升級,但無法解決chatbot商業(yè)價值低的核心問題。
AI視頻聊天,用戶容錯率高,不在乎AI偶爾犯錯或出現(xiàn)幻覺,這也意味著對基礎模型能力要求不嚴苛,無法在技術層面拉開差距。曾經的智能音箱大戰(zhàn)、智能助手紅海,也會在AI視頻聊天領域出現(xiàn),并且由于聊天并不能幫助用戶完成具體任務或解決問題,用戶還得自己琢磨在視頻里跟AI聊什么,沒一會兒就只能跟AI面面相覷,難以帶來確定性的產品滿足和持久粘性,新鮮感過后就會流失。
而一些直接用途,想要普遍應用,也有大量細節(jié)仍待填充。
比如基于AI視頻通話的無障礙功能,是一個非常直接的落地場景。AI視頻通話,可以將設備攝像頭作為“眼睛”,幫助人去理解物理世界,這對視障人群豈不是很友好?
但實際上,大模型APP的視頻通話功能,是無法直接被視障人群用起來的,還有大量的產品細節(jié)需要考慮。比如我們曾體驗過實時圖像識別,AI只能認出“面前有兩張卡”,但哪張是公交卡,哪張是銀行卡,是無法準確識別的,這就需要基于視障群體出行接觸的高頻物體,進行針對性地精調。
而且,在飛機、高鐵、地鐵等弱網、無網環(huán)境下,也要保證視障人群與AI視頻通話的實時性,就需要純端側運行的多模態(tài)大模型,將模型做小、計算效率做高。
產品設計層面,還有大量的細節(jié),還等待著填充,才能轉化為用戶可以方便使用的產品和服務。
可以看到,沒有更細致的產品化,盡管“AI視頻通話”這一基礎能力很厲害,卻不知道能用來干什么,很可能導致技術找不到市場,倒在了產品化變現(xiàn)的黎明到來之前。
這個“至暗時刻”會發(fā)生嗎?
欣慰的是,我們發(fā)現(xiàn) “AI視頻通話”能力,已經開始向行業(yè)輸送了,意味著這座AI基礎能力的“原礦”,終于開始被打磨成晶光四射的鉆石。
我們就從“原礦”流向的應用領域,來分享幾個“AI視頻通話”的產品化方向。
大模型怎么落地?智能體是方向。
智能體怎么服務?+AI視頻通話事半功倍。
如今,手機軟件承載著我們日常的絕大多數服務,在各個應用中來回跳轉、操作是非常繁瑣的。
今年以來,榮耀、vivo等廠商都在基于智能體打造一系列創(chuàng)新功能體驗,比如“一句話點奶茶”“一句話訂餐廳”等。用戶只需要向手機助手發(fā)出指令,手機智能體會自動理解需求、拆解任務步驟、調取相關功能,一站到底地完成任務。
Agent手機就很好地解決了數字服務鏈路長、操作繁瑣的問題,但新的問題又來了,那就是智能體還需要“看得懂”“能交流”。
舉個例子,在外賣小程序下單時,遇到廣告是常態(tài),這時候需要智能體agent執(zhí)行準確的操作,比如“點擊關閉”“跳過”等,來推進到下一步。如果智能體無法識別相關內容,必須用戶自己動手操作,那整個鏈路就被打斷了,用戶體驗會非常不好。有跟智能助手通過文字prompt交流的功夫,用戶自己就能點開程序完成下單了。
Agent手機+視頻通話,就能用戶體驗更進一步。
比起打字的繁瑣、語音尷尬癥,在人機對話時,像跟真人面對面交流一樣,通過語音對話完成下單,更符合直覺,也更有被服務的舒適感。對話之后,大模型對視頻畫面進行實時分析,指導智能體來自動執(zhí)行,整個體驗會從頭到尾絲滑無感。
目前,國內終端廠商在端側智能體方面走得是更快的。腦極體在VDC 2024大會上了解到,藍河操作系統(tǒng)增添了視覺感知能力,讓系統(tǒng)像人類一樣“聽得懂”“看得清”。智能體能夠模擬人類的智能,助力操作系統(tǒng)像人一樣進行溝通、執(zhí)行智能任務。
如果說,智能體可以讓人成為數字服務的最小參與者,那么在智能體手機中打磨的AI視頻通話,則讓人機交互朝著更理想、更符合直覺的體驗靠近,讓數字生活管家走進現(xiàn)實。
將AI視頻通話功能集成到垂直應用軟件中,可以變成擬人化的垂域專家,提供更專業(yè)的服務,解決更具體的問題,從而激活用戶的付費意愿和模型API經濟。
目前,OpenAI為GPT-4o預設了十幾個場景,清言視頻通話API上線智譜開放平臺時,也列出了智能硬件(VR眼鏡)、教育培訓AI私教、文旅場景AI向導、具身智能等落地方向。通過將AI視頻通話API開放出來,鼓勵開發(fā)者在產品中集成“AI視頻通話”功能。
9月24日,多鄰國(Duolingo)在第六屆全球分享大會上,推出了 AI 視頻通話(Video Call)。Duolingo Max 用戶可以與多鄰國的角色 Lily(拽姐)進行視頻通話,進行個性化的互動練習。在對話中,AI會根據用戶的語言水平靈活調整內容。
學習語言最難的就是高頻使用環(huán)境和開口說話的心理障礙,通過AI視頻通話提供實時的對話機會,可以讓小白初學者也能自信開口,進行有效聯(lián)系。據說,多鄰國的這一新功能接入了OpenAI的高級語音API功能。
國內頭部社交軟件Soul,也上線了AI聊天機器人“AI茍蛋”,可以主動跟用戶找話題,并且年底將開啟AI陪聊機器人的視頻通話服務。不同于泛泛聊天,Soul主打的是靈魂交友,平臺用戶傾向于開展深層交流,探討深度話題,尋求心靈共鳴。
在這種較為成熟的社區(qū)氛圍下,用戶在使用AI視頻通話的預期、內容也是較為明確的,不會出現(xiàn)不知道聊什么的情況。
各行各業(yè)都存在大量需要互動的場景,可以跟“AI視頻通話”相結合提供擬人化體驗。但用戶能否由此對應用和AI視頻通話產生黏性,還需要行業(yè)伙伴把使用門檻降到最低,這不僅需要行業(yè)擁有產品開發(fā)的能力與意愿,能夠洞察缺口與機遇,也需要模廠的生態(tài)支持。
從哆啦A夢到阿童木、賈維斯、Her,這些讓人類感覺友好溫暖的AI,都是擬人化的。也許說明,我們更愿意跟更像人類的AI打交道,而不是冰冷無形的機器。
一位智能機器從業(yè)者告訴我們,一開始設計的新車只有虛擬的語音助手,用戶上車之后覺得跟空氣說話很尷尬,激活率不高,所以設計了一個帶有屏幕的車載控件,可以跟車主打招呼、有表情,車主很喜歡跟它對話,逢年過節(jié)還會為它買各種裝飾物,把它當作用車場景中的家庭一員。
從這個思路看,AI視頻通話其實可以被加入各種硬件當中,與用戶展開真人一般的對話,從而成為情感共同體,由此衍生的商業(yè)空間也非常充裕。
透過AI視頻通話,相信大家能夠感受到,無論是AI企業(yè)或普通大眾,對于AI產品化的需求越來越實質。
模型技術只是能力,是原型,而遠不到普遍可用的階段。唯有通過產品化的細致打磨,AI這座商業(yè)富礦,才能真正顯露出鉆石般的光芒。
-
AI
+關注
關注
87文章
30601瀏覽量
268805
發(fā)布評論請先 登錄
相關推薦
評論