整合營銷服務商

          電腦端+手機端+微信端=數據同步管理

          免費咨詢熱線:

          淘寶搜索“遙遙領先”驚現“彈幕”,點擊直達華為Mat

          淘寶搜索“遙遙領先”驚現“彈幕”,點擊直達華為Mate60系列

          T之家 9 月 3 日消息,華為 Mate60 系列已經開售了一段時間,在京東搜索“遙遙領先”可以直達華為 Mate60 系列商品頁面,但大家知道在淘寶搜索會發生什么嗎?IT之家在淘寶搜索“遙遙領先”時,飄出了幾條彈幕“遙遙領先!”“領先超過 50%”,點擊彈幕區域即可跳轉至華為 Mate60 系列商品頁面。

          值得一提的是,京東此前開啟了 Mate 60 Pro 預售,支付了 1000 元定金用戶的尾款支付時間提前 7 天,來到今晚 18:08,屆時開放全款搶購。

          華為商城頁面也顯示,華為 Mate60 Pro 于今日 10:08 和 18:08 兩個時間段開放全款搶購。

          截至昨日,華為 Mate 60 Pro 和華為 Mate 60 均只有 12GB+512GB 一個內存版本,首發售價分別為 6999 元和 5999 元

          華為 Mate 60 Pro 采用 6.82 英寸的 OLED 曲面屏,屏幕分辨率為 2720 × 1260 像素,支持 1-120Hz LTPO 自適應刷新率;內置 5000mAh 電池,支持 88W 有線超級快充;后置攝像頭為 5000 萬像素超光變攝像頭(F1.4~F4.0 光圈,OIS 光學防抖)+ 1200 萬像素超廣角攝像頭(F2.2 光圈)+ 4800 萬像素超微距長焦攝像頭(F3.0 光圈,OIS 光學防抖),前置攝像頭為 1300 萬像素超廣角攝像頭(F2.4 光圈)+ 3D 深感攝像頭。此外,Pro 版機型還首發第二代昆侖玻璃,支持衛星通話功能等。

          華為 Mate 60 標準版正面配備 6.69 英寸單孔直屏,分辨率為 2688 × 1216 像素,支持 1-120Hz LTPO 自適應刷新率。該產品后置 5000 萬像素超光變攝像頭(F1.4~F4.0 光圈,OIS 光學防抖),機身內置 4750mAh(典型值)電池,支持 66W 有線超級快充。此外,標準版機型還支持雙向北斗衛星消息功能、第二代昆侖玻璃、4 米 IP68 級防塵抗水等。

          華為 Mate 60 標準版機型與 Pro 版機型相比,主要由曲面屏變為直屏,取消了 3D 深感攝像頭,衛星通話降級為北斗衛星消息,防水等級由 6 米變為 4 米,長焦鏡頭由 4800 萬像素超微距鏡頭變為 5 倍潛望式光學變焦鏡頭。

          文節選自中國計算機學會(CCF)會員刊物《中國計算機學會通訊》(CCCF)所刊登內容,如想獲取完整版,請關注CCF頭條號,或者于CCCF查看原文。

          千人千面幫助手淘從大的超市升級成為每個消費者擁有個性化的貨架,但是對于消費者未來的需求推理還是有欠缺的。認知圖譜的出現就是為了解決這個難題,希望每位消費者個性化的貨架旁邊有一個“AI導購員”,可以推理認知并且與消費者交互未來的需求。

          關鍵詞:認知圖譜推薦系統

          2020年1月2日,阿里巴巴達摩院發布《2020十大科技趨勢》[1],第一條就是“人工智能從感知智能向認知智能演進”。人工智能已經在“聽、說、看”等感知智能領域達到或超越了人類水準,但在需要外部知識、邏輯推理或者領域遷移的認知智能領域還處于初級階段。認知智能將從認知心理學、腦科學及人類社會歷史中汲取靈感,并結合跨領域知識圖譜、因果推理、持續學習等技術,建立穩定獲取和表達知識的有效機制,讓知識能夠被機器理解和運用,實現從感知智能到認知智能的關鍵突破。

          認知圖譜簡介

          認知圖譜是計算機科學的一個研究分支,旨在結合認知心理學、腦科學和人類知識等,研發知識圖譜、認知推理、邏輯表達的新一代認知引擎,企圖了解智能的實質,實現人工智能從感知智能向認知智能的演進和重大技術突破。

          讓機器具備認知智能,其核心就是讓機器具備理解和解釋能力。這種能力的實現與大規模、結構化的背景知識密不可分。認知圖譜是實現機器認知智能的使能器,一方面通過建立從數據到知識圖譜中實體、概念、關系的映射,讓機器理解數據的本質;另一方面利用知識圖譜中實體、概念和關系來解釋現實世界中的事物和現象,讓機器解釋現象的本質。機器認知智能的發展過程本質上是人類腦力不斷解放的過程,是人工智能的最高階段。認知圖譜是實現機器認知智能的底層支撐手段,它不是束之高閣、高高在上的前沿技術,而是一類能夠實實在在落地的、有著廣泛且多樣的應用需求的、能夠產生巨大社會經濟價值的技術,應用場景主要體現在電商平臺、智慧城市、司法行業、銀行、安防行業、精準分析、智慧搜索、智能推薦、智能解釋、更自然的人機交互和深層關系推理等各個方面。

          電商認知圖譜

          全球知名市場研究機構eMarketer預計 2019年全球零售電子商務銷售額達3.563萬億美元,電子零售收入預計到2022年將增長至6.54萬億美元1。如此快速的增長為全球電子商務行業帶來了廣闊的前景,這標志著一個強勁的市場和廣闊的客戶需求。電商平臺面臨的最大挑戰是從日益增長的海量物料(數十億)中挑選出一個小的子集(幾十或上百)展示給用戶,以滿足用戶的個性化購物需求。建設大規模電商認知圖譜可以有效解決重復推薦、缺少新意等問題。通過構建電商認知圖譜,將用戶、場景、物料進行有效地關聯,可以挖掘出更多的用戶標簽,精準感知用戶場景,從而使電商搜索和推薦更加準確,有效提高貨品轉化率。

          電商相關的文本語料稀缺,給抽取帶來了極大的困難。針對這些難點,阿里巴巴正在著手設計一套人工+算法不斷迭代優化的主動學習(active learning)流程,希望為后續的概念理解和推理應用提供可靠的支持。阿里巴巴集團旨在打造全球最大的中文電商知識圖譜,支持包括淘寶、天貓、優酷以及海外電商在內的整個阿里集團的推薦與搜索業務,每天服務上億用戶。電商認知圖譜從電商場景下的用戶需求出發,不局限于傳統的商品圖譜,而是一個連接商品、用戶、購物需求以及各類開放領域知識、常識的大規模語義網絡。

          基于此,阿里巴巴智能引擎事業群和清華大學計算機系知識工程實驗室在全球月活躍用戶人數和流量最大的電子商務平臺手機淘寶(手淘)的推薦系統上,不斷對第二代AI系統認知智能計算平臺進行打磨和落地。該認知智能計算平臺主要包括基礎數據層、推理引擎層和用戶交互層。其中基礎數據層主要專注于(1)跨領域知識圖譜的構建;(2)拉通跨域跨場景各類行為數據,例如瀏覽、點擊、收藏、加購、轉發等,全方位建模經濟體內行為,差異化理解多模態行為數據背后的含義;(3)在意圖感知的實時性與認知深度間做平衡,層次化地強化消費者理解。推理引擎層,依托多模態預訓練進行全域召回,緩解馬太效應,加強手淘生態建設;依托超大規模圖神經網絡系統進行消費者意圖推理。用戶交互層,基于用戶交互的視覺智能和文本智能,通過短視頻改變和引導購后消費者心智,理解消費者意圖,助力消費者決策,同時填補目前學術界和企業界基于用戶交互的弱監督內容理解方向的空白。

          基礎數據層

          阿里巴巴生態里積累了海量的跨領域多模態物料(商品、短視頻、直播等)數據(見圖1),同時各品牌商、行業運營、治理運營、消費者、國家機構、物流商等多種角色參與其中,共同為這樣一個龐大的多模態數據庫做貢獻。無論從知識產權保護角度,還是從提升消費者購物體驗的角度,實現跨領域多模態數據的標準化(跨領域多模態規范的統一和跨領域多模態信息的確定性),以及內外部數據之間的深度互聯,意義都非常重大。


          知識圖譜推理顯性和隱性的代表方法分別是路徑排序算法(Path Ranking Algorithm,PRA)和轉移表示(Trans Embedding系列)。文獻[2]提出了PRA算法,將路徑作為特征,預測實體間是否存在指定關系。文獻[3]提出了知識圖譜關聯規則挖掘算法(Association rule Mining under Incomplete Evidence,AMIE),挖掘傳遞性規則。

          基于距離模型的表示推理方法是根據轉移假設(將關系看成實體間的轉移)設計得分函數,度量事實三元組的有效性分值。TransE是第一個基于距離的表示模型,主要思想是:如果三元組(頭實體,關系,尾實體)成立,則頭實體向量h與關系向量r之和與尾實體向量t相近,否則遠離。TransE模型可以很好地處理一對一關系,但是在處理一對多、多對一和多對多等復雜關系時存在一些不足和缺陷。針對以上問題,研究者做出了一系列改進工作。文獻[4]提出了TransR模型,在單獨的實體空間和關系空間建立實體和關系的表示,每個關系對應一個空間,有一個映射矩陣,實體通過對應的映射矩陣映射到關系空間后,將關系向量看成實體向量間的轉移,在一定程度上緩解了不能很好地處理多映射屬性關系的問題。文獻[5]提出的TransG模型是一種基于貝葉斯非參的高斯混合模型,第一次從產生式的角度看待知識圖譜嵌入表示問題,解決了如何刻畫三元組知識中關系的多語義表達問題。文獻[6]提出了TKRL(Type-embodied Knowledge Representation Learning)學習知識圖譜實體和關系的表示,將層級類型的信息用于映射矩陣、訓練時選擇負例和評估時過濾候選。文獻[7]提出了TransE-NMM(TransE-Neighborhood Mixture Modeling),在TransE的基礎上定義基于鄰居的實體表示,引入鄰居實體信息進行實體和關系的表示學習。文獻[8]提出了TEKE(Text-Enhanced Knowledge Embedding),引入文本語料中豐富的上下文信息擴展知識圖譜的語義結構,學習知識圖譜中實體和關系的表示。文獻[9]提出了新穎的時間感知知識圖譜補全模型(Time-Aware Embedding,TAE),用三元組和時間信息預測知識圖譜中的連接,即給定三元組中的兩個元素與時間區間,預測另一個元素。

          推理引擎層

          推薦系統需要通過用戶在系統中留下的“足跡”,對用戶當下的認知狀態進行猜測,從而提供合適的內容。用戶的“足跡”是由人類的認知所驅動的。可以想象每一個用戶背后都有一個符合認知理論的大腦,驅動著他/她在系統中的行為,例如接受信號和給予反饋。推薦系統能否通過用戶的反饋來揣測甚至還原用戶對于系統的認知狀態,是非常有意思的問題。

          傳統表征學習算法得到的用戶商品表征本身并不具備可解釋性,往往只能提供用戶-物料之間的注意力分數作為物料粒度的用戶興趣。學習解離化表征的原因和人類認知的捆綁問題(Binding Problem,BP)有關。我們關注這樣的兩個和認知相關的子任務:(1)商品在人的認知空間中是如何表征的,這樣的表征是否具有可解釋性,人在這個空間下的表征是否也具有這樣的語義;(2)基于這樣的表征,我們能否提出新型應用,并至少給出一種原型方案。

          針對電商平臺上用戶行為的特點,我們的模型采用了層次化的設計:它在推理一個用戶的表征時將依次進行宏觀解離化(macro disentanglement)和微觀解離化(micro disentanglement)。宏觀解離化的啟發一方面來自用戶在綜合類電商場景下較為分散的興趣,另一方面來自人類的傳統認知難題BP。首先,用戶的興趣通常是非常廣泛的,一個用戶的點擊記錄往往會涉及到多個獨立的消費意圖(比如點擊不同大類下的商品)。另外,宏觀解離化也是微觀解離化的必要前提。因此,我們將用戶的表征拆分成K個d維分量。我們希望能把用戶在執行某個意圖時的偏好進一步分解到更細的粒度。

          宏觀級別的用戶偏好向量挖掘可以用任何帶“聚類”功能的前向網絡實現。為了優化這個深度概率模型,我們采納了變分自動編碼器(VAE)的框架。為了實現微觀解離化,借鑒了beta-VAE[10]的方法,對KL懲罰項進行了加強(令beta遠大于1)。這種做法將迫使表征的各個維度去捕捉比較獨立的信息。

          解離化表征在帶來一定的可解釋性的同時,也帶來了一定的可控制性。這種可控制性有望給推薦系統引入一種全新的用戶體驗。比如說,既然表征的各個維度關聯的是不同的商品屬性,那么我們完全可以把用戶的表征向量提供給用戶,允許用戶自行固定絕大部分維度(比如對應的是衣服的風格、價格、尺寸等),然后單獨調整某個維度的取值(比如顏色對應的維度),系統再根據這個反饋調整推薦結果。這將幫助用戶更加精準地表達并檢索得到自己想要的商品。圖2是我們在調控某個維度后檢索得到的兩批商品,可以看出這個被調控的維度和背包的顏色屬性比較相關,并有較為明顯的漸變性質。

          用戶交互層

          基于用戶交互的自然語言生成

          自然語言處理中很多任務依然面臨巨大的挑戰,其中之一是如何實現基于用戶交互的自然語言生成。用戶交互信息繁多復雜,如何有效利用這類信息生成更加符合用戶興趣的文案是一個具有重大技術價值和業務價值的問題。

          在阿里巴巴淘寶的推薦場景中,云主題便是一個需要自動化實現推薦理由生成的應用。云主題是由一系列商品所形成的主題場景。我們利用現有推薦系統中的召回(指從全量信息集合中觸發盡可能多的正確結果)技術實現基于場景的商品聚合。然而面對繁多的主題,利用人工生成標題和推薦理由將消耗非常大量的人力物力。為此,我們利用自然語言生成技術實現了自動生成標題和推薦理由。這項工作主要有以下幾個難點:(1)生成的文案需要符合語法,表達流暢通順;(2)推薦理由的內容需要與商品屬性相關,同時要符合商品相關的知識;(3)推薦場景下的文本生成要盡可能做到個性化。

          為了提升生成質量和用戶體驗,我們引入了外部知識和個性化信息。針對每一個商品,當前的輸入除了商品標題以外,還有與它對應的特征屬性(如外觀、質量等)。此外,算法使用了外部知識庫CN-DBpedia,使得輸入的商品和相關知識聯系起來。我們設計了相應的KOBE模型(KnOwledge-Based pErsonalized text generation system,基于知識的個性化文本生成系統)。該模型建立在基于自注意力機制的transformer模型之上,圖3展示了KOBE模型的基本框架。編碼器由多層的自注意力層疊而成(一般為6層,如果要實現大模型的話可以增加層數)。

          在Attribute Fusion模塊中,算法引入個性化推薦相關特征屬性,主要集中在兩個方面:第一個是aspect,指的是產品的特定方面,比如外觀、質量等;第二個是user category,即該產品匹配的用戶群體,比如機械鍵盤對應的用戶群體是科技愛好者等,算法利用Attribute Fusion模塊將它們有機融合。

          文本生成的另一個常見問題是缺乏信息量,算法設計了knowledge incorporation這一模塊。模塊中的知識編碼器同樣是一個基于自注意力機制的編碼器,具體模型構造和上文所述編碼器一致。為了實現商品標題表示和相關知識表示的有效結合,算法實現雙向注意力機制,分為“標題到知識的注意力”和“知識到標題的注意力”。標題到知識的注意力能夠獲取和標題相關的知識,而知識到標題的注意力則獲取和知識相關的標題內容。我們在春節云主題的項目中上線了KOBE模型,為每個類目提供相應的個性化推薦理由。可以看到生成的推薦理由表達流暢,能夠根據類目和產品特點選擇符合產品相關知識的描述,并且能夠攜帶一些具有趣味性的表達(見圖4)。[11]

          多模態預訓練實踐

          隨著全球零售電商銷售規模的快速增長,以及電商系統與用戶交互形式日益多元化,電商系統理解和檢索圖片、視頻等多模態內容的需求日益增強。面對深度多模態表征學習的需求,我們跟進多模態預訓練的相關工作,設計了一套新的多模態預訓練方法,學習更加高質量的多模態表征,并將其應用到電商推薦場景中,實現搜索query召回相關商品圖片以及多模態商品召回等相關任務。尤其是在商品召回場景中,如何充分結合多模態特征和用戶交互信息實現效果更優的推薦,是非常值得探索的課題。算法自研設計了一套多模態表征學習的框架InterBERT,見圖5。

          輸入查詢序列和商品圖片物體序列,經過InterBERT模型的交互模塊(interaction module)和獨立模塊(independence module)編碼,最后預測查詢與商品圖是否匹配。多模態預訓練主要從2019年開始有了比較大的進展,幾項比較有代表性的工作都是參考了自然語言處理的預訓練,將Transformer架構遷移到多模態預訓練中,并做了相應的修改。多模態預訓練的數據主要是圖文對,如圖片和它對應的描述(caption)。文本以詞序列的形式作為輸入,而圖像則通過物體檢測得到物體表示序列。在訓練中,文本側采用掩碼語言模型(masked language modeling),而圖像側則借助檢測得到的物體類別,采用掩碼物體模型(masked object modeling),讓模型觀察上下文預測被掩蓋的物體所屬類別,并增加圖文匹配(image-text pairing)的任務。

          在模型架構方面,主要是單流(single-stream)模型和雙流(two-stream)模型。單流模型直接將兩種模態融合在一個模型中,交互更加充分,但每個模態的表示缺少自身獨立性;雙流模型每個模態具有良好的獨立性,但是交互過程采用互注意力機制,每次只能看到另一個模態的信息而不能采集自身模態的上下文信息。參考了兩類模型的優缺點,我們設計了一套結合兩者優勢的模型結構InterBERT,其中包括單流交互模塊(single-stream interaction module),用于更好地跨模態交互,以及雙流獨立模塊(two-stream independence module)來保持模態的獨立性。具體實現如圖5所示,輸入的表征首先經過單流模型實現交互。在訓練方法方面,我們也對訓練任務做了一些改進,讓模型建模圖像物體和文本序列的能力更強,主要是提升圖像區域建模和文本短語的建模。

          在使用上述模型產出了多模態的特征之后,大模型可以遷移到具體的下游任務,如文本召回圖片。相對于基線模型,多模態預訓練模型在淘寶電商場景中的文本召回圖片的任務在召回指標R@1、R@5和R@10上均能獲得顯著提升。而利用預訓練模型產出的多模態特征也可以應用到推薦系統的商品召回任務中。我們使用豐富的電商商品文本和圖片進行預訓練,并對商品池中的每個商品產出多模態特征。這些高質量的多模態特征可以加入到推薦系統中的召回模型中,讓召回模型通過多模態特征對用戶行為建模。目前預訓練產出特征做的召回在線上也取得了喜人的表現,在點擊率沒有顯著下降的情況下,曝光和點擊的商品熱度能夠大幅降低,讓更多位于商品分布中腰部的商品得到曝光。[12]

          基于用戶交互的視覺智能

          隨著網絡技術和大眾傳媒的發展,短視頻和網絡直播邁入了發展的快車道。在電子商務領域,買家秀視頻具有數量大和個性化強的優勢,因此,將買家秀視頻推薦給潛在感興趣的消費者可以增強電子商務場景下視頻推薦的有效性。

          買家秀視頻在視頻推薦過程中缺少高質量的視頻標題。通常,視頻推薦會給視頻配上一個精煉的標題,該標題可以讓目標用戶在觀看視頻前對視頻的主要亮點、特色有一個初步把握,從而產生觀看興趣。在這種應用需求下,我們設計了買家秀視頻標題自動生成模型,該模型從買家秀視頻、買家撰寫的評論和關聯商品的屬性信息等數據中抽取、關聯和聚合有用的信息。圖6展示了一個實際的數據樣例。

          買家秀視頻標題生成任務的描述涉及商品細節特點識別、商品整體外觀識別、商品與背景交互作用的識別(如“夏日海灘風情度假必備連衣裙”)和視頻故事線主題識別(如“這樣穿顯瘦、美麗”)。買家秀視頻標題生成在任務層面提出了更多和實際應用緊密相關的挑戰;在現有模型層面,大部分視頻描述模型將該任務看作序列到序列的建模任務,典型的是采用帶有或不帶有注意力機制(attention)的循環神經網絡(RNN),同時對視頻幀序列和輸出的詞序列建模。然而,這樣的建模方式具有局限性:其一,他們只在視頻幀級別建模了視頻信息,這不利于商品部位及商品整體級別的特點識別,基于序列建模的RNN模型本身也較難對具有特殊依賴關系的商品不同部位建模;其二,序列建模的RNN模型無法系統、有效地關聯和聚合三種異構信息,即視頻、視頻評論和關聯商品的屬性信息。

          為了解決這些問題,我們提出了一個新的建模框架——基于圖結構建模的視頻標題生成器(Graph based Video Title Generator,Gavotte)。具體而言,Gavotte由兩個子過程組成,即細粒度交互建模和故事線摘要建模。

          Gavotte模型結構圖

          商品視頻信息 我們首先使用了特征點檢測(landmark detection)技術[13]檢測衣服類商品的商品部位特征,每一幀的每一個部位都視為圖節點。為了增強空間-時序視覺商品部位圖的時序性和部位特點,我們給每一個節點都加上了位置嵌入(position embedding)[14]和類型嵌入(type embedding)。

          視頻評論信息?將評論中的每一個詞作為圖節點,并將有語法依賴關系的節點進行連接,發現相比于時序關系,捕捉評論中和商品有關的語義信息對生成標題更有價值。

          關聯商品的屬性信息?將每一個屬性值作為圖節點,并對所有節點進行全連接,屬性間本身沒有時序關系,使用圖建模可以更好地探索屬性間的特殊交互作用。

          如圖7所示,細粒度交互建模對三個異構圖的圖內關系(intra-actions in graph)和圖間關系(inter-actions across graphs)進行了建模。

          圖內關系建模注重和商品有關的細粒度特征的識別,我們采用了圖神經網絡作為圖內關系建模的可訓練框架結構。圖間關系建模注重異構圖之間商品有關細粒度特征的關聯和聚合,為全局-局部聚合模塊(Global-Local Aggregation,GLA)。GLA包含全局門控訪問(global gated access)和局部注意(local attention)兩個子模塊(見圖8)。GLA的輸入為查詢圖(query graph)和上下文圖(context graph),輸出的聚合圖(aggregated graph)的結構與查詢圖一致。

          GLA模型結構圖

          故事線摘要建模關注幀級別和視頻級別的信息,因此可以采用幀特征和RNN來進行序列建模。我們先利用全局-局部模塊將細粒度信息和幀信息進行信息融合,再采用RNN對視頻幀進行序列建模。在解碼器部分,我們采用常用的注意力增強的RNN結構[15],在每一步解碼階段都會關注細粒度圖信息和幀信息。

          部分實驗結果示例圖

          由表1可見,Gavotte模型在兩個淘寶商品數據集(T-VTD服飾類商品數據和其他類別商品數據)上得到了最佳的效果。Gavotte模型在T-VTD上性能提升顯著,在其他商品類別數據上提升會相對弱一些,但這是合理的結果,因為服飾類商品有良好的商品部位定義,我們在其他類別上采用了近似的方法。

          圖9展示了Gavotte生成了網絡熱詞(如出街、搶鏡),而且生成的句子更流暢,更有吸引力。同時,Gavotte可以識別商品細節級別信息(如破洞)、商品級別信息(如牛仔褲)、商品與背景交互信息(如出街搶鏡)和視頻級別故事情節信息(如這樣穿)。[16]


          結語和展望

          人工智能1.0已經在感知計算方面取得了長足的進步,甚至在很多領域已經達到或超過了人類水準。對于需要外部知識、邏輯推理、領域遷移等與認知相關的任務,將成為人工智能2.0需要突破的核心問題。相比依賴數據規模和質量的感知智能,認知智能更需要的是機制設計,包括如何建立有效的機制來穩定獲取和表達知識,如何讓知識能夠被所有模型理解和運用。認知智能將會從認知心理學、腦科學以及人類社會的發展歷史中汲取更多的靈感,并結合擴領域知識圖譜、因果推理、持續學習等研究領域的發展進行突破。

          現代的推薦系統相比于傳統的物貨匹配復雜度、承載功能和需求等已得到全面升級,是大規模檢測認知推理結果的理想場所。繼深度學習的興起,“千人千面”幫助手淘從大的超市升級成為每個消費者擁有自己的個性化的貨架,但是對于消費者未來的需求推理還有欠缺。認知圖譜有助于解決這個難題,希望為每位消費者個性化的貨架旁邊提供一個“AI導購員”,可以推理認知并且與消費者交互未來的需求。我們在全球月活用戶和流量最大的電子商務平臺手機淘寶的推薦系統上,不斷打磨和落地第二代AI系統認知智能計算平臺,抽象出基礎數據層、推理引擎層和用戶交互層,進行了初步嘗試并獲得了一定結果。我們相信,未來在認知推理技術的不斷發展下,推薦系統最終會真正做到認知推薦。 

          腳注

          1 參閱http://www.199it.com/archives/856125.html


          參考文獻

          [1] 阿里巴巴達摩院. 達摩院2020十大科技趨勢[OL].(2020-01-20). https://damo.alibaba.com/events/57.

          [2] Lao N, Cohen W W. Relational Retrieval Using a Combination of Path-Constrained Random Walks[J]. Machine Learning, 2010, 81(1):53-67.

          [3] Galárraga L, Teflioudi C, Hose K, et al. AMIE: Association rule mining under incomplete evidence in ontological knowledge bases[C]// International Conference on World Wide Web. ACM, 2013:413-422.

          [4] Lin Y, Liu Z, Sun M, et al. Learning entity and relation embeddings for knowledge graph completion[C]//National Conference on Artificial Intelligence, 2015: 2181-2187.

          [5] Xiao H, Huang M, Hao Y, et al. TransG: A Generative Mixture Model for Knowledge Graph Embedding[OL]. arXiv: Computation and Language, 2015.

          [6] Xie R, Liu Z, Sun M. Representation learning of knowledge graphs with hierarchical types[C]// IJCAI’16: Proceedings of the Twenty-Fifth International Joint Conference on Artificial Intelligence. AAAI Press, 2016: 2965-2971.

          [7] Nguyen D Q, Sirts K, Qu L, et al. Neighborhood Mixture Model for Knowledge Base Completion[C]//Conference on Computational Natural Language Learning. ACL, 2016: 40-50.

          [8] Wang Z, Li J. Text-enhanced representation learning for knowledge graph[C]// IJCAI'16: Proceedings of the Twenty-Fifth International Joint Conference on Artificial Intelligence. AAAI Press, 2016: 1293-1299.

          [9] Jiang T, Liu T, Ge T, et al. Towards Time-Aware Knowledge Graph Completion[C]// Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics. 2016: 1715-1724.

          [10] Higgins I, Matthey L, et al. beta-VAE: Learning basic visual concepts with a constrained variational framework cite[C]//ICLR 2017.

          [11] Chen Q, Lin J, Zhang Y, et al. Towards knowledge-based personalized product description generation in E-commerce[C]// KDD’19: Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. ACM, 2019.

          [12] Lin J, Yang A, Zhang Y, et al. InterBERT: An effective multi-modal pretraining approach via vision-and-language interaction[OL].(2020-05-30). https://arxiv.org/abs/2003.13198

          [13] Liu Z, Yan S, Luo P, et al. Fashion Landmark Detection in the Wild[C]// Computer Vision – ECCV 2016. ECCV 2016. Lecture Notes in Computer Science, vol. 9906.Springer, 2016:229-245

          [14] Gehring J, Auli M, Grangier D, et al. 2017. Convolutional sequence to sequence learning[C]// ICML’17: Proceedings of the 34th International Conference on Machine Learning. 2017:1243-1252.

          [15] Yao L, Torabi A, Cho K, et al. Describing Videos by Exploiting Temporal Structure[C]// ICCV '15: Proceedings of the 2015 IEEE International Conference on Computer Vision. IEEE CS, 2015: 4507-4515.

          [16] Zhang S, Tan Z, Yu J, et al. Comprehensive Information Integration Modeling Framework for Video Titling[C]// Proceedings of the 26th ACM SIGKDD Conference on Knowledge Discovery and Data Mining. 2020.


          作者簡介


          楊紅霞

          CCF專業會員。阿里巴巴大數據資深算法專家,帶領團隊開發基于計算平臺和搜索推薦的智能算法。2019世界人工智能大會最高獎項卓越人工智能引領者(SAIL獎)獲得者,2020年杭州市領軍型創新團隊獲得者。yang.yhx@alibaba-inc.com


          周靖人

          CCF專業會員。阿里巴巴集團資深副總裁,阿里達摩院智能計算實驗室負責人,浙江大學兼職教授。負責阿里巴巴集團新零售智能引擎的產品技術研發。主要研究方向為人工智能、大規模分布式系統等。jingren.zhou@alibaba-inc.com。

          特別聲明:中國計算機學會(CCF)擁有《中國計算機學會通訊》(CCCF)所刊登內容的所有版權,未經CCF允許,不得轉載本刊文字及照片,否則被視為侵權。對于侵權行為,CCF將追究其法律責任。

          費電商資料已經整理好了,需要的朋友留言學習

          一、免費流量的匹配核心原理

          想要得到免費流量,就要清楚明白為什么系統要給予我們免費流量?我們應當規避什么錯誤,搜索流量的核心究竟是什么?

          1、系統是如何匹配搜索流量給我們的?

          2022年的淘寶變化確實很大,導致很多店鋪流量都下滑了,這是為什么?競爭大是其原因之一,但我覺得最重要的應該是搜索行為發生了變化,而店鋪下滑的商家沒跟上改版的趨勢。因為個性化流量越來越重要,人群標簽也令我們產品展現的次數、展現的排名發生了改變,流量進行細分化了,這使我們的店鋪寶貝流量變少一點,但轉化就很精準了。這也是我平常分享的人群標簽運營,做好標簽才能獲取更多的精準流量及轉化,系統才會給到更多的免費搜索流量給我們。
          2、免費流量最大的來源是哪里:

          1)搜索流量:有手機端、電腦端入口,這兩個入口手機端為核心,目前PC端已經很少人用了。

          2)手淘推薦:手淘推薦是不需要進行搜索,首頁猜你喜歡直接展現消費者喜歡或瀏覽過的產品進行展現。

          3)個性化流量:根據買家的人群自身標簽匹配和分配,千人千面影響。

          這三個點是我們作為運營免費流量來得最多的地方,當然除去內容營銷的微淘私域流量、直播的公域流量了。

          3、獲取免費搜索流量的核心是什么?

          當消費者進行關鍵詞搜索的時候,你的寶貝能夠快速地出現在買家面前,這也是我們要優化搜索流量的原因。搜索流量離不開關鍵詞[只要搜索存在,關鍵詞就一定能有非常大的作用],這句話要牢記。做好關鍵詞的排名、權重、卡位,我們首先要注重的就是標題,(對于標題優化我前幾天分享過一篇文章全面解析的,大家可以回看我的歷史文章即可)。一般來說關鍵詞要有權重、關鍵詞要有曝光、關鍵詞的競爭小、關鍵詞的人群精準,這幾個點是我們得到搜索流量的核心,而這幾個點,說起來簡單,但實際操作中需要點擊率、收藏、轉化,三個指標打標才行。
          二、新手賣家優化常見誤區

          搜索優化中,新手經常會碰到一些優化的誤區,優化時容易出現錯誤,導致后期的搜索流量少之又少,也非常難做起來。所以在優化過程,我們需要細心認真地規避錯誤。以下分享新手賣家容易犯的錯誤。

          1)優化標題時候,切勿改動太多字眼:一般來說標題形成了,只要有了搜索流量或寶貝有了基礎銷量,一般不輕易修改標題。因為標題已經有了權重,如果輕易修改的話可能導致系統重新收錄,從而降低你的搜索流量。改動不超3個字一般影響不大。

          2)不要復制標題:要做出自己的標題,因為你看到別人的寶貝如果流量大,就去復制粘貼到自己的寶貝上使用,那系統是不會給予很好的搜索排名的,可以參考,但必須要進行刪減、增加、改動。

          3)剛開始,第三方流量不適宜過多:前期優化搜索流量,不適宜找第三方活動網站及淘客進行推廣,因為此類的銷量是不計入權重,而且人群標簽容易錯亂,導致你的搜索排名無法提高,雖說現在更新的淘寶客流量會記入搜索權重,但是那樣的搜索權重可以忽略不計,最重要的一點就是淘寶客渠道流量是最容易打亂店鋪流量標簽的,如果被打亂標簽后面再重新拉回標簽又是費時費力,還不一定能拉的回來,所以建議剛開始不要過多通過第三方流量進店進行操作我們的茶品。
          新品期如何獲得更多的機會

          淘寶一定會給新品機會的,這根本不用去質疑!只不過是機會有多有少而已,想獲得更多的機會,那么就需要在以下幾點做好(不是全部,但都是很關鍵的點):

          (1)一定要做好全店動銷,提升店鋪的綜合質量得分,給你自己定一個90%的標準;

          (2)全店轉化率、退款、店鋪活躍程度、上新程度,都要做好;

          (3)新品一定要有動銷,最好在24小時之內就有銷量;

          (4)新品上架后,一口價的信息不能動,動了就會影響權重,如果調整價格,通過促銷工具調整就可以;

          (5)新品上架后,標題不要隨便亂動,所以要求我們在上架商品的時候就應該把標題、下架時間等考慮周全,如果非要動,不要超過4個字,并且在凌晨的時候修改,因為這時候是最容易被收錄的;
          (6)標題確保全網獨一無二,首圖自己做,哪怕是分銷,也要自己拍回來一件商品,自己拍圖;

          新品期的自然搜索優化重點考核哪些指標

          這個沒有明確的準確無誤的答案,完全是憑經驗來的,但是非常的符合邏輯,新品期一般是28天,也就是四個下架周期,在這四個下架周期,搜索引擎重點考核的指標分別似乎:

          (1)第一個下架周期重點考核:點擊率

          (2)第二個下架周期重點考核:店鋪停留時間(包括頁面停留時間和跳失率)

          (3)第三個下架周期重點考核:轉化率

          (4)第四個下架周期重點考核:帶字好評率、分享
          需要更多電商資料的可以留言學習


          主站蜘蛛池模板: 少妇无码AV无码一区| 波多野结衣一区在线| 亚洲一区二区三区自拍公司| 少妇一晚三次一区二区三区| 精品午夜福利无人区乱码一区| 91视频一区二区三区| 后入内射国产一区二区| av在线亚洲欧洲日产一区二区| 国产精品一区二区三区久久| 冲田杏梨高清无一区二区| 国产美女av在线一区| 3d动漫精品成人一区二区三| 日韩视频在线一区| 精品视频一区二区三区免费| 亚洲精品日韩一区二区小说| 国产自产对白一区| 中文字幕无码免费久久9一区9| 久久无码人妻一区二区三区| 日本精品一区二区三区视频| 无码人妻品一区二区三区精99| 国产福利一区二区精品秒拍| 日韩人妻精品一区二区三区视频 | 精品乱码一区二区三区四区| 在线视频亚洲一区| 伊人色综合一区二区三区影院视频| 国语对白一区二区三区| 亚洲福利一区二区精品秒拍| 一区二区三区杨幂在线观看| 韩国精品一区视频在线播放| 末成年女AV片一区二区| 无码人妻久久一区二区三区 | 日本不卡一区二区三区| 香蕉久久AⅤ一区二区三区| 日韩精品一区二区三区中文3d| 亚洲视频一区在线播放| 精品国产AV一区二区三区| 插我一区二区在线观看| 一区二区三区午夜| 中文字幕在线精品视频入口一区| 一区二区三区无码高清| 日韩精品无码一区二区三区AV |