機器學習排序

 從使用的數據類型,以及相關的機器學習技術的觀點來看,互聯網搜索經歷了三代的發展歷程。

       第一代技術,將互聯網網頁看作文本,主要采用傳統信息檢索的方法。

       第二代技術,利用互聯網的超文本結構,有效地計算網頁的相關度與重要度,代表的算法有 PageRank 等。

       第三代技術,有效利用日志數據與統計學習方法,使網頁相關度與重要度計算的精度有了進一步的提升,代表的方法包括排序學習、網頁重要度學習、匹配學習、話題模型學習、查詢語句轉化學習。

       這里主要介紹機器學習排序。

1. 機器學習排序(Learning to Rank)

        利用機器學習技術來對搜索結果進行排序,這是最近幾年非常熱門的研究領域。信息檢索領域已經發展了幾十年,為何將機器學習技術和信息檢索技術相互結合出現較晚?主要有兩方面的原因。

        一方面是因為:在前面幾節所述的基本檢索模型可以看出,用來對査詢和文檔的相關性進行排序,所考慮的因素并不多,主要是利用詞頻、逆文檔頻率和文檔長度這幾個因子來人工擬合排序公式。因為考慮因素不多,由人工進行公式擬合是完全可行的,此時機器學習并不能派上很大用場,因為機器學習更適合采用很多特征來進行公式擬合,此時若指望人工將幾十種考慮因素擬合出排序公式是不太現實的,而機器學習做這種類型的工作則非常合適。隨著搜索引擎的發展,對于某個網頁進行排序需要考慮的因素越來越多,比如網頁的pageRank值、查詢和文檔匹配的單詞個數、網頁URL鏈接地址長度等都對網頁排名產生影響,Google目前的網頁排序公式考慮200多種因子,此時機器學習的作用即可發揮出來,這是原因之一。
       另外一個原因是:對于有監督機器學習來說,首先需要大量的訓練數據,在此基礎上才可能自動學習排序模型,單靠人工標注大量的訓練數據不太現實。對于搜索引擎來說, 盡管無法靠人工來標注大量訓練數據,但是用戶點擊記錄是可以當做機器學習方法訓練數據的一個替代品,比如用戶發出一個查詢,搜索引擎返回搜索結果,用戶會點擊其中某些網頁,可以假設用戶點擊的網頁是和用戶查詢更加相關的頁面。盡管這種假設很多時候并 不成立,但是實際經驗表明使用這種點擊數據來訓練機器學習系統確實是可行的。

2. 機器學習的基本思路

       傳統的檢索模型靠人工擬合排序公式,并通過不斷的實驗確定最佳的參數組合,以此來形成相關性打分函數。機器學習排序與此思路不同,最合理的排序公式由機器自動學習獲得,而人則需要給機器學習提供訓練數據。

       圖1是利用機器學習進行排序的基本原理圖。 機器學習排序系統由4個步驟組成:人工標注訓練數據、文檔特征抽取、學習分類函數、在實際搜索系統中采用機器學習模型.

                1.jpg

                                                  圖1  機器學習排序原理

 

       首先,由人工標注訓練數據。也就是說,對于某個查詢Q,人工標出哪些文檔是和這個査詢相關的,同時標出相關程度,相關程度有時候可以用數值序列來表示,比如從1分 到5分為3個檔次,1代表微弱相關,5代表最相關,其他數值代表相關性在兩者之間。對于某個查詢,可能相關文檔眾多,同時用戶査詢也五花八門,所以全部靠人工標注有時候 不太可能。此時,可以利用用戶點擊記錄來模擬這種人工打分機制。
      對于機器學習來說,輸入是用戶查詢和一系列標注好的文檔,機器學習系統需要學習打分函數,然后按照打分函數輸出搜索結果,但是在其內部,每個文檔由若干特征構成的,即每個文檔進入機器學習系統之前,首先需要將其轉換我餓滴特征向量,比較常用的特征包括:

? 查詢詞在文檔中的詞頻信息
? 查詢詞的IDF信息
? 文檔長度: 
? 網頁的入鏈數量: 
? 網頁的出鏈數量:
? 網頁的pageRank值; 
? 網頁的URL松度: 
? 査詢詞的Proximity值:即在文檔中多大的窗口內可以出現所有査詢詞。

        以上所列只是影響排序的一部分特征,實際上還有很多類似的特征可以作為特征向量中的一維加入。在確定了特征數量后,即可將文檔轉換為特征向量X,前面說過每個文檔會人工標出其相關性得分y.這樣每個文檔會轉換為<X,Y>的形式,即特征向量及其對應的相關性得分,這樣就形成了一個具體的訓練實例。

       通過多個調練實例,就可以采用機器學習技術來對系統進行訓練,訓練的結果往在是 ―個分類函數或者回歸函數,在之后的用戶搜索中,就可以用這個分類函數對文檔進行打分,形成搜索結果 

    從目前的研究方法來說,可以將機器學習揉序方法分為以下3種:單文檔方法、文檔對方法和文檔列表方法。 

3. 單文檔方法(PointWise Approach》

        單文檔方法的處理對象是單獨的一篇文檔,將文檔轉換為特征向量后,機器學習系統根據從訓練數據中學習到的分類或者回歸函數對文檔打分,打分結果即是搜索結果。下面我們用一個簡單的例子說明這種方法。 
        圖2是人工標注的訓練集合,在這個例子中,我們對于每個文檔采用了3個特征: 査詢與文檔的Cosme相似性分值、査詢詞的Proximity值及頁面的PageRank數值,而相關性判斷是二元的,即要么相關要么不相關,當然,這里的相關性判斷完全可以按照相關程度擴展為多元的,本例為了方便說明做了簡化。

           2.jpg

                                          圖2 訓練數據
        

      例子中提供了5個訓練實例,每個訓練實例分別標出來其對應的查詢,3個特征的得分情況及相關性判斷。對于機器學習系統來說,根據訓練數據,需要如下的線性打分函數:  
       Score(Q, D)=a x CS+ b x PM+cx PR+ d 
        這個公式中,cs代表Cosine相似度變徽,PM代表Proximity值變量,PR代表pageRank, 而a、 b、 c、 d則是變量對應的參數。

        如果得分大于一設定閥值,則叫以認為是相關的, 如果小于設定閩值則可以認為不相關。通過訓練實例,可以獲得最優的a、 b,、c、d參數組合,當這些參數確定后,機器學習系統就算學習完畢,之后即可利用這個打分函數進行相關性判斷。對于某個新的查詢Q和文檔D,系統首先獲得其文檔D對應的3個特 I特征值,之后利用學習到的參數組合計算兩者得分,當得分大于設定的閩值,即可判斷文檔是相關文檔,否則判斷為不相關文檔。

4. 文檔對方法(PairWise Approach)

        對于搜索系統來說,系統接收到用戶査詢后,返回相關文檔列表,所以問題的關鍵是確定文檔之間的先后順序關系。單文檔方法完全從單個文檔的分類得分角度計算,沒有考慮文檔之間的順序關系。文檔對方法則將重點轉向量對文檔順序關系是否合理進行判斷。

        之所以被稱為文檔對方法,是因為這種機器學習方法的訓練過程和訓練目標,是判斷任意兩個文檔組成的文檔對<D0C1,D0C2>是否滿足順序關系,即判斷是否D0C1應該排在DOC2的前面。圖3展示了一個訓練實例:査詢Q1對應的搜索結果列表如何轉換為文檔對的形式,因為從人工標注的相關性得分可以看出,D0C2得分最高,D0C3次之,D0C1得分最低,于是我們可以按照得分大小順序關系得到3個如圖3所示的文檔對,將每個文檔對的文檔轉換為特征向量后,就形成了一個具體的訓練實例。

      3.jpg

                                            圖3  文檔對的方法訓練實例

       根據轉換后的訓練實例,就可以利用機器學習方法進行分類函數的學習,具體的學習方法有很多,比如SVM. Boosts、神經網絡等都可以作為具體的學習方法,但是不論具體方法是什么,其學習目標都是一致的,即輸入- 個査詢和文檔對<Docl,DOC2>, 機器學習排序能夠判斷這種順序關系是否成立,如果成立,那么在搜索結果中D0C1應該排在D0C2 前面,否則Doe2應該摔在Docl前面,通過這種方式,就完成搜索結果的排序任務。
        盡管文檔對方法相對單文檔方法做出了改進,但是這種方法也存在兩個明顯的問題:

       一個問題是:文檔對方法只考慮了兩個文檔對的相對先后順序,卻沒有考慮文檔出現在搜索列表中的位置,排在搜索站果前列的文檔更為重要,如果前列文檔出現判斷錯誤,代價明顯高于排在后面的文檔。針對這個問題的改進思路是引入代價敏感因素,即每個文檔對根據其在列表中的順序具有不同的權重,越是排在前列的權重越大,即在搜索列表前列如 果排錯順序的話其付出的代價更高?
        另外一個問題是:不同的査詢,其相關文檔數量差異很大,所以轉換為文檔對之后, 有的查詢對能有幾百個對應的文檔對,而有的查詢只有十幾個對應的文檔對,這對機器學習系統的效果評價造成困難 ?我們設想有兩個查詢,査詢Q1對應500個文文檔對,查詢Q2 對應10個文檔對,假設學習系統對于査詢Ql的文檔對能夠判斷正確480個,對于査詢 Q2的義格對能夠判新正確2個,如果從總的文檔對數量來看,這個學習系統的準確率是 (480+2)/(500+10)=0.95.即95%的準確率,但是從査詢的角度,兩個査詢對應的準確率 分別為:96%和20%,兩者平均為58%,與純粹從文檔對判斷的準確率相差甚遠,這對如何繼續調優機器學習系統會帶來困擾。

4. 文檔列表方法(ListWise Approach)

          單文檔方法將訓練集里每一個文檔當做一個訓練實例,文檔對方法將同一個査詢的搜索結果里任意兩個文檔對作為一個訓練實例,文檔列表方法與上述兩種表示方式不同,是將每一個查詢對應的所有搜索結果列表整體作為一個訓練實例,這也是為何稱之為文檔列表方法的原因。
        文檔列表方法根據K個訓練實例(一個査詢及其對應的所有搜索結果評分作為一個實 例)訓練得到最優評分函數F, 對于一個新的用戶査詢,函數F 對每一個文檔打分,之后按照得分順序由高到低排序,就是對應的搜索結果。 所以關鍵問題是:拿到訓練數據,如何才能訓練得到最優的打分函數?

        這里介紹一種訓練方法,它是基于搜索結果排列組合的概率分布情況來訓練的,圖4是這種方式訓練過程的圖解示意。

        4.jpg

                                       圖4 不同評分函數的KL距離

 

       首先解釋下什么是搜索結果排列組合的概率分布,我們知道,對于搜索 引擎來說,用戶輸入査詢Q, 搜索引擎返回搜索結果,我們假設搜索結果集合包含A. B 和C 3個文檔,搜索引擎要對搜索結果排序,而這3個文檔的順序共有6種排列組合方式:

      ABC, ACB, BAG, BCA, CAB和CBA,

        而每種排列組合都是一種可能的搜索結果排序方法。

        對于某個評分函數F來說,對3個搜索結果文檔的相關性打分,得到3個不同的相關度得分F(A)、 F(B)和F(C), 根據這3個得分就可以計算6種排列組合情況各自的概率值。 不同的評分函數,其6種搜索結果排列組合的概率分布是不一樣的。
      了解了什么是搜索結果排列組合的概率分布,我們介紹如何根據訓練實例找到最優的 評分函數。圖4展示了一個具體的訓練實例,即査詢Q1及其對應的3個文檔的得分情況,這個得分是由人工打上去的,所以可以看做是標準答案??梢栽O想存在一個最優的評分函數g,對查詢Q1來說,其打分結果是:A文檔得6分,B文檔得4分,C文檔得3分, 因為得分是人工打的,所以具體這個函數g是怎樣的我們不清楚,我們的任務就是找到一 個函數,使得函數對Ql的搜索結果打分順序和人工打分順序盡可能相同。既然人工打分 (虛擬的函數g) 已知,那么我們可以計算函數g對應的搜索結果排列組合概率分布,其具體分布情況如圖4中間的概率分布所示。假設存在兩個其他函數h和f,它們的計算方法已知,對應的對3個搜索結果的打分在圖上可以看到,由打分結果也可以推出每個函數對應的搜索結果排列組合概率分布,那么h與f哪個與虛擬的最優評分函數g更接近呢?一般可以用兩個分布概率之間的距離遠近來度量相似性,KL距離就是一種衡量概率分布差異大小的計算工具,通過分別計算h與g的差異大小及f與g的差異大小,可以看出f比h更接近的最優函數g,那么在這個函數中,我們應該優先選f作為將來搜索可用的評分函數,訓練過程就是在可能的函數中尋找最接近虛擬最優函數g的那個函數作為訓練結果,將來作為在搜索時的評分函數。

       上述例子只是描述了對于單個訓練實例如何通過訓練找到最優函數,事實上我們有K 個訓練實例,雖然如此,其訓練過程與上述說明是類似的,可以認為存在一個虛擬的最優 評分函數g (實際上是人工打分),訓練過程就是在所有訓練實例基礎上,探尋所有可能的 候選函數,從中選擇那個KL距離最接近于函數g的,以此作為實際使用的評分函數。 經驗結果表明,基于文檔列表方法

的機器學習排序效果要好于前述兩種方法。

聲明:本博客摘自《這就是搜索引擎:核心技術詳解》 第五章關于機器學習排序的內容。轉載請說明摘自出處。

轉自:http://blog.csdn.net/hguisu/article/details/7989489

原創文章,作者:s19930811,如若轉載,請注明出處:http://www.www58058.com/2728

(0)
s19930811s19930811
上一篇 2015-12-15 22:56
下一篇 2015-12-15 22:57

相關推薦

  • 網絡管理,程序管理

    lsmod |grep bond0 ifconfig bond0 down 關閉bonding服務 rmmod bonding  刪除 bonding 服務 lsmod |grep eth1000 查看  lsmod指令,會列出所有已載入系統的模塊 rmmod  刪除內核中的一模塊  查找網卡驅動e1000 rmmod…

    Linux干貨 2016-09-11
  • Linux發展史

    一、簡單的說: 一個名叫Linus Torvalds的芬蘭大學生想要了解Intel的新CPU386。他認為比較好的學習方法是自己編寫一個操作系統的內核。出于這種目的,加上他對當時Unix 變種版本(即Minix)對于80386類機器的脆弱支持十分不滿,他決定要開發出一個全功能的、支持POSIX標準的、類Unix的操作系統內核,該系統吸收了BSD和S…

    Linux干貨 2016-10-20
  • 0805隨堂練習

    文本處理練習: 1.找出本機ip地址  [root@localhost ~]# ifconfig |head -2 |tail -1 |tr -s ' ' ':' |cut -d: -f3  10.1.252.221 2.查看本機分區最大的利用率  [root@localhost ~]# …

    Linux干貨 2016-08-07
  • bash特性及bash腳本編程初步

    終端,附著在終端的接口程序: GUI:KDE, GNome, Xfce CLI:/etc/shells bash zsh fish   bash的特性: 命令行展開:~, {} 命令別名:alias, unalias 命令歷史:history 文件名通配:glob 快捷鍵:Ctrl+a, e, u, k, l 命令補全:$PATH 路徑補全: &n…

    Linux干貨 2016-11-21
  • 馬哥教育網絡班22期+第九周課程練習

    1. 寫一個腳本,判斷當前系統上所有用戶的shell是否為可登錄shell(即用戶的shell不是/sbin/nologin);分別這兩類用戶的個數;通過字符串比較來實現; #!/bin/bash#declare -a loginuserdeclare -i sum_login=0declare -i sum_nologin=0list=($(cat /et…

    Linux干貨 2017-01-03
  • 重返課堂

    1.學習目的: i. IT業發展日新月異,當前所掌握的知識已無法滿足工作需要。 ii. IT行業更新飛快,這就要求從業人員不斷的去學習,不斷的完善自己,才不至于被淘汰。 iii. 在這個大數據、云計算為王的時代,掌握Linux是入行“敲門磚”。 iv. 年齡已大,把握住人生不多的專門學習的機會,再博一次。 2.淺識Linux i. linux為何? Linu…

    2018-03-26
欧美性久久久久