2020-09-09 分類: 網站建設
過去一兩年,人工智能是最火的并且快速進入實用的技術。以前寫過人工智能將徹底改變SEO,也介紹過人工智能在搜索算法中的實際應用,但需要說明的是,到目前為止,人工智能在搜索算法中的應用并不廣泛。影響人工智能在搜索算法中大范圍使用的最主要因素可能是,搜索引擎工程師不知道人工智能系統到底是怎么做出判斷的,然后又導致另一個重要問題:很難debug。
人工智能是個黑盒子
用不太嚴格但容易理解的方式說,深度學習就是給現有數據(大量數據)打標簽,然后系統自己總結數據和結果(也就是所打的標簽)之間的關系,面對新數據時,就能依據自己總結的規律給出判斷。對圍棋來說,無論歷史棋局還是自我對弈,AlphaGo知道盤面,也知道結局(也是一種標簽),系統就會總結規律,面對新盤面時判斷贏棋的概率。但AI系統找到的是數據的哪些特征,與結果之間是怎樣的關系,連創造AI的工程師也不知道。
所以,現在的人工智能系統是個黑盒子。我們知道AI判斷的正確率高,但不知道為什么,不知道是怎么判斷的。
搜索算法中的AI也是如此。百度搜索工程師的說法很少見到,只是知道百度現在All In AI了。Google工程師明確表示過,他們對RankBrain到底是怎么工作的也不太清楚。在這種情況下,在算法中大量使用人工智能就比較麻煩了,一旦出現異常結果,不知道是什么原因,也無法debug。
寫這篇帖子是因為前些天看到一篇紐約時報的文章“AI能學會解釋它自己嗎?”,非常有意思。一位心理學家Michal Kosinski把 20 萬社交網絡賬號(是個約會網站)的照片及個人信息(包括很多內容,如性向)輸入面部識別人工智能系統,發現人工智能在只看到照片的情況下判斷性向準確率很高。人工通過照片判斷一個人是否同性戀的準確率是60%,比扔硬幣高一點,但人工智能判斷男性是否同性戀準確率高達91%,判斷女性低一些,也有83%。
從照片里是看不到音色語調、體態、日常行為、人際關系之類幫助判斷的信息的。同性戀有純相貌方面的特征嗎?我個人的經驗是,靠相貌判斷不大靠譜。我以前認識一對男同,他們都是很man的那種,常年健身,待人彬彬有禮但絕沒有女氣,從外表是看不出來的。也可能是依靠某種服飾特點?表情?背景?人工智能從照片中到底看到了什么我們人類很可能忽略了的特征,或者人類根本看不到的特征,并達到91%的準確率呢?不得而知,反正只是知道AI看得挺準。
不能解釋自己的AI無法被信任
這種黑箱特征有時候倒無關緊要,像是判斷一下性向。有時候就不能這么草率了,比如看病。雖然AI系統診斷某些癌癥的正確率已經達到人類醫生的水平,但最后結論,目前還是要醫生做,尤其是AI不能告訴我們它診斷的理由是什么的時候。除非以后AI能解釋它為什么做出這個診斷,不然讓人類100%信任AI是有比較大心理障礙的。
前幾天剛剛看到新聞,新加坡政府開始測試無人駕駛公共汽車。這顯然是個正確的方向,我也相信不久的將來就會成為現實。雖然自動駕駛汽車事故率比人低,理性上我們都知道其實更安全,但過馬路時,停在旁邊的公共汽車沒有司機,我會不會有點提心吊膽,怕它突然啟動?開車時扭頭一看,旁邊的Bus沒有司機,我會不會嚇一跳,下意識地離它遠點?至少初期會的吧。和幾個朋友聊起這個事,都是理性上相信,感性上心虛。
以前的程序是依靠確定性和因果關系運行的,比如搜索算法中哪些頁面特征是排名因素,各占多少權重,這是工程師挑出來的、確定的,雖然挑的時候可能就是拍腦袋決定的,但經過監測效果、調整參數,會達到一個比較滿意的平衡。人工智能系統并不依靠工程師給定的確定因果,而是更擅長于在概率和相關性中找到聯系。對人來說,以概率和相關為特征的判斷,經常就不好解釋理由了,比如也許是看心情,也許是看好看不好看。
要求AI系統解釋自己的判斷,不僅是心理上的問題,也許以后會變成倫理和法律上的問題,像看病。再比如涉及用戶利益的事情,像貸款,人工智能根據一大堆數據做出拒絕貸款的決定,銀行卻不能解釋為什么拒絕,對用戶該怎么交代?今年歐盟可能就要頒布法規,要求機器做出的決定必須有解釋。這對Google、Facebook等全球性的企業是個壓力。在很多領域,如軍事、法律、金融,所有決定都是要有人來承擔責任的,如果某個決定無法解釋原因,恐怕也沒有人敢承擔這個責任。
另一個需要AI解釋理由的原因是,前面提到,人工智能看的是概率和相關性,但看相關性做決定有時候會導致嚴重錯誤。紐約時報的文章舉了個例子。經過數據訓練的人工智能系統輔助醫院急診室分診,總體上看效果不錯,但研究人員還是不敢真的拿來實用,因為數據中的相關性可能誤導人工智能做出錯誤判斷。比如數據表明,患有肺炎的氣喘病人最后病愈情況好于平均水平,這個相關性是真實存在的。如果AI系統因為這個數據就給有肺炎的氣喘病人比較低的處理等級,那可能就要出事了。因為這些病人之所以最后情況良好,是因為他們一來就被給予高等級,得到最好最快的治療了。所以,有時候從相關性看不到真正的原因。
可解釋的人工智能
X.A.I.(Explainable AI)可解釋的人工智能,是剛剛興起的一個領域,目的就是讓AI對自己的判斷、決定和過程做出解釋。去年美國國防高級研究計劃局(Darpa )推出了David Gunning博士領導的XAI計劃。Google也依然是這個領域的者,Deep Dream好像就是這方面研究的一個副產品:
回到搜索算法及SEO,搜索引擎之所以還無法全面應用人工智能,其中一個原因也許就是人工智能的判斷沒有解釋、無法理解,如果算法使用目前的人工智能,一旦出現排名異常,工程師們將無法知道原因是什么,就更無法知道該怎么調整。
我想自動駕駛是最先AI實用化的領域之一,和能否解釋也有一定關系。自動駕駛汽車的大部分決定是不大需要解釋的,或者說解釋是一目了然的,距離前車太近所以要減速或者剎車,這類判斷應該不需要進一步解釋理由了。
SEO們大概都有過同樣的疑惑,某個競爭對手的頁面看著沒什么特殊的,內容不怎么樣,視覺設計一般,外鏈普通,頁面優化大家做的都一樣,為什么排名就那么好呢?現在的搜索算法還可以探究原因,搜索工程師們大概有內部工具可以看到排名的合理性。如果搜索工程師看著一個挺爛的頁面就是排在前面,卻也不知道原因,還無從查起,他們的內心可能就焦慮了。
XAI的研究才剛剛開始,這給了SEO們最后的緩沖期。從人工智能系統在其它領域碾壓人類的表現看,一旦大規模應用于搜索,作弊和黑帽SEO恐怕將成為過去,現在的常規SEO工作也許變得無足輕重,SEO們需要回到網站的本質:提供有用的信息或產品,別無他法。
文章題目:人工智能什么時候才能全面影響搜索算法?
當前網址:http://m.newbst.com/news22/86122.html
成都網站建設公司_創新互聯,為您提供網站內鏈、網站制作、域名注冊、全網營銷推廣、響應式網站、定制開發
聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創新互聯
猜你還喜歡下面的內容