免费观看又色又爽又黄的小说免费_美女福利视频国产片_亚洲欧美精品_美国一级大黄大色毛片

人工智能什么時候才能全面影響搜索算法?

2020-09-09    分類: 網站建設

過去一兩年,人工智能是最火的并且快速進入實用的技術。以前寫過人工智能將徹底改變SEO,也介紹過人工智能在搜索算法中的實際應用,但需要說明的是,到目前為止,人工智能在搜索算法中的應用并不廣泛。影響人工智能在搜索算法中大范圍使用的最主要因素可能是,搜索引擎工程師不知道人工智能系統到底是怎么做出判斷的,然后又導致另一個重要問題:很難debug。

人工智能是個黑盒子

用不太嚴格但容易理解的方式說,深度學習就是給現有數據(大量數據)打標簽,然后系統自己總結數據和結果(也就是所打的標簽)之間的關系,面對新數據時,就能依據自己總結的規律給出判斷。對圍棋來說,無論歷史棋局還是自我對弈,AlphaGo知道盤面,也知道結局(也是一種標簽),系統就會總結規律,面對新盤面時判斷贏棋的概率。但AI系統找到的是數據的哪些特征,與結果之間是怎樣的關系,連創造AI的工程師也不知道。

所以,現在的人工智能系統是個黑盒子。我們知道AI判斷的正確率高,但不知道為什么,不知道是怎么判斷的。

搜索算法中的AI也是如此。百度搜索工程師的說法很少見到,只是知道百度現在All In AI了。Google工程師明確表示過,他們對RankBrain到底是怎么工作的也不太清楚。在這種情況下,在算法中大量使用人工智能就比較麻煩了,一旦出現異常結果,不知道是什么原因,也無法debug。

寫這篇帖子是因為前些天看到一篇紐約時報的文章“AI能學會解釋它自己嗎?”,非常有意思。一位心理學家Michal Kosinski把 20 萬社交網絡賬號(是個約會網站)的照片及個人信息(包括很多內容,如性向)輸入面部識別人工智能系統,發現人工智能在只看到照片的情況下判斷性向準確率很高。人工通過照片判斷一個人是否同性戀的準確率是60%,比扔硬幣高一點,但人工智能判斷男性是否同性戀準確率高達91%,判斷女性低一些,也有83%。

從照片里是看不到音色語調、體態、日常行為、人際關系之類幫助判斷的信息的。同性戀有純相貌方面的特征嗎?我個人的經驗是,靠相貌判斷不大靠譜。我以前認識一對男同,他們都是很man的那種,常年健身,待人彬彬有禮但絕沒有女氣,從外表是看不出來的。也可能是依靠某種服飾特點?表情?背景?人工智能從照片中到底看到了什么我們人類很可能忽略了的特征,或者人類根本看不到的特征,并達到91%的準確率呢?不得而知,反正只是知道AI看得挺準。

不能解釋自己的AI無法被信任

這種黑箱特征有時候倒無關緊要,像是判斷一下性向。有時候就不能這么草率了,比如看病。雖然AI系統診斷某些癌癥的正確率已經達到人類醫生的水平,但最后結論,目前還是要醫生做,尤其是AI不能告訴我們它診斷的理由是什么的時候。除非以后AI能解釋它為什么做出這個診斷,不然讓人類100%信任AI是有比較大心理障礙的。

前幾天剛剛看到新聞,新加坡政府開始測試無人駕駛公共汽車。這顯然是個正確的方向,我也相信不久的將來就會成為現實。雖然自動駕駛汽車事故率比人低,理性上我們都知道其實更安全,但過馬路時,停在旁邊的公共汽車沒有司機,我會不會有點提心吊膽,怕它突然啟動?開車時扭頭一看,旁邊的Bus沒有司機,我會不會嚇一跳,下意識地離它遠點?至少初期會的吧。和幾個朋友聊起這個事,都是理性上相信,感性上心虛。

以前的程序是依靠確定性和因果關系運行的,比如搜索算法中哪些頁面特征是排名因素,各占多少權重,這是工程師挑出來的、確定的,雖然挑的時候可能就是拍腦袋決定的,但經過監測效果、調整參數,會達到一個比較滿意的平衡。人工智能系統并不依靠工程師給定的確定因果,而是更擅長于在概率和相關性中找到聯系。對人來說,以概率和相關為特征的判斷,經常就不好解釋理由了,比如也許是看心情,也許是看好看不好看。

要求AI系統解釋自己的判斷,不僅是心理上的問題,也許以后會變成倫理和法律上的問題,像看病。再比如涉及用戶利益的事情,像貸款,人工智能根據一大堆數據做出拒絕貸款的決定,銀行卻不能解釋為什么拒絕,對用戶該怎么交代?今年歐盟可能就要頒布法規,要求機器做出的決定必須有解釋。這對Google、Facebook等全球性的企業是個壓力。在很多領域,如軍事、法律、金融,所有決定都是要有人來承擔責任的,如果某個決定無法解釋原因,恐怕也沒有人敢承擔這個責任。

另一個需要AI解釋理由的原因是,前面提到,人工智能看的是概率和相關性,但看相關性做決定有時候會導致嚴重錯誤。紐約時報的文章舉了個例子。經過數據訓練的人工智能系統輔助醫院急診室分診,總體上看效果不錯,但研究人員還是不敢真的拿來實用,因為數據中的相關性可能誤導人工智能做出錯誤判斷。比如數據表明,患有肺炎的氣喘病人最后病愈情況好于平均水平,這個相關性是真實存在的。如果AI系統因為這個數據就給有肺炎的氣喘病人比較低的處理等級,那可能就要出事了。因為這些病人之所以最后情況良好,是因為他們一來就被給予高等級,得到最好最快的治療了。所以,有時候從相關性看不到真正的原因。

可解釋的人工智能

X.A.I.(Explainable AI)可解釋的人工智能,是剛剛興起的一個領域,目的就是讓AI對自己的判斷、決定和過程做出解釋。去年美國國防高級研究計劃局(Darpa )推出了David Gunning博士領導的XAI計劃。Google也依然是這個領域的者,Deep Dream好像就是這方面研究的一個副產品:


回到搜索算法及SEO,搜索引擎之所以還無法全面應用人工智能,其中一個原因也許就是人工智能的判斷沒有解釋、無法理解,如果算法使用目前的人工智能,一旦出現排名異常,工程師們將無法知道原因是什么,就更無法知道該怎么調整。

我想自動駕駛是最先AI實用化的領域之一,和能否解釋也有一定關系。自動駕駛汽車的大部分決定是不大需要解釋的,或者說解釋是一目了然的,距離前車太近所以要減速或者剎車,這類判斷應該不需要進一步解釋理由了。

SEO們大概都有過同樣的疑惑,某個競爭對手的頁面看著沒什么特殊的,內容不怎么樣,視覺設計一般,外鏈普通,頁面優化大家做的都一樣,為什么排名就那么好呢?現在的搜索算法還可以探究原因,搜索工程師們大概有內部工具可以看到排名的合理性。如果搜索工程師看著一個挺爛的頁面就是排在前面,卻也不知道原因,還無從查起,他們的內心可能就焦慮了。

XAI的研究才剛剛開始,這給了SEO們最后的緩沖期。從人工智能系統在其它領域碾壓人類的表現看,一旦大規模應用于搜索,作弊和黑帽SEO恐怕將成為過去,現在的常規SEO工作也許變得無足輕重,SEO們需要回到網站的本質:提供有用的信息或產品,別無他法。

當前題目:人工智能什么時候才能全面影響搜索算法?
鏈接URL:http://m.newbst.com/news/86122.html

成都網站建設公司_創新互聯,為您提供全網營銷推廣企業網站制作定制網站域名注冊做網站云服務器

廣告

聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創新互聯

營銷型網站建設