福州網站建設>網站新聞>站長新聞

        巧用百度站長平臺查看SEO外鏈問題

        發布日期:2016-05-19瀏覽次數:1521 來源:福州網站建設

        站長之家(Chinaz.com)注:網站鏈接分析,源于對Web結構中超鏈接的多維分析,是網站優化運營中不可缺少問題診斷方法。百度站長平臺也推出其官方的鏈接分析工具。那么,我們該如何利用好百度站長工具的鏈接分析功能,來定位網站可能存在的SEO問題呢?

        以下為來自百度站長社區斑竹響1亮2的3名4字的分享:

        有一次在社區里面看到有站長朋友提問,說百度站長工具的鏈接分析里,怎么出現了錨文本是@NULL@的數據,感到非常不明覺厲。

        然后我就試著聯系了一些平時經常打交道的站長朋友,問了下他們是否關注過百度站長工具中的鏈接分析,是否定期進行過統一分析,當出現大量死鏈數據時,是否對問題進行了定位……結果發現有很多站長朋友,在平時很少進行這樣的分析工作,所以當出現問題的時候,就感到不明覺厲,不由得大罵度娘坑爹。

        實際上,度娘到底坑不坑爹我是不知道啦,不過我想說度娘只是把問題反映出來,更多地還需要我們自己去定位問題并進行處理,才能確保網站不會因為該問題而受到較大程度的影響。

        于是,我就有了制作本期專題的打算。

        本文首發于站長學院:http://zhanzhang.baidu.com/college/articleinfo?id=838

        1、本文的主要內容有哪些呢?

        (1)查找是否有黑鏈出現——從日志分析,百度蜘蛛抓取了網站的哪些預期外的頁面,是否存在黑鏈。(這個可能要先賣個關子,因為這又是個大工程啦,本期專題會提到一些)

        (2)百度站長工具外鏈分析——查看是否有垃圾外鏈、黑鏈等,以及鏈向的站內什么地方,如何處理。(本期里面也有所涉及)

        (3)百度站長工具鏈接分析——三大死鏈(內鏈死鏈、鏈出死鏈、鏈入死鏈),批量下載數據,合并數據,excel操作,按邏輯分類,定位問題,處理問題。(定位和處理,材料不夠,因為好多已經處理過了,沒有材料了= =|||||)

        (4)從分析這些數據,得到的與SEO效果相關的其他信息(垃圾搜索引擎、垃圾外鏈帶來的無用抓取,浪費資源配額,如何拒絕。)

        (5)如何自動化地使用shell腳本,定位到被百度蜘蛛抓取到的死鏈,并進行復查,然后將確定為死鏈的URL進行自動化提交。(本期專題內容太多,留作下期專題用)

        (6)分析工具介紹(firefox設置,插件,excel,windows命令提示符批處理)

        2、本文中主要使用到的工具

        (只是結合例子中,如果有其他相似功能的工具,請結合自身習慣使用即可)

        【瀏覽器】火狐(Firefox)瀏覽器,版本無所謂

        【插件】:Launch Clipboard

        功能:一鍵打開剪切板中存在的URL。(注意URL中只能有英文數字標點,如果有中文可能無法被識別)。快捷鍵:alt + shift +K(先復制好單個或者多個URL)

        設置:打開選項設置,選擇好下載文件自動保存的位置(我這里選擇了桌面,你也可以單獨創建一個文件夾,好對批量下載的文件進行歸類)

        【表格處理】:Microsoft Office 2013 Excel

        【文本處理】:Notepad++

        【批量處理】:Windows自帶命令提示符

        一、我們可以先看一下外鏈分析。

        分析外鏈數據的主要目的是,找出垃圾外鏈,主動去封堵垃圾外鏈可能對網站造成的惡劣影響。最終目標:

        1、找到垃圾外鏈的域名,進行防盜鏈處理(針對來源為垃圾域名的,直接返回404狀態碼);

        2、處理站內可能存在問題的頁面。

        這里,我會重點講解第一點;第二點比較簡單,我會講解得比較粗略。

        1、定位出垃圾域名。

        3.png

        圖注:可以看到這是一個明顯不正常的趨勢圖

        我們可以下載外鏈數據,來進行初步分析。

        4.png

        圖注:下載得到的表格文件(csv逗號分隔符)

        但是這樣一份原始數據,是很難進行分析的。因此我們需要按照一定邏輯對其進行分析——就是按照【被鏈接的網頁url】進行分類。

        首先,我們可以快速瀏覽一下,進行直觀判斷,這些頁面大部分是什么頁面呢?

        針對我們網站的情況來說,外鏈數據分為兩類,正常外鏈與垃圾外鏈。

        而垃圾外鏈又分為兩種:站內搜索結果頁面(垃圾搜索詞)以及被黑客入侵植入的黑鏈(已經處理為死鏈)。

        我們進行數據處理的目的有兩個:識別出哪些是正常外鏈,哪些是垃圾外鏈,并根據垃圾外鏈的相關數據,進行一些處理,保護好網站;并且需要使被垃圾鏈接指向的頁面,不被搜索引擎抓取(浪費抓取資源配額)以及被收錄/索引(保證網站詞庫不受污染,不為網站帶來形象與關鍵詞方面的負面影響)。

        第一步,篩選出網站的搜索結果頁面

        5.png

        6.png

        圖注:篩選數據、復制到新的sheet中,刪除原始sheet中的篩選數據,來分類數據

        還有幾類搜索鏈接格式,都以相同方式進行處理。

        然后把原始sheet中剩下的數據進行去重(空白行),得到剩余的鏈接信息。

        7.png

        圖注:對剩余數據進行簡單的去重處理。

        然后,我們需要對黑鏈進行篩選。黑鏈的數據,一般需要先從網站日志中分析得到(這樣是最全面的,為了保證效率,會需要使用到shell腳本來自動運行,但是涉及篇幅過多,我將在以后的專題中進行講解)。

        當然也可以對表格中【被鏈接的網頁url】這一列按照順序排序后,挨著分析得到(自己去打開,同時黑客會使用一些特殊手段,妨礙我們去識別真正的會被搜索引擎識別到的垃圾內容,最常見的情況就是,使用js跳轉。這樣我們通過瀏覽器訪問時,會看到完全不一樣的內容,而搜索引擎抓取時,則下載到了垃圾內容。)

        這時,我們需要使用一款firefox插件【No Script】,旨在屏蔽網站上的js,看到與搜索引擎類似的內容。

        8.png

        圖注:屏蔽瀏覽器中java script的插件

        另外還有一種不是很靠譜的甄選方法,在搜索引擎里面去搜:【site:域名 博彩】之類的關鍵詞,把不符合網站預期的關鍵詞拿去搜,就可以得到很多鏈接了。(這里需要使用一些方法,把鏈接全都批量導出,在今后的專題中,我會繼續講解的)

        注:相關網站建設技巧閱讀請移步到建站教程頻道。

        以上是由福州網站建設的小編為你分享了"巧用百度站長平臺查看SEO外鏈問題"文章,如果你在這方面有什么問題,隨時聯系我們

        站長新聞有關的文章
        如果您有什么問題,歡迎咨詢我們客服! 點擊QQ咨詢