2021-10-07 分類: 網站建設
我們在做優化時,往往會出現這樣或那樣的錯誤,對于優化過度或是優化不夠都會影響到整體的效果,所以我們要找一個合適的度,以此來展現我們大的能力。常常會發現,站長們在優化網站的時候,出現這樣或那樣的錯誤而導致我們的排名很不理想,從而糾結于此,下面就來說說我們在優化過程中經常都容易忽視的幾點錯誤,進而發現網站存在的一些隱患和一些有礙關鍵詞排名的錯誤。作為一個SEO工作者當然也必須要具備及時發現這些錯誤的能力,以快速達到網站優化改善的目的。
一、網站的各項數據檢查
經常檢查的收錄數據,而非單單只看數量。我們要根據百度或谷歌提供的數據來觀察收錄的頁面,并檢查都收錄了哪些頁面,這些頁面的質量如何是否存在大量的重復頁面或無實際內容,質量低劣的頁面。我們經常會通過收錄數據觀察到一些網站的收錄的異常現象。像這些對網站優化是有害鏈接頁面,都是我們要仔細觀察的。像我們網站就出現過這樣的問題如圖:
二、頁面樣本文字檢查
頁面的樣本文字占有比例的多少是我們直接檢查的重點,因為樣本文字會直接影響到我們網站的收錄和長尾關鍵詞排名。樣本文字的內容若超過正文內容導致頁面質量下降,影響排名和全站收錄。
樣板文字比較容易出現的是第一個就是分類過細,產品不多,分類過細導致每個頁面的有大量的重復內容文字造成相似度過高。第二個就是新聞內容放置過多的簡介,導致內容過多。
常見的就是每個網站底部的一個版權說明,有的網站會在下面放置過多的內容,比如地址,電話什么的,其實這些在網站其它地方已經突顯出來了,就沒有必要再次的重復出現,底部做到一個精簡是最好的。
三、Robots.txt文件的檢查
檢查網站的Robots.txt是非常必要的,我們要知道我們的網站Robots.txt有沒有起到凈化網站的作用,就必須時刻檢查我們的 Robots.txt文件。它在網站優化中起到相當大的作用,當蜘蛛搜索站點時,首先檢查的是該網站的根目錄下是否存在Robots.txt文件,它會按照該文件的內容來確定訪問范圍。Robots.txt文件就像網站地圖一樣,是給搜索引擎蜘蛛指明道路的,對網站的頁面收錄起到橋梁的作用。當然如果我們的網站連Robots.txt都沒有編寫那就相當于是讓我們的網站在互聯網上裸奔了,其結果可想而知。
四、網站路徑設置檢查
網站路徑檢查,主要是要查詢網站的目錄路徑是不是唯一性,路徑唯一性是避免權重分散的要點。檢查路徑的設置是否出現中文,如下圖
因為中文路徑更難被搜索引擎抓取,而且很難收錄,筆者很早之前曾做過一個互動百科的詞條就是這種情況,到現在還沒有被收錄。
五、網站的穩定性檢查
頁面穩定性的檢查主要操作是要對IIS日志檢查監控觀察,這也是我們優化工作者必備的能力之一。如果百度蜘蛛(Baiduspider)和谷歌機器人(Googlebot)均出現了 500 、503、504等狀態碼,次數越多說明是服務器和程序越不穩定了。如果出現404越多,說明死鏈接越多。另外如果出現了大量的200情況,你一定要檢查一下所在搜索引擎爬取程序的IP,最好是檢查一下是否假的百度蜘蛛或谷歌機器人爬取程序。真假蜘蛛辨別方法:Baiduspider ip的hostname以 *.baidu.com的格式命名,非 *.baidu.com即為冒充,建議使用DNS反查方式來確定抓取來源的ip是否屬于百度。在windows平臺下,可以用nslookup命令反解ip來判斷是否來自Baiduspider的抓取。點擊 “開始”-“運行”-“cmd”-“輸入nslookup IP地址”-“回車”。
網站欄目:網站優化中一些常常被忽視的錯誤做法
文章起源:http://vcdvsql.cn/news1/130201.html
成都網站建設公司_創新互聯,為您提供網站制作、微信公眾號、手機網站建設、品牌網站建設、電子商務、網站建設
聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創新互聯
猜你還喜歡下面的內容