網站優化最常遇到的一個問題就是新網站上線很久了,卻沒有正常收錄。不收錄的話什么時候排名?到底是什么原因造成的?今天,邊肖分享了四個常見的原因。
seo新站遲遲不收錄有哪4個原因?
一、robots.txt文件
Robots.txt文件對于網站優化前期非常重要。設置的好的話,網站優化的排名周期會縮短,做的不好的話,連網站收錄都是問題。比如很多網站上線或者改版后,經常會在百度快照上看到這樣一句話:“由于本網站的robots.txt文件有限制,系統無法提供本頁面的內容描述?!辈欢男率忠话銜J為搜索引擎抓取有問題。發生了什么事?其實這明顯是網站對robots文件的屏蔽操作造成的。在這種情況下,網站不被收錄是完全正常的。邊肖只想說,不修改robots.txt文件就沒有別的辦法拉出來!不知道如何寫robots.txt文件的童鞋可以參考這篇文章:《規范搜索引擎抓取收錄的書寫》。
另外,robots.txt文件還沒有被收錄到網站中還有一個原因,就是在網站上線初期,很多朋友認為網站內容不夠完善,需要調整,所以在robots.txt文件中寫了禁止所有搜索引擎蜘蛛抓取,以為等網站完善了就改規則讓搜索引擎蜘蛛抓取。邊肖只想說每個人都有脾氣。搜索引擎蜘蛛雖然是機器,但是脾氣絕對不小。你的網站可以正常打開,被拒之門外一次,但還是被拒之門外兩三次。然后搜索引擎蜘蛛啟動它的記憶功能。這家伙給我的第一印象非常不好,好幾次都不請我進去。后果可想而知。所以即使過一段時間取消了禁止規則,蜘蛛也很久沒有訪問了,網站不收錄也很正常。
二、網站框架
不得不說,很多SEOer都有一個很嚴重的問題:不會建網站。事實是,80%的seoer只設置網站模板,然后簡單修改就完成了網站建設。雖然很多優秀的SEO網站也是這么做的,但更多的是失敗的例子。搜索引擎之所以會收錄這個網站的頁面,是因為這個頁面的框架符合抓取規則,否則網站都是js和圖片,搜索引擎根本難以識別。即使網站的框架符合規則,蜘蛛爬行后也難免會被過濾刪除,符合其胃口的頁面才會真正被收錄。這期間很重要的一點就是不要頻繁更換網站的框架,否則網站不收錄也是合理的!蜘蛛喜歡專一的人,這樣才能有好感和信任。
三、頁面內容
很多SEOer都認同搜索引擎是“內容為王”,其實是接近的。網站內容的重要性幾乎可以影響整個網站的優化排名結果。舉個簡單的例子,一個網站站點的基礎優化是優秀的,無可挑剔的,但是網站的內容是采集的,也就是別人所有的拷貝。因此,幾乎沒有這個網站的頁面被收錄。原因當然是搜索引擎通過計算知道了你的。另一個網站基礎優化差,頁面也不好,但是它的網站內容是原創的,也只是符合用戶需求的內容。結果這個網站的頁面基本都被收錄了,排名還不錯。
一般來說,搜索引擎尋找的是有價值的內容。如果一個網站沒有有價值的內容,那么這個網站在搜索引擎眼里就是低價值的,無論這個網站的特效對用戶來說是多么的漂亮、大氣、炫目。邊肖認為,網站內容的原創性不是重點。關鍵是這個內容有沒有重復,對用戶有沒有價值。只要不是對用戶有價值的完全一樣的內容,頁面收錄都不是問題!
四、黑帽技術
之前有個SEOer的朋友,在他的新網站上線的時候沾沾自喜。前幾天他找到我,告訴我網站收藏全沒了。再三追問才知道,黑帽技術是用來加速網站收錄的。被處罰后至今未恢復。在此,我想告誡朋友們,不要違反搜索引擎制定的規則,千萬不要做明文規定為懲罰的事情。誰試了都知道,倒霉的最后是自己。雖然短期效果很誘人,但是一旦他們受到懲罰,前期付出的努力不就白費了嗎?所以,正規的白帽SEO是帶來長期收益的最好方式,要做,要珍惜。