robots.txt是搜索引擎中訪問(wèn)網(wǎng)站的時(shí)候要查看的第一個(gè)文件。robots.txt文件告訴蜘蛛程序在服務(wù)器上什么文件是可以被查看和抓取的,哪些是不必查看和抓取的。當(dāng)搜索蜘蛛訪問(wèn)一個(gè)站點(diǎn)時(shí),它會(huì)首先檢查該站點(diǎn)根目錄下是否存在robots.txt,如果存在,搜索機(jī)器人就會(huì)按照該文件中的內(nèi)容來(lái)確定訪問(wèn)的范圍;如果該文件不存在,所有的搜索蜘蛛將能夠訪問(wèn)網(wǎng)站上所有沒(méi)有被口令保護(hù)的頁(yè)面。
軟優(yōu)化建議,僅當(dāng)您的網(wǎng)站包含不希望被搜索引擎收錄的內(nèi)容時(shí),才需要使用robots.txt文件。如果您希望搜索引擎收錄網(wǎng)站上所有內(nèi)容,請(qǐng)勿建立robots.txt文件。國(guó)內(nèi)著名的電商網(wǎng)站淘寶網(wǎng)為了網(wǎng)站的數(shù)據(jù)不外泄,對(duì)所有搜索蜘蛛進(jìn)行了屏蔽。
這樣做的好處在于,更好的保護(hù)網(wǎng)站的隱私,比如后臺(tái)文件,用戶(hù)注冊(cè)信息等。對(duì)于SEO來(lái)說(shuō),robots.txt可以對(duì)重復(fù)內(nèi)容、低質(zhì)量但是用戶(hù)必須要看的內(nèi)容進(jìn)行屏蔽,比如關(guān)于我們,聯(lián)系我們等頁(yè)面,還有樣式、js等文件都可以通過(guò)robots.txt屏蔽,也就是給搜索蜘蛛呈現(xiàn)的是網(wǎng)站好的一面,對(duì)用戶(hù)體驗(yàn)度差的進(jìn)行屏蔽,避免蜘蛛對(duì)網(wǎng)站造成不必要的困擾。我們?cè)谄帘蔚臅r(shí)候一定要反復(fù)推敲,避免將有價(jià)值的內(nèi)容進(jìn)行了屏蔽。
在SEO應(yīng)用中常見(jiàn)的屏蔽還有,比如你用了偽靜態(tài)技術(shù),就出現(xiàn)了兩個(gè)路徑或者多個(gè)路徑,這時(shí)候就要屏蔽動(dòng)態(tài)鏈接和其他鏈接,避免出現(xiàn)多個(gè)鏈接的情況,保證每個(gè)頁(yè)面訪問(wèn)路徑的唯一性。