步驟一:抓取與爬行
相信大家對蜘蛛應該不陌生吧,它實質上就是搜索引擎派出的一個能夠在網上發現新網頁并且抓取文件的程序。這個程序通常稱之為蜘蛛。爬行是指搜索引擎通過網頁中出現的鏈接從而訪問更多的網頁的過程。蜘蛛在這些網頁上爬行過后,該網頁的地址會被存儲在數據庫中,等待被抓取。因此,蜘蛛發現新網頁的基本方法就是跟蹤網站上的鏈接,這也就使得搜索引擎優化的基本因素之一是反向鏈接。沒有反向鏈接,或者做不好反向鏈接,搜索引擎就不能發現新網頁,那么排名就更無從談起了。
步驟二:索引
索引指的是對蜘蛛抓取的頁面文件進行分解與分析,然后將分析出的信息列入到一個表格中并錄入數據庫的過程。一般存儲在數據庫中的信息包括字體的大小、顏色、加粗與否、是否為斜體等以及關鍵詞所在網頁的位置、網頁內容等信息。推薦閱讀:SEO搜索引擎優化的五個關鍵點
步驟三:處理搜索詞
所謂的搜索詞是指用戶在搜索引擎中輸入的關鍵詞。搜索引擎對這些搜索詞的處理過程一般是,去除停止詞,是否有必要開啟整合搜索,是否有錯別字、是否出現拼寫錯誤等。對搜索詞的處理一定要及時迅速。
步驟四:排序
處理過搜索詞后,搜索引擎程序便正式開始工作。具體的工作流程是將所有包含搜索詞的頁面從從索引數據庫中找出,然后由搜索引擎算法算出應該將哪些頁面排在前面,后并將結果以一定的格式返回到“搜索”頁面。完成這一步后,搜索引擎的工作才算告一段落。