
在 2004 年,Lee Holloway(https://twitter.com/icqheretic)和我創建了 Project Honey Pot
(http://www.projecthoneypot.org/)。這個網站,會追蹤線上欺詐和濫用,主要由報告 IP
位址聲譽的網頁所構成。既然我們的資源有限,並且試著盡可能發揮它們的用處,我就去
查了一下 Google,它的索引(index)中列出了構成 www.projecthoneypot.org(http://www.
projecthoneypot.org/)網站的三千一百多萬個網頁。
Project Honey Pot 的網頁相對簡單,所含資源也不多,不過就像今日多數的網站一樣,它
們包含了大量的動態內容,會以不可預期的時間區隔,規律的更新。要達到近乎即時的更
新,網頁背後必須由資料庫來驅動。
為了最佳化網站的效能,從一開始我們就用了數個不同的快取層來儲存最常被存取的頁
面。Lee 的背景是高效能資料庫的設計,他研究了從 Google Analytics 之類的服務所得來
的報告,以了解使用者在網站中移動的模式,藉此建立快取,讓經常被存取的網頁沒有必
要動到資料庫。
我們認為我們的做法很聰明,但是儘管依循了 web 應用程式效能設計的最佳實務,網站
時常還是會變得很緩慢。後來我們發現,罪魁禍首竟是從來沒想過、隱藏在許多 web 效
能優化人員目光之後的自動化網路機器人(automated bots)。
一般的網站大約有超過 20% 的請