1.Java處理大并發(fā)動態(tài)請求優(yōu)化的問題
Java和通用的Web服務器( Nginx或 Apache)相比,在處理大并發(fā)的HTP請求時要弱一點,所以一般我們都會對大流量的Web系統(tǒng)做靜態(tài)化改造,讓大部分請求和數據直接在 Nginx I服務器或者Web代理服務器( Varnish、 squid等)上直接返回(可以減少數據的序列化與反序列化),Java層只處理少量數據的動態(tài)請求。針對這些請求可以使用以下優(yōu)化手段:
直接使用 Servlet處理請求。避免使用傳統(tǒng)的MVC框架,這樣可以繞過一大堆復雜且用處不大的處理邏輯,節(jié)省1毫秒的時間一取決于對MVC框架的依賴程度;
直接輸出流數據。使用 resp. getoutputstreamo而不是 resp. get Writer)可以省掉一些不變字符數據的編碼,提升性能;數據輸出時,推薦使用JSON而不是模板引擎(一般都是解釋執(zhí)行)來輸出頁面。
2.同一商品被大并發(fā)讀的問題
也許有讀者會覺得這個問題很容易解決,無非就是將熱點數據放到Tair緩存里。集中式Tair緩存為了保證命中率一般都會采用一致性Hash,所以同一個key會落到同臺機器上。雖然單臺Tair緩存機器也能支撐1秒30萬次的請求,但還是遠不足以應付大秒級別的熱點商品,該如何徹底解決單點的瓶頸呢?答案是采用應用層的Localcache,即在秒殺系統(tǒng)的單機上緩存商品相關的數據。那么如何 Cache數據?答案是劃分成動態(tài)數據和靜態(tài)數據分別處理。
像商品的標題和描述這此機器上、并一直緩存到秒殺結束像庫存這類動態(tài)數據會采用被動失效的方式緩存一定時間(一般是數秒),失效后再去Tai緩存拉取最新的數據。
讀者可能還會有疑問,像庫存這種頻繁更新的數據一旦數據不一致會不會導致超賣?這就要用到前面介紹的讀數據的分層校驗原則了,讀的場景可以允許一定的臟數據,因為這里的誤判只會導致少量原本無庫存的下單請求被誤認為有庫存,可以等到真正寫數據時再保證最終的一致性,通過在數據的高可用性和一致性之間的平衡來解決高并發(fā)的數據讀取問題。
3.同一數據大并發(fā)更新問題
采用 Localcache和數據的分層校驗可以一定程度上解決大并發(fā)讀問題,但是無論如何還是避免不了減庫存這類的大并發(fā)寫問題,這也是秒殺場景中最核心的技術難題。
同一數據在數據庫里肯定是一行存儲( MYSQL),所以會有大量的線程來競爭INNODB行鎖,并發(fā)度越高時等待的線程也會越多,TPS會下降而RT會上升,數據庫的吞吐量會嚴重受到影響。這里會出現一個問題,即單個熱點商品會影響整個數據庫的性能,出現我們不愿意看到的0.01%商品影響9999的商品的情況。此處的解決思路也是要遵循前面介紹的第一個原則“隔離” 把熱點商品放到單獨的熱點庫中盡管這會帶來維護的麻煩(要做熱點數據的動態(tài)遷移以及單獨的數據庫等)把熱點商品分離到單獨的數據庫并沒有解決并發(fā)鎖的問題,要解決并發(fā)鎖問題有以下兩種辦法。
第一種是在應用層做排隊。按照商品維度設置隊列順序執(zhí)行,這樣能減少同一臺機器對數據庫同一行記錄操作的并發(fā)度,也能控制單個商品占用數據庫連接的數量防止熱點商品占用太多的數據庫連接。
第二種是在數據庫層做排隊。應用層只能做到單機的排隊,但是應用層機器數量很多,用這種排隊方式控制并發(fā)仍然是很有限的,如果能在數據庫層做全局排隊是最理想的。數據庫團隊開發(fā)了 MYSQL的 INNODB層上的 patch,可以做到在數據庫層上對單行記錄并發(fā)排隊。
你可能會有疑問:排隊和鎖競爭不都是要等得嗎,有何區(qū)別?如果熟悉 MYSQL的話,應該知道 INNODB內部的死鎖檢測以及 MYSQL Server和 INNODB的切換會比較耗性能, MYSQL核心團隊還做了很多其他方面的網站制作優(yōu)化,如 COMMIT_ON_ SUCCESS和 ROLLBACK ON FAIL的 patch,配合在SQL里面加hint,在事務里不需要等待應用層提交 COMMIT而在數據執(zhí)行完最后一條SQL后,根據 TARGET AFFECT ROW結果就直接提交或回滾,這樣可以減少網絡的等待時間(平均約0.7毫秒)。
本文地址:http://m.123beaconmarketing.com//article/4540.html