牛逼了!Python 接口優(yōu)化,性能提升25倍!
背景
我們負責的一個(gè)業(yè)務(wù)平臺,有次在發(fā)現設置頁(yè)面的加載特別特別地慢,簡(jiǎn)直就是令人發(fā)指
讓用戶(hù)等待 36s 肯定是不可能的,于是我們就要開(kāi)啟優(yōu)化之旅了。
投石問(wèn)路
既然是網(wǎng)站的響應問(wèn)題,可以通過(guò) Chrome 這個(gè)強大的工具幫助我們快速找到優(yōu)化方向。
通過(guò) Chrome 的 Network 除了可以看到接口請求耗時(shí)之外,還能看到一個(gè)時(shí)間的分配情況,選擇一個(gè)配置沒(méi)有那么多的項目,簡(jiǎn)單請求看看:
雖然只是一個(gè)只有三條記錄的項目,加載項目設置都需要 17s,通過(guò) Timing, 可以看到總的請求共耗時(shí) 17.67s ,但有 17.57s 是在 Waiting(TTFB) 狀態(tài)。
TTFB 是 Time to First Byte 的縮寫(xiě),指的是瀏覽器開(kāi)始收到服務(wù)器響應數據的時(shí)間(后臺處理時(shí)間+重定向時(shí)間),是反映服務(wù)端響應速度的重要指標。
Profile 火焰圖 + 代碼調優(yōu)
那么大概可以知道優(yōu)化的大方向是在后端接口處理上面,后端代碼是 Python + Flask 實(shí)現的,先不盲猜,直接上 Profile:
說(shuō)實(shí)話(huà)看到這段代碼是絕望的:完全看不出什么?只是看到很多 gevent 和 Threading,因為太多協(xié)程或者線(xiàn)程?
這時(shí)候一定要結合代碼來(lái)分析(為了簡(jiǎn)短篇幅,參數部分用 “...” 代替):
?def get_max_cpus(project_code, gids):
"""
"""
...
# 再定義一個(gè)獲取 cpu 的函數
def get_max_cpu(project_setting, gid, token, headers):
group_with_machines = utils.get_groups(...)
hostnames = get_info_from_machines_info(...)
res = fetchers.MonitorAPIFetcher.get(...)
vals = [
round(100 - val, 4)
for ts, val in res['series'][0]['data']
if not utils.is_nan(val)
]
max_val = max(vals) if vals else float('nan')
max_cpus[gid] = max_val
# 啟動(dòng)線(xiàn)程批量請求
for gid in gids:
t = Thread(target=get_max_cpu, args=(...))
threads.append(t)
t.start()
# 回收線(xiàn)程
for t in threads:
t.join()
return max_cpus
通過(guò)代碼可以看到,為了更加快速獲取 gids 所有的 cpu_max 數據,為每個(gè) gid 分配一個(gè)線(xiàn)程去請求,最終再返回最大值。
這里會(huì )出現兩個(gè)問(wèn)題:
在一個(gè) web api 做線(xiàn)程的 創(chuàng )建 和 銷(xiāo)毀 是有很大成本的,因為接口會(huì )頻繁被觸發(fā),線(xiàn)程的操作也會(huì )頻繁發(fā)生,應該盡可能使用線(xiàn)程池之類(lèi)的,降低系統花銷(xiāo); 該請求是加載某個(gè) gid (群組) 下面的機器過(guò)去 7 天的 CPU 最大值,可以簡(jiǎn)單拍腦袋想下,這個(gè)值不是實(shí)時(shí)值也不是一個(gè)均值,而是一個(gè)最大值,很多時(shí)候可能并沒(méi)有想象中那么大價(jià)值;
既然知道問(wèn)題,那就有針對性的方案:
調整功能設計,不再默認加載 CPU 最大值,換成用戶(hù)點(diǎn)擊加載(一來(lái)降低并發(fā)的可能,二來(lái)不會(huì )影響整體); 因為 1 的調整,去掉多線(xiàn)程實(shí)現;
再看第一波優(yōu)化后的火焰圖:
這次看的火焰圖雖然還有很大的優(yōu)化空間,但起碼看起來(lái)有點(diǎn)正常的樣子了。
第二波優(yōu)化:Mysql 操作優(yōu)化處理
我們再從頁(yè)面標記處(接口邏輯處)放大火焰圖觀(guān)察:
看到好大一片操作都是由 utils.py:get_group_profile_settings
這個(gè)函數引起的數據庫操作熱點(diǎn)。
同理,也是需要通過(guò)代碼分析:
def get_group_profile_settings(project_code, gids):
# 獲取 Mysql ORM 操作對象
ProfileSetting = unpurview(sandman.endpoint_class('profile_settings'))
session = get_postman_session()
profile_settings = {}
for gid in gids:
compound_name = project_code + ':' + gid
result = session.query(ProfileSetting).filter(
ProfileSetting.name == compound_name
).first()
if result:
result = result.as_dict()
tag_indexes = result.get('tag_indexes')
profile_settings[gid] = {
'tag_indexes': tag_indexes,
'interval': result['interval'],
'status': result['status'],
'profile_machines': result['profile_machines'],
'thread_settings': result['thread_settings']
}
...(省略)
return profile_settings
看到 Mysql ,第一個(gè)反應就是 索引問(wèn)題,所以?xún)?yōu)先去看看數據庫的索引情況,如果有索引的話(huà)應該不會(huì )是瓶頸:
很奇怪這里明明已經(jīng)有了索引了,為什么速度還是這個(gè)鬼樣子呢!
正當毫無(wú)頭緒的時(shí)候,突然想起在 第一波優(yōu)化 的時(shí)候, 發(fā)現 gid(群組)越多的影響越明顯,然后看回上面的代碼,看到那句:
for gid in gids:
...
我仿佛明白了什么。
這里是每個(gè) gid 都去查詢(xún)一次數據庫,而項目經(jīng)常有 20 ~ 50+ 個(gè)群組,那肯定直接爆炸了。
其實(shí) Mysql 是支持單字段多值的查詢(xún),而且每條記錄并沒(méi)有太多的數據,我可以嘗試下用 Mysql 的 OR 語(yǔ)法,除了避免多次網(wǎng)絡(luò )請求,還能避開(kāi)那該死的 for
正當我想事不宜遲直接搞起的時(shí)候,余光瞥見(jiàn)在剛才的代碼還有一個(gè)地方可以?xún)?yōu)化,那就是:
看到這里,熟悉的朋友大概會(huì )明白是怎么回事。
GetAttr 這個(gè)方法是Python 獲取對象的 方法/屬性 時(shí)候會(huì )用到,雖然不可不用,但是如果在使用太過(guò)頻繁也會(huì )有一定的性能損耗。
結合代碼一起來(lái)看:
def get_group_profile_settings(project_code, gids):
# 獲取 Mysql ORM 操作對象
ProfileSetting = unpurview(sandman.endpoint_class('profile_settings'))
session = get_postman_session()
profile_settings = {}
for gid in gids:
compound_name = project_code + ':' + gid
result = session.query(ProfileSetting).filter(
ProfileSetting.name == compound_name
).first()
...
在這個(gè)遍歷很多次的 for 里面,session.query(ProfileSetting) 被反復無(wú)效執行了,然后 filter 這個(gè)屬性方法也被頻繁讀取和執行,所以這里也可以被優(yōu)化。
總結下的問(wèn)題就是:
1. 數據庫的查詢(xún)沒(méi)有批量查詢(xún);
2. ORM 的對象太多重復的生成,導致性能損耗;
3. 屬性讀取后沒(méi)有復用,導致在遍歷次數較大的循環(huán)體內頻繁 getAttr,成本被放大;
那么對癥下藥就是:
def get_group_profile_settings(project_code, gids):
# 獲取 Mysql ORM 操作對象
ProfileSetting = unpurview(sandman.endpoint_class('profile_settings'))
session = get_postman_session()
# 批量查詢(xún) 并將 filter 提到循環(huán)之外
query_results = query_instance.filter(
ProfileSetting.name.in_(project_code + ':' + gid for gid in gids)
).all()
# 對全部的查詢(xún)結果再單條處理
profile_settings = {}
for result in query_results:
if not result:
continue
result = result.as_dict()
gid = result['name'].split(':')[1]
tag_indexes = result.get('tag_indexes')
profile_settings[gid] = {
'tag_indexes': tag_indexes,
'interval': result['interval'],
'status': result['status'],
'profile_machines': result['profile_machines'],
'thread_settings': result['thread_settings']
}
...(省略)
return profile_settings
優(yōu)化后的火焰圖:
對比下優(yōu)化前的相同位置的火焰圖:
明顯的優(yōu)化點(diǎn):優(yōu)化前的,最底部的 utils.py:get_group_profile_settings 和 數據庫相關(guān)的熱點(diǎn)大大縮減。
優(yōu)化效果
同一個(gè)項目的接口的響應時(shí)長(cháng)從 37.6 s 優(yōu)化成 1.47s,具體的截圖:
如同一句名言:
如果一個(gè)數據結構足夠優(yōu)秀,那么它是不需要多好的算法。
在優(yōu)化功能的時(shí)候,最快的優(yōu)化就是:去掉那個(gè)功能!
其次快就是調整那個(gè)功能觸發(fā)的 頻率 或者 復雜度!
從上到下,從用戶(hù)使用場(chǎng)景去考慮這個(gè)功能優(yōu)化方式,往往會(huì )帶來(lái)更加簡(jiǎn)單高效的結果,嘿嘿!
當然很多時(shí)候我們是無(wú)法那么幸運的,如果我們實(shí)在無(wú)法去掉或者調整,那么就發(fā)揮做程序猿的價(jià)值咯:Profile
針對 Python 可以嘗試:cProflile + gprof2dot
而針對 Go 可以使用: pprof + go-torch
很多時(shí)候看到的代碼問(wèn)題都不一定是真正的性能瓶頸,需要結合工具來(lái)客觀(guān)分析,這樣才能有效直擊痛點(diǎn)!
其實(shí)這個(gè) 1.47s,其實(shí)還不是最好的結果,還可以有更多優(yōu)化的空間,比如:
前端渲染和呈現的方式,因為整個(gè)表格是有很多數據組裝后再呈現的,響應慢的單元格可以默認先顯示 菊花,數據返回再更新; 火焰圖看到還有挺多細節可以?xún)?yōu)化,可以替換請求數據的外部接口,比如再優(yōu)化徹底 GetAttr 相關(guān)的邏輯; 更極端就是直接 Python 轉 GO;
但是這些優(yōu)化已經(jīng)不是那么迫切了,因為這個(gè) 1.47s 是比較大型項目的優(yōu)化結果了,絕大部分的項目其實(shí)不到 1s 就能返回
再優(yōu)化可能付出更大成本,而結果可能也只是從 500ms 到 400ms 而已,結果并不那么高性?xún)r(jià)比。
所以我們一定要時(shí)刻清晰自己優(yōu)化的目標,時(shí)刻考慮 投入產(chǎn)出比,在有限的時(shí)間做出比較高的價(jià)值(如果有空閑時(shí)間當然可以盡情干到底)