国产激情自拍_国产9色视频_丁香花在线电影小说观看 _久久久久国产精品嫩草影院

首頁 > 數據庫 > PostgreSQL > 正文

在PostgreSQL中使用數組時值得注意的一些地方

2020-10-29 21:49:57
字體:
來源:轉載
供稿:網友

在Heap中,我們依靠PostgreSQL支撐大多數后端繁重的任務,我們存儲每個事件為一個hstore blob,我們為每個跟蹤的用戶維護一個已完成事件的PostgreSQL數組,并將這些事件按時間排序。 Hstore能夠讓我們以靈活的方式附加屬性到事件中,而且事件數組賦予了我們強大的性能,特別是對于漏斗查詢,在這些查詢中我們計算不同轉化渠道步驟間的輸出。

在這篇文章中,我們看看那些意外接受大量輸入的PostgreSQL函數,然后以高效,慣用的方式重寫它。

你的第一反應可能是將PostgreSQL中的數組看做像C語言中對等的類似物。你之前可能用過變換陣列位置或切片來操縱數據。不過要小心,在PostgreSQL中不要有這樣的想法,特別是數組類型是變長的時,比如JSON、文本或是hstore。如果你通過位置來訪問PostgreSQL數組,你會進入一個意想不到的性能暴跌的境地。


這種情況幾星期前在Heap出現了。我們在Heap為每個跟蹤用戶維護一個事件數組,在這個數組中我們用一個hstore datum代表每個事件。我們有一個導入管道來追加新事件到對應的數組。為了使這一導入管道是冪等的,我們給每個事件設定一個event_id,我們通過一個功能函數重復運行我們的事件數組。如果我們要更新附加到事件的屬性的話,我們只需使用相同的event_id轉儲一個新的事件到管道中。

所以,我們需要一個功能函數來處理hstores數組,并且,如果兩個事件具有相同的event_id時應該使用數組中最近出現的那個。剛開始嘗試這個函數是這樣寫的:
 

-- This is slow, and you don't want to use it!---- Filter an array of events such that there is only one event with each event_id.-- When more than one event with the same event_id is present, take the latest one.CREATE OR REPLACE FUNCTION dedupe_events_1(events HSTORE[]) RETURNS HSTORE[] AS $$ SELECT array_agg(event) FROM (  -- Filter for rank = 1, i.e. select the latest event for any collisions on event_id.  SELECT event  FROM (   -- Rank elements with the same event_id by position in the array, descending.

這個查詢在擁有2.4GHz的i7CPU及16GB Ram的macbook pro上測得,運行腳本為:https://gist.github.com/drob/9180760。


在這邊究竟發生了什么呢? 關鍵在于PostgreSQL存貯了一個系列的hstores作為數組的值, 而不是指向值的指針. 一個包含了三個hstores的數組看起來像

{“event_id=>1,data=>foo”, “event_id=>2,data=>bar”, “event_id=>3,data=>baz”}

相反的是

{[pointer], [pointer], [pointer]}

 

對于那些長度不一的變量, 舉個例子. hstores, json blobs, varchars,或者是 text fields, PostgreSQL 必須去找到每一個變量的長度. 對于evaluateevents[2], PostgreSQL 解析從左側讀取的事件直到讀取到第二次讀取的數據. 然后就是 forevents[3], 她再一次的從第一個索引處開始掃描,直到讀到第三次的數據! 所以, evaluatingevents[sub]是 O(sub), 并且 evaluatingevents[sub]對于在數組中的每一個索引都是 O(N2), N是數組的長度.

PostgreSQL能得到更加恰當的解析結果,  它可以在這樣的情況下分析該數組一次. 真正的答案是可變長度的元素與指針來實現,以數組的值, 以至于,我們總能夠處理 evaluateevents[i]在不變的時間內.


即便如此,我們也不應該讓PostgreSQL來處理,因為這不是一個地道的查詢。除了generate_subscripts我們可以用unnest,它解析數組并返回一組條目。這樣一來,我們就不需要在數組中顯式加入索引了。
 

-- Filter an array of events such that there is only one event with each event_id.-- When more than one event with the same event_id, is present, take the latest one.CREATE OR REPLACE FUNCTION dedupe_events_2(events HSTORE[]) RETURNS HSTORE[] AS $$ SELECT array_agg(event) FROM (  -- Filter for rank = 1, i.e. select the latest event for any collisions on event_id.  SELECT event  FROM (   -- Rank elements with the same event_id by position in the array, descending.   SELECT event, row_number AS index, rank()   OVER (PARTITION BY (event -> 'event_id')::BIGINT ORDER BY row_number DESC)   FROM (    -- Use unnest instead of generate_subscripts to turn an array into a set.    SELECT event, row_number()    OVER (ORDER BY event -> 'time')    FROM unnest(events) AS event   ) unnested_data  ) deduped_events  WHERE rank = 1  ORDER BY index ASC ) to_agg;$$ LANGUAGE SQL IMMUTABLE;

結果是有效的,它花費的時間跟輸入數組的大小呈線性關系。對于100K個元素的輸入它需要大約半秒,而之前的實現需要40秒。

這實現了我們的需求:

  •     一次解析數組,不需要unnest。
  •     按event_id劃分。
  •     對每個event_id采用最新出現的。
  •     按輸入索引排序。

教訓:如果你需要訪問PostgreSQL數組的特定位置,考慮使用unnest代替。 

   SELECT events[sub] AS event, sub, rank()   OVER (PARTITION BY (events[sub] -> 'event_id')::BIGINT ORDER BY sub DESC)   FROM generate_subscripts(events, 1) AS sub  ) deduped_events  WHERE rank = 1  ORDER BY sub ASC ) to_agg;$$ LANGUAGE SQL IMMUTABLE;

這樣奏效,但大輸入是性能下降了。這是二次的,在輸入數組有100K各元素時它需要大約40秒!

2015421145745565.png (668×436)

這個查詢在擁有2.4GHz的i7CPU及16GB Ram的macbook pro上測得,運行腳本為:https://gist.github.com/drob/9180760。


在這邊究竟發生了什么呢? 關鍵在于PostgreSQL存貯了一個系列的hstores作為數組的值, 而不是指向值的指針. 一個包含了三個hstores的數組看起來像

{“event_id=>1,data=>foo”, “event_id=>2,data=>bar”, “event_id=>3,data=>baz”}

相反的是

{[pointer], [pointer], [pointer]}

 

對于那些長度不一的變量, 舉個例子. hstores, json blobs, varchars,或者是 text fields, PostgreSQL 必須去找到每一個變量的長度. 對于evaluateevents[2], PostgreSQL 解析從左側讀取的事件直到讀取到第二次讀取的數據. 然后就是 forevents[3], 她再一次的從第一個索引處開始掃描,直到讀到第三次的數據! 所以, evaluatingevents[sub]是 O(sub), 并且 evaluatingevents[sub]對于在數組中的每一個索引都是 O(N2), N是數組的長度.

PostgreSQL能得到更加恰當的解析結果,  它可以在這樣的情況下分析該數組一次. 真正的答案是可變長度的元素與指針來實現,以數組的值, 以至于,我們總能夠處理 evaluateevents[i]在不變的時間內.


即便如此,我們也不應該讓PostgreSQL來處理,因為這不是一個地道的查詢。除了generate_subscripts我們可以用unnest,它解析數組并返回一組條目。這樣一來,我們就不需要在數組中顯式加入索引了。
 

-- Filter an array of events such that there is only one event with each event_id.-- When more than one event with the same event_id, is present, take the latest one.CREATE OR REPLACE FUNCTION dedupe_events_2(events HSTORE[]) RETURNS HSTORE[] AS $$ SELECT array_agg(event) FROM (  -- Filter for rank = 1, i.e. select the latest event for any collisions on event_id.  SELECT event  FROM (   -- Rank elements with the same event_id by position in the array, descending.   SELECT event, row_number AS index, rank()   OVER (PARTITION BY (event -> 'event_id')::BIGINT ORDER BY row_number DESC)   FROM (    -- Use unnest instead of generate_subscripts to turn an array into a set.    SELECT event, row_number()    OVER (ORDER BY event -> 'time')    FROM unnest(events) AS event   ) unnested_data  ) deduped_events  WHERE rank = 1  ORDER BY index ASC ) to_agg;$$ LANGUAGE SQL IMMUTABLE;

結果是有效的,它花費的時間跟輸入數組的大小呈線性關系。對于100K個元素的輸入它需要大約半秒,而之前的實現需要40秒。

這實現了我們的需求:

  •     一次解析數組,不需要unnest。
  •     按event_id劃分。
  •     對每個event_id采用最新出現的。
  •     按輸入索引排序。

教訓:如果你需要訪問PostgreSQL數組的特定位置,考慮使用unnest代替。

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
国产激情自拍_国产9色视频_丁香花在线电影小说观看 _久久久久国产精品嫩草影院
国产一区二区三区不卡在线| 国产在线观看av| 激情丁香在线| 黄色片av在线| 豆国产97在线|亚洲| 黄网址在线播放免费| 五月婷婷开心综合| 一区免费观看| 中文字幕日本三级| 亚洲午夜久久久久中文字幕| 国产专区在线播放| 精品一二三四| 国产理论片免费观看| 中文字幕在线视频免费观看| 国产高清av在线| 欧美性猛交xxxxbbbb| 国产三区视频在线观看| eeuss影院在线播放| 国产一级免费| 美女av在线播放| 精品黄色免费中文电影在线播放| 久草视频国产| 色欧美在线观看| 国产精品入口麻豆高清| 羞羞视频在线观看免费| 91超碰国产在线| 波多野结衣中文字幕久久| 国产中文字幕第一页| 在线影视一区| 五月婷婷丁香激情| 精品孕妇一区二区三区| 精品视频麻豆入口| 国产黄色免费在线观看| 国产精品自产拍在线网站| 四虎国产精品永久在线| 96久久久久久| 2019天天操夜夜操| 国产h色视频在线观看| 国产三级自拍| 国产一卡2卡3卡4卡网站免费 | 国产午夜在线| 最近中文av字幕在线中文| www操操操| 波多野结衣中文字幕久久| 亚洲国产成人综合| 全网国产福利在线播放| 日本不卡视频一区二区| 日本一二三区视频免费高清| a中文在线播放| 国产在线一二| 国产一二三区在线视频| 国产丝袜在线播放| av福利在线观看| 香蕉视频在线观看www| а√天堂www在线а√天堂视频| 日本亚洲欧美| 中文字幕在线免费观看| 国产无遮挡又黄又爽免费软件 | 成年女人在线视频| 国产精选一区二区三区不卡催乳| 中文字幕亚洲免费| av高清资源| 国产精品一区牛牛影视| 国产aⅴ超薄肉色丝袜交足| 中文字幕2020第一页| 人人干在线视频| 国产精品理人伦一区二区三区| 国产区视频在线| av文字幕在线观看| 国产亚洲精品久久久久久移动网络 | 国产中文在线观看| 国产精品视频流白浆免费视频| 国产传媒在线播放| 免费在线高清av| 影音先锋日韩| 国产三级视频在线播放线观看| 日本成人a视频| 精品一区二区三区高清免费不卡| 九七电影韩国女主播在线观看| 国产视频xxx| 另类专区欧美| gogo在线高清视频| 国产黄色小视频| 国产一级电影网| 九九精品视频在线观看九九| 99久久99热久久精品免费看| 国产网站免费看| 中文字幕在线视频不卡| 九九热在线播放| 欧美性猛交xxxx免费看久久| 国产夫妻视频| 69视频在线观看| 国产高清免费视频| 国产精品久久久久白浆| 国产秒拍福利视频露脸| eeuss影院在线观看| av丝袜在线| 四虎一区二区三区| 阿v免费在线观看| 牛牛精品视频在线| 欧美性猛交xxxx免费看蜜桃| av在线免费播放网站| 日本免费不卡| 九九久久久2| 最近中文字幕mv2018在线高清| 天天操夜夜摸| 69免费视频| 日本一级理论片在线大全| eeuss影院在线观看第一页| 国产9色视频| 在线视频观看你懂的| 一本免费视频| 热99re久久精品这里都是免费| 免费一区二区在线观看| 久久精品最新免费国产成人| 九九在线观看免费视频| 午夜av在线播放| 国产99在线|亚洲| av在线免费播放网站| 久热中文字幕| 国产区视频在线| heisi视频网在线观看| 国产在线视频精品视频免费看| 国产网站av| 在线免费看黄av| 国产在线视频网站| 精品一二三区视频| 国产卡1卡2卡三卡在线| 国产高清免费在线播放| 四虎成人免费| 国产小视频免费在线观看| 日韩不卡高清| 国产高清一级片| 国产美女福利在线| 午夜在线视频| 国产图片综合| 激情亚洲综合网| 在线黄色国产电影| 国产精品剧情一区二区在线观看 | 精品精品导航| 午夜视频99| 久久91精品视频| 午夜影院免费看| 精品久久av| 国产激情视频在线| 国产亚洲精品自在线观看| 免费黄网站在线观看| av亚洲男人天堂| 精品精品导航| 国产porny蝌蚪视频| 日本中文字幕在线观看| 亚洲国产日韩在线人成电影| 国产黄色在线网站| 国产精品国精产品一二| 国产精品㊣新片速递bt | 国产日产一区二区三区| 美女av在线播放| 日本三级在线视频| www操操操| 青青草免费在线视频| 日本18视频网站| 欧洲一区av| 国产在线激情视频| 中文字幕在线永久在线视频| 麻豆精品免费视频入口| 俺来俺也去www色在线观看| 色吊丝av中文字幕| 欧美日韩视频精品二区| 日本在线视频www鲁啊鲁| a视频在线看| 成人av小说网| 国产精品冒白浆免费视频| 国产盗摄一区二区| 香蕉视频在线观看www| 碰草在线视频| 国产午夜三区视频在线| 国产高清在线| 天天插天天射| 国产香蕉免费精品视频| 国产福利微拍精品一区二区| 在线观看的网站你懂的| 久久精品亚洲7777影院| 国产视频资源| 青青草免费在线观看| 国产香蕉免费精品视频| eeuss影院在线播放| 日本中文字幕在线视频| 精品美女在线观看视频在线观看| 日韩不卡高清| 国产视频中文字幕在线观看| 伊人色综合网| 中文字幕久热在线精品| 亚洲第一区视频| 国产偷窥老熟盗摄视频| 9色在线视频网站| 尤物视频免费在线观看| 在线视频三区| 国产一级二级三级在线观看| 日本h视频在线观看| 国产福利小视频在线观看|