亚洲综合原千岁中文字幕_国产精品99久久久久久久vr_无码人妻aⅴ一区二区三区浪潮_成人h动漫精品一区二区三

主頁 > 知識庫 > Postgresql排序與limit組合場景性能極限優(yōu)化詳解

Postgresql排序與limit組合場景性能極限優(yōu)化詳解

熱門標簽:打電話智能電銷機器人授權 漯河外呼電話系統(tǒng) 美容工作室地圖標注 外呼調研系統(tǒng) 合肥公司外呼系統(tǒng)運營商 地圖標注和圖片名稱的區(qū)別 海豐有多少商家沒有地圖標注 辦公外呼電話系統(tǒng) 重慶自動外呼系統(tǒng)定制

1 構造測試數(shù)據(jù)

create table tbl(id int, num int, arr int[]); 
create index idx_tbl_arr on tbl using gin (arr); 
create or replace function gen_rand_arr() returns int[] as $$ 
 select array(select (1000*random())::int from generate_series(1,64)); 
$$ language sql strict;

insert into tbl select generate_series(1,3000000),(10000*random())::int, gen_rand_arr();

insert into tbl select generate_series(1,500), (10000*random())::int, array[350,514,213,219,528,753,270,321,413,424,524,435,546,765,234,345,131,345,351];

2 查詢走GIN索引

測試場景的限制GIN索引查詢速度是很快的, 在實際生產(chǎn)中,可能出現(xiàn)使用gin索引后,查詢速度依然很高的情況,特點就是執(zhí)行計劃中Bitmap Heap Scan占用了大量時間,Bitmap Index Scan大部分標記的塊都被過濾掉了。

這種情況是很常見的,一般的btree索引可以cluster來重組數(shù)據(jù),但是gin索引是不支持cluster的,一般的gin索引列都是數(shù)組類型。所以當出現(xiàn)數(shù)據(jù)非常分散的情況時,bitmap index scan會標記大量的塊,后面recheck的成本非常高,導致gin索引查詢慢。

我們接著來看這個例子

explain analyze select * from tbl where arr @> array[350,514,213,219,528,753,270] order by num desc limit 20;
                QUERY PLAN
---------------------------------------------------------------------------------------------------------------------------------------
 Limit (cost=2152.02..2152.03 rows=1 width=40) (actual time=57.665..57.668 rows=20 loops=1)
 -> Sort (cost=2152.02..2152.03 rows=1 width=40) (actual time=57.664..57.665 rows=20 loops=1)
   Sort Key: num
   Sort Method: top-N heapsort Memory: 27kB
   -> Bitmap Heap Scan on tbl (cost=2148.00..2152.01 rows=1 width=40) (actual time=57.308..57.581 rows=505 loops=1)
    Recheck Cond: (arr @> '{350,514,213,219,528,753,270}'::integer[])
    Heap Blocks: exact=493
    -> Bitmap Index Scan on idx_tbl_arr (cost=0.00..2148.00 rows=1 width=0) (actual time=57.248..57.248 rows=505 loops=1)
      Index Cond: (arr @> '{350,514,213,219,528,753,270}'::integer[])
 Planning time: 0.050 ms
 Execution time: 57.710 ms

可以看到當前執(zhí)行計劃是依賴gin索引掃描的,但gin索引出現(xiàn)性能問題時我們如何來優(yōu)化呢?

3 排序limit組合場景優(yōu)化

SQL中的排序與limit組合是一個很典型的索引優(yōu)化創(chuàng)景。我們知道btree索引在內存中是有序的,通過遍歷btree索引可以直接拿到sort后的結果,這里組合使用limit后,只需要遍歷btree的一部分節(jié)點然后按照其他條件recheck就ok了。

我們來看一下優(yōu)化方法:

create index idx_tbl_num on tbl(num);
analyze tbl;
set enable_seqscan = off;
set enable_bitmapscan = off;
postgres=# explain analyze select * from tbl where arr @> array[350,514,213,219,528,753,270] order by num desc limit 10;
                QUERY PLAN
------------------------------------------------------------------------------------------------------------------------------------------
 Limit (cost=0.43..571469.93 rows=1 width=287) (actual time=6.300..173.949 rows=10 loops=1)
 -> Index Scan Backward using idx_tbl_num on tbl (cost=0.43..571469.93 rows=1 width=287) (actual time=6.299..173.943 rows=10 loops=1)
   Filter: (arr @> '{350,514,213,219,528,753,270}'::integer[])
   Rows Removed by Filter: 38399
 Planning time: 0.125 ms
 Execution time: 173.972 ms
(6 rows)

Time: 174.615 ms
postgres=# cluster tbl using idx_tbl_num;
CLUSTER
Time: 124340.276 ms
postgres=# explain analyze select * from tbl where arr @> array[350,514,213,219,528,753,270] order by num desc limit 10;
                QUERY PLAN
-----------------------------------------------------------------------------------------------------------------------------------------
 Limit (cost=0.43..563539.77 rows=1 width=287) (actual time=1.145..34.602 rows=10 loops=1)
 -> Index Scan Backward using idx_tbl_num on tbl (cost=0.43..563539.77 rows=1 width=287) (actual time=1.144..34.601 rows=10 loops=1)
   Filter: (arr @> '{350,514,213,219,528,753,270}'::integer[])
   Rows Removed by Filter: 38399
 Planning time: 0.206 ms
 Execution time: 34.627 ms
(6 rows)

本例的測試場景構造可能沒有最大程度的體現(xiàn)問題,不過可以看出cluster后走btree索引可以很穩(wěn)定的達到34ms左右。

在gin性能存在問題的時候,這類limit + order by的SQL語句不妨常識強制(pg_hint_plan)走一下btree索引,可能有意想不到的效果。

4 高并發(fā)場景下的gin索引查詢性能下降

GIN索引為PostgreSQL數(shù)據(jù)庫多值類型的倒排索引,一條記錄可能涉及到多個GIN索引中的KEY,所以如果寫入時實時合并索引,會導致IO急劇增加,寫入RT必然增加。為了提高寫入吞吐,PG允許用戶開啟GIN索引的延遲合并技術,開啟后,數(shù)據(jù)會先寫入pending list,并不是直接寫入索引頁,當pending list達到一定大小,或者autovacuum 對應表時,會觸發(fā)pending list合并到索引的動作。

查詢時,如果有未合并到索引中的PENDING LIST,那么會查詢pending list,同時查詢索引也的信息。

如果寫入量很多,pending list非常巨大,合并(autovacuum worker做的)速度跟不上時,會導致通過GIN索引查詢時查詢性能下降。

create extension pageinspect ; 
SELECT * FROM gin_metapage_info(get_raw_page('idx_tbl_arr', 0)); 

-- 如果很多條記錄在pending list中,查詢性能會下降明顯。
-- vacuum table,強制合并pending list
vacuum tbl; 

第4部分引用https://github.com/digoal/blog/blob/master/201809/20180919_02.md

補充:PostgreSQL -- 性能優(yōu)化的小方法

一、回收磁盤空間

在PostgreSQL中,使用delete和update語句刪除或更新的數(shù)據(jù)行并沒有被實際刪除,而只是在舊版本數(shù)據(jù)行的物理地址上將該行的狀態(tài)置為已刪除或已過期。因此當數(shù)據(jù)表中的數(shù)據(jù)變化極為頻繁時,那么在一段時間之后該表所占用的空間將會變得很大,然而數(shù)據(jù)量卻可能變化不大。要解決該問題,需要定期對數(shù)據(jù)變化頻繁的數(shù)據(jù)表執(zhí)行VACUUM操作。現(xiàn)在新版PostgreSQL是自動執(zhí)行VACUUM的

使用VACUUM和VACUUM FULL命令回收磁盤空間

postgres=# vacuum arr_test;

postgres=# vacuum full arr_test;

創(chuàng)建測試數(shù)據(jù):

postgres=# create table arr (id serial, value int, age int) #創(chuàng)建測試表
postgres=# insert into arr (value, age) select generate_series(1, 1000000) as value, (random()*(10^2))::integer; #插入100W測試數(shù)據(jù)
postgres=# select pg_relation_size('arr'); #查看表大小
 pg_relation_size 
------------------
   44285952
(1 row)
postgres=# delete from arr where id300000; #刪除299999條數(shù)據(jù)
DELETE 299999
postgres=# select pg_relation_size('arr'); #再次查看表大小,沒有變化
pg_relation_size 
------------------
   44285952
(1 row)
postgres=# vacuum full arr; #vacuum表,再次查看表大小,明顯變小了
VACUUM
postgres=# select pg_relation_size('arr');
 pg_relation_size 
------------------
   30998528
(1 row)
postgres=# update arr set age=10000 where id>=300000 and id600000; #更新30W條數(shù)據(jù)
UPDATE 300000
postgres=# select pg_relation_size('arr'); #查看表大小,明顯再次增大
 pg_relation_size 
------------------
   44285952
(1 row)

二、重建索引

在PostgreSQL中,為數(shù)據(jù)更新頻繁的數(shù)據(jù)表定期重建索引(REINDEX INDEX)是非常有必要的。

對于B-Tree索引,只有那些已經(jīng)完全清空的索引頁才會得到重復使用,對于那些僅部分空間可用的索引頁將不會得到重用,如果一個頁面中大多數(shù)索引鍵值都被刪除,只留下很少的一部分,那么該頁將不會被釋放并重用。

在這種極端的情況下,由于每個索引頁面的利用率極低,一旦數(shù)據(jù)量顯著增加,將會導致索引文件變得極為龐大,不僅降低了查詢效率,而且還存在整個磁盤空間被完全填滿的危險。

對于重建后的索引還存在另外一個性能上的優(yōu)勢,因為在新建立的索引上,邏輯上相互連接的頁面在物理上往往也是連在一起的,這樣可以提高磁盤頁面被連續(xù)讀取的幾率,從而提高整個操作的IO效率

postgres=# REINDEX INDEX testtable_idx;

三、重新收集統(tǒng)計信息

PostgreSQL查詢規(guī)劃器在選擇最優(yōu)路徑時,需要參照相關數(shù)據(jù)表的統(tǒng)計信息用以為查詢生成最合理的規(guī)劃。這些統(tǒng)計是通過ANALYZE命令獲得的,你可以直接調用該命令,或者把它當做VACUUM命令里的一個可選步驟來調用,如VACUUM ANAYLYZE table_name,該命令將會先執(zhí)行VACUUM再執(zhí)行ANALYZE。與回收空間(VACUUM)一樣,對數(shù)據(jù)更新頻繁的表保持一定頻度的ANALYZE,從而使該表的統(tǒng)計信息始終處于相對較新的狀態(tài),這樣對于基于該表的查詢優(yōu)化將是極為有利的。然而對于更新并不頻繁的數(shù)據(jù)表,則不需要執(zhí)行該操作。

我們可以為特定的表,甚至是表中特定的字段運行ANALYZE命令,這樣我們就可以根據(jù)實際情況,只對更新比較頻繁的部分信息執(zhí)行ANALYZE操作,這樣不僅可以節(jié)省統(tǒng)計信息所占用的空間,也可以提高本次ANALYZE操作的執(zhí)行效率。

這里需要額外說明的是,ANALYZE是一項相當快的操作,即使是在數(shù)據(jù)量較大的表上也是如此,因為它使用了統(tǒng)計學上的隨機采樣的方法進行行采樣,而不是把每一行數(shù)據(jù)都讀取進來并進行分析。因此,可以考慮定期對整個數(shù)據(jù)庫執(zhí)行該命令。

事實上,我們甚至可以通過下面的命令來調整指定字段的抽樣率

如:

ALTER TABLE testtable ALTER COLUMN test_col SET STATISTICS 200

注意:該值的取值范圍是0--1000,其中值越低采樣比例就越低,分析結果的準確性也就越低,但是ANALYZE命令執(zhí)行的速度卻更快。如果將該值設置為-1,那么該字段的采樣比率將恢復到系統(tǒng)當前默認的采樣值,我們可以通過下面的命令獲取當前系統(tǒng)的缺省采樣值。

postgres=# show default_statistics_target;
  default_statistics_target
 ---------------------------
  100
 (1 row)

從上面的結果可以看出,該數(shù)據(jù)庫的缺省采樣值為100(10%)。

postgresql 性能優(yōu)化

一、排序:

1. 盡量避免

2. 排序的數(shù)據(jù)量盡量少,并保證在內存里完成排序。

(至于具體什么數(shù)據(jù)量能在內存中完成排序,不同數(shù)據(jù)庫有不同的配置:

oracle是sort_area_size;

postgresql是work_mem (integer),單位是KB,默認值是4MB。

mysql是sort_buffer_size 注意:該參數(shù)對應的分配內存是每連接獨占!

二、索引:

1. 過濾的數(shù)據(jù)量比較少,一般來說20%,應該走索引。20%-40% 可能走索引也可能不走索引。> 40% ,基本不走索引(會全表掃描)

2. 保證值的數(shù)據(jù)類型和字段數(shù)據(jù)類型要一致。

3. 對索引的字段進行計算時,必須在運算符右側進行計算。也就是 to_char(oc.create_date, ‘yyyyMMdd')是沒用的

4. 表字段之間關聯(lián),盡量給相關字段上添加索引。

5. 復合索引,遵從最左前綴的原則,即最左優(yōu)先。(單獨右側字段查詢沒有索引的)

三、連接查詢方式:

1、hash join

放內存里進行關聯(lián)。

適用于結果集比較大的情況。

比如都是200000數(shù)據(jù)

2、nest loop

從結果1 逐行取出,然后與結果集2進行匹配。

適用于兩個結果集,其中一個數(shù)據(jù)量遠大于另外一個時。

結果集一:1000

結果集二:1000000

四、多表聯(lián)查時:

在多表聯(lián)查時,需要考慮連接順序問題。

1、當postgresql中進行查詢時,如果多表是通過逗號,而不是join連接,那么連接順序是多表的笛卡爾積中取最優(yōu)的。如果有太多輸入的表, PostgreSQL規(guī)劃器將從窮舉搜索切換為基因概率搜索,以減少可能性數(shù)目(樣本空間)。基因搜索花的時間少, 但是并不一定能找到最好的規(guī)劃。

2、對于JOIN,LEFT JOIN / RIGHT JOIN 會一定程度上指定連接順序,但是還是會在某種程度上重新排列:FULL JOIN 完全強制連接順序。如果要強制規(guī)劃器遵循準確的JOIN連接順序,我們可以把運行時參數(shù)join_collapse_limit設置為 1

五、PostgreSQL提供了一些性能調優(yōu)的功能:

優(yōu)化思路:

0、為每個表執(zhí)行 ANALYZE

。然后分析 EXPLAIN (ANALYZE,BUFFERS) sql。

1、對于多表查詢,查看每張表數(shù)據(jù),然后改進連接順序。

2、先查找那部分是重點語句,比如上面SQL,外面的嵌套層對于優(yōu)化來說沒有意義,可以去掉。

3、查看語句中,where等條件子句,每個字段能過濾的效率。找出可優(yōu)化處。

比如oc.order_id = oo.order_id是關聯(lián)條件,需要加索引

oc.op_type = 3 能過濾出1/20的數(shù)據(jù),

oo.event_type IN (…) 能過濾出1/10的數(shù)據(jù),

這兩個是優(yōu)化的重點,也就是實現(xiàn)確保op_type與event_type已經(jīng)加了索引,其次確保索引用到了。

優(yōu)化方案:

a) 整體優(yōu)化:

1、使用EXPLAIN

EXPLAIN命令可以查看執(zhí)行計劃,這個方法是我們最主要的調試工具。

2、及時更新執(zhí)行計劃中使用的統(tǒng)計信息

由于統(tǒng)計信息不是每次操作數(shù)據(jù)庫都進行更新的,一般是在 VACUUM 、 ANALYZE 、 CREATE INDEX等DDL執(zhí)行的時候會更新統(tǒng)計信息,

因此執(zhí)行計劃所用的統(tǒng)計信息很有可能比較舊。 這樣執(zhí)行計劃的分析結果可能誤差會變大。

以下是表tenk1的相關的一部分統(tǒng)計信息。

SELECT relname, relkind, reltuples, relpages
FROM pg_class
WHERE relname LIKE 'tenk1%';
relname | relkind | reltuples | relpages
----------------------+---------+-----------+----------
tenk1 | r | 10000 | 358
tenk1_hundred | i | 10000 | 30
tenk1_thous_tenthous | i | 10000 | 30
tenk1_unique1 | i | 10000 | 30
tenk1_unique2 | i | 10000 | 30
(5 rows)

其中 relkind是類型,r是自身表,i是索引index;reltuples是項目數(shù);relpages是所占硬盤的塊數(shù)。

估計成本通過 (磁盤頁面讀取【relpages】*seq_page_cost)+(行掃描【reltuples】*cpu_tuple_cost)計算。

默認情況下, seq_page_cost是1.0,cpu_tuple_cost是0.01。

3、使用臨時表(with)

對于數(shù)據(jù)量大,且無法有效優(yōu)化時,可以使用臨時表來過濾數(shù)據(jù),降低數(shù)據(jù)數(shù)量級。

4、對于會影響結果的分析,可以使用 begin;…rollback;來回滾。

b) 查詢優(yōu)化:

1、明確用join來關聯(lián)表,確保連接順序

一般寫法:SELECT * FROM a, b, c WHERE a.id = b.id AND b.ref = c.id;

如果明確用join的話,執(zhí)行時候執(zhí)行計劃相對容易控制一些。

例子:

SELECT * FROM a CROSS JOIN b CROSS JOIN c WHERE a.id = b.id AND b.ref = c.id;

SELECT * FROM a JOIN (b JOIN c ON (b.ref = c.id)) ON (a.id = b.id);

c) 插入更新優(yōu)化

1、關閉自動提交(autocommit=false)

如果有多條數(shù)據(jù)庫插入或更新等,最好關閉自動提交,這樣能提高效率

2、多次插入數(shù)據(jù)用copy命令更高效

我們有的處理中要對同一張表執(zhí)行很多次insert操作。這個時候我們用copy命令更有效率。因為insert一次,其相關的index都要做一次,比較花費時間。

3、臨時刪除index【具體可以查看Navicat表數(shù)據(jù)生成sql的語句,就是先刪再建的】

有時候我們在備份和重新導入數(shù)據(jù)的時候,如果數(shù)據(jù)量很大的話,要好幾個小時才能完成。這個時候可以先把index刪除掉。導入后再建index。

4、外鍵關聯(lián)的刪除

如果表的有外鍵的話,每次操作都沒去check外鍵整合性。因此比較慢。數(shù)據(jù)導入后再建立外鍵也是一種選擇。

d) 修改參數(shù):

介紹幾個重要的

1、增加maintenance_work_mem參數(shù)大小

增加這個參數(shù)可以提升CREATE INDEX和ALTER TABLE ADD FOREIGN KEY的執(zhí)行效率。

2、增加checkpoint_segments參數(shù)的大小

增加這個參數(shù)可以提升大量數(shù)據(jù)導入時候的速度。

3、設置archive_mode無效

這個參數(shù)設置為無效的時候,能夠提升以下的操作的速度

?CREATE TABLE AS SELECT

?CREATE INDEX

?ALTER TABLE SET TABLESPACE

?CLUSTER等。

4、autovacuum相關參數(shù)

autovacuum:默認為on,表示是否開起autovacuum。默認開起。特別的,當需要凍結xid時,盡管此值為off,PG也會進行vacuum。

autovacuum_naptime:下一次vacuum的時間,默認1min。 這個naptime會被vacuum launcher分配到每個DB上。autovacuum_naptime/num of db。

log_autovacuum_min_duration:記錄autovacuum動作到日志文件,當vacuum動作超過此值時。 “-1”表示不記錄。“0”表示每次都記錄。

autovacuum_max_workers:最大同時運行的worker數(shù)量,不包含launcher本身。

autovacuum_work_mem :每個worker可使用的最大內存數(shù)。

autovacuum_vacuum_threshold :默認50。與autovacuum_vacuum_scale_factor配合使用, autovacuum_vacuum_scale_factor默認值為20%。當update,delete的tuples數(shù)量超過autovacuum_vacuum_scale_factor *table_size+autovacuum_vacuum_threshold時,進行vacuum。如果要使vacuum工作勤奮點,則將此值改小。

autovacuum_analyze_threshold :默認50。與autovacuum_analyze_scale_factor配合使用。

autovacuum_analyze_scale_factor :默認10%。當update,insert,delete的tuples數(shù)量超過autovacuum_analyze_scale_factor *table_size+autovacuum_analyze_threshold時,進行analyze。

autovacuum_freeze_max_age:200 million。離下一次進行xid凍結的最大事務數(shù)。

autovacuum_multixact_freeze_max_age:400 million。離下一次進行xid凍結的最大事務數(shù)。

autovacuum_vacuum_cost_delay :如果為-1,取vacuum_cost_delay值。

autovacuum_vacuum_cost_limit :如果為-1,到vacuum_cost_limit的值,這個值是所有worker的累加值。

以上為個人經(jīng)驗,希望能給大家一個參考,也希望大家多多支持腳本之家。如有錯誤或未考慮完全的地方,望不吝賜教。

您可能感興趣的文章:
  • Postgresql自定義函數(shù)詳解
  • PostgreSQL的中文拼音排序案例
  • 關于PostgreSQL 行排序的實例解析
  • 自定義函數(shù)實現(xiàn)單詞排序并運用于PostgreSQL(實現(xiàn)代碼)

標簽:衡陽 錦州 烏海 蚌埠 來賓 晉城 珠海 株洲

巨人網(wǎng)絡通訊聲明:本文標題《Postgresql排序與limit組合場景性能極限優(yōu)化詳解》,本文關鍵詞  Postgresql,排序,與,limit,組合,;如發(fā)現(xiàn)本文內容存在版權問題,煩請?zhí)峁┫嚓P信息告之我們,我們將及時溝通與處理。本站內容系統(tǒng)采集于網(wǎng)絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《Postgresql排序與limit組合場景性能極限優(yōu)化詳解》相關的同類信息!
  • 本頁收集關于Postgresql排序與limit組合場景性能極限優(yōu)化詳解的相關信息資訊供網(wǎng)民參考!
  • 推薦文章
    成人免费一级毛片在线播放视频| 免费国产在线视频| 色综合久久天天综合| 国产91精品一区| 香蕉视频久久| 日本特黄一级| 九九九网站| 亚洲第一色在线| 可以免费在线看黄的网站| 99久久精品国产麻豆| 韩国三级一区| 中文字幕一区二区三区精彩视频| 韩国毛片| 久久国产精品只做精品| 日本特黄特色aaa大片免费| 日韩在线观看免费完整版视频| 一本伊大人香蕉高清在线观看| 九九热国产视频| 国产成人精品综合在线| 中文字幕97| 国产综合91天堂亚洲国产| 国产一区二区精品| 99热精品在线| 国产不卡精品一区二区三区| 日韩中文字幕在线观看视频| 四虎影视库国产精品一区| 二级片在线观看| 久久99这里只有精品国产| 国产精品自拍亚洲| 国产伦久视频免费观看 视频| 国产美女在线一区二区三区| 欧美a免费| 欧美电影免费看大全| 日本免费看视频| 日韩一级黄色片| 日韩中文字幕在线播放| 九九九国产| 久久精品成人一区二区三区| 亚欧成人乱码一区二区| 毛片高清| 美女免费精品高清毛片在线视 | 精品久久久久久综合网| 国产麻豆精品| 欧美1区| 欧美一级视频免费观看| 久久国产一久久高清| 青青久在线视频| 亚洲天堂免费观看| 欧美国产日韩一区二区三区| 精品国产香蕉伊思人在线又爽又黄| 韩国毛片免费| 超级乱淫黄漫画免费| 亚洲精品久久久中文字| 日韩在线观看免费| 久久精品道一区二区三区| 欧美激情中文字幕一区二区| 国产网站免费观看| 国产a毛片| 欧美日本韩国| 麻豆污视频| 一本高清在线| 亚洲爆爽| 韩国三级视频网站| 91麻豆高清国产在线播放| 99色视频| 精品国产一区二区三区精东影业 | 欧美激情伊人| 精品视频在线观看一区二区三区| 久久99中文字幕久久| 日韩中文字幕在线亚洲一区 | 亚洲精品影院| 亚久久伊人精品青青草原2020| 国产不卡高清| 成人免费观看网欧美片| 天天色成人| 日本免费看视频| 91麻豆国产| 日本免费乱人伦在线观看| 国产91精品一区二区| 毛片成人永久免费视频| 日日夜人人澡人人澡人人看免| 日韩av成人| 国产视频久久久久| 天堂网中文字幕| 成人影视在线观看| 国产麻豆精品视频| 国产不卡精品一区二区三区| 国产精品免费久久| 天堂网中文字幕| 九九久久99综合一区二区| 国产高清视频免费| 日韩在线观看免费| 国产麻豆精品视频| 一级毛片视频播放| 韩国三级视频网站| 精品国产香蕉在线播出| 精品国产一区二区三区久| 成人高清视频在线观看| 国产网站麻豆精品视频| 国产视频久久久久| 国产伦久视频免费观看视频| 国产美女在线一区二区三区| 欧美a级大片| 韩国三级视频在线观看| 精品国产一区二区三区免费 | 中文字幕一区二区三区 精品| 久久福利影视| 色综合久久手机在线| 欧美日本韩国| 一级女人毛片人一女人| 黄视频网站免费观看| 一级片片| 国产91丝袜高跟系列| 久久久久久久网| 天天做日日干| 久久精品免视看国产明星| 久久精品大片| 精品视频在线看| 国产一区免费在线观看| 日韩在线观看视频黄| 香蕉视频久久| 国产成人精品综合| 国产成人精品影视| 欧美激情一区二区三区在线| 国产一区二区精品尤物| 午夜在线影院| 九九久久99| 久久精品免视看国产明星| 欧美激情一区二区三区在线| 亚洲女初尝黑人巨高清在线观看| 亚洲天堂在线播放| 久久国产影视免费精品| 一级女性全黄生活片免费| 久久久久久久网| 国产精品自拍亚洲| 91麻豆精品国产自产在线| 天堂网中文在线| 久久久久久久网| 超级乱淫黄漫画免费| 国产麻豆精品| 日韩综合| 精品久久久久久中文字幕一区| 久久国产一久久高清| 日日日夜夜操| 国产国语在线播放视频| 高清一级片| 国产成人女人在线视频观看 | 免费毛片基地| 黄视频网站在线免费观看| 国产福利免费观看| 久久福利影视| 午夜欧美福利| 国产精品自拍在线| 香蕉视频久久| 国产成人精品影视| 人人干人人草| 亚洲 欧美 91| 亚飞与亚基在线观看| 91麻豆tv| 国产一区二区精品尤物| 欧美大片一区| 色综合久久手机在线| 高清一级片| 超级乱淫黄漫画免费| 国产亚洲精品成人a在线| 精品视频一区二区三区免费| 美女免费精品视频在线观看| 可以在线看黄的网站| 欧美1卡一卡二卡三新区| 日日日夜夜操| 免费毛片基地| 日韩在线观看视频免费| 亚久久伊人精品青青草原2020| 国产91丝袜高跟系列| 国产一区免费在线观看| 国产麻豆精品高清在线播放| 国产伦久视频免费观看视频| 国产一区精品| 精品国产三级a| 午夜激情视频在线观看 | 欧美一级视频免费观看| 99色播| 精品视频一区二区三区免费| 国产一区二区精品尤物| 日本在线不卡视频| 日韩专区在线播放| 欧美另类videosbestsex| 在线观看成人网 | 日韩中文字幕在线播放| 91麻豆tv| 日本久久久久久久 97久久精品一区二区三区 狠狠色噜噜狠狠狠狠97 日日干综合 五月天婷婷在线观看高清 九色福利视频 | 午夜久久网| 久久国产一久久高清| 久久福利影视| 国产一区二区精品久久| 精品国产香蕉伊思人在线又爽又黄| 香蕉视频三级| 久草免费在线色站| 你懂的日韩| 久久99这里只有精品国产|