久久er99热精品一区二区三区,波多野结衣在线观看一区二区 ,成人做爰视频www网站小优视频,在线免费福利

二維碼
企資網(wǎng)

掃一掃關(guān)注

當(dāng)前位置: 首頁(yè) » 企業(yè)資訊 » 資訊 » 正文

知識(shí)蒸餾_輕量化模型架構(gòu)_剪枝…幾種深度學(xué)習(xí)模

放大字體  縮小字體 發(fā)布日期:2023-03-25 04:50:18    作者:付麗霞    瀏覽次數(shù):228
導(dǎo)讀

自華為云社區(qū)《深度學(xué)習(xí)模型壓縮方法綜述》,:嵌入式視覺(jué) 。原文詳情:bbs.huaweicloud/blogs/393867?utm_source=jinritoutiao&utm_medium=bbs-ex&utm_campaign=other&u

自華為云社區(qū)《深度學(xué)習(xí)模型壓縮方法綜述》,:嵌入式視覺(jué) 。

原文詳情:bbs.huaweicloud/blogs/393867?utm_source=jinritoutiao&utm_medium=bbs-ex&utm_campaign=other&utm_content=content

一、模型壓縮技術(shù)概述

因?yàn)榍度胧皆O(shè)備得算力和內(nèi)存有限,因此深度學(xué)習(xí)模型需要經(jīng)過(guò)模型壓縮后,方才能部署到嵌入式設(shè)備上。

在一定程度上,網(wǎng)絡(luò)越深,參數(shù)越多,模型也會(huì)越復(fù)雜,但其最終效果也越好。而模型壓縮算法是旨在將一個(gè)龐大而復(fù)雜得預(yù)訓(xùn)練模型轉(zhuǎn)化為一個(gè)精簡(jiǎn)得小模型。感謝介紹了卷積神經(jīng)網(wǎng)絡(luò)常見(jiàn)得幾種壓縮方法。

按照壓縮過(guò)程對(duì)網(wǎng)絡(luò)結(jié)構(gòu)得破壞程度,《解析卷積神經(jīng)網(wǎng)絡(luò)》一書(shū)中將模型壓縮技術(shù)分為“前端壓縮”和“后端壓縮”兩部分:

  • 前端壓縮,是指在不改變?cè)W(wǎng)絡(luò)結(jié)構(gòu)得壓縮技術(shù),主要包括知識(shí)蒸餾、輕量級(jí)網(wǎng)絡(luò)(緊湊得模型結(jié)構(gòu)設(shè)計(jì))以及濾波器(filter)層面得剪枝(結(jié)構(gòu)化剪枝)等;
  • 后端壓縮,是指包括低秩近似、未加限制得剪枝(非結(jié)構(gòu)化剪枝/稀疏)、參數(shù)量化以及二值網(wǎng)絡(luò)等,目標(biāo)在于盡可能減少模型大小,會(huì)對(duì)原始網(wǎng)絡(luò)結(jié)構(gòu)造成極大程度得改造。

    總結(jié):前端壓縮幾乎不改變?cè)芯W(wǎng)絡(luò)結(jié)構(gòu)(僅僅只是在原模型基礎(chǔ)上減少了網(wǎng)絡(luò)得層數(shù)或者濾波器個(gè)數(shù)),后端壓縮對(duì)網(wǎng)絡(luò)結(jié)構(gòu)有不可逆得大幅度改變,造成原有深度學(xué)習(xí)庫(kù)、甚至硬件設(shè)備不兼容改變之后得網(wǎng)絡(luò)。其維護(hù)成本很高。

    1.1,模型壓縮技術(shù)分類(lèi)

    工業(yè)界主流得模型壓縮方法有:知識(shí)蒸餾(Knowledge Distillation,KD)輕量化模型架構(gòu)(也叫緊湊得模型設(shè)計(jì))、剪枝(Pruning)、量化(Quantization)。各個(gè)模型壓縮方法總結(jié)如下:

    二、知識(shí)蒸餾

    一個(gè)復(fù)雜模型可由多個(gè)簡(jiǎn)單模型或者強(qiáng)約束條件訓(xùn)練得到。復(fù)雜模型特點(diǎn)是性能好,但其參數(shù)量大,計(jì)算效率低。小模型特點(diǎn)是計(jì)算效率高,但是其性能較差。知識(shí)蒸餾是讓小模型去擬合大模型,從而讓小模型學(xué)到與大模型相似得函數(shù)映射。使其保持其快速得計(jì)算速度前提下,同時(shí)擁有復(fù)雜模型得性能,達(dá)到模型壓縮得目得。模型蒸餾得關(guān)鍵在于監(jiān)督特征得設(shè)計(jì),例如使用 Soft Target(軟標(biāo)簽 KD) 所提供得類(lèi)間相似性作為依據(jù),或使用大模型得中間層特征圖或 attention map 作為暗示,對(duì)小網(wǎng)絡(luò)進(jìn)行訓(xùn)練。整體得框架圖如圖下所示。

    三、輕量化模型架構(gòu)

    關(guān)于如何手動(dòng)設(shè)計(jì)輕量級(jí)網(wǎng)絡(luò)得研究,目前還沒(méi)有廣泛通用得準(zhǔn)則,只有一些指導(dǎo)思想,和針對(duì)不同芯片平臺(tái)(不同芯片架構(gòu))得一些設(shè)計(jì)總結(jié),建議大家從經(jīng)典論文中吸取指導(dǎo)思想和建議,然后自己實(shí)際做各個(gè)硬件平臺(tái)得部署和模型性能測(cè)試。

    3.1,如何設(shè)計(jì)高效CNN架構(gòu)一些結(jié)論
    1. 分析模型得推理性能得結(jié)合具體得推理平臺(tái)(常見(jiàn)如:英偉達(dá) GPU、移動(dòng)端 ARM CPU、端側(cè) NPU 芯片等);目前已知影響 CNN 模型推理性能得因素包括: 算子計(jì)算量 FLOPs(參數(shù)量 Params)、卷積 block 得內(nèi)存訪問(wèn)代價(jià)(訪存帶寬)、網(wǎng)絡(luò)并行度等。但相同硬件平臺(tái)、相同網(wǎng)絡(luò)架構(gòu)條件下, FLOPs 加速比與推理時(shí)間加速比成正比。
    2. 建議對(duì)于輕量級(jí)網(wǎng)絡(luò)設(shè)計(jì)應(yīng)該考慮直接 metric(例如速度 speed),而不是間接 metric(例如 FLOPs)。
    3. FLOPs 低不等于 latency 低,尤其是在有加速功能得硬體 (GPU、DSP 與 TPU)上不成立,得結(jié)合具硬件架構(gòu)具體分析。
    4. 不同網(wǎng)絡(luò)架構(gòu)得 CNN 模型,即使是 FLOPs 相同,但其 MAC 也可能差異巨大。
    5. Depthwise 卷積操作對(duì)于流水線型 CPU、ARM 等移動(dòng)設(shè)備更友好,對(duì)于并行計(jì)算能力強(qiáng)得 GPU 和具有加速功能得硬件(專(zhuān)用硬件設(shè)計(jì)-NPU 芯片)上比較沒(méi)有效率。Depthwise 卷積算子實(shí)際上是使用了大量得低 FLOPs、高數(shù)據(jù)讀寫(xiě)量得操作。因?yàn)檫@些具有高數(shù)據(jù)讀寫(xiě)量得操作,再加上多數(shù)時(shí)候 GPU 芯片算力得瓶頸在于訪存帶寬,使得模型把大量得時(shí)間浪費(fèi)在了從顯存中讀寫(xiě)數(shù)據(jù)上,從而導(dǎo)致 GPU 得算力沒(méi)有得到“充分利用”。結(jié)論知乎文章-FLOPs與模型推理速度和論文 G-GhostNet。
    一些建議
    1. 在大多數(shù)得硬件上,channel 數(shù)為 16 得倍數(shù)比較有利高效計(jì)算。如海思 351x 系列芯片,當(dāng)輸入通道為 4 倍數(shù)和輸出通道數(shù)為 16 倍數(shù)時(shí),時(shí)間加速比會(huì)近似等于 FLOPs 加速比,有利于提供 NNIE 硬件計(jì)算利用率。(海思 351X 芯片文檔和 MobileDets 論文)
    2. 低 channel 數(shù)得情況下 (如網(wǎng)路得前幾層),在有加速功能得硬件使用普通 convolution 通常會(huì)比 separable convolution 有效率。( MobileDets 論文)
    3. shufflenetv2 論文 提出得四個(gè)高效網(wǎng)絡(luò)設(shè)計(jì)得實(shí)用指導(dǎo)思想: G1同樣大小得通道數(shù)可以最小化 MAC、G2-分組數(shù)太多得卷積會(huì)增加 MAC、G3-網(wǎng)絡(luò)碎片化會(huì)降低并行度、G4-逐元素得操作不可忽視。
    4. GPU 芯片上3×3 卷積非常快,其計(jì)算密度(理論運(yùn)算量除以所用時(shí)間)可達(dá)1×1 和5×5 卷積得四倍。( RepVGG 論文)
    5. 從解決梯度信息冗余問(wèn)題入手,提高模型推理效率。比如 CSPNet 網(wǎng)絡(luò)。
    6. 從解決 DenseNet 得密集連接帶來(lái)得高內(nèi)存訪問(wèn)成本和能耗問(wèn)題入手,如 VoVNet 網(wǎng)絡(luò),其由 OSA(One-Shot Aggregation,一次聚合)模塊組成。
    3.2,輕量級(jí)模型部署總結(jié)

    在閱讀和理解經(jīng)典得輕量級(jí)網(wǎng)絡(luò) mobilenet 系列、MobileDets、shufflenet 系列、cspnet、vovnet、repvgg 等論文得基礎(chǔ)上,做了以下總結(jié):

    1. 低算力設(shè)備-手機(jī)移動(dòng)端 cpu 硬件,考慮 mobilenetv1(深度可分離卷機(jī)架構(gòu)-低 FLOPs)、低 FLOPs 和 低MAC得shuffletnetv2(channel_shuffle 算子在推理框架上可能不支持)
    2. 專(zhuān)用 asic 硬件設(shè)備-npu 芯片(地平線 x3/x4 等、海思 3519、安霸cv22 等),分類(lèi)、目標(biāo)檢測(cè)問(wèn)題考慮 cspnet 網(wǎng)絡(luò)(減少重復(fù)梯度信息)、repvgg2(即 RepOptimizer: vgg 型直連架構(gòu)、部署簡(jiǎn)單)
    3. 英偉達(dá) gpu 硬件-t4 芯片,考慮 repvgg 網(wǎng)絡(luò)(類(lèi) vgg 卷積架構(gòu)-高并行度有利于發(fā)揮 gpu 算力、單路架構(gòu)省顯存/內(nèi)存,問(wèn)題: INT8 PTQ 掉點(diǎn)嚴(yán)重)

    MobileNet block (深度可分離卷積 block, depthwise separable convolution block)在有加速功能得硬件(專(zhuān)用硬件設(shè)計(jì)-NPU 芯片)上比較沒(méi)有效率。

    這個(gè)結(jié)論在 CSPNet 和 MobileDets 論文中都有提到。

    除非芯片廠商做了定制優(yōu)化來(lái)提高深度可分離卷積 block 得計(jì)算效率,比如地平線機(jī)器人 x3 芯片對(duì)深度可分離卷積 block 做了定制優(yōu)化。

    下表是 MobileNetv2 和 ResNet50 在一些常見(jiàn) NPU 芯片平臺(tái)上做得性能測(cè)試結(jié)果。

    以上,均是看了輕量級(jí)網(wǎng)絡(luò)論文總結(jié)出來(lái)得一些不同硬件平臺(tái)部署輕量級(jí)模型得經(jīng)驗(yàn),實(shí)際結(jié)果還需要自己手動(dòng)運(yùn)行測(cè)試。

    四、模型剪枝

    深度學(xué)習(xí)模型中一般存在著大量冗余得參數(shù),將權(quán)重矩陣中相對(duì)“不重要”得權(quán)值剔除(即置為 0),可達(dá)到降低計(jì)算資源消耗和提高實(shí)時(shí)性得效果,而對(duì)應(yīng)得技術(shù)則被稱(chēng)為模型剪枝。

    論文Han et al. Learning both Weights and Connections for Efficient Neural Networks, NIPS 2015

    剪枝算法步驟:

    1. 正常訓(xùn)練模型;
    2. 模型剪枝;
    3. 重新訓(xùn)練模型

    以上三個(gè)步驟反復(fù)迭代進(jìn)行,直到模型精度達(dá)到目標(biāo),則停止訓(xùn)練。

    模型剪枝算法根據(jù)粒度得不同,可以粗分為4種粒度:

    1. 細(xì)粒度剪枝(fine-grained):對(duì)連接或者神經(jīng)元進(jìn)行剪枝,它是粒度最小得剪枝。
    2. 向量剪枝(vector-level):它相對(duì)于細(xì)粒度剪枝粒度更大,屬于對(duì)卷積核內(nèi)部(intra-kernel)得剪枝。
    3. 核剪枝(kernel-level):去除某個(gè)卷積核,它將丟棄對(duì)輸入通道中對(duì)應(yīng)計(jì)算通道得響應(yīng)。
    4. 濾波器剪枝(Filter-level):對(duì)整個(gè)卷積核組進(jìn)行剪枝,會(huì)造成推理過(guò)程中輸出特征通道數(shù)得改變。
    五、模型量化

    模型量化是指將神經(jīng)網(wǎng)絡(luò)得浮點(diǎn)算法轉(zhuǎn)換為定點(diǎn)。量化有一些相似得術(shù)語(yǔ),低精度(Low precision)可能是常見(jiàn)得。

  • 低精度模型表示模型權(quán)重?cái)?shù)值格式為 FP16(半精度浮點(diǎn))或者 INT8(8位得定點(diǎn)整數(shù)),但是目前低精度往往就指代 INT8。
  • 常規(guī)精度模型則一般表示模型權(quán)重?cái)?shù)值格式為 FP32(32位浮點(diǎn),單精度)。
  • 混合精度(Mixed precision)則在模型中同時(shí)使用 FP32 和 FP16 得權(quán)重?cái)?shù)值格式。 FP16 減少了一半得內(nèi)存大小,但有些參數(shù)或操作符必須采用 FP32 格式才能保持準(zhǔn)確度。

    模型量化過(guò)程可以分為兩部分:將模型從 FP32 轉(zhuǎn)換為 INT8(即量化算術(shù)過(guò)程),以及使用 INT8 進(jìn)行推理。

    5.1,模型量化得方案

    在實(shí)踐中將浮點(diǎn)模型轉(zhuǎn)為量化模型得方法有以下三種方法:

    1. data free:不使用校準(zhǔn)集,傳統(tǒng)得方法直接將浮點(diǎn)參數(shù)轉(zhuǎn)化成量化數(shù),使用上非常簡(jiǎn)單,但是一般會(huì)帶來(lái)很大得精度損失,但是高通最新得論文 DFQ 不使用校準(zhǔn)集也得到了很高得精度。
    2. calibration:基于校準(zhǔn)集方案,通過(guò)輸入少量真實(shí)數(shù)據(jù)進(jìn)行統(tǒng)計(jì)分析。很多芯片廠商都提供這樣得功能,如 tensorRT、高通、海思、地平線、寒武紀(jì)
    3. finetune:基于訓(xùn)練 finetune 得方案,將量化誤差在訓(xùn)練時(shí)仿真建模,調(diào)整權(quán)重使其更適合量化。好處是能帶來(lái)更大得精度提升,缺點(diǎn)是要修改模型訓(xùn)練代碼,開(kāi)發(fā)周期較長(zhǎng)。

    按照量化階段得不同,量化方法分為以下兩種:

  • Post-training quantization PTQ(訓(xùn)練后量化、離線量化);
  • Quantization-aware training QAT(訓(xùn)練時(shí)量化,偽量化,在線量化)。5.2,量化得分類(lèi)

    目前已知得加快推理速度概率較大得量化方法主要有:

    1. 二值化,其可以用簡(jiǎn)單得位運(yùn)算來(lái)同時(shí)計(jì)算大量得數(shù)。對(duì)比從 nvdia gpu 到 x86 平臺(tái),1bit 計(jì)算分別有 5 到128倍得理論性能提升。且其只會(huì)引入一個(gè)額外得量化操作,該操作可以享受到 SIMD(單指令多數(shù)據(jù)流)得加速收益。
    2. 線性量化(最常見(jiàn)),又可細(xì)分為非對(duì)稱(chēng),對(duì)稱(chēng)和 ristretto 幾種。在 nvdia gpu,x86、arm 和 部分 AI 芯片平臺(tái)上,均支持 8bit 得計(jì)算,效率提升從 1 倍到 16 倍不等,其中 tensor core 甚至支持 4bit計(jì)算,這也是非常有潛力得方向。線性量化引入得額外量化/反量化計(jì)算都是標(biāo)準(zhǔn)得向量操作,因此也可以使用 SIMD 進(jìn)行加速,帶來(lái)得額外計(jì)算耗時(shí)不大。
    3. 對(duì)數(shù)量化,一種比較特殊得量化方法。兩個(gè)同底得冪指數(shù)進(jìn)行相乘,那么等價(jià)于其指數(shù)相加,降低了計(jì)算強(qiáng)度。同時(shí)加法也被轉(zhuǎn)變?yōu)樗饕?jì)算。目前 nvdia gpu,x86、arm 三大平臺(tái)上沒(méi)有實(shí)現(xiàn)對(duì)數(shù)量化得加速庫(kù),但是目前已知海思 351X 系列芯片上使用了對(duì)數(shù)量化。
    六、壓縮方法總結(jié)
    1. 一般情況下,參數(shù)剪枝,特別是非結(jié)構(gòu)化剪枝,能大大壓縮模型大小,且不容易丟失分類(lèi)精度。對(duì)于需要穩(wěn)定得模型分類(lèi)得應(yīng)用,非結(jié)構(gòu)化剪枝成為首要選擇。
    2. 如果需要一次性端對(duì)端訓(xùn)練得到壓縮與加速后模型,可以利用基于緊性濾波設(shè)計(jì)得深度神經(jīng)網(wǎng)絡(luò)壓縮與加速方法。
    3. 影響神經(jīng)網(wǎng)絡(luò)推理速度主要有 4 個(gè)因素:FLOPs、MAC、計(jì)算并行度、硬件平臺(tái)架構(gòu)與特性(算力、GPU內(nèi)存帶寬)。
    參考資料
    1. 深度學(xué)習(xí)模型壓縮與加速
    2. Deep Compression: Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman Coding

    #華為云開(kāi)發(fā)者聯(lián)盟#,第壹時(shí)間了解華為云新鮮技術(shù)~

  •  
    (文/付麗霞)
    免責(zé)聲明
    本文僅代表作發(fā)布者:付麗霞個(gè)人觀點(diǎn),本站未對(duì)其內(nèi)容進(jìn)行核實(shí),請(qǐng)讀者僅做參考,如若文中涉及有違公德、觸犯法律的內(nèi)容,一經(jīng)發(fā)現(xiàn),立即刪除,需自行承擔(dān)相應(yīng)責(zé)任。涉及到版權(quán)或其他問(wèn)題,請(qǐng)及時(shí)聯(lián)系我們刪除處理郵件:weilaitui@qq.com。
     

    Copyright ? 2016 - 2025 - 企資網(wǎng) 48903.COM All Rights Reserved 粵公網(wǎng)安備 44030702000589號(hào)

    粵ICP備16078936號(hào)

    微信

    關(guān)注
    微信

    微信二維碼

    WAP二維碼

    客服

    聯(lián)系
    客服

    聯(lián)系客服:

    在線QQ: 303377504

    客服電話: 020-82301567

    E_mail郵箱: weilaitui@qq.com

    微信公眾號(hào): weishitui

    客服001 客服002 客服003

    工作時(shí)間:

    周一至周五: 09:00 - 18:00

    反饋

    用戶
    反饋

    久久er99热精品一区二区三区,波多野结衣在线观看一区二区 ,成人做爰视频www网站小优视频,在线免费福利
    麻豆精品国产91久久久久久| 国产精品99久久久久| 成人av在线一区二区| 精品美女一区二区| 天堂va蜜桃一区二区三区 | 亚洲影院久久精品| 99久久婷婷国产| 亚洲色图欧美在线| 色婷婷久久久久swag精品| 中文字幕一区二区三| 国产成人av在线影院| 国产欧美日韩视频一区二区| 国产馆精品极品| 国产精品久久久久影院老司| 成人av电影在线观看| 亚洲色图在线播放| 欧美伊人久久久久久午夜久久久久| 亚洲人被黑人高潮完整版| 99久久精品免费看国产免费软件| 国产精品素人一区二区| 91麻豆免费在线观看| 午夜精品在线视频一区| 欧美xxxx老人做受| 成人深夜在线观看| 五月婷婷久久丁香| 久久久久国产免费免费| 亚洲成a天堂v人片| 欧美三级日本三级少妇99| 亚洲综合色在线| 91国产成人在线| 国模娜娜一区二区三区| 亚洲人成在线播放网站岛国| 91麻豆精品国产91久久久久| 国产不卡视频在线播放| 五月婷婷激情综合| 亚洲欧美综合色| 精品国产亚洲一区二区三区在线观看| 床上的激情91.| 日韩vs国产vs欧美| 亚洲免费观看高清完整版在线观看| 欧美亚洲综合久久| www.色精品| 国产精品一区二区免费不卡| 亚洲成人黄色影院| 一区二区在线电影| 亚洲欧洲日韩一区二区三区| 欧美mv日韩mv国产网站app| 欧美在线free| 日本乱码高清不卡字幕| 色噜噜夜夜夜综合网| 91小视频在线观看| 93久久精品日日躁夜夜躁欧美| 国产一区福利在线| 精品一区二区三区欧美| 日韩制服丝袜av| 免费欧美高清视频| 国产自产2019最新不卡| 美女一区二区三区| 国产在线精品免费av| 国产在线播放一区二区三区| 国产剧情在线观看一区二区| 国产一区在线观看视频| 懂色av中文字幕一区二区三区 | 香蕉久久一区二区不卡无毒影院| 亚洲精品视频在线看| 一区二区理论电影在线观看| 亚洲精品视频免费看| 亚洲福利一二三区| 男人的天堂久久精品| 韩国毛片一区二区三区| 大胆亚洲人体视频| 欧美三电影在线| 久久久噜噜噜久久中文字幕色伊伊| 国产亚洲欧美激情| 亚洲国产成人精品视频| 狠狠色丁香婷婷综合| 色爱区综合激月婷婷| 欧美电影免费提供在线观看| 国产精品国产三级国产aⅴ中文| 一区二区三区日韩欧美精品| 精品中文字幕一区二区小辣椒| 成人网页在线观看| 精品99一区二区| 午夜成人在线视频| 99精品视频在线观看| 精品国产不卡一区二区三区| 一区二区三区欧美视频| 午夜一区二区三区视频| 亚洲成人综合视频| 国产成人在线视频网站| 欧美一区二区成人| 一区二区三区产品免费精品久久75| 久久se精品一区二区| 欧美日韩视频专区在线播放| 中文字幕第一区第二区| 精品一区二区免费| 日韩欧美电影在线| 奇米888四色在线精品| 欧美亚洲国产一区二区三区va | 亚洲日本在线a| 99久久99久久精品国产片果冻| 久久久久高清精品| 成人深夜在线观看| 国产精品美女久久久久aⅴ国产馆 国产精品美女久久久久av爽李琼 国产精品美女久久久久高潮 | 国产综合一区二区| 欧美大片国产精品| 另类小说一区二区三区| 精品国产免费久久| 国产曰批免费观看久久久| 久久一二三国产| 成人综合婷婷国产精品久久| 国产精品久99| 欧美少妇一区二区| 久久99国产精品久久| 国产性做久久久久久| 99久久久国产精品| 日韩av不卡在线观看| 久久网站最新地址| 色婷婷综合激情| 免费成人你懂的| 国产精品久久久久影院| 欧美亚洲一区三区| 久久91精品久久久久久秒播| 国产日韩欧美一区二区三区乱码| av一区二区三区四区| 天堂av在线一区| 亚洲免费高清视频在线| 欧美xxxxxxxx| 欧美日韩亚洲综合一区二区三区| 久久99最新地址| 亚洲最大色网站| 久久久久久久精| 日韩一区二区中文字幕| 91小视频免费观看| 成人一区二区三区| 美女国产一区二区| 香蕉av福利精品导航| 中文字幕亚洲不卡| 国产女人aaa级久久久级| 制服丝袜亚洲精品中文字幕| 91老司机福利 在线| 国产精品2024| 久久99精品国产91久久来源| 亚洲成av人片在www色猫咪| 国产精品久久久久久亚洲伦| 久久精品综合网| 日本一区二区免费在线| 日韩欧美精品三级| 欧美sm美女调教| 欧美xxxxxxxxx| 91精品欧美一区二区三区综合在| 麻豆精品国产91久久久久久| 最新中文字幕一区二区三区| 国产日韩欧美精品电影三级在线| 精品国产免费久久| 精品福利在线导航| 久久精品视频一区二区三区| 欧美午夜精品一区二区蜜桃| 色综合一个色综合| 欧美另类变人与禽xxxxx| 欧美美女视频在线观看| 91精品中文字幕一区二区三区| 777久久久精品| 亚洲精品一区二区三区精华液 | 欧美另类高清zo欧美| 日韩限制级电影在线观看| 久久综合精品国产一区二区三区 | 成人一区二区三区| 色视频欧美一区二区三区| 欧美亚男人的天堂| 精品久久久久久久人人人人传媒| 久久综合狠狠综合久久激情| 亚洲色图在线看| 黄色资源网久久资源365| 91日韩精品一区| 精品乱人伦一区二区三区| 亚洲图片另类小说| 激情六月婷婷久久| 欧美性生活一区| 中文一区在线播放| 人人爽香蕉精品| 91色婷婷久久久久合中文| 国产亚洲欧美日韩在线一区| 亚洲成人av福利| 99精品欧美一区二区三区小说 | 波多野结衣欧美| 精品国产sm最大网站免费看| 香港成人在线视频| 色综合久久99| 国产精品视频第一区| 91在线免费看| 国产精品天天摸av网| 国产精品一级在线| 久久午夜羞羞影院免费观看| 香蕉成人啪国产精品视频综合网 | 色老汉一区二区三区| 亚洲男人天堂一区| 91美女视频网站| 亚洲永久精品大片| 在线视频国内自拍亚洲视频|