亚洲免费成人av电影_乱人伦xxxx国语对白_免费看一级毛片_综合av色偷偷网_欧美日韩免费做爰大片_97超级碰碰人国产在线观看_国产视频在线看_亚洲日韩中文字幕_中文字幕jux大岛优香

首頁 > 創作內容 > 創作內容 > 解讀毫末技術論文Cam4DOcc:僅使用攝像頭可實現4D占據預測?

解讀毫末技術論文Cam4DOcc:僅使用攝像頭可實現4D占據預測?

發布時間:2024-04-08 21:11:01

為了確保自動駕駛汽車在行駛中能夠安全、可靠地執行任務,了解周圍環境的變化至關重要。近年來,一些技術能夠通過分析攝像機圖像來估計周圍物體的位置和分布,這對于理解大規模場景的結構非常有幫助。

然而,這些技術主要關注的是當前的3D空間,對于未來物體可能的位置和狀態并沒有太多考慮。

為了解決這個問題,最近,毫末智行聯合上海交大、國防科大、北京理工大學提出了一種新的方法,叫做Cam4DOcc。

這是一個專門為僅使用攝像頭進行4D占用預測而設計的基準測試,用于評估未來一段時間內周圍場景的變化。

Cam4DOcc基準測試的目標是使用攝像頭圖像作為輸入,預測當前和未來短時間內(通常是幾秒內)的3D空間占用狀態。

包括對一般可移動物體(GMO)和一般靜態物體(GSO)的占用狀態進行預測。預測任務又分為多個級別,從預測膨脹的GMO到預測精細的GMO、GSO和自由空間。

Cam4DOcc基準測試為自動駕駛中的4D占用預測提供了一個標準化的評估平臺,使研究人員能夠比較不同算法的性能。通過這些測試,研究人員可以更好地理解和改進自動駕駛系統在理解和預測周圍環境方面的能力。

毫末預測,自動駕駛領域中下一個重要的挑戰將是僅使用攝像頭進行4D占據預測。這項技術不僅可以通過攝像頭圖像擴展時間上的占據預測,還要在BEV格式和預定義類別之外拓展語義/實例預測。

該論文的主要核心貢獻包括:

提出了Cam4DOcc基準,這是第一個促進基于攝像頭的4D占用預測未來工作的基準。

通過利用現有數據集,提出了自動駕駛場景中預測任務的新數據集格式。

提供了四種新穎的基于攝像頭的4D占用預測基線方法,其中三種是現成方法的擴展。

還引入了一個新穎的端到端4D占用預測網絡,展示了強大的性能,為研究者提供了有價值的參考。

論文引入了標準化評估協議,并通過Cam4DOcc基于該協議進行了全面的實驗和詳細的分析。

下面我們來詳細剖析這篇論文。

01.

解鎖自動駕駛時空預測的超能力

該論文首先提出了一個新的數據集格式。

該格式基于現有的數據集(包括nuScenes、nuScenes-Occupancy和Lyft-Level5)進行了擴展和調整,這樣就可以適應4D占用預測的需求,這里需求就包括關于可移動和靜態物體的連續占用狀態,以及它們的3D向后向心流的信息。

下圖為以原始和Scenes-Occupancy為基礎,在Cam4DOcc中構建數據集的整體流程。

通過利用現有數據集,提出了自動駕駛場景中預測任務的新數據集格式被重組為一種新穎的格式,既考慮了一般的活動類別,也考慮了靜態類別,用于統一的四維空間占用預測任務。

如下圖所示,論文首先將原始nuScenesnu分割成時間長度為N = Np+Nf+1的序列。然后按順序對可移數據集動物體進行語義和實例注釋,并收集到 GMO 中。

包括自行車、公共汽車、汽車、建筑、摩托車、拖車、卡車和行人,它們都被轉換為當前坐標系(t = 0)。

之后,再對當前3D空間進行體素化,并使用邊界框注釋語義/實際標簽附加到可移動對象的網格。

值得注意的是,在此過程中,一旦出現以下情況,無效實例就會被丟棄。

(1)如果它是 Np 個歷史幀中新出現的對象,則其可見性在 6 個攝像機圖像中低于 40%

(2)它首先出現在 Nf 個傳入幀中或者

(3)它超出了在 t = 0 時預定義的范圍(H,W,L)。可見性通過相機圖像中顯示的實例的所有像素的可見比例來量化[29]。基于恒定速度假設[22]、[44],利用順序注釋來填充缺失的中間實例。相同的操作也適用于 Lyft-Level5 數據集。

最后,論文作者利用Lyft-Level5數據集生成3D中的實例關聯生成三維向心流。利用此3D流來提高基于攝像頭的4D 占用預測的準確性。

該論文的目標不僅是預測GMO的未來位置,還要估計GSO的占用狀態和安全導航所需的自由空間。因此,作者們又進一步將原始nuScenes中的順序實例注釋與從nuScenes-Occupancy轉換到當前幀的順序占用注釋連接起來。這種組合平衡了自動駕駛應用中下游導航的安全性和精度。GMO標簽借鑒了原始nuScenes的邊界框標注,可以看作是對可移動障礙物進行了膨脹操作。GSO 和免費標簽由nuScenes-Occupancy提供,專注于周圍大型環境的更細粒度的幾何結構。

介紹完數據集,接下來是評估協議。為了充分發揮僅使用攝像頭的 4D 占用預測性能,作者在 Cam4DOcc 中建立了具有不同復雜程度的各種評估任務和指標。

論文在標準化評估協議中引入了四級占用預測任務:

(1)預測膨脹的GMO:所有占用網格的類別分為GMO和其他,其中來自nuScenes和LyftLevel5的實例邊界框內的體素網格被注釋作為GMO。

(2)預測細粒度GMO:類別也分為GMO和其他,但GMO的注釋直接來自nuScenes-Occupancy的體素標簽,去除了第2節中介紹的無效網格。

(3)預測膨脹的GMO、細粒度GSO和自由空間:類別分為來自邊界框注釋的GMO、遵循細粒度注釋的GSO和自由空間。

(4)預測細粒度GMO、細粒度GSO和自由空間:類別分為GMO和GSO,均遵循細粒度注釋,和自由空間。由于 Lyft-Level5 數據集缺少占用標簽,因此作者僅對其第一個任務進行指標評估。對于所有四個任務,作者使用交并集(IoU)作為性能指標。作者分別評估當前時刻 (t = 0) 占用率估計和未來時間 (t ∈ [1, Nf ]) 預測:

其中St'和St分別表示時間戳t處的估計體素狀態和真實體素狀態,更接近當前時刻的時間戳的IoU對最終的IoUf貢獻更大。這符合“接近時間戳的占用預測對于后續運動規劃和決策更為重要”的yuan。

接下來,論文作者們又提出了四種基線。

為了建立一個全面比較的基準,基于攝像頭的感知和預測功能,論文引入了四種不同類型的基線方法。

這些方法包括靜態世界占用模型、點云預測的體素化、基于2D-3D實例的預測。這些基線方法為論文提供了一個框架,以便可以比較和評估各種方法在當前和未來占用估計方面的性能。

靜態世界占用模型可以理解為一種假設環境在短時間內保持不變的簡單方法。在這種假設下,當前估計的占用網格可以作為所有未來時間步的預測。這種方法僅基于靜態世界假設,即在預測的時間范圍內,場景中的物體不會發生顯著的運動變化。(如下圖)

點云預測的體素化是指將點云預測的結果轉換為體素(voxel)表示的一種方法。

一般這個過程涉及幾個步驟:

深度估計:首先,使用環視攝像頭捕獲的圖像,通過深度估計算法生成連續的周圍視圖深度圖。

點云生成:接著,通過射線投射(ray casting)技術,將深度圖轉換為3D點云。這個過程模擬了激光雷達(LiDAR)的工作原理,通過多個攝像頭的深度信息來重建三維空間中的點。

點云預測:使用現有的點云預測方法(如PCPNet)來預測未來時間步的3D點云。這些方法通常基于當前的點云數據,通過學習點云隨時間變化的模式來預測未來的點云。

語義分割:預測得到的點云通過語義分割算法(如Cylinder3D)進行處理,以提取可移動和靜態物體的點級標簽。

體素化:最后,將預測得到的點云轉換為體素表示,即將每個點映射到一個三維網格中,形成占用網格(occupancy grid)。這樣,每個體素代表一個空間體積,其值表示該空間是否被物體占據。

這種方法的關鍵作用在于,它能夠將點云預測的結果轉換為一種適合于占用預測的格式,即體素化表示。通過這種方式,可以更好地評估和比較不同預測方法在自動駕駛場景中對動態和靜態物體未來狀態的預測能力。

基于2D-3D實例的預測指的是一種基于實例的預測方法,它使用環繞視圖攝像頭來預測近未來的語義場景,包括車輛、行人等動態物體的位置和運動。這種方法是作為Cam4DOcc基準中的一個基線提出的,用于評估和比較不同的4D占用預測方法。

當然,在智駕網看來,基于2D-3D實例的預測方法也有一定局限性。

這個方法涉及到2D實例預測的步驟,2D實例預測是指使用2D鳥瞰圖(BEV)格式的實例預測算法(如PowerBEV)來預測動態物體在未來時間步的語義分布。這些算法直接從多視圖2D攝像頭圖像中提取BEV特征,并結合時間信息來估計未來的實例分布。

局限就在于它依賴于2D BEV格式的預測,并且假設所有動態物體在同一高度上運動,這可能不適用于所有場景,特別是在復雜的城市環境中。

上述三種基線在執行任務過程中都存在局限性,因為不能直接預測未來三維空間的占用狀態,它們需要額外的后處理——根據現有結果擴展和轉化為四維空間占用預測。

因此,論文也提出了端到端的4D占用預測網絡OCFNet。

02.

OCFNet:端到端4D占用預測的創新

OCFNet能夠直接從攝像頭圖像中預測3D空間的未來占用狀態,而不需要依賴于2D到3D的轉換。

OCFNet通過接收連續的環繞視圖攝像頭圖像,能夠同時預測當前占用狀態和未來占用變化。該網絡利用多幀特征聚合模塊和未來狀態預測模塊,不僅預測了物體的占用狀態,還預測了物體的運動流,為自動駕駛車輛提供了更為豐富和精確的信息。

最后論文結果分析,OCFNet的性能在多個任務上超過了第一段分析的三個基線方法(靜態世界占用模型、點云預測的體素化、2D-3D實例基礎預測)。

比如下圖中的實驗任務是預測nuScenes和LyftLevel5上的GMO。這里OpenOccupancy-C、PowerBEV和OCFNet僅使用膨脹的GMO標簽進行訓練,而PCPNet則通過整體點云進行訓練。OCFNet和OCFNet†優于所有其他基線,在 nuScenes上的IoUf和IoUf'上超過基于BEV的方法12.4%和13.3%。在Lyft-Level5上,作者的OCFNet和OCFNet†在 IoUf和IoUf'方面始終優于PowerBEV-3D 20.8%和21.8%。

下圖顯示了OCFNet和CFNet†對nuScenes GMO占用率進行預測的結果,這表明僅使用有限數據訓練的OCFNet仍然可以合理地捕獲GMO占用網格的運動。此外,預測對象的形狀在未來的時間步長中會顯著失去一致性。OpenOccupancy-C的性能遠優于點云預測基線,但與PowerEBV-3D和OCFNet相比,估計當前占用率和預測未來占用率的能力仍然較弱。

通過在提出的Cam4DOcc基準上運行所有基線方法,作者收集了詳細的性能數據。評估指標包括交并比IoU和視頻全景質量(VPQ),這些指標衡量了模型在當前和未來時間步的占用預測準確性。

結果表明,OCFNet在多個任務上都取得了更高的IoU分數,這表明在預測當前和未來的占用狀態方面更為準確。

為了進一步證明OCFNet的優勢,作者還進行了消融研究,展示了網絡中不同組件(如流預測頭)對性能的貢獻。

下圖實驗表明,在當前和未來的占用率估計中,完整的OCFNet比沒有流預測頭的OCFNet增強了約 4%。原因可能是 3D 流程指導學習每個時間間隔的 GMO 運動,從而幫助模型確定下一個時間戳中占用估計的變化。

簡單來講,OCFNet的優勢在于,通過端到端的方式直接預測未來的占用狀態,減少了傳統方法中的偽影,提供了更準確的預測結果。

盡管OCFNet取得了顯著的成果,但如若應用在未來的工作上,對于更長時間段內多個移動物體的預測,論文認為這一任務仍然具有挑戰性。不過未來的工作可以在此基礎上進一步提高預測的準確性和魯棒性。

03.

說到最后,端到端的技術興起背后

馬斯克的第一性原理同樣可以化套用在自動駕駛的能力上。

如果從第一性原理來講,自動駕駛就是一個序列到序列的映射過程,輸入的是一個傳感器信號序列,可能包括多個攝像頭采集到的視頻、Lidar采集到的點云、GPS、IMU 等各類信息,輸出的是一個駕駛決策序列,例如可以是駕駛動作序列,也可以輸出軌跡序列再轉為操作動作。

這個過程與大部分AI任務基本一致,這種映射過程就相當于一個函數y= f(x),但實現這種函數難度較大,任務復雜,一般解決方式包括分治法、端到端、傳統分治法等。

端到端的方式原理最為簡單——直接尋找一個函數實現y=f(x)。

相比之下,端到端自動駕駛不進行任務切分,希望直接輸入傳感器數據、輸出駕駛決策(動作或者軌跡),從而拋棄傳統自動駕駛里的感知、預測、規劃、控制等各類子任務。這種方式有明顯的優勢,例如:

•效果上:不但系統更簡單,還能實現全局最優。

•效率上:由于任務更少,避免了大量重復處理,可以提高計算效率。

•數據收益:不需要大量的人工策略、只需要采集足夠多的優質駕駛數據來訓練即可,可以通過規模化的方式(不斷擴展數據)來不斷提升系統的能力上限。

一個典型的端到端自動駕駛系統如圖所示:

輸入:大部分自動駕駛汽車都裝載了攝像頭、Lidar、毫米波雷達等各類傳感器,采集這些傳感器的數據,輸入深度學習系統即可。

輸出:可以直接輸出轉向角、油門、剎車等控制信號,也可以先輸出軌跡再結合不同的車輛動力學模型,將軌跡轉為轉向角、油門、剎車等控制信號。

可見,端到端自動駕駛系統就像人類的大腦,通過眼睛、耳朵等傳感器接收信息,經過大腦處理后,下達指令給手腳執行命令……但是這種簡單也隱藏了巨大的風險,例如可解釋性很差,無法像傳統自動駕駛任務一樣將中間結果拿出來進行分析;對數據的要求非常高,需要高質量的、分布多樣的、海量的訓練數據,否則 AI 就會實現垃圾進垃圾出。

與傳統的自動駕駛方式對比可見,同樣的輸入、同樣的輸出,傳統自動駕駛包含多個任務(多個模塊),但是端到端只有一個任務。此處容易產生一個誤區,即認為傳統的自動駕駛是多模塊的、端到端自動駕駛是單模塊的,把分模塊與分任務的概念搞混了。

傳統的自動駕駛是分任務的,必然是多個模塊。端到端自動駕駛可以用單模塊來實現,當然也可以用多模塊來實現,其區別在于是否端到端訓練。分任務系統是每個任務獨立訓練、獨立優化、獨立測評的,而端到端系統是把所有模塊看成一個整體進行端到端訓練、端到端測評的。

例如2023年CVPR best paper提出的UniAD就是一種分模塊端到端訓練方式,這種方式通過端到端訓練避免了多任務訓練的融合難題實現全局最優,又保留了分模塊系統的優勢、可以拋出中間模塊的結果進行白盒化分析,反而更具靈活性對部署也更友好,如圖所示:

分任務的自動駕駛系統更像model centric系統,開發者通過不斷優化各個模型來提升各個任務的效果。而端到端自動駕駛則更像data centric系統,通過對數據的調優來提升系統效果。

早年,由于自動駕駛積累的數據還非常少,端到端系統的效果往往比較差。最近幾年,隨著帶高階輔助駕駛功能的量產車大規模落地,通過海量量產車可以采集到豐富的駕駛數據,覆蓋各類場景,再加上最近幾年 AI 算力的蓬勃發展,端到端自動駕駛在海量數據、海量算力的加持下,取得了突破性進展。

以特斯拉為例,通過遍布全球的幾百萬輛量產車,可以采集到足夠豐富、足夠多樣的數據,再從中選出優質數據,在云端使用數萬張 GPU、以及自研的 DOJO 進行訓練和驗證,使得端到端自動駕駛能夠從 paper 變成 product。

到 2023 年初,特斯拉就聲稱已經分析了從特斯拉客戶的汽車中收集的1000萬個視頻片段(clips),特斯拉判斷完成一個端到端自動駕駛的訓練至少需要100萬個、分布多樣、高質量的clips才能正常工作。

特斯拉通過分布在全球的幾百萬量產車,基于影子模式,每當自動駕駛決策與人類司機不一致時,就會采集并回傳一個 clip,已經累積了 200P 以上的數據,不管是數據規模、數據分布還是數據質量上都遙遙領先。為了能在云端處理這些數據,當前特斯拉擁有近10萬張A100,位居全球top5,預計到今年底會擁有100EFlops的算力,并針對自動駕駛自研了Dojo,在算力上同樣遙遙領先。

端到端的挑戰比當前帶來的驚喜感要更多。

從特斯拉的開發經驗來看,端到端自動駕駛門檻頗高,其所需的數據規模、算力規模遠遠超出國內企業的承受能力。

創作內容更多>>

月之暗面Kimi K2 Thinking訓練成本被曝僅460萬美元 比亞迪APP上線事故服務:出險一鍵召喚、24小時支援 黃仁勛身著紅色短袖現身臺積電運動會 與魏哲家豎大拇指合影 百度文心大模型ERNIE-5.0-Preview-1022 在 LMArena 文本排行榜上超過 GPT-5-High、Qwen3-Max、DeepSeek-R1-0528,排名全球第二、國內第一 本田CEO三部敏宏:多款電動跑車原型車已造好,但暫不發布 突傳大消息,巨頭被傳醞釀“大型并購” 花40億美元為星巴克換“中國心”,“神秘金主”是何來頭? 1820億盲盒大佬,被員工直播“背刺” 對話比亞迪劉學亮:中國車企出海沒有從零開始的機會 零跑副總裁曹力回應“與華為道不同不相為謀” 胡潤調侃“增長王”雷軍:彎腰撿一萬塊的時間還要虧一萬塊 vivo OriginOS 6公測招募啟動 首批覆蓋X200系列、iQOO 13等10款機型 ColorOS 16首批11款機型開啟正式版嘗鮮升級,含Find N5/X8等 馬斯克律師炮轟OpenAI重組:將官司打到底 法國1-8月汽車銷量同比下降7%,比亞迪和名爵表現亮眼 在燃油車為主導的時代,“一年推出小改款車型,五年進行車型大換代”是汽車行業默認的發展節奏 別克至境品牌首款車型L7在預售不到兩周后就正式迎來了上市 單月交付超3萬臺!元戎啟行9月合作車型量產交付量再創新高 Stellantis高層再迎變動:首席財務官換人 國產廠商億航智能宣布推出新一代長航程無人駕駛載人航空器VT35,標準版在中國市場的官方指導價為650萬元人民幣 嵐圖汽車的IPO有“硬傷”:盈利靠政府補貼,銷量依賴夢想家 “精簡版Win11”tiny11 25H2問世,不再強制要求綁定微軟賬戶 導遠科技車規級MEMS IMU芯片獲自主可控認定,實現工業化交付 宇樹科技CEO王興興:下半年將發布身高1.8米的人形機器人 蓋世汽車CEO周曉鶯出任安亭鎮商會汽車產業鏈專委會組長 林肯汽車領航員采用2-2-3座艙布局,踐行“七座皆上賓”的理念。首排“領航”坐席成功實現舒適領航 國內的瞪羚企業除了整車企業外,在動力電池、智能網聯等相關產業鏈都涌現了一批領軍企業 雙線驅動的上汽奧迪,如何破解傳統豪華困局? 麗馳汽車年中盛會隆重召開,旗艦新品 V7Li 震撼登場! 靜態體驗全新蔚來ES8:配置看齊ET9、空間堪比L9,更智能的攬勝
亚洲最大的黄色网| 亚洲自拍欧美精品| 国产精品一区二区av白丝下载 | qvod激情图片| 日本亚洲自拍| 久久美女艺术照精彩视频福利播放| 天天夜夜人人| 色婷婷综合成人av| 揉丰满老妇老女人的毛片| 欧美性欧美巨大黑白大战| 九九色在线视频| 免费精品99久久国产综合精品应用| 欧美日韩一区二区精品| 4438五月综合| 久久久久99精品成人片三人毛片| 免费成人高清视频| 男女男精品视频网| 国产字幕中文| 黄色录像a级片| 中文字幕在线看视频国产欧美| 丁香在线视频| 亚州欧美一区三区三区在线| 日韩电影在线观看一区| 先锋影音男人资源| 最色在线观看| 亚洲一区二区三区xxx视频| 国内高清免费在线视频| 91精品人妻一区二区三区| 亚洲精品欧美日韩| 日韩视频在线一区二区| 99视频在线精品| 欧美日韩色图| 污视频在线看网站| 免费黄网在线看| 麻豆久久久久久久久久| 国内精品视频在线| 97人人爽人人澡人人精品| 成人亚洲精品777777大片| 一区二区自拍| 国产精品久久久免费视频| 国产精品日韩欧美| 亚洲深夜福利| 国产真乱mangent| 巨乳诱惑日韩免费av| 久久在线视频精品| 中文字幕精品在线不卡| 91视频亚洲| 天堂网www在线中文天堂| 欧美亚洲免费高清在线观看| 激情久久五月天| 国产三级精品在线观看| 伊人久久久久久久久久久| 桃色一区二区| av动漫免费观看| 欧美先锋资源| 91在线播放观看| 偷偷要91色婷婷| 护士精品一区二区三区| 97在线视频国产| 日韩高清在线| 99国产精品久久久久久久成人热 | 日韩网站在线看片你懂的| 天天影视色香欲综合| 国产精品久久亚洲7777| 国产精品一区二区三区www| 国产69精品久久久久999小说| 香蕉久久精品日日躁夜夜躁| 久久黄色片网站| 日韩黄色免费电影| 欧美另类一区二区| 亚洲黄色在线视频| 欧美一区二区三区久久综| 国产91色在线|| 中文字幕不卡三区视频| 亚洲欧洲日韩综合| 国产成人一区二| 538在线观看| 欧美精品久久久久久久自慰| 国产尤物精品| 欧美成人一区二区三区高清| 三级成人黄色影院| 日本久久久久亚洲中字幕| 久久99视频| 人妻精品久久久久中文字幕 | 国产精品毛片a∨一区二区三区| www.毛片.com| 精品免费99久久| 国产亚洲精aa在线看| 蜜桃色一区二区三区| 日韩欧美主播在线| 久久亚洲国产精品尤物| 亚洲熟妇无码久久精品| 欧美成人精品三级在线观看 | 大黑人交xxx极品hd| 国产原创视频在线观看| 国产亚洲人成a一在线v站| h片视频在线观看| 看免费黄色录像| 成人在线精品| 激情五月婷婷在线| 中文字幕免费精品一区高清| 国产欧美自拍一区| 成人性做爰aaa片免费看不忠| 国产精品国产三级国产专播品爱网 | 制服丝袜一区二区三区| 美臀av在线| 国产精品第12页| 亚洲欧洲成人精品av97| 亚洲色欲综合一区二区三区| 亚洲草久电影| 最近免费中文字幕在线第一页| 国产精品a久久久久久| 97国产成人高清在线观看| 免费观看黄一级视频| 欧美日韩系列| 99精品热视频| 精品国产白色丝袜高跟鞋| 亚洲一区二区在线免费| 久久av日韩| 精品人妻一区二区免费视频| 午夜精品久久久久影视| 成人无遮挡免费网站视频在线观看| 国产精品一区二区电影| 激情综合网址| 一区二区三区观看| 宅男噜噜噜66国产日韩在线观看| 国产xxx免费观看| 东北少妇不带套对白| 欧美午夜电影在线播放| 视频精品导航| 久热这里只有精品在线| 国产欧美一区二区白浆黑人| 精品在线一区二区三区| 美女大黄三级视频在线观看| 欧美高清中文字幕| 欧美日韩国产一区| 婷婷精品进入| 人人干狠狠干| 日本人69视频| 亚洲最新中文字幕| 手机精品视频在线观看| 国产三级精品三级在线| 亚洲永久免费视频| 99热免费精品在线观看| 亚洲精品播放| 午夜欧美激情| 国产www网站| 国产又色又爽又黄又免费| 亚洲精品成人在线播放| 俺也去精品视频在线观看| 国产乱理伦片在线观看夜一区 | 亚洲精品中文字幕乱码无线| 久久久久国产精品一区| 亚洲看片一区| 超碰97国产精品人人cao| 欧美人成在线观看网站高清| 天天干视频在线观看| 日韩精品一区二区三| 日本77777| 99综合电影在线视频| b站大片免费直播| 狠狠色伊人亚洲综合网站色| 亚洲精品xxxx| 久久精品亚洲一区二区三区浴池| 密臀av在线播放| 亚洲精品88| 国产精品一区hongkong| 国产黄色高清在线| 在线观看视频h| 欧美激情国产精品免费| 特级黄色片视频| 午夜欧美性电影| 3d动漫精品啪啪一区二区三区免费| 97超碰蝌蚪网人人做人人爽| 欧美另类在线播放| 欧美激情啊啊啊| 日韩av网站电影| 亚洲一二三区在线观看| 日韩欧美色电影| 欧美成人午夜激情在线| 国产精品aaa| 久久久久亚洲蜜桃| 亚洲高清毛片| 国产欧美日韩在线| 91精品国产免费| 久久久久久久色| 黄色片网址在线观看| 一卡二卡三卡四卡| 99国产精品欲| 91久久精品国产性色| 中文字幕伦理免费在线视频| 伊人精品一区| 久久男人中文字幕资源站| 日韩一区二区免费在线电影| 国产在线观看精品| 91香蕉视频导航| www.成人精品| 伦理av在线| 99亚洲伊人久久精品影院红桃| 亚洲v日本v欧美v久久精品|