• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于神經(jīng)輻射場的視點合成算法綜述

    2021-07-06 11:58:28遠,蓋
    圖學學報 2021年3期
    關鍵詞:視點繪制光照

    常 遠,蓋 孟

    基于神經(jīng)輻射場的視點合成算法綜述

    常 遠1,2,蓋 孟1,2

    (1. 北京大學信息科學技術學院,北京 100871;2. 北京大學北京市虛擬仿真與可視化工程研究中心,北京 100871)

    基于圖像的視點合成技術在計算機圖形學與計算機視覺領域均有廣泛的應用,如何利用輸入圖像的信息對三維模型或者場景進行表達是其中的關鍵問題。最近,隨著神經(jīng)輻射場這一表示方式的提出,大量基于此表示方法的研究工作對該方法進行了進一步優(yōu)化和擴展,在準確性、高效性等方面取得了良好的成果。該類研究工作可以根據(jù)研究目的大致分為兩大類:對神經(jīng)輻射場算法本身的分析以及優(yōu)化,和基于神經(jīng)輻射場框架的擴展及延伸。第一類研究工作對神經(jīng)輻射場這一表示方法的理論性質和不足進行了分析,并提出了優(yōu)化的策略,包括對合成精度的優(yōu)化、對繪制效率的優(yōu)化以及對模型泛用性的優(yōu)化。第二類研究工作則以神經(jīng)輻射場的框架為基礎,對算法進行了擴展和延伸,使其能夠解決更加復雜的問題,包括無約束拍攝條件下的視點合成、可進行重光照的視點合成以及對于動態(tài)場景的視點合成。在介紹了神經(jīng)輻射場模型提出的背景之后,對以其為基礎的其他相關工作按照上述分類進行了討論和分析,最后總結了神經(jīng)輻射場方法面對的挑戰(zhàn)和對未來的展望。

    基于圖像的繪制;視點合成;神經(jīng)輻射場;神經(jīng)渲染;深度學習

    基于圖像的視點合成是計算機圖形學與計算機視覺領域共同關注的重要問題。具體來說,基于圖像的視點合成即為利用已知拍攝視點的若干圖像作為輸入,對這些圖像所拍攝的三維物體或者場景進行幾何、外觀、光照等性質的表達,從而可以對其他未拍攝到的視點的圖像進行合成,最終得到具有高真實感的繪制結果。相比傳統(tǒng)的三維重建結合圖形繪制的流程,此類方法能夠得到照片級別真實感的合成結果。

    多年來,研究者們針對該問題進行了大量的探索,獲得了許多有價值的研究成果[1]。早期的方法一般采用“拼圖”的形式實現(xiàn)此目的[2-4],但這類方法對于拍攝條件的限制較高,同時能夠合成的視點也非常有限。后來研究者們開始嘗試從輸入圖像中提取場景的三維信息,并以提取出的三維結構信息作為輔助,實現(xiàn)對不同視點的繪制,提高了自由視點合成的效果[5-7]。近些年來隨著深度學習技術的飛速發(fā)展,許多基于深度學習的方法也被提出[8-10],通過數(shù)據(jù)驅動的方式,進一步提高了視點合成的準確性和真實感。

    最近,隨著神經(jīng)渲染技術的興起,類似方法也被擴展到了視點合成的領域中。文獻[11]提出了使用神經(jīng)輻射場表示三維場景或模型,并結合體繪制方法,將此表示方式成功地應用到了視點合成領域,取得了高質量的合成結果。這一研究成果獲得了研究者們廣泛的關注,并且引領了接下來的一系列針對該方法進行分析、優(yōu)化、擴展的研究工作。其中,有些工作對神經(jīng)輻射場的繪制效率和精度進行了優(yōu)化提高[12-13],有些工作則是在可移植性上進行了探索[14-15],另外還有一些工作對該表示方法進行了擴展,以解決更加復雜的問題[16-17]。本文對以上基于神經(jīng)輻射場的最新研究工作進行綜述,對各種不同類型工作進行了介紹,也對各類方法的特點以及不足等進行分析和總結。

    1 神經(jīng)輻射場的提出

    神經(jīng)輻射場的提出得益于神經(jīng)渲染領域取得的迅猛發(fā)展。該類技術可以將神經(jīng)網(wǎng)絡作為隱函數(shù)對三維模型進行表示,以達到不同的應用目的,如圖像生成、視角生成以及重新光照等等。本節(jié)首先對采用神經(jīng)網(wǎng)絡作為場景幾何的隱式表達的方法進行總結與介紹,以此引入神經(jīng)輻射場的提出。

    占位網(wǎng)絡是一種典型的利用神經(jīng)網(wǎng)絡隱式表達三維幾何的方法[18-19]。這種方法用神經(jīng)網(wǎng)絡對空間中每個點的二值占位情況進行預測,即對三維空間訓練一個二分類網(wǎng)絡,如圖1所示。該方法的提出,主要意義在于使用連續(xù)函數(shù)對三維空間進行表達,相比于過去使用體素、網(wǎng)格等表達方式,可以在不增加任何空間存儲的情況下描述各種復雜的幾何形狀。

    圖1 占位網(wǎng)絡對空間進行二分類[18]

    除了直接把空間按照是否存在模型劃分為兩類情況之外,還有一類隱式的表示方法是通過回歸一個有符號的距離函數(shù)SDF對三維模型進行表示[20-21]。這類表示方式能夠連續(xù)地對三維模型進行表示,即使是具有復雜拓撲的模型也能夠進行建模,如圖2所示。

    圖2 用有符號距離函數(shù)來表示三維模型((a)用有符號距離函數(shù)隱式表示曲面;(b)有符號距離函數(shù)的二維剖面;(c)利用有符號距離函數(shù)繪制得到的三維曲面)[20]

    以SDF方法為基礎,研究者們對這類方法進一步進行了完善,將其應用到了對具有高度細節(jié)的模型表示中。例如,像素對齊隱式函數(shù)方法(pixel-aligned implicit function,PIFu)[21]通過將空間點投影到與像素對齊的特征空間,隱式地學習三維模型當中的細節(jié),從而實現(xiàn)了對穿衣人體模型的高分辨率重建。

    但上述方法往往要求已知的三維形狀作為監(jiān)督信息,而在許多應用中,人們無法輕易地獲取到三維形狀的真值。所以接下來的一系列工作開始嘗試放寬這一條件,直接使用圖像作為監(jiān)督。為此,一些研究工作提出了可微的繪制技術,從而將繪制步驟加入到神經(jīng)網(wǎng)絡中,以實現(xiàn)由繪制圖像的誤差直接對網(wǎng)絡進行訓練。文獻[22]采用占位網(wǎng)絡作為表達三維模型幾何的表示結構,并采用數(shù)值方法尋找每條光線與模型表面的交點。每個光線交點都作為神經(jīng)網(wǎng)絡的輸入預測該點的顏色值。文獻[23]則采用為每個三維空間坐標預測對應的顏色和特征向量,并提出了一個由循環(huán)神經(jīng)網(wǎng)絡組成的可微的繪制函數(shù)用于決定哪里存在著物體表面。然而,這些方法始終受限于處理僅具有低復雜度的幾何結構的簡單形狀,導致過度平滑的繪制結果。

    由于體繪制過程本身是可微的,所以可以加入到上述神經(jīng)網(wǎng)絡的訓練,從而實現(xiàn)僅用圖像的顏色值作為監(jiān)督的訓練過程。

    圖3 神經(jīng)輻射場算法流程[11]

    此外,為了避免合成圖像中高頻信息的丟失,NeRF還將輸入變量首先進行了位置編碼[25],將其映射到其傅里葉特征。實驗表明,這一映射能夠有效地解決高頻信息難以擬合的問題。

    表1展示了NeRF與早期基于神經(jīng)網(wǎng)絡的其他方法在2個數(shù)據(jù)集[11,26]上的量化對比結果。由表1可以看出,使用連續(xù)函數(shù)對場景進行表示的NeRF方法得到了更加高質量的視點合成結果。

    表1 NeRF與早期基于神經(jīng)網(wǎng)絡方法的量化對比

    2 關于神經(jīng)輻射場的分析及優(yōu)化

    基于神經(jīng)輻射場的方法NeRF提出之后,由于其結構簡單、合成精度高的特點,迅速引起了研究者們的注意。部分研究工作開始對NeRF取得良好結果的原因進行理論和實驗分析,同時,部分研究工作也開始針對NeRF存在的問題進行了優(yōu)化和提升。

    文獻[28]對NeRF方法中的位置編碼操作進行了更加深入的研究,以神經(jīng)正切核理論[29]作為工具,從理論上論證了標準的多層感知機是難以對高頻信息進行學習的。同時,其也通過不同應用場景下的實驗結果驗證了這一現(xiàn)象。為了解決這一問題,該方法提出將原始輸入變量映射至傅里葉特征空間可以將有效的神經(jīng)正切核變換為可調帶寬的靜態(tài)核,并且可以大幅地提升多層感知機處理計算機圖形學和計算機視覺領域中低維回歸問題的能力。如圖4所示,在加入位置編碼之后,對高頻信息的擬合有了顯著的提升。

    圖4 加入位置編碼的效果((a)多層感知機網(wǎng)絡示例;(b)圖像回歸任務;(c)三維形狀回歸任務;(d)核磁共振成像任務;(e)逆向繪制任務)[28]

    文獻[13]則對NeRF中理論上存在的歧義性進行了分析,并對采樣過程進行了優(yōu)化,使其能夠適應無邊界場景的視點合成。在NeRF中,為了對物體的外觀顏色隨觀察角度變化而變化這一性質進行建模,其理論上實際出現(xiàn)了幾何與顏色的歧義。具體來說,對于一個已知的場景或者模型,即使是一個完全錯誤的幾何估計,也總存在一個合適的輻射場使得該輻射場與該錯誤的幾何能夠完美地對輸入圖像進行擬合。如圖5所示,僅用一個球面模型代替正確的幾何結構,只要對應的輻射場足夠的精細,滿足每條光線與球面相交的點沿光線方向發(fā)出的顏色為對應像素的顏色,即可使得預測的圖像與輸入圖像完全吻合。然而由于對幾何的錯誤估計,該神經(jīng)輻射場在視點偏離輸入視點時就會造成較大的畸變,從而無法用于正確的視點合成。而NeRF在實際實驗中并沒有出現(xiàn)上述嚴重的歧義現(xiàn)象,是因為對于一個有限大小的多層感知機,其表示的函數(shù)具有較高的平滑性,一般難以表達出錯誤的幾何所需要的非常高頻的輻射場函數(shù),從而避免了這個問題。

    圖5 顏色和幾何的歧義性[13]

    除此之外,該文獻還對光線采樣過程進行了優(yōu)化,通過在單位球的內(nèi)外部分別采用不同的參數(shù)化方法,實現(xiàn)了對無邊界場景的有效采樣,完善了NeRF對無邊界場景的處理能力。優(yōu)化過后的采樣過程如圖6所示。

    圖6 球面內(nèi)外不同參數(shù)化[13]

    表2展示了該方法在無邊界場景數(shù)據(jù)集[30]上與原始NeRF方法的對比結果??梢钥闯?,該方法有效地提升了網(wǎng)絡對于無邊界場景的表達能力,可以得到更準確的視點合成結果。

    表2 文獻[13]與NeRF在無邊界場景上的量化對比

    還有一類重要的研究工作則以繪制效率為出發(fā)點提出了優(yōu)化策略[12,31-32]。如上文所述,通過神經(jīng)輻射場繪制圖像中的像素需要在其發(fā)出的光線上進行采樣,并且對于每一個采樣點,都需調用一次神經(jīng)網(wǎng)絡以得到對應的體密度和顏色值預測。這使得NeRF不僅在訓練時需要消耗較多時間,在對新視點進行預測時同樣需要消耗較多的時間。為此,文獻[12]提出了一種新的場景表達方式:神經(jīng)稀疏體素場(neural sparse voxel fields,NSVF),將空間進行稀疏的體素劃分,并把輻射場定義在每個體素內(nèi)部從而描述該局部空間的性質。在構造體素八叉樹結構之后,就可以在繪制時跳過那些不存在任何內(nèi)容的體素,從而大大提升繪制的速度?;谠撓∈梵w素結構的采樣方式如圖7所示。

    圖7 不同的采樣方式((a)均勻采樣;(b)重要區(qū)域采樣; (c)稀疏體素采樣)[12]

    還有部分研究者們對該模型的泛用性進行了研究和優(yōu)化[14-15,33]。傳統(tǒng)的NeRF模型要求對每一個場景都要獨立的進行訓練,同時也需要較多的進行過相機標定的輸入圖像用于訓練,這使得使用時的時間開銷較大,大大降低了該模型的泛用能力。文獻[14]首先利用卷積網(wǎng)絡對圖像進行特征提取,然后將提取到底特征加入到NeRF網(wǎng)絡的輸入中,以學習到場景的先驗,如式(3)所示

    優(yōu)化之后的模型能夠有效地學習到場景的先驗知識,從而能夠在一次訓練過后,對于新的場景,僅通過少量的輸入圖像即可對未知視點進行預測。

    另一種提高NeRF泛用性的方法則是利用元學習的思路。文獻[15]利用標準的元學習算法對NeRF網(wǎng)絡的初始參數(shù)進行學習,如圖8所示。該研究表明,使用學習得到網(wǎng)絡初始參數(shù)相比使用傳統(tǒng)的參數(shù)初始化方法能夠得到更快的收斂速度,同時這些學習到的初始參數(shù)值可以有效地作為場景的先驗知識,使得當輸入圖像有限時,也能得到良好的合成結果。實際上,該方法不僅限于視點合成問題,對于用全連接神經(jīng)網(wǎng)絡表示信號的各種應用均可適用。

    圖8 學習得到的初始參數(shù)能夠加快收斂速度也具有更好的泛用性[15]

    3 對于神經(jīng)輻射場的擴展及延伸

    除了對NeRF方法本身進行分析和優(yōu)化之外,還有許多的研究工作對該方法進行了擴展和延伸,將其擴展到了更加多樣、復雜的應用場景中。

    3.1 基于無約束圖像的視點合成

    為了能夠利用互聯(lián)網(wǎng)上采集到的同一場景的多視角照片進行自由視點的合成,文獻[34]將NeRF擴展到了無約束拍攝條件下的視點合成,提出了無約束條件下的神經(jīng)輻射場算法(NeRF in the wild,NeRF-W)。對于某些名勝景點,互聯(lián)網(wǎng)上能夠找到大量的游客拍攝的照片,如何通過這些照片對場景構建合適的表示結構,實現(xiàn)自由視點的漫游是一個非常有價值也具有挑戰(zhàn)性的問題。由于照片的拍攝時間、天氣、光照等條件可能存在著巨大的差異,同時還常常會有游客等前景出現(xiàn)在不同的照片中,使得傳統(tǒng)的NeRF無法對這種情況構建出正確的神經(jīng)輻射場。在這種條件下,即使是同一個位置、同一個角度,也可能對應著完全不同的拍攝圖像。針對這一特點,該方法為每張輸入圖像進行外觀編碼[35],用于隱式地表示每幅輸入圖像所蘊含的拍攝條件。在加入這一編碼操作之后,NeRF-W可以準確地學習到場景的幾何結構,并可以對不同的輸入圖像的光照條件進行編碼和解碼。除此之外,為了處理不同照片中存在不同的前景等臨時物體,NeRF-W將場景建模為各輸入圖像間共享的元素以及依賴于各輸入圖像的元素。這使得模型可以對場景中保持靜態(tài)的內(nèi)容與臨時物體進行有效的區(qū)分,從而使得在合成新視點時,能夠避免由于行人、車輛等臨時前景所帶來的視覺瑕疵。圖9展示了NeRF-W處理互聯(lián)網(wǎng)無約束拍攝圖像的結果。

    圖9 通過互聯(lián)網(wǎng)收集圖像進行視點繪制[34]

    3.2 基于神經(jīng)輻射場的重光照技術

    另一類重要的擴展應用為將神經(jīng)輻射場進行增強使其能夠表達不同的光照條件[36-38]。3.1節(jié)中介紹的NeRF-W雖然已經(jīng)能夠基于不同的光照條件下拍攝的圖像進行圖像合成,并且可以對合成的視點平滑地調整光照條件,但其只是隱式地對光照性質進行了描述,并不能顯式地調整光照的各種物理量。

    文獻[37]提出了一種叫做神經(jīng)反射場的表示方式,在NeRF能夠對體密度信息進行編碼的基礎上,對空間中每一點的局部光照模型也進行了編碼,包括法向和反射性質,如圖10所示。該方法將這一表示模型與基于物理的可微光線步進算法進行結合,可以繪制出任意視點、任意光照條件下的圖像。

    然而,這種直接的方法局限于某些受限的光照設置,要求所有的輸入圖像都繪制于同一個單個的點光源。對此,文獻[36]提出了神經(jīng)輻射及可見性場(neural reflectance and visibility fields,NeRV)進行改進,改進的方式是使用一個額外的多層感知機學習空間中的可見性場,用于描述每一個點的可見性。在這種情況下,該神經(jīng)網(wǎng)絡的輸入為空間中的三維位置坐標,輸出則為:體密度、表面法向、材質參數(shù)、沿任意方向距離第一個相交表面的距離、沿任意方向對外部環(huán)境的可見性。增加了可見性表達之后,該模型降低了體繪制的時間復雜度,從而可以描述更加復雜的光照所產(chǎn)生的效果,如圖11所示。

    圖10 神經(jīng)反射場算法流程概覽[37]

    圖11 神經(jīng)可見性場降低了時間復雜度[36]

    表3展示了在不同光照條件下上述2種方法在合成場景數(shù)據(jù)集上的量化對比結果。其中,“Single Point” 表示光照為隨機分布的單一的白色點光源的光照條件?!癆mbient+Point”表示單一點光源和一個暗灰色環(huán)境圖的光照條件??梢钥闯?,在簡單的單一點光源條件下,2種方法并無顯著差異,但是在復雜的光照條件下,NeRV具有明顯的優(yōu)勢。

    表3 文獻[37]與NeRV在不同光照條件下的量化對比

    3.3 基于神經(jīng)輻射場的動態(tài)場景視點合成

    由NeRF的原理可知,其本質上是依賴于多視圖之間的幾何一致性。然而,當場景中存在動態(tài)物體時,這種一致性便不再存在,導致NeRF無法對存在動態(tài)物體的場景進行表達。所以,另一類重要的研究方向即為將NeRF擴展到對于動態(tài)場景的表達。

    動態(tài)場景的視點合成問題指的是輸入一段視頻,視頻的拍攝過程中不僅相機發(fā)生移動,場景中的物體也存在運動。目標是通過這段視頻合成得到任意時刻任意視點的圖像。最直接的方法是將時間變量直接作為額外的輸入加入到NeRF的訓練中。但是,由于每個時刻,該場景中的每一點都只被一個視角觀察到,所以理論上有無數(shù)種幾何變化都可以符合輸入視頻中的觀察。為此,一種直接的解決方式是利用現(xiàn)有的動態(tài)視頻深度估計算法對每一幀的深度進行估計,以此對神經(jīng)輻射場的優(yōu)化進行約束[39]。這種方法由于需要顯式的深度圖進行約束,所以要首先訓練得到動態(tài)場景深度估計的網(wǎng)絡[40],并且其結果依賴于深度圖估計的準確性。

    另一種解決思路則是利用場景流的約束。文獻[16]設計了神經(jīng)場景流場用于動態(tài)場景的表達。具體來說,該網(wǎng)絡在NeRF基礎上加入時間變量作為額外輸入,并且輸出的變量也在傳統(tǒng)NeRF的基礎上增加了對相鄰時刻場景流的預測。其中,該方法對預測的場景流進行了一致性的約束,以約束整體的優(yōu)化過程。該約束要求相鄰時刻的正向、反向場景流是一致的。圖12展示了利用預測的場景流對圖像進行形變的過程。

    圖12 利用場景流進行形變[11]

    此外,文獻[17]提出了一種可形變的神經(jīng)輻射場(Deformable neural radiance fields,D-NeRF)對存在動態(tài)物體的場景進行表示。該方法的基本框架與NeRF-W模型類似,對每個輸入圖像進行外觀編碼,以調整圖像之間的外觀變化,例如曝光度、白平衡等。在此基礎上,該方法用多層感知機表示一個空間坐標到正則空間坐標的變換,同時將場景每個時刻的狀態(tài)編碼為一個隱式的向量。通過對場景中的形變進行描述,該方法大大地提高了對于存在動態(tài)物體場景進行視點合成的魯棒性。圖13展示了該方法的網(wǎng)絡結構。

    圖13 D-NeRF的網(wǎng)絡結構[17]

    4 總 結

    得益于可微繪制技術的發(fā)展,基于體繪制的神經(jīng)渲染方法在近年來取得了飛快的發(fā)展,也促進了基于神經(jīng)輻射場的視點合成算法的飛速發(fā)展。神經(jīng)輻射場方法的提出具有2個重要的意義。首先,該方法可以獲得高質量的視點合成結果。并且,不同于之前的算法采用離散的體素網(wǎng)格等結構對場景幾何進行描述,該方法利用神經(jīng)網(wǎng)絡強大的表示能里,使用神經(jīng)網(wǎng)絡作為連續(xù)的隱函數(shù)對三維場景的幾何和顏色性質進行表示。這使得該表示模型不會隨著場景中幾何分辨率的提高而顯著變大。第二,該表示方法為研究者們提供了一種新的研究思路,促進了后續(xù)基于此表示模型的各種方法的蓬勃發(fā)展。

    本文首先以用神經(jīng)網(wǎng)絡作為隱函數(shù)表達三維模型的早期方法作為背景,引入了神經(jīng)輻射場方法的提出,也對該方法的理論模型進行了簡單的介紹。然后將基于該模型的相關工作分為2類進行了總結和分析:

    第一類方法為對傳統(tǒng)神經(jīng)輻射場方法的理論分析和性能優(yōu)化。這類研究工作對神經(jīng)輻射場方法的效率、精度、理論依據(jù)等方面進行了深入的探討,也對算法本身的性能進行了優(yōu)化提升。其中包括對模型表示能力的優(yōu)化、對繪制效率的優(yōu)化以及針對模型泛用性的優(yōu)化。

    第二類方法則為基于神經(jīng)輻射場方法的推廣和延伸。這類研究工作不再局限于原始方法所著眼的傳統(tǒng)靜態(tài)場景視點合成問題,而是以神經(jīng)輻射場的思路為基礎,為其他的復雜應用場景設計新的解決方案。有些方法將其推廣至利用無約束的互聯(lián)網(wǎng)圖像進行視點合成,有些則將其推廣至4維的動態(tài)場景的視點合成問題,還有一些方法則擴展了模型的表示能力,使其能夠對場景光照進行顯式表達,從而能夠對合成的視點進行重光照。

    基于圖像的視點合成問題在近20余年始終是計算機圖形學和計算機視覺領域的重要問題,對此,研究者們也已經(jīng)進行了相當深入的研究。其中,如何從圖像中提取場景的幾何、外觀、光照等信息是視點合成技術的關鍵問題,也是其難點和挑戰(zhàn)。早期的方法受困于無法對場景的幾何進行準確估計,使得僅能在苛刻的應用條件下進行視點合成。隨著多視圖立體幾何的發(fā)展,研究者們利用對場景幾何的重建結果,大大提升了合成視點的魯棒性和準確性。然而,由于幾何的重建誤差以及并沒有考慮到場景幾何與外觀的一致性問題,視點合成的質量仍然有所不足。近年來,研究者們考慮同時對場景的幾何與外觀信息進行估計,使得視點合成技術得到了顯著的進步。深度學習的發(fā)展也深刻地影響到了這一領域。但是,由于這些方法均采用離散的方式來對三維空間進行描述,其合成質量受限于空間劃分的粒度,這使得空間復雜度成了對于合成視點質量的一個重要制約因素。同時,采用多平面劃分的方式,其對于場景中存在斜面的表示能力也存在著先天的劣勢。神經(jīng)輻射場方法利用了神經(jīng)網(wǎng)絡強大的表達能力,構造了一種連續(xù)的幾何與外觀表示方法來解決上述問題,在合成質量方面取得了顯著的提升。神經(jīng)輻射場方法提出至今僅僅一年左右的時間,基于該模型的相關研究工作已經(jīng)得到了如此快速的發(fā)展,這體現(xiàn)出了這一模型具有強大的表示能力以及優(yōu)秀的擴展性。而這一表示模型在其他應用領域的延伸將是重要的研究方向,例如基于神經(jīng)輻射場的場景編輯、模型生成等等。同時,這類方法也存在著缺點與不足。首先,通過隱函數(shù)表示三維空間的方式需要在繪制時對空間中的每一個點都調用該隱函數(shù)一次,這相比于離散的表示方式大大地增加了時間開銷,使得實時繪制難以實現(xiàn)。另外,該類方法的另一缺點為缺乏可解釋性。采用體素或網(wǎng)格的離散表示形式的方法具有較高的解釋性,能夠對合成結果中出現(xiàn)失敗或瑕疵的原因進行分析。而基于神經(jīng)輻射場模型的方法將三維場景編碼為神經(jīng)網(wǎng)絡的參數(shù),難以從圖形理論上分析該方法成功或者失敗的具體原因。對該類方法的可解釋性進行提升也將是未來重要的研究方向之一。本文通過對現(xiàn)有的工作進行分類總結,希望能對研究者們的研究工作起到參考和啟發(fā)作用。

    [1] CHANG Y, WANG GP. A review on image-based rendering[J]. Virtual Reality & Intelligent Hardware, 2019,1(1): 39-54.

    [2] SHUM H-Y, HE LW. Rendering with concentric mosaics[C]//The 26th Annual Conference on Computer Graphics and Interactive Techniques. New York: ACM Press. 1999: 299-306.

    [3] DEBEVEC P, DOWNING G, BOLAS M, et al. Spherical light field environment capture for virtual reality using a motorized pan/tilt head and offset camera[EB/OL]. [2021-01-20]. http://dx. doc.org/10.1145/2787626.2787648.

    [4] SZELISKI R, SHUM HY, Creating full view panoramic image mosaics and environment maps[C]//The 24th Annual Conference on Computer Graphics and Interactive Techniques. New York: ACM Press, 1997: 251–258.

    [5] CHAURASIA G, DUCHêNE S, SORKINE-HORNUNG O, et al. Depth synthesis and local warps for plausible image-based navigation[J]. ACM Transaction on Graphics, 2013, 32(3): 30:1-30:12.

    [6] HEDMAN P, KOPF J. Instant 3D photography[J]. ACM Transaction on Graphics, 2018, 37(4): 10:1-10:12.

    [7] PENNER E, ZHANG L. Soft 3D reconstruction for view synthesis[J]. ACM Transaction on Graphics, 2017, 36(6): 235:1-235:11.

    [8] HEDMAN P, PHILIP J, PRICE T, et al., Deep blending for free-viewpoint image-based rendering[J]. ACM Transaction on. Graphics, 2018, 37(6): 257:1-257:15.

    [9] MILDENHALL B, SRINIVASAN PP, ORTIZ-CAYON R, et al. Local light field fusion: practical view synthesis with prescriptive sampling guidelines[J]. ACM Transaction on Graphics, 2019, 38(4): 29:1-29:14.

    [10] CHOI I, GALLO O, TROCCOLI A J, et al. Extreme view synthesis[C]//2019 IEEE/CVF International Conference on Computer Vision. New York: IEEE Press, 2019: 7780-7789.

    [11] MILDENHALL B, SRINIVASAN PP, TANCIK M, et al. NeRF: representing scenes as neural radiance fields for view synthesis[C]//2020 European Conference on Computer Vision. Heidelberg: Springer, 2020: 405-421.

    [12] LIU L J, GU J T, LIN K Z, et al. Neural sparse voxel fields[C]//2020 Advances in Neural Information Processing Systems. Virtual: Curran Associates Inc, 2020: 15651-15663

    [13] ZHANG K, RIEGLER G, SNAVELY N, et al. Nerf++: analyzing and improving neural radiance fields[EB/OL]. [2021-01-11]. https://arxiv.org/abs/2010.07492v2.

    [14] YU A, YE V, TANCIK M, et alpixelNeRF: neural radiance fields from one or few images[EB/OL]. [2021-02-01]. https://arxiv.org/abs/2012.02190v1.

    [15] TANCIK M, MILDENHALL B, WANG T, et al.Learned initializations for optimizing coordinate-based neural representations[EB/OL]. [2021-01-15]. https://arxiv.org/abs/2012. 02189v2.

    [16] LI Z Q, NIKLAUS S, SNAVELY N, et al. Neural scene flow fields for space-time view synthesis of dynamic scenes[EB/OL]. [2021-02-15]. https://arxiv.org/abs/2011. 13084v1.

    [17] PARK K, SINHA U, BARRON J T, et al. Deformable neural radiance fields[EB/OL]. [2021-01-29]. https://arxiv.org/abs/ 2011.12948.

    [18] MESCHEDER L, OECHSLE M, NIEMEYER M, et al. Occupancy networks: learning 3D reconstruction in function space[C]//2019 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). New York: IEEE Press, 2019: 4455-4465.

    [19] CHEN Z Q, ZHANG H.Learning implicit fields for generative shape modeling[C]//2019 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). New York: IEEE Press, 2019: 5932-5941.

    [20] PARK J J, FLORENCE P, STRAUB J,NEWCOMBE R, et al. DeepSDF: learning continuous signed distance functions for shape representation[C]//2019 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). New York: IEEE Press, 2019: 165-174.

    [21] SAITO S, HUANG Z, NATSUME R, et al. Pifu: pixel-aligned implicit function for high-resolution clothed human digitization[C]//2019 IEEE/CVF International Conference on Computer Vision. New York: IEEE Press, 2019: 2304-2314.

    [22] NIEMEYER M, MESCHEDER L, OECHSLE M, et al. Differentiable volumetric rendering: learning implicit 3d representations without 3D supervision[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2020: 3501-3512.

    [23] SITZMANN V, ZOLLH?FER M, WETZSTEIN G.cene representation networks: Continuous 3d-structure-aware neural scene representations[EB/OL]. [2021-01-18]. https://arxiv.org/abs/1906.01618?context=cs.

    [24] KAJIYA JT, VON HERZEN BP. Ray tracing volume densities[J]. Computer Graphics, 1984, 18(3): 165-174.

    [25] VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need[C]//The 31st International Conference on Neural Information Processing Systems. New York: ACM Press, 2017: 6000-6010.

    [26] SITZMANN V, THIES J, HEIDE F, et al. Deepvoxels: learning persistent 3D feature embeddings[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition.New York: IEEE Press, 2019: 2432-2441.

    [27] LOMBARDI S, SIMON T, SARAGIH J, et al., Neural volumes: learning dynamic renderable volumes from images[J]. ACM Transaction on Graphics, 2019, 38(4): 65:1-65:14.

    [28] TANCIK M, SRINIVASAN P P, BEN MILDENHALL B, et al. Fourier features let networks learn high frequency functions in low dimensional domains[EB/OL]. [2021-01-09]. https://arxiv. org/abs/2006.10739.

    [29] JACOT A, GABRIEL F, HONGLER C. Neural tangent kernel: convergence and generalization in neural networks[C]//The 32nd International Conference on Neural Information Processing Systems. New York: ACM Press, 2018: 8580-8589.

    [30] KNAPITSCH A, PARK J, ZHOU QY, et al. Tanks and temples: benchmarking large-scale scene reconstruction[J]. ACM Transactions on Graphics (ToG), 2017, 36(4): 1-13.

    [31] LINDELLD B, MARTEL J N P, WETZSTEIN G. Automatic integration for fast neural volume rendering[EB/OL]. [2021-02-03]. https://arxiv.org/abs/2012.01714.

    [32] NEFF T, STADLBAUER P,PARGER M, et al. DONeRF: towards real-time rendering of neural radiance fields using depth oracle networks[EB/OL]. [2021-01-28]. https://arxiv.org/ abs/2103.03231.

    [33] TREVITHICK A, YANG B.GRF: learning a general radiance field for 3D scene representation and rendering[EB/OL]. [2021-02-10]. https://arxiv.org/abs/2010.04595.

    [34] MARTIN-BRUALLA R, RADWAN N, SAJJADI MS, et al., Nerf in the wild: neural radiance fields for unconstrained photo collections[EB/OL][2021-01-30]. https://arxiv.org/abs/2008.02268.

    [35] BOJANOWSKI P, JOULIN A, LOPEZ-PAS D, et al.Optimizing the latent space of generative networks[C]//The 35th International Conference on Machine Learning.Princeton: International Machine Learning Society(IMLS), 2018:599-608.

    [36] SRINIVASAN P P, DENG B Y,ZHANG X M, et al. NeRV: neural reflectance and visibility fields for relighting and view synthesis[EB/OL]. [2021-01-02]. https://arxiv.org/abs/2012.03927.

    [37] BI S, XU Z X, SRINIVASAN P, et al., Neural reflectance fields for appearance acquisition[EB/OL]. [2021-01-19]. https://arxiv.org/abs/2008.03824v2.

    [38] BOSS M, BRAUN R, JAMPANI V, et al. NeRD: neural reflectance decomposition from image collections[EB/OL]. [2021-02-04]. https://arxiv.org/abs/2012.03918.

    [39] XIAN W Q, HUANG J B, KOPF J, et al. Space-time neural irradiance fields for free-viewpoint video[EB/OL]. [2021-02-03]. https://arxiv.org/abs/2011.12950.

    [40] LUO X, HUANG J B, SZELISKI R, et al. Consistent video depth estimation[J]. ACM Transactions on Graphics (TOG), 2020, 39(4): 71:1-71:13.

    A review on neural radiance fields based view synthesis

    CHANG Yuan1,2, GAI Meng1,2

    (1. School of Electronics Engineering and Computer Science, Peking University, Beijing 100871, China;2. Beijing Engineering Technology Research Center for Virtual Simulation and Visualization, Peking University, Beijing 100871, China)

    Image-based view synthesis techniques are widely applied to both computer graphics and computer vision. One of the key issues is how to use the information from the input image to represent a 3D model or scene. Recently, with the proposal of neural radiance fields (NeRF), a large number of research works based on this representation have further enhanced and extended the method, and achieved the expected accuracy and efficiency. This type of research can be broadly classified into two categories by purposes: the analysis and improvement of NeRF itself, and the extensions based on the NeRF framework. Methods of the first category have analyzed the theoretical properties and shortcomings of the NeRF representation and proposed some strategies for performance improvement, including the synthesis accuracy, rendering efficiency, and model generalizability. The second type of works are based on the NeRF framework and have extended the algorithm to solve more complex problems, including view synthesis using unconstrained images, view synthesis with relighting, and view synthesis for dynamic scenes. After outlining the background of the proposal of NeRF, other related works based on it were discussed and analyzed in this paper according to the classification mentioned above. Finally, the challenges and prospects were presented concerning the development of NeRF-based approaches.

    image-based rendering; view synthesis; neural radiance fields; neural rendering; deep learning

    TP 391

    10.11996/JG.j.2095-302X.2021030376

    A

    2095-302X(2021)03-0376-09

    2021-03-15;

    2021-04-19

    15 March,2021;

    19 April,2021

    北大百度基金資助項目(2019BD007)

    PKU-Baidu Fund (2019BD007)

    常 遠(1995-),男,河北邯鄲人,博士研究生。主要研究方向為計算機圖形學與計算機視覺。E-mail:changyuan@pku.edu.cn

    CHANG Yuan (1995-), male, PhD candidate. His main research interests cover computer graphics and computer vision.E-mail: changyuan@pku.edu.cn

    蓋 孟(1988-),男,山東萊陽人,助理研究員,博士。主要研究方向為計算機圖形學、虛擬仿真等。E-mail:gm@pku.org.cn

    GAI Meng (1988-), male, research associate, Ph.D. His main research interests cover computer graphics, virtual reality and simulation, etc. E-mail: gm@pku.org.cn

    猜你喜歡
    視點繪制光照
    Art on coffee cups
    節(jié)能環(huán)保 光照萬家(公益宣傳)
    節(jié)能環(huán)保光照萬家(公益宣傳)
    春光照瑤鄉(xiāng)
    放學后
    童話世界(2018年17期)2018-07-30 01:52:02
    視點
    河南電力(2016年5期)2016-02-06 02:11:24
    讓你每天一元錢,物超所值——《今日視點—2014精萃》序
    新聞前哨(2015年2期)2015-03-11 19:29:22
    兩會視點
    中國水利(2015年5期)2015-02-28 15:12:40
    在轉變中繪制新藍圖
    服裝CAD系統(tǒng)中的光照面向對象分析
    河南科技(2014年4期)2014-02-27 14:06:59
    夜夜爽夜夜爽视频| 九色成人免费人妻av| 亚洲第一区二区三区不卡| 精品一区二区三区人妻视频| 亚洲成色77777| 国产成人精品久久久久久| 欧美最新免费一区二区三区| 午夜免费男女啪啪视频观看| 亚洲在久久综合| 免费观看精品视频网站| 亚洲无线观看免费| 亚洲精华国产精华液的使用体验| a级一级毛片免费在线观看| 真实男女啪啪啪动态图| 国产色爽女视频免费观看| 一级毛片aaaaaa免费看小| 精品人妻一区二区三区麻豆| 小蜜桃在线观看免费完整版高清| 色尼玛亚洲综合影院| 欧美日韩亚洲高清精品| 国产精品麻豆人妻色哟哟久久 | 夫妻性生交免费视频一级片| 亚洲人成网站在线观看播放| 最近中文字幕2019免费版| 男的添女的下面高潮视频| 国产有黄有色有爽视频| 波野结衣二区三区在线| 大陆偷拍与自拍| 久久精品人妻少妇| 色综合色国产| 天堂网av新在线| 中文资源天堂在线| 日本熟妇午夜| 人妻夜夜爽99麻豆av| 人人妻人人澡人人爽人人夜夜 | 成人毛片60女人毛片免费| 亚洲av日韩在线播放| 国产成人精品久久久久久| 人妻一区二区av| 久久精品人妻少妇| 亚洲精品自拍成人| 三级国产精品欧美在线观看| 国产精品无大码| 亚洲av成人精品一二三区| 国产伦精品一区二区三区视频9| 成人国产麻豆网| 草草在线视频免费看| 菩萨蛮人人尽说江南好唐韦庄| 中文欧美无线码| 亚洲精品久久久久久婷婷小说| 亚洲乱码一区二区免费版| 97人妻精品一区二区三区麻豆| 日韩人妻高清精品专区| 精品一区二区免费观看| 777米奇影视久久| 少妇的逼好多水| 色哟哟·www| 国产av国产精品国产| 久久韩国三级中文字幕| 免费黄色在线免费观看| 午夜久久久久精精品| 看黄色毛片网站| av在线亚洲专区| 国产av码专区亚洲av| 国产成人精品久久久久久| 边亲边吃奶的免费视频| 日韩伦理黄色片| 日本wwww免费看| 亚洲国产精品专区欧美| 亚洲欧洲日产国产| 69av精品久久久久久| 国产视频首页在线观看| 嫩草影院入口| 亚洲欧美中文字幕日韩二区| 韩国高清视频一区二区三区| 美女高潮的动态| 免费在线观看成人毛片| 熟妇人妻不卡中文字幕| 国产91av在线免费观看| 成人一区二区视频在线观看| 少妇高潮的动态图| 国产免费福利视频在线观看| 日韩一本色道免费dvd| 亚洲av成人精品一二三区| 偷拍熟女少妇极品色| 午夜激情福利司机影院| 成人一区二区视频在线观看| 国产女主播在线喷水免费视频网站 | 少妇的逼好多水| 一本久久精品| 人妻少妇偷人精品九色| 欧美 日韩 精品 国产| 国产一区有黄有色的免费视频 | 午夜福利在线观看免费完整高清在| 免费观看av网站的网址| av播播在线观看一区| 日韩大片免费观看网站| 乱系列少妇在线播放| 久久久欧美国产精品| 国产精品国产三级专区第一集| 偷拍熟女少妇极品色| 国产精品久久久久久久久免| 亚洲成人av在线免费| 日韩伦理黄色片| 六月丁香七月| 国产欧美日韩精品一区二区| 国产午夜精品久久久久久一区二区三区| 欧美日韩视频高清一区二区三区二| 日本欧美国产在线视频| 久久久欧美国产精品| 亚洲欧美日韩无卡精品| 日韩欧美精品免费久久| 国产伦精品一区二区三区四那| 日韩av在线免费看完整版不卡| 深爱激情五月婷婷| 日日啪夜夜爽| 日韩欧美 国产精品| 嫩草影院精品99| 蜜桃亚洲精品一区二区三区| 欧美日韩一区二区视频在线观看视频在线 | 人人妻人人澡欧美一区二区| 亚洲国产最新在线播放| 国产亚洲精品av在线| 日韩欧美精品v在线| 欧美zozozo另类| 精品人妻一区二区三区麻豆| 国内少妇人妻偷人精品xxx网站| 狂野欧美激情性xxxx在线观看| 韩国av在线不卡| 十八禁网站网址无遮挡 | 成人一区二区视频在线观看| 五月伊人婷婷丁香| 五月天丁香电影| 免费av观看视频| 欧美日韩精品成人综合77777| 成人无遮挡网站| 亚洲av成人精品一区久久| 国产永久视频网站| 日本免费a在线| 亚洲美女搞黄在线观看| 久久热精品热| 国产综合精华液| 别揉我奶头 嗯啊视频| 寂寞人妻少妇视频99o| a级毛片免费高清观看在线播放| 免费看日本二区| 欧美日韩综合久久久久久| 少妇的逼好多水| 国产单亲对白刺激| 身体一侧抽搐| 日日干狠狠操夜夜爽| 国产综合懂色| 亚洲熟女精品中文字幕| 在现免费观看毛片| 久久精品国产亚洲av涩爱| 亚洲av成人精品一二三区| 中文乱码字字幕精品一区二区三区 | 久久久久久久久大av| 伊人久久精品亚洲午夜| 又粗又硬又长又爽又黄的视频| 久久人人爽人人片av| 国产精品一区二区三区四区免费观看| 亚洲欧洲日产国产| 蜜桃久久精品国产亚洲av| 精品一区二区三区人妻视频| 国产免费视频播放在线视频 | 激情 狠狠 欧美| 狠狠精品人妻久久久久久综合| 国产av码专区亚洲av| av一本久久久久| 国产一级毛片在线| 国产有黄有色有爽视频| 美女xxoo啪啪120秒动态图| 成年av动漫网址| 欧美三级亚洲精品| 观看美女的网站| 高清毛片免费看| 国产精品一区二区性色av| 一级二级三级毛片免费看| 国产在线一区二区三区精| 国产女主播在线喷水免费视频网站 | 国产精品麻豆人妻色哟哟久久 | 直男gayav资源| av.在线天堂| 听说在线观看完整版免费高清| 欧美成人午夜免费资源| 蜜臀久久99精品久久宅男| 亚洲精品影视一区二区三区av| 国产欧美日韩精品一区二区| 亚洲av男天堂| 啦啦啦啦在线视频资源| 1000部很黄的大片| 18禁在线无遮挡免费观看视频| 亚洲丝袜综合中文字幕| 99久久精品热视频| 日本黄色片子视频| 成人毛片a级毛片在线播放| 亚洲av一区综合| 国产 一区 欧美 日韩| 国产极品天堂在线| 国产亚洲av嫩草精品影院| 国产午夜精品论理片| 高清日韩中文字幕在线| 免费黄色在线免费观看| 寂寞人妻少妇视频99o| 天美传媒精品一区二区| av专区在线播放| 久久久久精品久久久久真实原创| 国产乱来视频区| 人体艺术视频欧美日本| 国精品久久久久久国模美| 国产成人精品一,二区| 91aial.com中文字幕在线观看| 午夜老司机福利剧场| 午夜免费男女啪啪视频观看| 精品午夜福利在线看| 干丝袜人妻中文字幕| 欧美三级亚洲精品| 日韩成人av中文字幕在线观看| 亚洲在线自拍视频| 亚洲美女视频黄频| 免费看av在线观看网站| 亚洲精品亚洲一区二区| 亚洲精品日本国产第一区| 天天一区二区日本电影三级| 日本猛色少妇xxxxx猛交久久| 极品教师在线视频| 国产黄色免费在线视频| 大香蕉97超碰在线| 白带黄色成豆腐渣| 99九九线精品视频在线观看视频| 一级爰片在线观看| 久久久久久伊人网av| 青春草国产在线视频| 免费观看在线日韩| av国产久精品久网站免费入址| 日韩一区二区视频免费看| eeuss影院久久| 简卡轻食公司| 天堂中文最新版在线下载 | 国模一区二区三区四区视频| 91狼人影院| 欧美精品国产亚洲| videos熟女内射| 亚洲国产精品sss在线观看| 亚洲国产色片| 三级男女做爰猛烈吃奶摸视频| 青春草亚洲视频在线观看| 老女人水多毛片| 婷婷色综合大香蕉| 美女高潮的动态| 午夜福利网站1000一区二区三区| 春色校园在线视频观看| av天堂中文字幕网| 女人十人毛片免费观看3o分钟| 赤兔流量卡办理| 国产精品国产三级国产av玫瑰| 国产v大片淫在线免费观看| 国产永久视频网站| 麻豆成人午夜福利视频| 国产午夜福利久久久久久| 日日摸夜夜添夜夜爱| 天堂av国产一区二区熟女人妻| 99热网站在线观看| av线在线观看网站| 亚洲熟女精品中文字幕| 麻豆av噜噜一区二区三区| 国内精品美女久久久久久| 毛片一级片免费看久久久久| 久久久久国产网址| 日韩成人av中文字幕在线观看| 秋霞伦理黄片| 国产 亚洲一区二区三区 | 97精品久久久久久久久久精品| 最近中文字幕2019免费版| 国产黄片视频在线免费观看| 国产伦理片在线播放av一区| 午夜激情久久久久久久| 亚洲在线自拍视频| 亚州av有码| 亚洲精品乱码久久久v下载方式| 国产三级在线视频| 一级黄片播放器| 成年女人看的毛片在线观看| 一本久久精品| 国产熟女欧美一区二区| 午夜老司机福利剧场| 国内精品一区二区在线观看| 在线观看美女被高潮喷水网站| av专区在线播放| 在线免费观看的www视频| 18禁动态无遮挡网站| 亚洲精品乱码久久久久久按摩| 午夜福利视频1000在线观看| 国产熟女欧美一区二区| 亚洲va在线va天堂va国产| 免费无遮挡裸体视频| 超碰av人人做人人爽久久| 99久久精品一区二区三区| 99久久中文字幕三级久久日本| 狠狠精品人妻久久久久久综合| av播播在线观看一区| 国产黄色视频一区二区在线观看| 国内少妇人妻偷人精品xxx网站| 婷婷色综合www| 99久久九九国产精品国产免费| 最近视频中文字幕2019在线8| av专区在线播放| 五月玫瑰六月丁香| 亚洲av成人精品一区久久| 免费av毛片视频| 亚洲久久久久久中文字幕| 久久国产乱子免费精品| 一级av片app| 国产av在哪里看| 国产黄色视频一区二区在线观看| 在线观看av片永久免费下载| 亚洲欧美一区二区三区国产| 天天躁夜夜躁狠狠久久av| 男人和女人高潮做爰伦理| av福利片在线观看| 能在线免费看毛片的网站| 三级经典国产精品| 久久午夜福利片| 岛国毛片在线播放| 色播亚洲综合网| 久久精品熟女亚洲av麻豆精品 | 久热久热在线精品观看| av国产免费在线观看| 亚洲一区高清亚洲精品| 亚洲熟女精品中文字幕| 久久99热6这里只有精品| 午夜日本视频在线| 免费黄色在线免费观看| 2022亚洲国产成人精品| 美女高潮的动态| 2022亚洲国产成人精品| 成年免费大片在线观看| 亚洲熟女精品中文字幕| 午夜福利成人在线免费观看| 久久精品夜夜夜夜夜久久蜜豆| 18禁动态无遮挡网站| 日本色播在线视频| 女的被弄到高潮叫床怎么办| 久久精品夜夜夜夜夜久久蜜豆| 国产精品蜜桃在线观看| av国产免费在线观看| 嘟嘟电影网在线观看| 亚洲国产精品sss在线观看| 美女高潮的动态| 国产黄频视频在线观看| 国产一级毛片在线| 在线观看一区二区三区| 精品亚洲乱码少妇综合久久| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 99久久精品一区二区三区| 久久久国产一区二区| 日韩视频在线欧美| 国国产精品蜜臀av免费| 又黄又爽又刺激的免费视频.| 免费电影在线观看免费观看| 十八禁国产超污无遮挡网站| 高清av免费在线| 中文在线观看免费www的网站| 神马国产精品三级电影在线观看| 天堂√8在线中文| 日产精品乱码卡一卡2卡三| 综合色丁香网| 国产成人精品一,二区| 免费高清在线观看视频在线观看| 亚洲av电影在线观看一区二区三区 | 久久精品综合一区二区三区| 免费黄网站久久成人精品| 国内少妇人妻偷人精品xxx网站| 国产精品久久久久久av不卡| 久久久精品免费免费高清| 国产伦精品一区二区三区视频9| 午夜激情欧美在线| 精品不卡国产一区二区三区| 舔av片在线| 国产大屁股一区二区在线视频| av在线观看视频网站免费| 亚洲综合精品二区| 一个人看的www免费观看视频| 性插视频无遮挡在线免费观看| .国产精品久久| 日韩欧美精品免费久久| 人妻夜夜爽99麻豆av| 亚洲国产精品成人久久小说| 国产黄色免费在线视频| 一级av片app| 看非洲黑人一级黄片| 亚洲美女搞黄在线观看| 久久久久久久久久黄片| 99久久精品一区二区三区| 91久久精品国产一区二区三区| 欧美高清成人免费视频www| 听说在线观看完整版免费高清| 国产伦在线观看视频一区| 日本免费a在线| 国产成人精品福利久久| 欧美日韩国产mv在线观看视频 | 大香蕉久久网| 一本久久精品| 国产爱豆传媒在线观看| 美女高潮的动态| eeuss影院久久| 国产在线一区二区三区精| 99久久中文字幕三级久久日本| 亚洲在线自拍视频| 一级毛片电影观看| 日韩国内少妇激情av| 卡戴珊不雅视频在线播放| 精品不卡国产一区二区三区| 国产片特级美女逼逼视频| 天天躁夜夜躁狠狠久久av| 人妻系列 视频| 日本午夜av视频| 欧美成人午夜免费资源| av又黄又爽大尺度在线免费看| 欧美潮喷喷水| 亚洲av一区综合| 99久久九九国产精品国产免费| 久久午夜福利片| 国产成人精品久久久久久| 乱系列少妇在线播放| 亚洲真实伦在线观看| 成人鲁丝片一二三区免费| 久久精品久久久久久噜噜老黄| 亚洲精品一区蜜桃| 九色成人免费人妻av| kizo精华| 丝袜美腿在线中文| 国产免费福利视频在线观看| 久久精品国产亚洲网站| 男女下面进入的视频免费午夜| videos熟女内射| 午夜激情久久久久久久| 亚洲性久久影院| 在线观看免费高清a一片| 久久久久久久久久人人人人人人| 久久久成人免费电影| 国产大屁股一区二区在线视频| 久久人人爽人人爽人人片va| 欧美高清成人免费视频www| 国产黄片视频在线免费观看| 熟女电影av网| 少妇人妻精品综合一区二区| 看非洲黑人一级黄片| 老女人水多毛片| 国产亚洲午夜精品一区二区久久 | 免费观看a级毛片全部| 亚洲精品乱码久久久v下载方式| 国产 亚洲一区二区三区 | 天堂网av新在线| 国产视频首页在线观看| 久久鲁丝午夜福利片| 国语对白做爰xxxⅹ性视频网站| 国产女主播在线喷水免费视频网站 | 成年女人看的毛片在线观看| 久久人人爽人人片av| 欧美日韩精品成人综合77777| 国产在视频线在精品| 一级a做视频免费观看| 亚洲性久久影院| 美女内射精品一级片tv| 边亲边吃奶的免费视频| 国产69精品久久久久777片| 国产精品av视频在线免费观看| 欧美一级a爱片免费观看看| 久久久精品欧美日韩精品| 大香蕉久久网| 精品一区二区三区视频在线| 国产一区二区三区av在线| 日日啪夜夜爽| 亚洲精品国产成人久久av| 欧美激情久久久久久爽电影| 久久久色成人| 深夜a级毛片| videos熟女内射| 久久久精品94久久精品| 精品酒店卫生间| 午夜精品在线福利| 91aial.com中文字幕在线观看| 亚洲精品一区蜜桃| 成人特级av手机在线观看| www.av在线官网国产| 只有这里有精品99| 神马国产精品三级电影在线观看| 中文资源天堂在线| 欧美日韩在线观看h| 亚洲欧美日韩卡通动漫| 国产日韩欧美在线精品| 国产亚洲5aaaaa淫片| 综合色丁香网| 亚洲av成人精品一区久久| 2021天堂中文幕一二区在线观| 国精品久久久久久国模美| 又黄又爽又刺激的免费视频.| 身体一侧抽搐| 69av精品久久久久久| 日韩在线高清观看一区二区三区| 国产成人精品婷婷| 观看免费一级毛片| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 国产一区二区在线观看日韩| 国产黄色视频一区二区在线观看| 天堂中文最新版在线下载 | 日产精品乱码卡一卡2卡三| 大香蕉97超碰在线| 亚洲欧美日韩东京热| 日韩强制内射视频| 天堂影院成人在线观看| 欧美日韩精品成人综合77777| 一区二区三区免费毛片| 91狼人影院| 久久久精品94久久精品| 国产成人精品一,二区| 亚洲av成人精品一二三区| 日本黄色片子视频| 只有这里有精品99| 国产精品一二三区在线看| 91午夜精品亚洲一区二区三区| 2021少妇久久久久久久久久久| 欧美+日韩+精品| 国产精品三级大全| 高清在线视频一区二区三区| 国产 一区精品| 欧美xxxx性猛交bbbb| 成年女人看的毛片在线观看| 少妇猛男粗大的猛烈进出视频 | videos熟女内射| 黄片wwwwww| 久久99热6这里只有精品| 日韩欧美 国产精品| 亚洲国产精品成人综合色| 欧美日本视频| 国产精品三级大全| 亚洲人成网站高清观看| 免费播放大片免费观看视频在线观看| 少妇熟女欧美另类| 亚洲av国产av综合av卡| 麻豆成人午夜福利视频| 永久网站在线| 一本一本综合久久| 网址你懂的国产日韩在线| 超碰av人人做人人爽久久| 免费观看精品视频网站| 亚洲国产av新网站| 韩国高清视频一区二区三区| 在线观看av片永久免费下载| 亚洲最大成人手机在线| 一个人看的www免费观看视频| 久久99热这里只频精品6学生| 中国美白少妇内射xxxbb| 男女国产视频网站| 联通29元200g的流量卡| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 国产精品一区二区三区四区久久| 亚洲美女搞黄在线观看| 精品久久久久久久久亚洲| a级毛色黄片| 午夜日本视频在线| 久久久久网色| 欧美日韩一区二区视频在线观看视频在线 | 欧美 日韩 精品 国产| av在线观看视频网站免费| av女优亚洲男人天堂| 高清午夜精品一区二区三区| 好男人视频免费观看在线| 成人亚洲精品一区在线观看 | 欧美 日韩 精品 国产| 国产一区二区三区av在线| 免费在线观看成人毛片| 久久精品人妻少妇| 国产黄色视频一区二区在线观看| 日韩欧美 国产精品| 亚洲成人久久爱视频| 日韩人妻高清精品专区| 午夜爱爱视频在线播放| 国产高潮美女av| 日韩亚洲欧美综合| 我的老师免费观看完整版| 精品欧美国产一区二区三| 永久网站在线| 好男人在线观看高清免费视频| av.在线天堂| 国产精品嫩草影院av在线观看| 国产高清不卡午夜福利| 国产成人a∨麻豆精品| 99久久九九国产精品国产免费| 亚洲精品久久午夜乱码| 不卡视频在线观看欧美| 一个人免费在线观看电影| 91狼人影院| 日本爱情动作片www.在线观看| 日韩,欧美,国产一区二区三区| 日本av手机在线免费观看| 国产成人freesex在线| 日韩av在线大香蕉| 欧美最新免费一区二区三区| 亚洲精品影视一区二区三区av| 欧美最新免费一区二区三区| 一区二区三区乱码不卡18| 熟女电影av网| 久久国内精品自在自线图片| 你懂的网址亚洲精品在线观看| 午夜免费激情av| 午夜福利在线观看免费完整高清在| 国产亚洲精品久久久com| 寂寞人妻少妇视频99o| 麻豆成人午夜福利视频| 亚洲精品亚洲一区二区| 麻豆乱淫一区二区| 精品久久久久久久久亚洲|