速途網(wǎng)5月9日訊(報(bào)道:喬志斌)近日,OpenAI發(fā)布新的研究論文,介紹了一種基于條件生成模型的3D資產(chǎn)生成方法,名為Shap·E,該模型可以渲染出神經(jīng)輻射場NeRF和紋理網(wǎng)格。研究表明,在相同的數(shù)據(jù)集、模型架構(gòu)和訓(xùn)練計(jì)算的情況下,Shap·E可達(dá)到或超過類似的顯式生成模型的表現(xiàn)。在進(jìn)行大規(guī)模3D和文本數(shù)據(jù)的訓(xùn)練時(shí),Shap·E能夠快速生成多樣和復(fù)雜的3D資產(chǎn),而不需要依賴于圖像作為中間表示,這證明了生成隱式表示的潛力,尤其是在3D領(lǐng)域中。同時(shí),該研究還展示了純文本條件模型的生成效果,在不依賴于圖像的情況下,可以生成出有趣的對象。
相比其他3D生成技術(shù),Shap·E的推理成本更低,即推理速度更快。論文中使用了CLIPR-Precision度量標(biāo)準(zhǔn),對比了Shap·E與其他3D生成技術(shù)進(jìn)行比較,強(qiáng)調(diào)基于優(yōu)化的方法的優(yōu)越樣本質(zhì)量以顯著的推理成本為代價(jià)的。由于ShapE不需要額外的上采樣擴(kuò)散模型,因此Shap-E的推理速度比PointE更快。