家好,這幾個給大家講解一下ug零件圖如何制作圖平面。
·選擇啟動,找到視圖,選擇對應(yīng)的部件就可以了。
·這里可以看到用a4模板會比較小,進(jìn)行縮放,點(diǎn)擊完成。這樣就是一個平面圖,走車走路也有。
·當(dāng)然要出pos圖也可以,選擇插入,找到視圖,選擇頗切線或者pos圖,選擇這個位置,放到對應(yīng)的位置就可以了。這樣就是pos圖。
·同樣的選擇中心位置往下方,往上面放,同樣也有,只是往上方位置不夠,需要移動一下位置,稍微移動一下,這樣就可以了。
這樣就是pos圖,把這個方法分享給大家,謝謝。
統(tǒng)的圖紙是依據(jù)零部件的立體形狀,再根據(jù)各個方向上的投影加以標(biāo)注、注釋等,形成的平面圖型。如果是較為復(fù)雜的特征就需要增加更多的視圖來表達(dá)。三維軟件的出現(xiàn)使得零部件能更為直觀的展現(xiàn)其特征結(jié)構(gòu)。
基本的轉(zhuǎn)換流程:
1、 在SolidWorks中打開相應(yīng)的二維圖紙文件。
2、 將需要轉(zhuǎn)換的DWG,DXF文件輸入選擇輸入到新零件為草圖
3、 將草圖的各個視圖轉(zhuǎn)為所需要基準(zhǔn)面,
4、 對齊草圖
5、 拉伸基本特征
6、 切除或拉伸其他特征。
下面以SolidWorks 的二維軟件DraftSight2022和SolidWorks2022為例:
一、 關(guān)于2D圖紙
因?yàn)檗D(zhuǎn)換用到的主要是零件的輪廓線,所以在2D圖紙中需要按照1:1的比例,并且在同一圖層中
二、 將2D圖紙導(dǎo)入到SolidWorks中
在SolidWorks選擇“打開”,選擇需要轉(zhuǎn)換的2D圖紙文件,如圖:
最后運(yùn)行修復(fù)草圖后單擊完成
以上就是通過2D文件來生成3D模型的一個簡單過程,其實(shí)一些比較復(fù)雜的零部件也可以實(shí)現(xiàn)。
oot 編譯整理
量子位 出品 | 公眾號 QbitAI
Facebook人工智能研究院和法國國立計(jì)算機(jī)及自動化研究院最近提出了一種密集人體姿態(tài)估計(jì)新方法:DensePose-RCNN,同時宣布即將開源人體姿態(tài)數(shù)據(jù)集DensePose-COCO。
2月1號,法國國立計(jì)算機(jī)及自動化研究院和FAIR共同在ArXiv上發(fā)表了一篇可實(shí)時把2D圖像轉(zhuǎn)成UV貼圖(3D展開的表面)的論文。
R?za Alp Güler;Natalia Neverova;Iasonas Kokk
三人的工作主要有以下貢獻(xiàn):
1.提高了2D圖像轉(zhuǎn)3D貼圖的人工標(biāo)注的效率
以往把2D圖像轉(zhuǎn)成3D模型的表面貼圖時,都需要人工去旋轉(zhuǎn),工作量太大。
現(xiàn)在重新設(shè)計(jì)了2D轉(zhuǎn)3D貼圖的處理流程。現(xiàn)在只需要兩步就可以完成。
首先,采用Top-down的方式,把圖像中的人體按身體部位劃分區(qū)域。
然后,研究團(tuán)隊(duì)用一組大致等距的點(diǎn)對每個身體部位區(qū)域進(jìn)行采樣,并把這些等距點(diǎn)與相應(yīng)的身體部分的預(yù)渲染的展開面的點(diǎn)對應(yīng)起來(取6個視角的平面圖像,為3D展開圖提供參考)。
為了簡化這個任務(wù),允許標(biāo)注員在其中任何一個上放置等距點(diǎn)。不必手動旋轉(zhuǎn)表面,可以讓標(biāo)注員直接從六個選項(xiàng)中選一個。
在數(shù)據(jù)收集過程中,使用的是SMPL模型和SURREAL紋理。
這兩步,身體部位劃分和等距點(diǎn)對應(yīng)標(biāo)注可以同時進(jìn)行,可以獲得很高的2D轉(zhuǎn)3D一致性。此次研究,收集了5萬人案例的標(biāo)注數(shù)據(jù),以及500多萬個手動標(biāo)注的對應(yīng)點(diǎn)。以下是來自驗(yàn)證集的圖像上的標(biāo)注的可視化:收集的點(diǎn)的圖像(左),U(中)和V(右)值。
2.拿收集到的數(shù)據(jù)集訓(xùn)練DensePose RCNN模型
與單人版的DenseReg類似,通過劃分身體部位來對應(yīng)回標(biāo)注的等距點(diǎn)。對于每個像素,去確定它在貼圖上的位置,并進(jìn)行二維校正。
如下圖所示。
研究團(tuán)隊(duì)采用的是金字塔網(wǎng)絡(luò)(FPN)特征的RCNN結(jié)構(gòu),和區(qū)域特征聚集方式ROI align pooling以獲得每個選定區(qū)域內(nèi)的密集部分標(biāo)簽和坐標(biāo)。
如下所示,在ROI池的基礎(chǔ)上引入一個全卷積網(wǎng)絡(luò),有兩個目的:
針對每個選定的身體部位,生成每個像素的分類結(jié)果;
對于每個部分使用回歸本地坐標(biāo)。
在訓(xùn)練過程中,DensePose系統(tǒng)用的GTX1080顯卡,對于320x240的圖像,是以25fps的速度運(yùn)行;對于800x1100的圖像,是以4-5fps的速度運(yùn)行。
DensePose-RCNN系統(tǒng)可以直接使用標(biāo)注點(diǎn)作為監(jiān)督。
但是,通過對原本未標(biāo)注的監(jiān)管信號的價值進(jìn)行“修補(bǔ)”,取得了更好的結(jié)果。為了達(dá)到這個目的,我們采用一種基于學(xué)習(xí)的方法,首先訓(xùn)練一個“教師”網(wǎng)絡(luò):一個完全卷積神經(jīng)網(wǎng)絡(luò)(如下圖所示),在給定圖像尺度把圖像和分割蒙版統(tǒng)一化。
另外,使用級聯(lián)策略進(jìn)一步提高了系統(tǒng)的性能。通過級聯(lián),利用來自相關(guān)任務(wù)的信息,例如關(guān)鍵點(diǎn)估計(jì)和實(shí)例分割,這已經(jīng)被Mask-RCNN架構(gòu)成功解決。這樣就能夠利用任務(wù)協(xié)同作用和不同監(jiān)督來源進(jìn)行優(yōu)勢互補(bǔ)。
最后,附論文鏈接,
https://arxiv.org/pdf/1802.00434.pdf
以及編譯來源,也是數(shù)據(jù)集開放的鏈接,
densepose.org
— 完 —
誠摯招聘
量子位正在招募編輯/記者,工作地點(diǎn)在北京中關(guān)村。期待有才氣、有熱情的同學(xué)加入我們!相關(guān)細(xì)節(jié),請?jiān)诹孔游还娞?QbitAI)對話界面,回復(fù)“招聘”兩個字。
量子位 QbitAI · 頭條號簽約作者
?'?' ? 追蹤AI技術(shù)和產(chǎn)品新動態(tài)