欧美vvv,亚洲第一成人在线,亚洲成人欧美日韩在线观看,日本猛少妇猛色XXXXX猛叫

新聞資訊

    進(jìn)LinkNet的高分辨率遙感影像建筑物提取方法

    張立亭,孔文學(xué),羅亦泳,鄧先金,夏文生

    (東華理工大學(xué) 測(cè)繪工程學(xué)院,南昌,330013)


    摘要:針對(duì)現(xiàn)有的遙感影像建筑物提取方法存在著效率低下、精度不高等問(wèn)題,該文利用輕量型分割網(wǎng)絡(luò)LinkNet框架構(gòu)建出新的建筑物提取全卷積網(wǎng)絡(luò)。首先,設(shè)計(jì)三層卷積模塊替換LinkNet中的殘差層作為新的編碼塊,有效減少網(wǎng)絡(luò)參數(shù),加快了網(wǎng)絡(luò)訓(xùn)練速度。其次,融合增強(qiáng)感受野模塊聚合多尺度上下文信息,有利于圖像特征細(xì)節(jié)的恢復(fù),從而提高網(wǎng)絡(luò)分割精度。最后,綜合上述兩點(diǎn)構(gòu)建出基于深度學(xué)習(xí)的高性能建筑物自動(dòng)提取網(wǎng)絡(luò)。在相應(yīng)建筑物數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)結(jié)果表明,本文構(gòu)建的全卷積網(wǎng)絡(luò)比已有的建筑物提取網(wǎng)絡(luò)SE-Unet綜合預(yù)測(cè)精度更高,取得82.80%的均交并比和95.99%的召回率,同時(shí),在提取建筑物的完整度、邊界分割精度等方面具有較好的效果。

    0引言

    隨著遙感技術(shù)的發(fā)展,獲取的遙感影像分辨率不斷提高,其包含的信息也更加豐富[1],高分辨率遙感影像能夠提供地表海量的、具有豐富紋理和光譜特征的地物信息,在眾多領(lǐng)域得到了應(yīng)用。建筑物作為遙感影像中十分重要的特征,其位置和空間分布等信息對(duì)于地圖測(cè)繪、城市規(guī)劃以及智慧城市的建設(shè)具有重大意義。近年來(lái),研究者嘗試使用多種方法來(lái)實(shí)現(xiàn)高分辨率遙感影像中建筑物的自動(dòng)提取,文獻(xiàn)[2]融合了對(duì)象的思想和Boosting算法,通過(guò)構(gòu)建對(duì)象網(wǎng)絡(luò)關(guān)聯(lián)圖像分割和識(shí)別,實(shí)現(xiàn)了建筑物的準(zhǔn)確提取;文獻(xiàn)[3]將光譜和形狀特征相結(jié)合,實(shí)現(xiàn)了建筑物的自動(dòng)提取;文獻(xiàn)[4]提出一種增強(qiáng)的形態(tài)學(xué)建筑物指數(shù)(enhanced morphological building index,EMBI),并利用該指數(shù)和地物的幾何形狀約束,實(shí)現(xiàn)了高分辨率建筑物的自動(dòng)提取。上述傳統(tǒng)的算法雖然能實(shí)現(xiàn)自動(dòng)提取建筑物的目的,但是,總體精度不高、受影像質(zhì)量影響大且較依賴(lài)于人工操作。因此,急需研究新的思路和方法來(lái)更快、更好地從高分辨率影像中自動(dòng)提取建筑物。

    當(dāng)前,基于人工智能和機(jī)器學(xué)習(xí)遙感數(shù)據(jù)處理方法,特別是以深度學(xué)習(xí)為代表的圖像識(shí)別、語(yǔ)義分割、目標(biāo)檢測(cè)等技術(shù)的發(fā)展,為從遙感影像中自動(dòng)化提取建筑物提供了機(jī)遇和前景[5]。文獻(xiàn)[6]提出了基于全卷積網(wǎng)絡(luò)(fully convolutional network,F(xiàn)CN)的語(yǔ)義分割方法,能夠?qū)崿F(xiàn)圖像像素級(jí)分類(lèi)。在FCN基礎(chǔ)之上,文獻(xiàn)[7]提出一種U形對(duì)稱(chēng)網(wǎng)絡(luò)U-Net,該結(jié)構(gòu)能有效融合低維與高維特征,從而提高圖像語(yǔ)義分割精度。文獻(xiàn)[8]以U-Net結(jié)構(gòu)為基礎(chǔ),提出一種卷積神經(jīng)網(wǎng)絡(luò)SE-Unet,其在編碼器內(nèi)使用特征壓縮激活模塊增加網(wǎng)絡(luò)特征學(xué)習(xí)能力,在解碼器中復(fù)用編碼器中相應(yīng)尺度的特征實(shí)現(xiàn)空間信息的恢復(fù),對(duì)大小各異和形狀不規(guī)則的建筑物具有良好的識(shí)別效果。文獻(xiàn)[9]提出一種帶洞型 U-Net++網(wǎng)絡(luò),其在建筑物提取方面也有良好表現(xiàn)。上述語(yǔ)義分割網(wǎng)絡(luò)雖然在建筑物提取任務(wù)中取得了一定的效果,但整體性能還有待進(jìn)一步提高。

    基于上述情況,本文以輕量型網(wǎng)絡(luò)LinkNet[10]為基礎(chǔ)構(gòu)建出性能更高的建筑物自動(dòng)提取網(wǎng)絡(luò)。將設(shè)計(jì)的三層卷積模塊(three layer convolution module,TLCM)應(yīng)用到LinkNet中,構(gòu)建出一種新的建筑物分割網(wǎng)絡(luò)T-LinkNet(TLCM-LinkNet);接著將接受域塊(Receptive Field Block,RFB)[11]與T-LinkNet相融合,構(gòu)建出效果更佳的建筑物提取網(wǎng)絡(luò)TR-LinkNet(TLCM-RFB-LinkNet)。上述的兩種建筑物提取網(wǎng)絡(luò)不僅需要的網(wǎng)絡(luò)參數(shù)較少、訓(xùn)練速度較快,而且能提升預(yù)測(cè)結(jié)果的綜合精度。

    1 方法

    1.1 LinkNet

    LinkNet是一種新的深度神經(jīng)網(wǎng)絡(luò)體系結(jié)構(gòu),可以在不顯著增加參數(shù)的情況下進(jìn)行學(xué)習(xí)。LinkNet利用了跳躍連接(skip connections)、殘差塊(residual blocks)[12]和編碼器-解碼器(Encoder-Decoder)架構(gòu)的優(yōu)點(diǎn),因而具有高效的語(yǔ)義分割性能。最初的LinkNet使用ResNet18作為編碼器,是一種相當(dāng)輕但性能優(yōu)越的網(wǎng)絡(luò)。LinkNet在幾個(gè)基準(zhǔn)測(cè)試上都顯示了很高的精度,并且運(yùn)行速度較快。

    LinkNet主要由編碼器和解碼器兩部分組成,并在每個(gè)卷積層之間使用批處理標(biāo)準(zhǔn)化(batch normalization,BN)[13]和修正線性單元(rectified linear unit,ReLU)。相較于之前的分割神經(jīng)網(wǎng)絡(luò)體系結(jié)構(gòu),LinkNet的特點(diǎn)是將每個(gè)編碼塊與解碼塊聯(lián)系起來(lái),即每層編碼器的輸入都被旁路到相應(yīng)解碼器層的輸出中,這樣可以恢復(fù)解碼器及其上采樣操作時(shí)丟失的空間信息。此外,解碼器在每一層共享由編碼器學(xué)習(xí)的知識(shí),因而可以使用更少的參數(shù)。

    1.2融合三層卷積模塊改進(jìn)的LinkNet

    LinkNet使用編碼器-解碼器架構(gòu)有較大的靈活性,可以在不改變整體網(wǎng)絡(luò)架構(gòu)的前提下自主的定義編碼器和解碼器。但LinkNet也存在一些不足,例如,LinkNet的編碼器是以一個(gè)步長(zhǎng)為2的7×7卷積,并接著一個(gè)步長(zhǎng)為2的3×3最大池化的初始?jí)K開(kāi)始,然而,連續(xù)的兩次下采樣會(huì)損失特征信息,在解碼階段難以恢復(fù)細(xì)節(jié)信息[14],此外,使用較大尺寸的卷積核會(huì)占用較多的計(jì)算資源,從而影響模型訓(xùn)練效率。為彌補(bǔ)上述不足,參考改進(jìn)型Inception模塊[15]的卷積分解方法,使用三個(gè)步長(zhǎng)為1連續(xù)的3×3的卷積代替原始的步長(zhǎng)為2的7×7卷積,這樣即能獲得更快的訓(xùn)練速度又能減少下采樣次數(shù),修改后的初始?jí)K稱(chēng)為Stem Block。

    經(jīng)典的分割網(wǎng)絡(luò)U-Net使用雙層卷積作為對(duì)應(yīng)的編碼塊和解碼塊,能有效的捕捉和還原圖像特征,因而具有較好的分割性能。本文通過(guò)增加卷積層數(shù)構(gòu)建出一種新的三層卷積模塊TLCM,更加有利于整個(gè)網(wǎng)絡(luò)對(duì)圖像特征的捕捉與提取。三層卷積模塊的具體結(jié)構(gòu)借鑒了使用full pre-activation策略[16]的殘差塊,該殘差塊十分有利于網(wǎng)絡(luò)信號(hào)的傳遞。為獲取最優(yōu)的三層卷積模塊,設(shè)計(jì)了一系列的結(jié)構(gòu)方案。具體的結(jié)構(gòu)設(shè)計(jì)方案見(jiàn)表1,對(duì)應(yīng)的結(jié)構(gòu)示意見(jiàn)圖1。

    表1 三層卷積模塊結(jié)構(gòu)設(shè)計(jì)方案

    方案序號(hào)

    full pre-activation策略

    Shortcut Connection結(jié)構(gòu)[12]

    1

    ×

    ×

    2

    ×

    3

    ×

    4

    注:表中×表示不采用,√表示采用。

    按表1中的方案分別構(gòu)建三層卷積模塊并充當(dāng)調(diào)整后的LinkNet的編碼塊,然后,在相同的實(shí)驗(yàn)條件下進(jìn)行融合實(shí)驗(yàn),具體的融合實(shí)驗(yàn)結(jié)果見(jiàn)表2。

    表2 不同三層卷積模塊融合實(shí)驗(yàn)結(jié)果

    方案序號(hào)

    每期訓(xùn)練時(shí)間/s

    mIoU/(%)

    Precision/(%)

    Recall/(%)

    1

    1680

    81.76

    96.79

    95.64

    2

    1667

    73.20

    98.03

    91.69

    3

    1717

    82.71

    97.01

    95.87

    4

    1709

    76.03

    97.67

    92.90

    LinkNet

    804

    79.35

    96.56

    94.83

    由表2可以得出,應(yīng)用full pre-activation策略與沒(méi)有應(yīng)用該策略的三層卷積模塊相比,相應(yīng)的融合網(wǎng)絡(luò)訓(xùn)練綜合精度有所提升,而且訓(xùn)練時(shí)間相差較小,因此,在三層卷積模塊中應(yīng)用這一策略。此外,還可以得出使用Shortcut Connection結(jié)構(gòu)與沒(méi)有使用該結(jié)構(gòu)的三層卷積模塊相比,相應(yīng)的融合網(wǎng)絡(luò)訓(xùn)練綜合精度有所下降,該結(jié)構(gòu)不能給本文構(gòu)建的淺層網(wǎng)絡(luò)帶來(lái)增益,因此,在三層卷積模塊中棄用這一結(jié)構(gòu)。其中,方案3雖然訓(xùn)練時(shí)間比LinkNet有所增加,但3項(xiàng)評(píng)價(jià)指標(biāo)均有提升。

    最終,采用方案3構(gòu)建三層卷積模塊與LinkNet融合構(gòu)建出新的建筑物分割網(wǎng)絡(luò)T-LinkNet。T-LinkNet的具體結(jié)構(gòu)見(jiàn)圖2,圖中左半部分為編碼器,右半部分為解碼器。需要注意,在T-LinkNet中除了Stem Block的卷積層在后面接BN和ReLU外,其他網(wǎng)絡(luò)結(jié)構(gòu)均采用full pre-activation策略,使網(wǎng)絡(luò)整體信號(hào)傳遞更加順暢,有利于網(wǎng)絡(luò)訓(xùn)練。

    1.3 增強(qiáng)感受野模塊

    增強(qiáng)感受野模塊能夠融合多尺度上下文信息,有利于在上采樣過(guò)程中恢復(fù)更多圖像細(xì)節(jié),從而提高網(wǎng)絡(luò)性能。目前,常見(jiàn)的增強(qiáng)感受野模塊的構(gòu)建有兩種方案,一種是基于池化(pooling),另一種是基于擴(kuò)張卷積(dilated convolution)[17]。池化可以在不增加網(wǎng)絡(luò)參數(shù)的情況下方便快捷地增大感受野。擴(kuò)張卷積則是一種能夠在圖像語(yǔ)義分割應(yīng)用中顯式調(diào)整濾波器視野以及控制深度卷積神經(jīng)網(wǎng)絡(luò)計(jì)算的特征響應(yīng)分辨率的強(qiáng)大工具,其可以在不損失分辨率或覆蓋范圍的情況下,擴(kuò)大感受野的回旋支持面。此外,擴(kuò)張卷積還能提高中間特征圖的分辨率,產(chǎn)生更準(zhǔn)確的預(yù)測(cè),同時(shí)保持相同的計(jì)算成本[18]

    基于池化構(gòu)建的增強(qiáng)感受野模塊有SPP-net[19]中使用的空間金字塔池(spacial pyramid pooling,SPP)和PSPNet[20]中使用的金字塔池模塊(pyramid pooling module,PPM)這兩個(gè)模塊都能在不顯著增加計(jì)算量的前提下有效增強(qiáng)感受野。基于擴(kuò)張卷積構(gòu)建的增強(qiáng)感受野模塊有DeepLabv2[21]中使用的空洞空間金字塔池(atrous spacial pyramid pooling,ASPP)和DeepLabv3[22]中使用的改進(jìn)型ASPP模塊以及RFBNet[11]中使用的RFB及其改進(jìn)型RFBs。上述網(wǎng)絡(luò)在使用相應(yīng)的增強(qiáng)感受野模塊后都實(shí)現(xiàn)了較好的語(yǔ)義分割性能,因此,可以應(yīng)用增強(qiáng)感受野模塊提升網(wǎng)絡(luò)分割性能。

    1.4 融合增強(qiáng)感受野模塊的T-LinkNet

    D-LinkNet[23]在LinkNet的基礎(chǔ)上加入了增強(qiáng)感受野模塊,使其在道路提取任務(wù)中獲得了成功。基于此,將增強(qiáng)感受野模塊添加到T-LinkNet中,以期獲取更優(yōu)的建筑物提取網(wǎng)絡(luò)。為挑選出性能最佳的增強(qiáng)感受野模塊,進(jìn)行了對(duì)比實(shí)驗(yàn)。具體的實(shí)驗(yàn)流程為:首先,篩選出以往表現(xiàn)較好的增強(qiáng)感受野模塊,能節(jié)省時(shí)間更快地找到效果最佳的模塊。其次,為減小添加的增強(qiáng)感受野模塊對(duì)T-LinkNet訓(xùn)練和識(shí)別效率的影響,同時(shí),在不影響增強(qiáng)感受野模塊的正常功能的前提下,對(duì)某些增強(qiáng)感受野模塊進(jìn)行實(shí)驗(yàn)調(diào)整。主要對(duì)兩方面進(jìn)行調(diào)整,一方面使用1×1卷積減少輸入到模塊的特征圖通道數(shù),提升相應(yīng)模塊的運(yùn)算效率;另一方面選擇合適的池化尺寸組合和擴(kuò)張率組合。最后,將篩選并調(diào)整后的增強(qiáng)感受野模塊插入T-LinkNet的解碼器和編碼器之間進(jìn)行融合實(shí)驗(yàn),依據(jù)綜合評(píng)價(jià)指標(biāo)挑選出最優(yōu)的增強(qiáng)感受野模塊。具體的實(shí)驗(yàn)調(diào)整方案以及對(duì)應(yīng)的融合網(wǎng)絡(luò)訓(xùn)練結(jié)果見(jiàn)表3。

    表3 不同增強(qiáng)感受野模塊與T-LinkNet融合結(jié)果對(duì)比

    增強(qiáng)感受野模塊

    實(shí)驗(yàn)設(shè)置

    每期增加的訓(xùn)練時(shí)間/s

    mIoU/(%)

    Precision/(%)

    Recall/(%)

    PPM

    (1,2,4,8)

    52

    82.37

    96.93

    95.79

    ASPP

    (2,4,6,8,1/4)

    263

    81.96

    97.05

    95.54

    改進(jìn)型ASPP

    (1,2,4,6,1/4)

    212

    82.71

    96.64

    96.13

    (1,3,5,7,1/4)

    214

    82.48

    96.96

    95.81

    RFB

    (1,3,5)

    209

    82.80

    96.88

    95.99

    RFBs

    (1,3,5)

    279

    82.24

    96.96

    95.71

    注:括號(hào)中的1/4表示將輸入到模塊的特征圖進(jìn)行1/4倍的通道轉(zhuǎn)換。

    從表3可以看出,RFB增強(qiáng)感受野模塊與T-LinkNet融合得到的網(wǎng)絡(luò)綜合訓(xùn)練精度最優(yōu)且訓(xùn)練增加的時(shí)間較少,而其他模塊與T-LinkNet融合效果不佳。因此,將RFB與T-LinkNet融合構(gòu)建出更優(yōu)的建筑物提取網(wǎng)絡(luò)TR-LinkNet。TR-LinkNet框架是在圖2的T-LinkNet結(jié)構(gòu)中間位置插入圖3的RFB模塊構(gòu)成。

    RFB是模擬人類(lèi)視覺(jué)系統(tǒng)中接受域的大小和偏心度的配置形成的,可以增強(qiáng)輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)的深度特征[10](具體結(jié)構(gòu)見(jiàn)圖3)。該模塊采用多分支結(jié)構(gòu),每個(gè)分支都包含轉(zhuǎn)換層(本文采用1/4倍的通道轉(zhuǎn)換)、對(duì)流層以及擴(kuò)張卷積層。具體實(shí)現(xiàn)流程為:首先,將各個(gè)分支的輸出結(jié)果進(jìn)行級(jí)聯(lián)并通過(guò)1×1卷積得到多尺度融合結(jié)果。然后,將多尺度融合結(jié)果與通過(guò)短路連接的輸入特征圖相加得到模塊輸出。

    2 實(shí)驗(yàn)

    2.1數(shù)據(jù)

    2.1.1數(shù)據(jù)來(lái)源

    本文實(shí)驗(yàn)數(shù)據(jù)為馬薩諸塞州建筑物數(shù)據(jù)集 [24],該數(shù)據(jù)集包括151張波士頓的航拍影像,每張影像的尺寸為1500×1500,地面分辨率為1m,覆蓋面積為2.25km2,因而整個(gè)數(shù)據(jù)集大約覆蓋340 km2的區(qū)域。數(shù)據(jù)被隨機(jī)分成包含137張影像的訓(xùn)練集,包含10張影像的測(cè)試集和包含4張影像的驗(yàn)證集。數(shù)據(jù)集主要覆蓋城市和郊區(qū),囊括了各種規(guī)模的建筑,包括獨(dú)立的房屋和車(chē)庫(kù)。

    2.1.2數(shù)據(jù)預(yù)處理

    1)轉(zhuǎn)換標(biāo)簽圖像。

    馬薩諸塞州建筑物數(shù)據(jù)集的建筑物標(biāo)簽圖像為合成的假彩色圖像,而在使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練時(shí),要求標(biāo)簽圖像為相應(yīng)的灰度圖像,因此,將三通道的假彩色標(biāo)簽圖像轉(zhuǎn)換為對(duì)應(yīng)單通道的灰度圖像,便于后續(xù)的模型訓(xùn)練。

    2)切割原始影像和對(duì)應(yīng)標(biāo)簽圖像。

    對(duì)于卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練來(lái)說(shuō),卷積網(wǎng)絡(luò)模型自身的網(wǎng)絡(luò)參數(shù)較多,直接采用大圖進(jìn)行訓(xùn)練,對(duì)計(jì)算機(jī)的性能要求很高,而且訓(xùn)練速度較慢,因此,需要對(duì)大尺寸影像及其對(duì)應(yīng)標(biāo)簽圖像進(jìn)行切割。綜合考慮后,一幅大圖將分割成36張256×256的小圖,大幅增加訓(xùn)練樣本的數(shù)量。訓(xùn)練影像及其對(duì)應(yīng)標(biāo)簽圖像切割前后對(duì)比如圖4所示。

    切割后的馬薩諸塞州建筑物數(shù)據(jù)集,包含4932張訓(xùn)練圖像,144張驗(yàn)證圖像和360張測(cè)試圖像,共計(jì)5436張圖像。切割得到的大量數(shù)據(jù)為網(wǎng)絡(luò)訓(xùn)練奠定了良好的基礎(chǔ),有利于訓(xùn)練出高性能網(wǎng)絡(luò)。

    2.2模型訓(xùn)練

    使用全卷積深度神經(jīng)網(wǎng)絡(luò)構(gòu)建圖像分割模型,在進(jìn)行訓(xùn)練時(shí)大量卷積運(yùn)算會(huì)占用較多的計(jì)算機(jī)內(nèi)存和顯存,對(duì)硬件要求較高。受實(shí)驗(yàn)條件的限制,會(huì)在配置方面尋求一個(gè)平衡,以保證網(wǎng)絡(luò)訓(xùn)練順利完成。本文基于深度學(xué)習(xí)框架PyTorch構(gòu)建相應(yīng)的建筑物提取網(wǎng)絡(luò),參照已有環(huán)境配置并結(jié)合實(shí)際條件構(gòu)建深度學(xué)習(xí)實(shí)驗(yàn)環(huán)境,基礎(chǔ)配置如表4所示,重要軟件配置如表5所示。

    表4 基礎(chǔ)環(huán)境配置

    名稱(chēng)

    系統(tǒng)

    CPU

    顯卡

    內(nèi)存

    硬盤(pán)

    配置

    Window10

    Intel Pentium

    G4560

    NVIDIA

    GTX950M

    8GB

    500GB

    表5 重要軟件配置

    名稱(chēng)

    GPU-Driver

    CUDA

    Python

    PyTorch

    PyCharm

    配置

    441.22

    10.2

    3.7

    1.8.1

    2020.1.3

    通過(guò)多次試驗(yàn),綜合考慮網(wǎng)絡(luò)的計(jì)算效率、結(jié)果精度以及硬件3個(gè)方面,設(shè)置batch size為4,epoch為20,iteration為25 000,使用交叉熵?fù)p失函數(shù)BECLoss作為訓(xùn)練網(wǎng)絡(luò)的目標(biāo)函數(shù),進(jìn)行目標(biāo)函數(shù)最小化得到最優(yōu)的模型。

    為了使構(gòu)建好的網(wǎng)絡(luò)獲取最佳的訓(xùn)練效果,使用多種訓(xùn)練優(yōu)化方法,例如,SGD(momentum=0.9)、RMSProp(alpha=0.9)和Adam(betas=[0.9,0.99]),在相同的環(huán)境配置下對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,同時(shí),所有的訓(xùn)練優(yōu)化方法統(tǒng)一使用CONSTANT學(xué)習(xí)率策略即設(shè)置學(xué)習(xí)率為一個(gè)固定值,根據(jù)已有經(jīng)驗(yàn)設(shè)置學(xué)習(xí)率為0.001。具體的實(shí)驗(yàn)結(jié)果見(jiàn)表6。

    表6 不同訓(xùn)練優(yōu)化方法結(jié)果比較

    分割網(wǎng)絡(luò)

    訓(xùn)練優(yōu)化法

    每期訓(xùn)練時(shí)間/s

    mIoU/(%)

    Precision/(%)

    Recall/(%)

    T-Linknet

    SGD

    1691

    75.52

    96.71

    93.24

    RMSprop

    1717

    82.71

    97.01

    95.87

    Adam

    1732

    76.52

    97.33

    93.27

    TR-Linknet

    SGD

    1907

    74.92

    95.43

    94.38

    RMSprop

    1926

    82.80

    96.88

    95.99

    Adam

    1944

    79.72

    97.37

    94.46

    從表6可以看出,本文構(gòu)建的兩種建筑物分割網(wǎng)絡(luò)在使用三種訓(xùn)練優(yōu)化法時(shí),不同優(yōu)化方法花費(fèi)的訓(xùn)練時(shí)間相近,使用RMSprop訓(xùn)練優(yōu)化法進(jìn)行模型訓(xùn)練的綜合精度最高。綜合考慮訓(xùn)練效率和精度因素,采用RMSprop訓(xùn)練優(yōu)化方法對(duì)構(gòu)建好的網(wǎng)絡(luò)進(jìn)行訓(xùn)練有較高性?xún)r(jià)比。

    2.3結(jié)果及分析

    對(duì)構(gòu)建好的網(wǎng)絡(luò)分割結(jié)果做定性與定量評(píng)價(jià)時(shí),需要與現(xiàn)有的分割網(wǎng)絡(luò)進(jìn)行對(duì)比。以U-Net為基礎(chǔ)的卷積神經(jīng)網(wǎng)絡(luò)SE-Unet[8]具有較好的建筑物分割效果,帶洞型U-Net++[9]也表現(xiàn)出良好的建筑物提取性能。本文實(shí)現(xiàn)了上述兩種網(wǎng)絡(luò),并與自主構(gòu)建的網(wǎng)絡(luò)在相同的環(huán)境配置下進(jìn)行對(duì)比實(shí)驗(yàn)。

    2.3.1定性分析

    為驗(yàn)證本文構(gòu)建的建筑物提取網(wǎng)絡(luò)的有效性,將其應(yīng)用于包含不同類(lèi)型建筑物的實(shí)驗(yàn)場(chǎng)景中,并對(duì)其識(shí)別和提取性能進(jìn)行定性分析。在實(shí)驗(yàn)中,將測(cè)試集輸入到訓(xùn)練好的T-Linknet和TR-Linknet中進(jìn)行建筑物預(yù)測(cè)。同樣,將測(cè)試集輸入到訓(xùn)練好的SE-Unet和帶洞型U-Net++中進(jìn)行建筑物預(yù)測(cè),進(jìn)而與本文構(gòu)建的網(wǎng)絡(luò)形成對(duì)照。最后,隨機(jī)從上述網(wǎng)絡(luò)預(yù)測(cè)結(jié)果中選取4張包含典型建筑物群的影像進(jìn)行網(wǎng)絡(luò)的定性分析。不同分割網(wǎng)絡(luò)建筑物預(yù)測(cè)結(jié)果如圖5所示(圖中紅色框選中的為預(yù)測(cè)結(jié)果差異明顯的區(qū)域)。

    由圖5可以看出,帶洞型U-Net++的提取效果較差,主要表現(xiàn)為預(yù)測(cè)結(jié)果內(nèi)部空洞、邊界粗糙和不完整,而SE-Unet的建筑物分割效果要優(yōu)于帶洞型U-Net++,但是其對(duì)于微、小型的建筑物以及建筑物的細(xì)節(jié)部分的預(yù)測(cè)效果不佳,主要表現(xiàn)為預(yù)測(cè)結(jié)果不完整和邊界不規(guī)則。相比之下,本文提出的兩種建筑物提取模型具有更好的提取效果,其中T-Linknet適合提取形狀規(guī)則的建筑物,TR-Linknet則能有效識(shí)別形狀復(fù)雜的建筑物的細(xì)小邊界。

    2.3.2定量分析

    在定量評(píng)價(jià)中,選用均交并比、精準(zhǔn)率以及召回率3個(gè)指標(biāo)對(duì)測(cè)試集中360幅影像的建筑物提取結(jié)果進(jìn)行評(píng)定。

    交并比(IoU)通常被稱(chēng)為 PASCALVOC交叉聯(lián)合度量,是圖像分割定量評(píng)價(jià)系統(tǒng)中最常用的一種性能度量方法,可以理解為預(yù)測(cè)區(qū)域和實(shí)際區(qū)域交集除以?xún)烧叩牟⒓徊⒈仁敲總€(gè)分類(lèi)IoU的平均值(本文共有建筑物類(lèi)和非建筑物類(lèi)兩類(lèi))。

    表7 精度評(píng)價(jià)混淆矩陣


    實(shí)際正類(lèi)

    實(shí)際負(fù)類(lèi)

    預(yù)測(cè)正類(lèi)

    真正(True Positive,TP)

    假正(False Positive,FP)

    預(yù)測(cè)負(fù)類(lèi)

    假負(fù)(False Negative,FN)

    真負(fù)(True Negative,TN)

    定量評(píng)價(jià)結(jié)果如表8所示。從表中可以看出,TR-LinkNet有兩項(xiàng)分割指標(biāo)最優(yōu),mIoU和Recall分別達(dá)到82.80%和95.99%。SE-Unet使用了特征壓縮注意力機(jī)制,增強(qiáng)了網(wǎng)絡(luò)對(duì)非建筑物類(lèi)的判定能力,對(duì)應(yīng)Precision較高;本文構(gòu)建的網(wǎng)絡(luò)易受與建筑物類(lèi)具有相似特征的非建筑物類(lèi)的干擾,導(dǎo)致Precision偏低。雖然,本文構(gòu)建的兩種建筑物分割網(wǎng)絡(luò)Precision偏低,但綜合預(yù)測(cè)精度均高于SE-Unet和帶洞型U-Net++,因而具有更優(yōu)的建筑物提取性能。

    表8 建筑物提取精度對(duì)比

    方法

    mIoU

    Precision

    Recall

    F1-score

    SE-Unet

    82.23

    97.26

    95.50

    96.37

    帶洞型 U-Net++

    80.53

    97.21

    94.87

    96.03

    T-LinkNet (ours)

    82.71

    97.01

    95.87

    96.44

    TR-LinkNet (ours)

    82.80

    96.88

    95.99

    96.43

    3 結(jié)束語(yǔ)

    針對(duì)現(xiàn)有的遙感影像建筑物提取方法存在著效率低下、精度不高等問(wèn)題,本文以輕量型網(wǎng)絡(luò)LinkNet為基礎(chǔ)構(gòu)建出建筑物提取網(wǎng)絡(luò)T-LinkNet和TR-Linknet,并在馬薩諸塞州建筑物數(shù)據(jù)集對(duì)上述兩種網(wǎng)絡(luò)進(jìn)行遙感影像建筑物提取的訓(xùn)練和測(cè)試。實(shí)驗(yàn)結(jié)果表明,基于LinkNet構(gòu)建的兩種建筑物提取網(wǎng)絡(luò)與SE-Unet和帶洞型U-Net++相比較,具有更優(yōu)秀的分割性能,其中TR-Linknet的精度評(píng)價(jià)指標(biāo)mIoU和Recall分別達(dá)到了82.80%和95.99%。此外,本文構(gòu)建的全卷積網(wǎng)絡(luò)具有參數(shù)少、效率高的優(yōu)點(diǎn),在建筑物提取完整度以及邊界分割精度方面也具有良好的效果。然而,受實(shí)驗(yàn)條件限制,構(gòu)建的模型泛化能力還存在不足,下一步需要擴(kuò)充訓(xùn)練樣本并調(diào)整網(wǎng)絡(luò)深度,以提升模型泛化能力;此外,構(gòu)建的模型對(duì)微、小型建筑物提取效果欠佳,要繼續(xù)研究提升深度學(xué)習(xí)模型精細(xì)化提取性能的方法。

    參考文獻(xiàn)

    [1] 何小飛,鄒崢嶸,陶超,等.聯(lián)合顯著性和多層卷積神經(jīng)網(wǎng)絡(luò)的高分影像場(chǎng)景分類(lèi)[J].測(cè)繪學(xué)報(bào),2016,45(9):1073-1080. (HE Xiaofei,ZOU Zhengrong,TAO Chao,et al.Combined saliency with multi-convolutional neural network for high resolution remote sensing scene classification[J].Acta Geodaetica et Cartographica Sinica,2016,45(9):1073-1080.)

    [2] 孫顯,王宏琦,張正.基于對(duì)象的Boosting方法自動(dòng)提取高分辨率遙感圖像中建筑物目標(biāo)[J].電子與信息學(xué)報(bào),2009,31(1):177-181. (SUN Xian,WANG Hongqi,ZHANG Zheng.Automatic building extraction in high resolution remote sensing image using object-based boosting method[J].Journal of Electronics & Information Technology,2009,31(1):177-181.)

    [3] 吳煒,駱劍承,沈占鋒,等.光譜和形狀特征相結(jié)合的高分辨率遙感圖像的建筑物提取方法[J].武漢大學(xué)學(xué)報(bào)(信息科學(xué)版),2012,37(7):800-805. (WU Wei,LUO Jiancheng,SHEN Zhanfeng,et al.Building extraction from high resolution remote sensing imagery based on spatial-spectral method[J].Geomatics and Information Science of Wuhan University,2012,37(7):800-805.)

    [4] 胡榮明,黃小兵,黃遠(yuǎn)程.增強(qiáng)形態(tài)學(xué)建筑物指數(shù)應(yīng)用于高分辨率遙感影像中建筑物提取[J].測(cè)繪學(xué)報(bào),2014,43(5):514-520. (HU Rongming,HUANG Xiaobing,HUANG Yuancheng.An enhanced morphological building index for building extraction from high-resolution images[J].Acta Geodaetica et Cartographica Sinica,2014,43(5):514-520.)

    [5] 季順平,魏世清.遙感影像建筑物提取的卷積神經(jīng)元網(wǎng)絡(luò)與開(kāi)源數(shù)據(jù)集方法[J].測(cè)繪學(xué)報(bào),2019,48(4):448-459. (JI Shunping,WEI Shiqing.Building extraction via convolutional neural networks from an open remote sensing building dataset[J].Acta Geodaetica et Cartographica Sinica,2019,48(4):448-459.)

    [6] SHELHAMER E,LONG J,DARRELL T.Fully convolutional networks for semantic segmentation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(4):640-651.

    [7] RONNEBERGER O,F(xiàn)ISCHER P,BROX T.U-net:Convolutional networks for biomedical image segmentation[C]//Medical Image Computing and Computer-Assisted Intervention – MICCAI 2015,2015:234-241.

    [8] 劉浩,駱劍承,黃波,等.基于特征壓縮激活Unet網(wǎng)絡(luò)的建筑物提取[J].地球信息科學(xué)學(xué)報(bào),2019,21(11):1779-1789. (LIU Hao,LUO Jiancheng,HUANG Bo,et al.Building extraction based on SE-unet[J].Journal of Geo-Information Science,2019,21(11):1779-1789.)

    [9] 張永洪,席夢(mèng)丹.帶洞型U-Net++網(wǎng)絡(luò)在遙感影像中建筑物的提取方法[J].測(cè)繪地理信息,2021,46(S1):82-86. (ZHANG Yonghong,XI Mengdan.A method for extracting buildings from remote sensing images with hole U-net++ network[J].Journal of Geomatics,2021,46(S1):82-86.)

    [10] CHAURASIA A,CULURCIELLO E.LinkNet:Exploiting encoder representations for efficient semantic segmentation[C]//2017 IEEE Visual Communications and Image Processing.St.Petersburg,F(xiàn)L,USA.IEEE,2017:1-4.

    [11] LIU S, HUANG D. Receptive field block net for accurate and fast object detection[C]//Proceedings of the European Conference on Computer Vision (ECCV). [S.l.:s.n.],2018: 385-400.

    [12] HE Kaiming,ZHANG Xiangyu,REN Shaoqing,et al.Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition.Las Vegas,NV,USA.IEEE,2016:770-778.

    [13] IOFFE S, SZEGEDY C. Batch normalization: Accelerating deep network training by reducing internal covariate shift[C]//International Conference on Machine Learning. [S.l.:s.n.], 2015: 448-456.

    [14] ZHOU Peng,NI Bingbing,GENG Cong,et al.Scale-transferrable object detection[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Salt Lake City,UT,USA.IEEE,2018:528-537.

    [15] SZEGEDY C,VANHOUCKE V,IOFFE S,et al.Rethinking the inception architecture for computer vision[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition.Las Vegas,NV,USA.IEEE,2016:2818-2826.

    [16] HE K, ZHANG X, REN S, et al. Identity mappings in deep residual networks[C]//European Conference on Computer Vision. [S.l.]:Springer , 2016: 630-645.

    [17] YU F,KOLTUN V.Multi-scale context aggregation by dilated convolutions[Z].[S.l.:s.n.],2015.

    [18] WANG Panqu,CHEN Pengfei,YUAN Ye,et al.Understanding convolution for semantic segmentation[C]//2018 IEEE Winter Conference on Applications of Computer Vision.Lake Tahoe,NV,USA.IEEE,2018:1451-1460.

    [19] HE Kaiming,ZHANG Xiangyu,REN Shaoqing,et al.Spatial pyramid pooling in deep convolutional networks for visual recognition[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2015,37(9):1904-1916.

    [20] ZHAO Hengshuang,SHI Jianping,QI Xiaojuan,et al.Pyramid scene parsing network[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition.Honolulu,HI,USA.IEEE,2017:6230-6239.

    [21] CHEN L C,PAPANDREOU G,KOKKINOS I,et al.DeepLab:semantic image segmentation with deep convolutional nets,atrous convolution,and fully connected CRFs[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2018,40(4):834-848.[22] CHEN L C,PAPANDREOU G,SCHROFF F,et al.Rethinking atrous convolution for semantic image segmentation[EB/OL]. [2022-05-09].https://arxiv.org/abs/1706.05587

    [23] ZHOU Lichen,ZHANG Chuang,WU Ming.D-LinkNet:LinkNet with pretrained encoder and dilated convolution for high resolution satellite imagery road extraction[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW).Salt Lake City,UT,USA:IEEE,2018:192-1924.

    [24] MNIH V. Machine learning for aerial image labeling[D]. Toronto:University of Toronto (Canada),2013.

    作者簡(jiǎn)介:張立亭(1966—),男,湖北黃梅人,教授,博士,主要研究方向?yàn)橥恋匦畔⒓夹g(shù)。

    E-mail:904118206@qq.com

    基金項(xiàng)目:國(guó)家自然科學(xué)基金項(xiàng)目(41861058)

    引用格式:張立亭,孔文學(xué),羅亦泳,鄧先金,夏文生.改進(jìn)LinkNet的高分辨率遙感影像建筑物提取方法[J].測(cè)繪科學(xué),2022,47(9):120-127,145.DOI:10.16251/j.cnki.1009-2307.2022.09.015.

    781

    2016-08-01

    曲項(xiàng)

    “盡管目前SUV是最熱的車(chē)型,但轎車(chē)仍是車(chē)市的主體,尤其是在中高級(jí)轎車(chē)市場(chǎng)的布局和競(jìng)爭(zhēng),任何一家車(chē)企都不會(huì)放松的。”來(lái)自合資車(chē)企老總的判斷正在成為車(chē)市的新趨勢(shì),多款重磅中高級(jí)新車(chē)在2016年下半年的密集上市證實(shí),這個(gè)利潤(rùn)最高的細(xì)分市場(chǎng)將迎來(lái)新一輪的升級(jí)戰(zhàn)。

    合資車(chē)企一直是中高級(jí)車(chē)市場(chǎng)的競(jìng)爭(zhēng)主體。據(jù)悉,今年下半年,一汽-大眾全新邁騰、一汽馬自達(dá)全新阿特茲,以及上汽大眾輝昂、東風(fēng)雪鐵龍C6四款主力中高級(jí)車(chē)將以幾乎一個(gè)月一款車(chē)的速度共同點(diǎn)燃中高級(jí)車(chē)市場(chǎng)的溫度。尤其是率先上市的兩款新車(chē)——7月27日上市的一汽-大眾全新邁騰和8月10日上市的一汽馬自達(dá)全新阿特茲,有望以全面升級(jí)的姿態(tài)推動(dòng)中高級(jí)轎車(chē)更加明顯的商務(wù)與運(yùn)動(dòng)化細(xì)分趨勢(shì)。

    值得一提的是,與中高級(jí)轎車(chē)市場(chǎng)的元老全新邁騰相比,雖然沒(méi)有前期的多輪預(yù)熱,但作為馬自達(dá)品牌的旗艦車(chē)型以及該品牌體系內(nèi)唯一的B級(jí)車(chē),全新阿特茲將帶來(lái)運(yùn)動(dòng)化細(xì)分市場(chǎng)哪些新的趨勢(shì),這更加讓業(yè)界充滿興趣和期待。在SUV和豪華品牌商務(wù)轎車(chē)的夾擊中,中高級(jí)轎車(chē)能否通過(guò)進(jìn)一步細(xì)分與全面升級(jí)激活整個(gè)市場(chǎng),也成為今年下半年轎車(chē)市場(chǎng)的重要風(fēng)向標(biāo)之一。

    中高級(jí)轎車(chē)新一輪演化

    來(lái)自乘用車(chē)聯(lián)席會(huì)的統(tǒng)計(jì)顯示,上半年,乘用車(chē)市場(chǎng)當(dāng)中的轎車(chē)品類(lèi)銷(xiāo)量為559.3萬(wàn)輛,雖然被認(rèn)為已經(jīng)開(kāi)始呈現(xiàn)回暖趨勢(shì)。但是,和SUV同比近50%的增幅相比,轎車(chē)市場(chǎng)的份額仍在逐步縮小。作為破解之道,所有車(chē)企都開(kāi)始在轎車(chē)產(chǎn)品的二次細(xì)分上做文章,更多新技術(shù)和新設(shè)計(jì)語(yǔ)言開(kāi)始出現(xiàn)在新推出的轎車(chē)車(chē)型中。

    這一趨勢(shì)更加清晰的顯現(xiàn)在合資車(chē)企最倚重的高利潤(rùn)板塊——中高級(jí)轎車(chē)領(lǐng)域中。隨著主流品牌新一代旗艦車(chē)型的推出,中高級(jí)轎車(chē)領(lǐng)域開(kāi)始呈現(xiàn)出鮮明的風(fēng)格化特點(diǎn)。7月27日,一汽-大眾全新邁騰的上市正式掀起中高級(jí)轎車(chē)的新一輪演化。不到半個(gè)月之后的8月10日,即將上市的一汽馬自達(dá)全新阿特茲則將繼續(xù)推高業(yè)界對(duì)中高級(jí)轎車(chē)翻身戰(zhàn)的關(guān)注。

    而與此同時(shí),以全新阿特茲為代表的包括CC、君威、思鉑睿在內(nèi)的運(yùn)動(dòng)型轎車(chē)陣營(yíng),與以全新邁騰為代表的涵蓋了雅閣、帕薩特等車(chē)型的商務(wù)車(chē)陣營(yíng),也將中高端轎車(chē)的兩大主流細(xì)分市場(chǎng)重新定義。“商務(wù)車(chē)市場(chǎng)需求一向旺盛,但隨著對(duì)公務(wù)車(chē)新政的消化,以及目標(biāo)人群的變化,中高級(jí)商務(wù)車(chē)的市場(chǎng)變數(shù)也在增加。”有業(yè)內(nèi)人士指出。

    與之相比,運(yùn)動(dòng)型高端轎車(chē)在近幾年來(lái)一直保持著持續(xù)增長(zhǎng)的態(tài)勢(shì)。汽車(chē)消費(fèi)主體人群和消費(fèi)觀的改變推動(dòng)了這一細(xì)分市場(chǎng)的份額在悄然上升,消費(fèi)者對(duì)運(yùn)動(dòng)型轎車(chē)的要求也從外觀新銳、動(dòng)力突出升級(jí)為擁有更多的智能化配置以及更高效的動(dòng)力組合,在強(qiáng)調(diào)“駕駛愉悅感”的同時(shí),更要符合年輕消費(fèi)主體對(duì)個(gè)性彰顯的空前強(qiáng)調(diào)。

    這也成為阿特茲等運(yùn)動(dòng)型轎車(chē)的開(kāi)發(fā)方向。2016年1月-6月的銷(xiāo)量統(tǒng)計(jì)數(shù)據(jù)顯示,作為運(yùn)動(dòng)型中高級(jí)轎車(chē)市場(chǎng)的代表車(chē)型,阿特茲總銷(xiāo)量16251輛,CC總銷(xiāo)量16028輛,銳志總銷(xiāo)量8263輛。“運(yùn)動(dòng)型轎車(chē)的潛力有目共睹,但市場(chǎng)仍需要更多的刺激,需要更多既叫好又叫座的新產(chǎn)品”,某汽車(chē)業(yè)分析人士稱(chēng)。該人士表示,經(jīng)過(guò)近兩年的價(jià)格戰(zhàn),汽車(chē)價(jià)格體系已經(jīng)被改寫(xiě),在SUV熱潮和價(jià)格戰(zhàn)雙重壓力下,中低端轎車(chē)的利潤(rùn)已經(jīng)所剩無(wú)幾,中高級(jí)轎車(chē)既是重要的利潤(rùn)源泉,又是車(chē)市轉(zhuǎn)型期守住品牌競(jìng)爭(zhēng)力的關(guān)鍵,因此必然會(huì)成為車(chē)企必爭(zhēng)之地。

    但中高級(jí)車(chē)市場(chǎng)的逆轉(zhuǎn)并不容易。市場(chǎng)價(jià)格顯示,豪華中型商務(wù)車(chē)與中高級(jí)轎車(chē)之間的價(jià)格差已經(jīng)從此前的30%縮小為10%,這也使得包括全新阿特茲和全新邁騰在內(nèi)的新車(chē)能否為主流中高級(jí)市場(chǎng)開(kāi)辟新的藍(lán)海備受關(guān)注。

    全新阿特茲的野心

    2014年4月,馬自達(dá)旗艦產(chǎn)品,阿特茲在一汽馬自達(dá)的長(zhǎng)春一工廠下線,一個(gè)月后,阿特茲正式上市。這款車(chē)因?yàn)槠湓隈R自達(dá)體系中的特殊地位而備受關(guān)注。

    進(jìn)入中國(guó)13年的馬自達(dá)6早已在中國(guó)擁有了眾多擁躉,以“彎道王”著稱(chēng)的馬自達(dá)品牌的技術(shù)優(yōu)勢(shì),幫助馬自達(dá)6長(zhǎng)居中國(guó)中高級(jí)市場(chǎng)排行榜前列。作為第六代產(chǎn)品的領(lǐng)軍車(chē)型,阿特茲擁有的馬自達(dá)創(chuàng)馳藍(lán)天技術(shù)、頗受好評(píng)的“魂動(dòng)”外觀,以及37米同級(jí)最短剎車(chē)距離等全新特質(zhì),讓這款運(yùn)動(dòng)轎車(chē)迅速成為細(xì)分市場(chǎng)最受關(guān)注的車(chē)型。

    據(jù)悉,即將上市的全新阿特茲將主打三大賣(mài)點(diǎn):動(dòng)感優(yōu)雅的致美造型、激情舒適的卓越駕控、豐富領(lǐng)先的不凡科技。而這三點(diǎn)也正是中高級(jí)運(yùn)動(dòng)轎車(chē)消費(fèi)者最在意的三大要素。

    外觀漂亮是阿特茲最吸引消費(fèi)者的第一眼要素,全新阿特茲使用的全新造型LED燈組以及全新造型保險(xiǎn)杠和前格柵,將使外觀在時(shí)尚優(yōu)雅中更顯動(dòng)感與霸氣。值得強(qiáng)調(diào)的是,在消費(fèi)者呼聲最強(qiáng)烈的內(nèi)飾提升方面,全新阿特茲將使用更加時(shí)尚科技的全新造型內(nèi)飾,全新高級(jí)皮革材料的大量運(yùn)用則使其觀感更為高檔。有評(píng)論認(rèn)為,從全新阿特茲的內(nèi)飾直逼寶馬、奧迪的豪華檔次來(lái)看,一汽馬自達(dá)對(duì)于搶食中高級(jí)運(yùn)動(dòng)轎車(chē)市場(chǎng)充滿了野心。

    在核心競(jìng)爭(zhēng)力——?jiǎng)恿ε渲蒙希掳⑻仄澊钶d的被稱(chēng)為“自然吸氣發(fā)動(dòng)機(jī)之王”的全新創(chuàng)馳藍(lán)天發(fā)動(dòng)機(jī)仍是其最大優(yōu)勢(shì)。新車(chē)還采用了包括EPB電子駐車(chē)系統(tǒng)、馬自達(dá)悅聯(lián)系統(tǒng)、SBS中高速剎車(chē)輔助系統(tǒng)等越級(jí)配置。顯然,全新阿特茲的目標(biāo)是實(shí)現(xiàn)運(yùn)動(dòng)性、安全性與舒適性的同步升級(jí)。“與幾年前相比,中高級(jí)車(chē)消費(fèi)者年齡有了明顯年輕化的趨勢(shì),85后、90后這些心態(tài)比較年輕的30歲以下用戶呈明顯的上升趨勢(shì)。他們的目光更多的瞄準(zhǔn)在個(gè)性化的運(yùn)動(dòng)型轎車(chē)上。”一汽馬自達(dá)相關(guān)負(fù)責(zé)人表示,全新阿特茲瞄準(zhǔn)的正是當(dāng)今時(shí)代迅速崛起的社會(huì)精英。他們年齡在25-34歲之間,渴望時(shí)尚求新,追求自我獨(dú)特價(jià)值和存在感。阿特茲也正是誕生這一價(jià)值觀上的個(gè)性座駕。“具有差異化競(jìng)爭(zhēng)力的產(chǎn)品永遠(yuǎn)是贏得市場(chǎng)的最核心因素。馬自達(dá)6曾引領(lǐng)了十年的細(xì)分潮流,我們希望不斷升級(jí)的阿特茲同樣能夠成為運(yùn)動(dòng)型轎車(chē)領(lǐng)域的標(biāo)桿。”一汽馬自達(dá)相關(guān)負(fù)責(zé)人稱(chēng),隨著兩款創(chuàng)馳藍(lán)天技術(shù)車(chē)型的上市,一汽馬自達(dá)的銷(xiāo)量有望獲得快速提升。

網(wǎng)站首頁(yè)   |    關(guān)于我們   |    公司新聞   |    產(chǎn)品方案   |    用戶案例   |    售后服務(wù)   |    合作伙伴   |    人才招聘   |   

友情鏈接: 餐飲加盟

地址:北京市海淀區(qū)    電話:010-     郵箱:@126.com

備案號(hào):冀ICP備2024067069號(hào)-3 北京科技有限公司版權(quán)所有