欧美vvv,亚洲第一成人在线,亚洲成人欧美日韩在线观看,日本猛少妇猛色XXXXX猛叫

新聞資訊

    到自拍,大家想到的或許都是臉占畫面1/2以上、英文稱為「 Selfie 」的照片,不過想必大家也看過不少超專業(yè)的藝術(shù)自拍。今天就一起來看看這類在英文中稱作「Self-Portrait」(自拍人像)自拍題材,究竟需要哪些基本裝備和技巧吧!

    ▲photo by Carolina Tarré

    沒有麻豆不用愁,自導(dǎo)自演

    自拍人像(Self-Portrait)作為一種攝影題材,常常出現(xiàn)在不少攝影師的創(chuàng)作中,也不時(shí)出現(xiàn)在攝影比賽的題目里。比起一般人像攝影,自拍人像的困難度似乎更高,一來在拍攝過程中你很難直接看到自己在鏡頭中的表現(xiàn),二來調(diào)整相機(jī)參數(shù)、設(shè)定器材也必須花比較多的時(shí)間,尤其是對(duì)焦這點(diǎn),因?yàn)闊o法「Live View」拍攝畫面而難以確認(rèn)對(duì)焦是否準(zhǔn)確。

    話又說回來,自拍人像也有省時(shí)間的地方,比方不需要花時(shí)間跟麻豆溝通或引導(dǎo),因?yàn)槁槎咕褪悄阕约海灰闱宄雷约阂氖窃鯓拥谋砬楹妥藙?shì),想要呈現(xiàn)什么樣的情緒氛圍,其他就是技術(shù)性的問題。而且,反正因?yàn)橹挥凶约阂粋€(gè)人嘛,自由度很高,你可以花一整天的時(shí)間自己拍到爽,嘗試各種莫名其妙的點(diǎn)子,尺度全開也沒人管你。

    當(dāng)下年輕一輩也越來越勇于表現(xiàn)自我,不少攝影新銳也選擇這樣的題材,并創(chuàng)作出令人驚艷的作品,像美國的14歲攝影師fiddle oak(筆名)的微距自拍、住在挪威的18歲攝影師Xin Li的超現(xiàn)實(shí)自拍等,都十分精彩。

    ▲14歲美國攝影師fiddle oak的奇幻自拍,眾人驚艷。

    基本裝備

    想要進(jìn)行這樣的自拍創(chuàng)作,除了相機(jī)和鏡頭外,還需要以下配件輔助。

    腳架

    用來在各種場(chǎng)景下架設(shè)你的相機(jī),是進(jìn)行此類自拍創(chuàng)作必不可少的配件之一,挑選時(shí)注意腳架的可承載重量,并可根據(jù)不同的拍攝環(huán)境選擇不一樣特性的腳架,不過無論如何,穩(wěn)定性最重要,畢竟這樣的自拍創(chuàng)作,腳架彷彿是你的替身,要跟你一起「長期抗戰(zhàn)」,若沒有良好的穩(wěn)定性,或許會(huì)在你還沒拍爽前就先倒下了。

    ▲選擇腳架時(shí)講究穩(wěn)定性和最大載重。

    遙控快門線或無線遙控器

    雖然說大多數(shù)相機(jī)都具備自拍快門延遲的功能,但若想要讓你的拍攝過程更「舒適」一點(diǎn),建議使用快門遙控工具,如快門線或無線遙控器來輔助,而若相機(jī)本身自帶Wi-Fi功能的話,亦可與手機(jī)連線來遙控快門。

    外接取景器

    自拍創(chuàng)作在傳統(tǒng)上來說,比較困難的點(diǎn)在于無法在拍攝的同時(shí)預(yù)覽到自己在畫面中的景象,然而現(xiàn)在不少相機(jī)具有翻轉(zhuǎn)顯示屏功能,對(duì)于自拍創(chuàng)作上提供一定的方便性。然而,如果你覺得翻轉(zhuǎn)顯示屏太小不方便取景的話,也可以利用HDMI輸出功能外接平板、計(jì)算機(jī)顯示屏,甚至是電視屏幕,讓你的拍攝更便利。(編按:不過在戶外就比較麻煩了吧!)

    ▲透過HDMI端外接計(jì)算機(jī)或電視,讓自拍人像創(chuàng)作更容易。

    閃光燈

    創(chuàng)作時(shí)難免會(huì)碰到光線不足或逆光環(huán)境,這時(shí)就需要閃光燈或其他光線為人像作補(bǔ)光的部分。能配備閃光燈是最好,更專業(yè)一點(diǎn)要用棚燈的話也可以,但若兩者皆無時(shí),可利用臺(tái)燈來試試看。

    ▲若沒有閃光燈或棚燈,也可使用臺(tái)燈來補(bǔ)光。〈圖片來源:IKEA〉

    創(chuàng)意自拍的計(jì)劃劃構(gòu)思

    老實(shí)說,在準(zhǔn)備裝備之前就應(yīng)該先擬好所謂的「拍攝計(jì)劃」,更有勝者不妨先擬一份拍攝計(jì)劃書,拍攝主題、風(fēng)格走向、具體場(chǎng)景、畫面內(nèi)容、構(gòu)圖到自己的服裝飾品、需要準(zhǔn)備的道具等全部列出來,能使拍攝的前置作業(yè)更加完備。

    ▲自拍人像創(chuàng)作,講求體現(xiàn)個(gè)人特色。photo by Josh Libatique

    體現(xiàn)個(gè)人特色風(fēng)格

    個(gè)人特色,可從個(gè)人外觀特征、個(gè)人風(fēng)格取向上來進(jìn)行選擇。想想看你的身上有什么特征是比較好發(fā)揮的?美國攝影師Nathan Marx抓住他自己光頭的特點(diǎn),拍了一張明亮光頭的自拍照,就光頭這個(gè)特點(diǎn),或許還可作彩繪或加上其他裝飾來進(jìn)行其他創(chuàng)作。

    你的興趣是什么?平常喜歡什么樣的東西?喜歡什么風(fēng)格的創(chuàng)作?巴西的攝影玩家 Fabiano Rodrigues喜愛滑板,于是將滑板、建筑和攝影三者結(jié)合,創(chuàng)作出自拍作品。如果你喜愛籃球,那或許以籃球?yàn)橹黝}也是個(gè)不錯(cuò)的選擇。就拿攝影這個(gè)興趣,也能創(chuàng)作出許多不一樣效果的自拍照。

    ▲巴西攝影玩家 Fabiano Rodrigues喜愛滑板,于是將滑板、建筑和攝影三者結(jié)合,創(chuàng)作出自拍作品。

    模擬特定場(chǎng)景情境

    如果覺得自己沒有什么特別強(qiáng)烈的個(gè)人特色或喜好,也可給自己一些假想情境來豐富自拍創(chuàng)作。舉例來說,地主惠亮的「單身男別哭」系列,就是約會(huì)場(chǎng)景下的創(chuàng)意,假想自己有女朋友的話,可以拍出什么樣的畫面呢?而美國Suzanne Heintz與人偶的約會(huì)自拍,也有異曲同工之妙。給自己一個(gè)主題場(chǎng)景,例如失戀、單戀等主題,甚至可編一段小故事,用自拍影像來詮釋,當(dāng)然這種類型的自拍,有時(shí)也十分挑戰(zhàn)演技或是場(chǎng)景氛圍的渲染。

    ▲地主惠亮的「單身男別哭」系列,就是約會(huì)場(chǎng)景下的創(chuàng)意。

    ▲單身女Suzanne Heintz連自己受傷,老公帶女兒來探病的場(chǎng)景都想到了。

    拍攝技巧

    使用替身協(xié)助對(duì)焦

    自拍人像比較麻煩的點(diǎn)之一,在于對(duì)焦。由于作為拍攝對(duì)象的自己還不在鏡頭前,在自動(dòng)對(duì)焦的情況下常會(huì)出現(xiàn)對(duì)焦對(duì)錯(cuò)地方的情況。這時(shí)不妨準(zhǔn)備個(gè)「替身」來做為對(duì)焦對(duì)象,可先使用AF對(duì)好焦之后,轉(zhuǎn)到MF模式,以避免跑焦。不過自己入鏡時(shí)的位置應(yīng)該就是要在原來「替身」所在的位置,不然還是會(huì)有對(duì)焦失敗的可能。

    ▲photo by Blythe D

    ▲photo by Ikayama

    注意景深控制

    雖然說利用大光圈拍出淺景深的人像作品能有唯美的效果,但似乎會(huì)使對(duì)焦更加困難。一開始嘗試自拍人像時(shí),建議先從小光圈開始,比較容易成功拍攝,若能結(jié)合環(huán)境背景,也能創(chuàng)作出效果非凡的自拍作品。

    ▲photo by Dustin Diaz

    ▲photo by J-Bird in K-town

    柔和的光線比較容易掌握

    無論在室內(nèi)還是室外、自然光還是人造光,人像拍攝都講求柔和的光線,就算是自拍也一樣。在室內(nèi),可靠近窗邊,利用窗外的光線來拍攝。如果要到室外拍攝,盡量避開晴天中午太陽光強(qiáng)烈的時(shí)段,可選擇陰天或是黃金時(shí)間拍攝,獲得自然柔和的光線。當(dāng)然若有需要也是能使用閃光燈或棚燈等光源進(jìn)行補(bǔ)光,當(dāng)技術(shù)比較成熟時(shí),亦能挑戰(zhàn)看看制造特殊光影效果的自拍創(chuàng)作。

    ▲photo by Corie Howell

    ▲photo by Corie Howell

    不一定要露臉

    誰說自拍一定要眼看鏡頭,或一定要露臉,其實(shí)利用肢體、身體某部分細(xì)節(jié)展現(xiàn)想要表達(dá)的氛圍情緒,也能達(dá)到不錯(cuò)的效果,比起總是要對(duì)著鏡頭展現(xiàn)露出不自然的笑容要更有特色。

    ▲photo by Anna Gay

    ▲photo by Bethan Phillips

    更多精彩請(qǐng)關(guān)注微信公眾號(hào)dlmode-v

    著微博、微信等社交媒體的普及,許多人都愛上了自拍,經(jīng)常將自己的自拍照發(fā)到朋友圈中炫耀。不過同樣是自拍照,有的是美艷動(dòng)人,有的卻老套俗氣。當(dāng)然,自拍不只是簡(jiǎn)單“咔”地一聲按下快門那么簡(jiǎn)單,還是有一些技巧的。

    圖1 據(jù)英國《鏡報(bào)》報(bào)道,泰國帕岸島一只大象用長鼻卷走加拿大游客的相機(jī),戲劇性地成為一名“自拍大師”

    天性愛自拍——自拍的三種方式

    自拍,也就是自己給自己拍照,這似乎是人類的天性,如同很多人愛照鏡子一樣,自我欣賞。1838年人類首次將自己的影像記錄到膠卷上,第二年(1839年),美國攝影師羅伯特·科尼利厄斯就拍攝了世界上第一張自拍照。

    自拍的方法主要有三種。一種是對(duì)鏡自拍,有點(diǎn)類似別人在給自己拍照。一種是自己手拿手機(jī)(相機(jī))對(duì)著自己拍攝。因?yàn)槭直郾容^短,有著很大的局限,所以現(xiàn)在又流行起自拍桿,使得我們自拍時(shí)選擇角度的余地更大一些。

    圖2 對(duì)鏡自拍時(shí)需要注意,你看到的現(xiàn)實(shí)在鏡中的布局已完全改變

    還有一種自拍方法,使用的是手機(jī)(相機(jī))的定時(shí)器功能。通過三腳架或者別的設(shè)備將手機(jī)固定好,設(shè)定好拍攝角度及定時(shí)的長度,然后自己跑向預(yù)定的位置,擺好POSE,等待手機(jī)快門自動(dòng)啟動(dòng)即可。以華為榮耀7手機(jī)為例,進(jìn)入手機(jī)相機(jī)應(yīng)用界面,點(diǎn)按左上角設(shè)置按鈕(三橫線圖標(biāo)),在接下來的界面中點(diǎn)按右側(cè)的“設(shè)置”,從打開的界面中再點(diǎn)按“定時(shí)拍照”,選擇定時(shí)長度為2秒、5秒或10秒。回到拍攝界面,按下快門時(shí),即可啟動(dòng)定時(shí)器了。

    圖3 手機(jī)中設(shè)置定時(shí)拍攝

    圖4 啟動(dòng)定時(shí)器后,會(huì)有滴滴的時(shí)間提示音

    手機(jī)自拍的技巧

    使用定時(shí)器自拍的時(shí)候,關(guān)鍵是要站對(duì)位置,拍攝前取景的時(shí)候,最好在站位的地方做上標(biāo)志。不過更多的時(shí)候,我們是手拿手機(jī),或者使用自拍桿進(jìn)行自拍,這時(shí)候更注重的是角度。自己用手操控相機(jī)的時(shí)候,因?yàn)榫嚯x太近,臉部容易變形、變大,拍攝出來很不好看。一個(gè)較好的解決方法,就是使用從上往下,與臉部呈45度角的位置進(jìn)行自拍,這樣拍攝出來的臉就會(huì)比較瘦削,并且還能拍出“尖”下巴的效果。記住,除非你是為了搞笑,要想美的話,最好不要從下往上的角度拍攝。

    圖5 45度角是最經(jīng)典的自拍模式

    另外一個(gè)讓臉顯瘦的方法,就是用手或者其他道具(如鮮花、圖書等)遮住臉的一部分。如果是多人合影自拍,還有一個(gè)“坑友”的好方法,就是讓朋友的臉在前面,自己躲在朋友后面,這樣也會(huì)顯出你的臉“更小”。

    圖6 多人合影逆光自拍

    當(dāng)然,自拍的時(shí)候也不用太實(shí)在,完全正臉對(duì)著鏡頭。其實(shí)大部分人的側(cè)臉會(huì)更好看,尤其以四分之一的側(cè)臉最美。找四分之一側(cè)臉的角度,可以側(cè)對(duì)著鏡頭,然后以最接近鏡頭這一邊的顴骨的那條垂直線做為參考,處于頭部的四分之一左右的位置就可以了。

    自拍,什么都能拍

    自拍不一定非得拍臉,其實(shí)你覺得自己哪一部分最美,都可以進(jìn)行自拍。英國牛津字典曾經(jīng)就自拍選出一系列的網(wǎng)絡(luò)熱詞,如自拍、頭發(fā)自拍、健身自拍等。如果你覺得自己的鼻子、手甚至腳比較好看,其實(shí)都可以自拍下來。無限的角度,無限的可能,展現(xiàn)無限美好的自己。

    圖7 展現(xiàn)一頭秀發(fā)的自拍照

    者按:本文作者 Andrej KarPathy,由閱面科技翻譯整理。

    卷積神經(jīng)網(wǎng)絡(luò)是非常強(qiáng)大的,它能在你的個(gè)人照片里識(shí)別出物體,地點(diǎn)和人物,又能在自動(dòng)駕駛汽車?yán)锬茏R(shí)別出路標(biāo),行人和交通燈,還能在航空影像中識(shí)別出莊稼,森林和道路,在醫(yī)療圖像中識(shí)別出多種異常,諸如此類,不勝枚舉。在這些嚴(yán)肅的問題之外,這種高大上的視覺識(shí)別模型也可以用在消遣和娛樂上,博眾一笑。

    在接下來我要給大家介紹的這個(gè)趣味實(shí)驗(yàn)中,我們要做這樣一件事:我們從網(wǎng)絡(luò)中收集了2百萬張自拍圖,并將它們作為一個(gè)具有1億4千萬個(gè)參數(shù),當(dāng)今世界最先進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)模型的輸入,來訓(xùn)練一個(gè)分類器用以識(shí)別好的自拍和差的自拍。這么做的原因僅僅是因?yàn)檫@很簡(jiǎn)單,而且我們也能輕松實(shí)現(xiàn)。讀完本文,你將會(huì)學(xué)到如何自拍的法門。

    卷積神經(jīng)網(wǎng)絡(luò)

    在我們深入介紹這個(gè)實(shí)驗(yàn)之前,我們先來簡(jiǎn)單介紹一下卷積神經(jīng)網(wǎng)絡(luò)是什么,這樣能讓更多的受好奇心驅(qū)使閱讀本文的讀者不至于始終處于云山霧罩的狀態(tài)。用通俗一點(diǎn)的話來說,卷積神經(jīng)網(wǎng)絡(luò)是一把大錘,而計(jì)算機(jī)視覺問題不過是一些釘子。假如你在2015年聽說過或者閱讀過一些關(guān)于計(jì)算機(jī)如何識(shí)別圖像或者視頻中的物體的文章,大部分文章都會(huì)提到卷積神經(jīng)網(wǎng)絡(luò)。下面就是一些例子:

    卷積神經(jīng)網(wǎng)絡(luò)眾多成功案例中的一部分。從上到下,從左到右依次是:街景圖片中識(shí)別門牌號(hào),醫(yī)療圖像中識(shí)別壞東西,中文識(shí)別,路牌識(shí)別以及人臉識(shí)別。

    卷積神經(jīng)網(wǎng)絡(luò)恰好有著一段有趣的背景故事。卷積神經(jīng)網(wǎng)絡(luò)最早是由Yann Lecun等人于上世紀(jì)80年代發(fā)展出來的技術(shù)(當(dāng)然,還是基于前人,像是Fukushima的工作)。當(dāng)時(shí)的卷積神經(jīng)網(wǎng)絡(luò)被叫做LeNet 1,其中一個(gè)有趣的應(yīng)用是在1993年用來識(shí)別數(shù)字。可惜的是,這類模型并不被當(dāng)時(shí)的計(jì)算機(jī)視覺界接受,因?yàn)榇蠹移毡檎J(rèn)為這些模型沒辦法處理“真實(shí)世界”中的海量圖片。

    這種觀念一直到2012年才被扭轉(zhuǎn)過來,那一年開始我們總算有了足夠的計(jì)算能力(特指GPU計(jì)算)以及足夠的數(shù)據(jù)(ImageNet),使得我們能夠真正地將這類模型應(yīng)用到大規(guī)模的圖像上。首先取得突破的是Alex Krizhevsky,Ilya Sutskever和Geoff Hinton的工作,他們?cè)?012年的ImageNet挑戰(zhàn)賽(把它當(dāng)成計(jì)算機(jī)視覺界的世界杯即可)上取得了壓倒性的勝利(16.4%的錯(cuò)誤率,遠(yuǎn)低于第二名的26.2%的錯(cuò)誤率)。

    由于過去幾年的ImageNet挑戰(zhàn)賽是由Fei-Fei Li的實(shí)驗(yàn)室組織的,恰好我就在她實(shí)驗(yàn)室工作,因此我得以親眼見證了這一歷史的轉(zhuǎn)折點(diǎn)。我還記得當(dāng)Hinton組的結(jié)果提交上來后,實(shí)驗(yàn)室的一個(gè)妹子那一臉什么鬼的表情(因?yàn)閷?shí)在太強(qiáng)了)。后來,我們大家都注意到了這個(gè)結(jié)果,紛紛站了起來,從實(shí)驗(yàn)室的一頭走到另一頭,試圖去弄清楚剛才發(fā)生的一切。

    在接下來的幾個(gè)月中,卷積神經(jīng)網(wǎng)絡(luò)從一個(gè)備受質(zhì)疑的晦澀模型一躍成為了計(jì)算機(jī)視覺界的香餑餑,幾乎所有新發(fā)表的計(jì)算機(jī)視覺論文都講其作為核心模型。ImageNet挑戰(zhàn)賽也反映出了這個(gè)趨勢(shì)——2012年的時(shí)候,只有Hinton一家用卷積神經(jīng)網(wǎng)絡(luò)模型參賽,在那之后的2013年和2014年挑戰(zhàn)賽中,幾乎所有的參賽者都采用了卷積神經(jīng)網(wǎng)絡(luò)模型。另一個(gè)有趣的現(xiàn)象是,每一年的冠軍小組都立刻被某一公司吸納。

    這幾年里,比起2012年的AlexNet(這些模型名稱),我們見到了更加完美,簡(jiǎn)潔并且處理更大規(guī)模的模型。2013年是ZFNet,2014年是GoogLeNet(這是Google版的LeNet,)和VGGNet。總之,現(xiàn)在我們知道卷積神經(jīng)網(wǎng)絡(luò)有如下優(yōu)點(diǎn):

    簡(jiǎn)單:同一個(gè)操作在原始圖像上會(huì)被一遍一遍的重復(fù)數(shù)十次。

    快速:在幾十毫秒內(nèi)處理一個(gè)圖像。

    有效:他們的工作原理在某些方面和我們組的視覺皮層工作很類似。

    深入內(nèi)部

    那么,卷積神經(jīng)網(wǎng)絡(luò)模型到底是怎么做的呢?如果你看一下模型的細(xì)節(jié),你將會(huì)發(fā)現(xiàn)一種極為簡(jiǎn)潔的計(jì)算思想被重復(fù)了一遍又一遍。下面這張動(dòng)圖描述了一個(gè)小型卷積神經(jīng)網(wǎng)絡(luò)的整個(gè)計(jì)算過程:

    ConvNet推理過程的說明

    在最左邊是我們的輸入,原始的圖像像素,我們可以用一個(gè)3維矩陣來表示它。例如,一個(gè)分辨率為256x256的圖像可以用一個(gè)256x256x3的矩陣來表示(這里的3表示RGB三個(gè)顏色)。接下去,我們就開始做卷積,聽上去很神奇,但實(shí)際上就是我們用一個(gè)小型濾波器從圖像的一頭滑動(dòng)到另一頭,一行滑動(dòng)到另一行。不同的濾波器對(duì)圖像中不同的特征有不同的反應(yīng):有一些濾波器看到一個(gè)很小的水平邊緣就會(huì)很激動(dòng),還有一些會(huì)對(duì)紅色的區(qū)域很敏感,等等等等。

    假設(shè),我們有10種不同的濾波器,通過這種方式我們可以將原始(256,256,3)的圖像轉(zhuǎn)換成另一個(gè)(256,256,10)的“圖像”。在這個(gè)經(jīng)過變換后的“圖像”中,我們已經(jīng)將原始圖像中的信息舍去了,留下的是原始圖像每一個(gè)位置上對(duì)這10個(gè)濾波器的響應(yīng)。這就好像是我們將原始圖像的3個(gè)顏色通道(紅綠藍(lán))變成10個(gè)濾波響應(yīng)通道(在動(dòng)圖中,原始圖像的右側(cè)第一列就是經(jīng)過變換后的圖像)。

    上面解釋了原始圖像右側(cè)第一列是怎么來的,那么,后面這些列又是怎么出來的呢?很簡(jiǎn)單,繼續(xù)用濾波器對(duì)第一列的結(jié)果進(jìn)行濾波得到第二列,對(duì)第二列濾波得到第三列,以此類推。不同的列會(huì)使用不同的濾波器組合對(duì)上一列進(jìn)行操作,目的是漸進(jìn)地去發(fā)現(xiàn)越來越復(fù)雜的視覺模式,而最后一組濾波器則是用來計(jì)算圖片的視覺分類概率(是汪星人還是癩蛤蟆)。當(dāng)然,中間省略了一些細(xì)節(jié),只保留了基本思想:將卷積進(jìn)行到底。

    剛才介紹了卷積神經(jīng)網(wǎng)絡(luò)就是一個(gè)大型濾波器疊濾波器的集合。一個(gè)問題是,我們?cè)趺粗涝撚檬裁礃拥臑V波器組合才能達(dá)到目的呢?實(shí)際上我們并不知道——最開始的時(shí)候我們完全隨機(jī)地選擇濾波器,然后一遍遍地訓(xùn)練他們,讓他們變得更好。

    下面開始舉例,我們給一個(gè)采用隨機(jī)濾波器的卷積神經(jīng)網(wǎng)絡(luò)輸入一張圖片,最后它會(huì)告訴我們這個(gè)圖里有54%的可能含有狗。接著,我們可以告訴它,這實(shí)際是一只癩蛤蟆,通過一個(gè)數(shù)學(xué)過程,這個(gè)卷積神經(jīng)網(wǎng)絡(luò)會(huì)小幅度地去調(diào)整它使用的濾波器,目的是為了當(dāng)它下一次看到相同的圖是會(huì)告訴我們這張圖更可能有癩蛤蟆。我們要做的就是用數(shù)百萬的圖像重復(fù)這個(gè)過程數(shù)千萬次甚至數(shù)億次。下面就是見證奇跡的時(shí)刻,在卷積計(jì)算過程中所使用的不同濾波器會(huì)漸漸地調(diào)整自己去響應(yīng)圖像中重要的東西,例如眼睛,頭部,甚至整個(gè)身體等等。

    上圖是從一個(gè)經(jīng)過訓(xùn)練后的卷積神經(jīng)網(wǎng)絡(luò)中隨機(jī)選出12個(gè)濾波器,可以看看它們對(duì)圖像的什么部分響應(yīng)強(qiáng)烈。圖是從Matthew Zeiler的Visualizing and Understanding Convolutional Networks里借來的。這里展示的濾波器處于卷積的第三階段,看上去像是在尋找蜂窩狀的模式,或者是輪子/軀干/文字等等。再次強(qiáng)調(diào),這并不是我們特意設(shè)置的。一切都是模型自發(fā)形成的,我們只能來檢視。

    另一組非常優(yōu)秀的卷積神經(jīng)網(wǎng)絡(luò)可視化的例子可以從Jason Yosinki等人的Deepvis項(xiàng)目中找到。其中包含了一個(gè)非常有趣的演示,用你電腦上的攝像頭來實(shí)時(shí)地演示卷積神經(jīng)網(wǎng)絡(luò)的工作原理。

    深度可視化工具箱

    總結(jié)一下,卷積神經(jīng)網(wǎng)絡(luò)的整個(gè)訓(xùn)練過程就好像是給一個(gè)小孩看許多物體的圖像,然后小孩要從中逐漸發(fā)現(xiàn)該在圖像中看什么以及怎么把這些物體找到。假如你更喜歡技術(shù)一點(diǎn)說法,那卷積神經(jīng)網(wǎng)絡(luò)是一個(gè)從圖像像素到分類概率的函數(shù),濾波器是它的參數(shù),我們采用隨機(jī)梯度下降法來優(yōu)化一個(gè)分類損失函數(shù)。如果你對(duì)什么人工智能,大腦,奇點(diǎn)著迷,那可以把這個(gè)函數(shù)說成是一個(gè)“深度神經(jīng)網(wǎng)絡(luò)”,這些濾波器是神經(jīng)元,而整個(gè)卷積神經(jīng)網(wǎng)絡(luò)就是一種自適應(yīng)的模擬視覺皮層組織。

    訓(xùn)練 ConvNet

    卷積神經(jīng)網(wǎng)絡(luò)的一個(gè)優(yōu)點(diǎn)就是你可以輸入任何圖像,只要你喜歡(帶上一些標(biāo)簽),然后它們就開始學(xué)習(xí)如何識(shí)別這些標(biāo)簽了。在這個(gè)例子里,我們將一些好的自拍和差的自拍作為卷積神經(jīng)網(wǎng)絡(luò)的輸入,接著它將神奇的發(fā)現(xiàn)如何區(qū)分一張自拍照是好的還是差的。讓我們先搞點(diǎn)自拍圖:

    • 我寫了一個(gè)小腳本來抓取帶有#selfie標(biāo)簽的圖片。最后我抓了大概500萬張圖片(在卷積神經(jīng)網(wǎng)絡(luò)中,圖片總是多多益善)。

    • 我用另一個(gè)卷積神經(jīng)網(wǎng)絡(luò)將這500萬張圖中不帶人臉的圖片扔了,最后還剩下200萬張圖片。

    • 接下去就是去挑選哪些自拍是好的,哪些自拍是差的。直觀上講,我們需要去計(jì)算一張自拍有多少人看過,然后將點(diǎn)贊的人數(shù)和粉絲群體的大小用一個(gè)函數(shù)關(guān)聯(lián)起來。首先,我拿了所有的自拍用戶,并將他們按照粉絲的數(shù)量進(jìn)行排序,排序時(shí),我會(huì)給圖片上每一個(gè)額外的標(biāo)簽加一些些分,因?yàn)轭~外的標(biāo)簽也許能吸引更多的目光。

      接下來,我將這些排好序用戶以100為大小分組,根據(jù)點(diǎn)贊的數(shù)量對(duì)這100張自拍圖進(jìn)行排序。這里我只選用了已經(jīng)在網(wǎng)上掛了超過一個(gè)月的圖,目的是得到一個(gè)比較穩(wěn)定的點(diǎn)贊數(shù)。我將排在前面的50張自拍作為好的自拍,排在后50張的自拍作為差的自拍。最終,我們將整個(gè)200萬張圖一分為二,一半是好的自拍一半是差的自拍,然后我們又對(duì)可能看過所有自拍的人數(shù)做了一次歸一化處理。我還將那些粉絲數(shù)量太少或者太多的用戶過濾掉了,還有一些圖片上有太多標(biāo)簽的也被過濾了。

    • 用上面這個(gè)100萬好自拍,100萬差自拍的數(shù)據(jù)集來訓(xùn)練一個(gè)卷積神經(jīng)網(wǎng)絡(luò)。

    到這里,你可能會(huì)反對(duì)我判斷一張自拍是好是差的方法——比如說,有人上傳了一張非常棒的自拍,但是上傳時(shí)間是半夜,因此可能不會(huì)有很多人看到它,那它得到的點(diǎn)贊也就少了,這時(shí)候該怎么辦?你說的對(duì)——我的這種分類方法肯定有問題,不過沒關(guān)系,只要這100萬張好自拍中真正好的自拍更多就行了,卷積神經(jīng)網(wǎng)絡(luò)可以處理這種事情。它不會(huì)因此而迷惑或者氣餒,它只是盡自己的全力去解讀這些輸入。為了讓大家對(duì)區(qū)分好差自拍這個(gè)問題的難度有一個(gè)感性認(rèn)識(shí),我把一些訓(xùn)練用的圖像貼在下面。假如我給你任意一張圖,你能很準(zhǔn)確的回答它是好自拍還是差自拍嗎?

    在我們的訓(xùn)練數(shù)據(jù)中顯示好和壞自拍的示例圖像。 這些將作為數(shù)據(jù)提供給ConvNe

    簡(jiǎn)單介紹一些實(shí)現(xiàn)細(xì)節(jié),我用了Caffe來訓(xùn)練這個(gè)卷積神經(jīng)網(wǎng)絡(luò)。我用了一個(gè)在ImageNet預(yù)訓(xùn)練過的VGGNet,并針對(duì)這次的自拍數(shù)據(jù)集精調(diào)了參數(shù)。我用一塊英偉達(dá)K40GPU花了一個(gè)通宵來訓(xùn)練這個(gè)模型。我禁用了模型中的 dropout選項(xiàng),因?yàn)槲野l(fā)現(xiàn)禁用的結(jié)果更好一些。我還試著用一個(gè)在人臉數(shù)據(jù)集上預(yù)訓(xùn)練的VGGNet,不過結(jié)果并不比ImageNet預(yù)訓(xùn)練的好。最終,模型在測(cè)試集上達(dá)到了60%的準(zhǔn)確率 (比隨機(jī)猜50%的準(zhǔn)確率好一些)。

    怎么拍出好自拍?

    剛才說道,我們收集了200萬的自拍圖,又根據(jù)它們接受到的點(diǎn)贊數(shù)(對(duì)粉絲數(shù)量做了控制)將他們分成了好的自拍和差的自拍,然后將它們?nèi)舆M(jìn)Caffe來訓(xùn)練一個(gè)卷積神經(jīng)網(wǎng)絡(luò)。這個(gè)卷積神經(jīng)網(wǎng)絡(luò)將每一張自拍都了“看”數(shù)十次,以此來調(diào)整它使用的濾波器,為了找到一種最佳的方式來區(qū)分好自拍和差自拍。我們沒辦法去確切地檢查它找出來的東西(這些濾波器的參數(shù)總共有1億4千萬個(gè))。不過呢,我可以用它沒見過的自拍圖問它是好是差,進(jìn)而去理解它是通過什么來判斷一張自拍的好與差的。

    我用了5萬張自拍圖作為我的測(cè)試數(shù)據(jù)(這些自拍圖是這個(gè)卷積神經(jīng)網(wǎng)絡(luò)沒見過的)。作為第一個(gè)可視化結(jié)果,下面這張圖里我將這些自拍圖按照從好到差的順序排列出來,最好的自拍在最上面一排,最差的自拍在最下面一排:

    從最佳(頂部)到最差(底部)自拍的連續(xù)體,由ConvNet判斷。

    挺有趣的,是吧?下面讓我們看看這個(gè)卷積神經(jīng)網(wǎng)絡(luò)認(rèn)為的最好的100張自拍圖(從5萬張圖的測(cè)試集中選出)是什么樣子的:

    最好的100張自拍照,由卷積神經(jīng)網(wǎng)絡(luò)判斷

    要拍出一張好自拍,有如下要點(diǎn):

    1.首先你得是個(gè)女人. 女性的自拍一致地比男的自拍要好。特別是在前100張好自拍中,無一例外全是女性。

    2.其次你的臉得占整個(gè)自拍的三分之一。注意到?jīng)]有,在排名靠前的自拍圖中,臉的位置和姿態(tài)出奇的一致。臉總是占據(jù)了整個(gè)圖片的1/3,臉要微微側(cè)過來一些,位置要在圖片的中上方。

    3.將你的額頭截掉。至少對(duì)于女性來說它看起來像一個(gè)非常流行的策略。

    4.展示你的長發(fā),披肩長發(fā)能給你的自拍加分不少。

    5.臉部要過飽和。光線過飽和在好自拍中經(jīng)常出現(xiàn), 這能讓臉部看來更加光滑白皙。

    6.要使用濾鏡。黑白照看起來能加分, 大部分排名靠前的自拍看起來都用了某種濾鏡是的整個(gè)圖片帶有淡出效果并能降低對(duì)比度。

    7.加上邊框。好自拍通常都會(huì)加上水平或者垂直的白邊。

    有趣的是,這里的有些原則在男性身上就行不通了。我從前2000張自拍中找出了所有男性自拍,如下圖:

    從2000自拍中選出來的幾個(gè)最好的男性自拍

    很明顯,額頭截?cái)嗟那闆r沒有出現(xiàn)。相反,大部分自拍都會(huì)用稍廣的角度將整個(gè)腦袋都拍進(jìn)去,還要露出肩膀。還有,大多數(shù)的男性頭發(fā)稍長,發(fā)型浮夸,還精心把頭發(fā)往上梳。不過,臉部過飽和這個(gè)特點(diǎn)還是能夠看得出來。

    看過了好自拍,讓我們?cè)賮砜纯磯淖耘氖巧稑拥摹_@次,我把圖片縮的很小讓大家看不出來是誰,因?yàn)槲业哪康氖亲尨蠹野l(fā)現(xiàn)降低自拍質(zhì)量的普遍模式是什么,而不是讓大家看看拍了差自拍的都有誰。下圖是卷積神經(jīng)網(wǎng)絡(luò)認(rèn)為比較差的自拍,很顯然,它們的點(diǎn)贊數(shù)一定很低:

    由卷積神經(jīng)網(wǎng)絡(luò)判斷出的最糟糕的300萬自拍

    即便在這么低的分辨率下,我們還是能看出一些道道的。自拍時(shí)千萬不要:

    1.在弱光環(huán)境下自拍。非常明顯, 那些很暗的照片 (通常也帶有大量噪點(diǎn)) 肯定會(huì)被卷積神經(jīng)網(wǎng)絡(luò)打一個(gè)很低的分?jǐn)?shù)。

    2.把你的腦袋放太大。 這一條大概是因?yàn)闆]人愿意湊這么近看你的臉。

    3.拍合照。和小伙伴們一起自拍是很有趣,不過這會(huì)讓你的自拍減分。構(gòu)圖要簡(jiǎn)潔,你一個(gè)人出鏡就夠了,但也別占據(jù)鏡頭太多。

    4.最后,區(qū)分一張自拍的好與差,很大程度上是看圖片的風(fēng)格,而不是看本人長得好不好。還有一點(diǎn)讓我感到欣慰的是,那些露肉很多的自拍并不能讓它們的得分變高。最開始的時(shí)候,我還擔(dān)心這個(gè)屌炸天的卷積神經(jīng)網(wǎng)絡(luò)會(huì)變成一個(gè)露肉分辨器。看來是我想多了。

    那么作為明星們的自拍又是如何呢?作為最后一個(gè)有意思的實(shí)驗(yàn), 我試著讓這個(gè)卷積神經(jīng)網(wǎng)絡(luò)給一些明星的自拍打個(gè)分。下圖中,得分從上到下,從左至右依次減少:

    卷積神經(jīng)網(wǎng)絡(luò)為名人自拍做出的判斷。最有吸引力的自拍:左上方

    神奇的是,我們之前總結(jié)出來的一條經(jīng)驗(yàn)規(guī)律(不要拍合照)在這次實(shí)驗(yàn)中不再有效了,像是艾倫·狄珍妮的知名合照,還有一些奧斯卡頒獎(jiǎng)時(shí)候的合照得分都很高,排在了第二排。棒!

    另一條經(jīng)驗(yàn)規(guī)律(男的自拍都不行)被克里斯·帕拉特的裸上身自拍(也排在第二排)妥妥地打破了,還有一些男明星的自拍得分也很高,像是丁日的挑眉照,扣扣熊和肥倫的合照(排在第三排)。然而詹姆斯·弗蘭科那近乎限制級(jí)的自拍(排在第四排)卻并沒有讓我們的卷積神經(jīng)網(wǎng)絡(luò)留下很好的印象。

    最后強(qiáng)調(diào)一點(diǎn),圖片的風(fēng)格很重要。有幾個(gè)長得絕對(duì)好看的人依舊排在了榜單的末尾,就是因?yàn)闃?gòu)圖不行,或者是光線不行等等。

    探索自拍空間

    我們還嘗試了另一種有趣的可視化方法t-SNE,來展示這些自拍圖。t-SNE是一種非常美妙的算法,由于它非常通用而且高效,我喜歡在幾乎所有數(shù)據(jù)上先試試用這個(gè)來一次。它需要輸入一些東西(這個(gè)例子里就是圖片),然后將他們按照相似相鄰的原則排列。

    事實(shí)上,用t-SNE可以排列很多東西,像是Netflix的電影,單詞,Twitter的個(gè)人資料,ImageNet的圖片,任何東西只要量足夠而且可比較就行。在這里,我們將自拍圖按照卷積神經(jīng)網(wǎng)絡(luò)認(rèn)為的相似程度來排列。用專業(yè)術(shù)語來說,我們采用了最后一個(gè)全連接層中的fc7激活的L2范數(shù)來確定每張圖的得分進(jìn)而比較其相似程度。下面是可視化結(jié)果:

    自拍 t-SNE可視化

    從而大家可以看出自拍圖以一種有趣的方式聚成了組:比如說,左上方是自拍合照,中左方是戴太陽鏡/眼鏡的自拍,左下是大頭照,右上有不少是對(duì)著鏡子來的全身照。我覺得這種現(xiàn)象還挺有趣的。

    如何對(duì)自拍圖做最優(yōu)剪裁?

    我們還做了另一個(gè)有趣的實(shí)驗(yàn),用卷積神經(jīng)網(wǎng)絡(luò)自動(dòng)找出一張自拍圖的最優(yōu)裁剪。我們先拍一張照片,隨機(jī)對(duì)其進(jìn)行許多種可能的裁剪,然后把卷積神經(jīng)網(wǎng)絡(luò)認(rèn)為最好的一張選出來。下面是4組實(shí)驗(yàn)結(jié)果,左側(cè)是原圖,右側(cè)是最好的裁剪圖:

    四個(gè)對(duì)中的每一對(duì)顯示原始圖像(左)和ConvNet選擇為最佳(右)的圖像

    注意到?jīng)]有,卷積神經(jīng)網(wǎng)絡(luò)還是喜歡那種頭占據(jù)圖片1/3大小,額頭被切掉一部分的自拍。有趣的是,在右下這組實(shí)驗(yàn)中,卷積神經(jīng)網(wǎng)絡(luò)覺得沒有人的圖反而好,完全不對(duì)勁了有沒有。下面還有一些類似的例子,卷積神經(jīng)網(wǎng)絡(luò)做出了不講道理的選擇:

    原圖在左,裁剪圖在右

    在一些行家提問之前,我先回答了:是的,我試過在原始圖像之后,卷積神經(jīng)網(wǎng)絡(luò)之前插入一層空域變換層。我希望能得到了一個(gè)用6個(gè)參數(shù)表達(dá)任意裁剪的模型。不幸的是,這種方法不可行——優(yōu)化有時(shí)候會(huì)卡住,或者任意偏向一個(gè)位置。我還嘗試過對(duì)變換加一些約束,只做放縮和平移,可惜還是沒用。幸運(yùn)的是,如果這變換有三個(gè)有界的參數(shù),那我們還是可以承受得起全局搜索最優(yōu)解的。

    你的自拍能打幾分?

    是不是想看看你的自拍能得幾分?我們已經(jīng)將這個(gè)網(wǎng)絡(luò)做成了一個(gè)Twitter機(jī)器人,方便大家來自測(cè)。(這個(gè)機(jī)器人大概只有150行的Python代碼,還包括了所有用到的Caffe/Tweepy代碼)。將你的圖片(或者鏈接)放在推文中,在推文的任意位置加上@deepselfie。

    機(jī)器人會(huì)看下你的照片給出一個(gè)打分!為了得到最佳結(jié)果,自拍圖最好是正方形的,否則機(jī)器人會(huì)先將它壓成正方形,這會(huì)讓最終的得分變低。機(jī)器人會(huì)在一分鐘內(nèi)回復(fù)你,如果沒出問題的話(出問題的時(shí)候,等一會(huì)兒再試一次)。

    雷鋒網(wǎng)原創(chuàng)文章,網(wǎng)頁轉(zhuǎn)載請(qǐng)注明來自雷鋒網(wǎng),署名作者和原文鏈接。微信轉(zhuǎn)載授權(quán),請(qǐng)聯(lián)系雷鋒網(wǎng)公眾號(hào),詳情見轉(zhuǎn)載須知。

網(wǎng)站首頁   |    關(guān)于我們   |    公司新聞   |    產(chǎn)品方案   |    用戶案例   |    售后服務(wù)   |    合作伙伴   |    人才招聘   |   

友情鏈接: 餐飲加盟

地址:北京市海淀區(qū)    電話:010-     郵箱:@126.com

備案號(hào):冀ICP備2024067069號(hào)-3 北京科技有限公司版權(quán)所有