普羅米修斯乍看之下是科幻片,但我卻覺得他是在探討人類的情感。
而且,還是藉由機器人的角度來探討。

影片在切入普羅米修斯以後,就是從機器人大衛的角度切入,
看著他每天帶著籃球行走運動,學習古代語言,看電影「阿拉伯的勞倫斯」,銘記喜愛的台詞。

看起來與一般人無異,甚至更加優秀。

優秀不是因為他每投球必進,不是因為他能夠吸收古代語言的知識。
是因為在一個密閉空間獨自待了兩年,他還能夠正常運作。

影片中之所以人類都進入沈睡艙,就是因為沒有人類可以忍受在同一個空間無所事事的渡過兩年。
即使可以運動,即使可以看電影,即使充滿休閒娛樂的環境。
也沒有人可以忍受日復一日這樣的生活形態。

人類在太空狀態下是很可能發瘋的,這也就是太空人要接受眾多訓練的原因之一。
但因為大衛是機器人,所以可以忍受,所以可以把他丟在太空船中兩年獨自運作。

在看電影之前,我就已經看了有關大衛的前導影片
他是被設計成「富有情感」的機器人。


這一點在科幻設定裡面很有趣,
根本沒有人能夠知道,當有那麼一天,人類有能力製作出高智慧互動機器人時,能不能同時賦予機器人所謂的「情感」思考。
當人類製作出高智慧機器人,讓他看起來像人,說話像人,社交行為像人,思考也像人的時候,
要如何才能百分百的確定機器人無法擁有「情感」?

畢竟人類自己對於情感的反應,也有部份是經驗累積的堆疊,這跟機器人經由程式和經驗累積的反應有部份相同之處。

舉例來說:失去。

失去一個重視的事物,人類會有難過的反應。
女主角在失去愛人之後,痛澈心扉。
但她小時候就失去母親了,也有痛撤心扉嗎?沒有。

人類可以很輕易的理解,小時候的女主角並非不難過,只是涉世未深,情感反應的程度也不深。
當經歷過濃烈的愛情以後再度失去,就和小時候失去母親的感覺不同了。

在機器人的邏輯裡,這就是從1到100的程度累積。

如果人類情感的反應程度,有時候跟生活經驗的累積有著關連。
那麼具有學習功能的高智慧機器人就無法從體驗過的生活經驗裡,累積出類似「情感」的元素嗎?

首先來看大衛本身的角色設定是:
高度智慧,可理解人類情感,但無法自己產生情感。
 
「高度智慧」這點毋庸置疑。
「可理解人類情感」這點在影片中,大衛自己也不時說出:「我懂,我理解。」
接著他就會說:「但我無法產生這種感覺(比如失望)」

我覺得這是個很有趣的矛盾點。
他真的有辦法在理解以後,卻無法產生相同的情感嗎?
他是機器人,是個無機體,但他的程式都是人類寫的。
尤其是由一個深富慾望的人寫的,並且一手調教。

慾望,本身就是人類情感中十分複雜且濃厚的元素。
大衛長期在老人手下「工作」,有可能不被影響嗎?

對於大衛而言,他所反應出的不是自己的情感,
而都是周遭人類行為反映出來的情感,大衛在影片中,其實是每個人各個角度的鏡子。

比如大衛說自己有喜歡的電影「阿拉伯的勞倫斯」,喜歡到會引用台詞,
乍看之下很像人類的行為。
其實都是因為慾望老人的喜歡,影響大衛也不斷重複接觸這部電影。
   
後來大衛在對話中提出隱喻,每個孩子應該都「希望」自己的父母死掉吧?
這句話的邏輯,其實出自莎莉賽隆飾演的維克斯。
維克斯面對老不死的「父親」所給的壓力。「父親」若沒有逝去,她就沒有辦法真正的繼承公司。
因此維克斯「希望」君臨天下的王者可以逝去。
大衛也反映出這種「希望」,並且覺得自己和維克斯一樣,可能會得到「自由」。 

很多人類在影片中其實對於大衛並不友善。
就連創造出大衛的老人都說:「他像我兒子一樣,但他永遠都不是我兒子,因為他不是人類。」
大衛在聽到前面的話語時,挺胸微笑。
(那種彷彿得意的神情也是程式的運算嗎?)
後面那句話出現時,大衛沒有收回笑容,只是靜止。  

此後多的是有人出言譏諷大衛。
 
大衛卻也諷刺的回應:「我被設計成像人類,是因為你們跟同類互動比較自在。」

這句話完全賞了人類一巴掌。
 
而且我們無從反駁,因為看看現在的社會,我們對於非同類往往十分殘暴。
正如同影片中人類的創造者一樣,對於不是同類的物種就直接下重手。
  
我們飼養並屠殺其他物種來吃,我們剝了其他物種的皮毛穿在自己身上,
我們任意的殘殺其他物種只因為有趣。

我們對待非同類的態度,並不和平。

大衛接著說:「但我希望不要被設計的這麼像人類。」
嗯哼,像一個這麼殘暴的物種確實不是好事。
在前導影片中,大衛的程式設計其實是和平的,他不喜歡多餘的暴力。
但設計他的創造者卻是非常的殘暴,自私,且無情。

就跟影片中創造人類的物種一樣。
有其父必有其子。

所以當人類和機器人喚醒創造者,而溝通失敗以後。
我一點也不訝異。


另外,關於道德點。
大衛並沒有所謂的道德觀念,而這點,也讓我覺得很有趣。 

在科幻大師艾西莫夫(電影「機械公敵」的原創作者)所提出的理論:

機器人三大法則,凡是機器人必得遵守。
第一法則:機器人不得傷害人類,或袖手旁觀坐視人類受到傷害;  
第二法則:除非違背第一法則,機器人必須服從人類的命令;  
第三法則:在不違背第一及第二法則下,機器人必須保護自己。

在艾西莫夫筆下,違反以上原則的機器人會直接從內部程式銷毀,無可挽救。
很明顯的,大衛不用服從這三大法則。
最基本的原因應該是因為,大衛不是艾西莫夫筆下的角色。

這讓大衛變得更像人類,因為連人類都做不到三大法則。
人類跟同類互動比較自在,但並不代表就不會傷害同類。
不用遵守三大法則的大衛,當然更沒有執行事情上的道德疑慮。

所以他可以把外星黑水放在博士的杯子裡。
他可以眼睜睜看著人類懷下外星胚胎。
從頭到尾無動於。
 
機器人的高度智慧來自於可以客觀的計算各種邏輯,從而產生反應,
電子邏輯其實很簡單,不是0就是1,無論是多高級或者多低階的機器都遵從這個邏輯。

只是在更高科技的世界裡,當機器人遇到邏輯缺陷時,他們並不能卡住,
因為在機器人的邏輯裡,如果某件事情不是0,它就必須是1。
而如果這件事情確認不是0,但也不是1時,就必須讓它成為0或1。
 
大衛是機器人,依照程式進行推算,他盡力達成(程式=1:讓老人活著)的需求和找尋解決方式。
當(程式=0:老人掛了)的時候,他沒有任何難過的表現,而是立刻尋求下一個(程式=1)的狀況:解救自己

所以他才會擔心伊利莎白死於外星人手裡,因為如果伊利莎白死了,那他就無法進行(程式=1)的步驟。

聽起來是不是很自私?很像人類?
尤其是很像人類的慾望。
 
這點令我讚賞。

沒有完美的邏輯程式,就沒有完美的機器人。
大衛,跟人類一樣。

arrow
arrow
    全站熱搜

    魔卡貓 Mochacat 發表在 痞客邦 留言(1) 人氣()