人工智能的世界,不應(yīng)該充斥著炒作和欺騙
前兩年,一款叫Sophia的女性機器人火遍了全球,曝光率甚至超過了好萊塢明星,她也是世界上第一個也是目前唯一一個被授予公民身份的AI。如今,這個當(dāng)紅的明星AI從今年年初開始,受到了越來越多的質(zhì)疑。甚至連深度學(xué)習(xí)大佬Yann LeCun都在Twitter上公開指責(zé)Sophia是徹頭徹尾的騙子,吸引了眾多人的關(guān)注。那么,究竟什么才是真正的人工智能呢?它到底有什么樣的發(fā)展呢?
機器人Sophia,騙局還是奇跡?
當(dāng)機器人Sophia第一次出現(xiàn)在世人眼前的時候,全世界都沸騰了,也對它充滿了好奇。這個機器人的“性格”活潑,比如,它可以調(diào)侃深夜節(jié)目的主持人,甚至在表達時還可以像我們一樣做出生動的面部表情。可以說,Sophia就好像一個直接從科幻小說中走出來的機器人,當(dāng)然,它也成為了目前我們所見過的最接近人工智能的東西。
Sophia的出現(xiàn),毫無疑問,是一個令人印象深刻的工程。為了讓她能向人們學(xué)習(xí),并作出情緒反應(yīng),其締造者漢森機器人(Hanson Robotics)以及SingularityNET為Sophia配備了先進的神經(jīng)網(wǎng)絡(luò),讓她成為了一個有個性的機器人。在這種情況下,Sophia也輕易作為“人類”被人們接受,比如在有關(guān)Sophia的文章中,大多數(shù)作者都使用了代詞“她”來進行描述。
隨著Sophia越來越受歡迎,人們的眼光越來越高,二者之間的信任出現(xiàn)了裂痕。更重要的是,隨著時間的推移,越來越多的人認為Sophia之所以總能“語出驚人”是因為它們在一定程度上是預(yù)先編寫好的。
漢森機器人的首席科學(xué)家Ben Goertzel曾表示,他對Sophia的能力并不抱任何幻想,“Sophia和其他漢森機器人并不像計算機科學(xué)研究系統(tǒng)那樣'純粹',因為它們以復(fù)雜的方式將許多不同部分和方面結(jié)合在了一起。換句話說,它們并不是單純的學(xué)習(xí)系統(tǒng),但確實涉及到了不同層次的學(xué)習(xí),舉個例子,在神經(jīng)網(wǎng)絡(luò)視覺系統(tǒng)中學(xué)習(xí),在OpenCog對話系統(tǒng)中學(xué)習(xí)等。
但有趣的是,Sophia的出現(xiàn)激發(fā)了公眾很多不同的反應(yīng)。事實上,公眾對Sophia各個方面的看法,包括她的智慧、她的外表、她的可愛都是多種多樣的,這很值得思考。與此同時,人們對Sophia機器人的能力產(chǎn)生懷疑的時候,意外的也對漢森機器人以及SingularityNET增加了炒作的熱度。反過來,這兩家公司反復(fù)上演的宣傳噱頭又一次強化了這種炒作。
真正的人工智能,其實還很遠
像Sophia這樣高度宣傳的項目讓我們相信真正的(類人的)人工智能甚至可以是有意識的。但實際上,我們距離這個目標(biāo)還有很長的路要走,因為人工智能研究的真實狀態(tài)遠落后于我們所相信的技術(shù)神話。如果我們現(xiàn)在不能以客觀的立場對待AI,那我們在這條研究的路上就不會有進步,只會永遠停留在這里。
然而,我們遇到的第一個棘手問題,就是對人工智能進行真正的定義。鑒于人工智能不斷被新的發(fā)展和變化所重塑,或許有時最好的描述方式便是解釋它不是什么。對此,數(shù)據(jù)科學(xué)家Emad Mousavi曾表示,“人們普遍認為人工智能是一個非常聰明并且什么都知道的機器人,它可以做人類所能做的任何事情?!钡@并不是專家所認為的人工智能的真正定義,一般而言,AI指的是可以完成各種分析并使用一些預(yù)定于的標(biāo)準作出決策的計算機程序。
整體而言,現(xiàn)在的人工智能還不具備自由意志,當(dāng)然也是沒有意識的。至于市場上最先進的人工智能系統(tǒng),也只是遵循人類定義的流程的產(chǎn)品,不能自己做出決定。而人們面對先進的或被過度炒作的這項技術(shù)時,往往會做出兩種假設(shè)。
比如,在包括深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)的機器學(xué)習(xí)中,人們提出了一系列訓(xùn)練數(shù)據(jù)的算法,該算法對任何需要它完成的任務(wù)案例展開學(xué)習(xí),并由人類進行標(biāo)記,直到它可以自己完成任務(wù)。對于面部識別軟件來說,這意味著需要將數(shù)千張面部照片或視頻送入系統(tǒng),直到系統(tǒng)可以從未標(biāo)記的樣本中準確的檢測到人臉。
機器學(xué)習(xí),其實很愚蠢
Facebook科學(xué)家Mikolov對此解釋道,如果訓(xùn)練一個算法,讓它把兩數(shù)相加,它只會從表格中查找或復(fù)制正確的答案,卻無法從訓(xùn)練中總結(jié)出對數(shù)學(xué)運算更好的理解。比如,在學(xué)會5+2=7后,人們很容易反過來思考7-2=5。但是機器無法做到這一點,也就是說要讓他學(xué)會減法,就需要重新對其進行訓(xùn)練。
人工智能本來就是要經(jīng)過訓(xùn)練的一個系統(tǒng),可以添加訓(xùn)練素材,卻不能理解所添加內(nèi)容的真正含義。而通常情況下,從零開始學(xué)習(xí)要比嘗試開始新的訓(xùn)練模型更容易建立。當(dāng)然,這些缺陷對AI社區(qū)的成員來說并不是秘密。但這些機器學(xué)習(xí)系統(tǒng)還是經(jīng)常被吹捧為人工智能的最前沿。事實上,它們還是非常愚蠢。
以圖像字幕算法為例。幾年前,其中一個算法得到了一些廣泛的報道,因為它似乎產(chǎn)生了復(fù)雜的語言。當(dāng)時,該系統(tǒng)的能力讓每個人都感到驚訝,但不久后,人們就發(fā)現(xiàn),90%的字幕都可以在訓(xùn)練數(shù)據(jù)中找到。所以,這些結(jié)果實際上并不是機器產(chǎn)生的,機器只是復(fù)制了它所“看”到的,即人類提供的帶有注釋的圖像。人們一直相信機器人式幽默的存在,卻不知道這只是計算機在進行復(fù)制粘貼。
拒絕夸大宣傳,理性對待AI
那么偏離了航線的AI究竟要去往何方呢?目前的問題在于,我們現(xiàn)在的系統(tǒng)能力十分有限,但在市場上經(jīng)過大肆宣傳后,公眾普遍相信我們已經(jīng)擁有那項根本不知道如何去創(chuàng)建的技術(shù)了。
一些研究人員自己也會對研究結(jié)果添油加醋。然后那些沒有太多技術(shù)專長,也不關(guān)心研究背后原理的記者就成了“幫兇”,配合這些研究員進行炒作式宣傳。至于其他配角演員,就是那些創(chuàng)造了AI算法的人。
為什么研究員也要進行這種不誠實的炒作呢?這很重要,因為人們對人工智能研究的看法將取決于他們是否會對其進行投資。但這種毫無根據(jù)的炒作可能會阻礙該領(lǐng)域取得真正的進展,畢竟人工智能的金融投資與該領(lǐng)域的興趣水平密不可分。
當(dāng)然,對算法的炒作有助于研究員推廣他們的研究成果并得到資助,而媒體也可以吸引觀眾到自己的平臺,但這對公眾來說是不公平的,因為這種惡性循環(huán)使得人們都不知道人工智能究竟能做些什么。換句話說,如果我們希望這些項目蓬勃發(fā)展,如果我們想要采取切實的方法來實現(xiàn)人工智能,那么該領(lǐng)域就需要更加透明地了解它的作用以及它的重要性!
想要真正的實現(xiàn)人工智能的發(fā)展,加強深度學(xué)習(xí)訓(xùn)練是必不可少的。這時候就需要一臺性能強悍的GPU服務(wù)器。云軒i7六核/RTX2080Ti深度學(xué)習(xí)主機熱賣中,更多硬件解決方案,請關(guān)注京東云軒DIY整機直營店。