如果這類AI軟件進一步發(fā)展到可以隨時控制正常人的大腦,就違背和超越了人工智能的一個極大的倫理原則,即AI不應用來收集或使用信息,以監(jiān)視
如果這類AI軟件進一步發(fā)展到可以隨時控制正常人的大腦,就違背和超越了人工智能的一個極大的倫理原則,即AI不應用來收集或使用信息,以監(jiān)視人和控制人。
5月2日,美國麻省理工學院的三位科學家在《科學》(Science)發(fā)表文章稱,他們首次用AI軟件大腦視覺神經(jīng)網(wǎng)絡模型,實現(xiàn)了控制動物(猴子)大腦的神經(jīng)元活動。這是使用人工神經(jīng)網(wǎng)絡來理解真實神經(jīng)網(wǎng)絡的一大突破。
控制大腦的思維好像天方夜譚,但是不斷有研究人員嘗試突破。
對人腦進行控制,較早的研究是腦機接口,而現(xiàn)在,新的控制大腦的方式出爐了,是用深度學習的方式讓AI模擬人工神經(jīng)網(wǎng)格(ANN)掌握對圖像的識別,然后通過操控人工神經(jīng)網(wǎng)絡,達到對大腦的控制。
具體而言,即研究人員建立一個基于人工神經(jīng)網(wǎng)絡的視覺系統(tǒng)模型,每個網(wǎng)絡都以一個由模型神經(jīng)元或節(jié)點(類似于真實神經(jīng)系統(tǒng)中的突觸)組成的任意架構開始,這些神經(jīng)元或節(jié)點可以以不同的強度(權重)相互連接。然后,用一個包含超過100萬張圖像的圖庫來訓練這些模型。當研究人員向模型展示每張圖像,以及圖像中最突出的物體(比如飛機或椅子)的標簽時,模型通過改變連接的強度來學習識別物體。
隨后把這些圖像呈現(xiàn)給猴子來測試AI模型控制猴子神經(jīng)元的情況,結果表明,AI模型可以強烈激活所選定的大腦神經(jīng)元,甚至可以精確控制單個神經(jīng)元和位于網(wǎng)絡中間的神經(jīng)元群。因此,未來可能只要能操控視覺神經(jīng)網(wǎng)絡模型AI,就可以控制大腦。
由于人和非人靈長類動物的解剖和生理都相似,這一研究結果似乎也可以推論到人,也就是未來如果采用某種AI模型,就可以控制人的大腦。
但這種控制顯然是初步的和局部的。實際上,準確地說,這種情況并非控制大腦,而是吸引猴子或人的大腦更多關注某一物體和事物。
現(xiàn)在已知人腦中大約有1000億個神經(jīng)元(神經(jīng)細胞),每個神經(jīng)元又通過突觸(神經(jīng)元與神經(jīng)元之間的接頭)與多個神經(jīng)元聯(lián)系,是通過神經(jīng)元上的稱為軸突和樹突的分支來建立聯(lián)系的。
但是,這些聯(lián)系是如何形成并且有多少種聯(lián)系方式,迄今人們知道的并不多。
但即便解決了所有的問題,也明確了用圖像控制大腦不同部位的神經(jīng)元(激活并傳導到特定的神經(jīng)網(wǎng)絡),未必就能真的實現(xiàn)控制大腦,因為這涉及太多的倫理問題。
在治療疾病上,此舉倫理上的爭議或許相對較小——畢竟只是為了治療疾病,而且保證不會對病人造成傷害,也不會在治愈后還持續(xù)不斷地控制病人的大腦,大概是可以通過倫理委員會的批準。
但對于正常人而言,通過這樣的AI軟件來控制大腦就有比較大的倫理問題。
即便是應用于提高記憶力和增強學習能力,都有可能造成不對等競爭的后果,也會產(chǎn)生不公正。
更重要的是,如果這類AI軟件進一步發(fā)展到可以隨時控制正常人的大腦,就違背和超越了人工智能的一個極大的倫理原則,即AI不應用來收集或使用信息,以監(jiān)視人和控制人。
因此,AI大腦視覺神經(jīng)網(wǎng)絡模型最大的用處,應當是用來診治疾病及研究生命現(xiàn)象和機理,當然這應是在技術成熟并有了規(guī)范而具體的倫理原則之后。(作者 張?zhí)锟?