我一直很不喜歡自己說出馬後炮的語言,更不喜歡自己嘴裡吐出的語言盡是酸腐味,所以我讓自己沉澱了好多天。我不能保證,以後自己不會再在碎念文中大吐怨氣,但是至少我會努力讓自己在文章中,盡可能不要酸味橫益。
原本不想寫新科技發展了,我說過自己不喜歡馬後炮,所以通常都是提早寫;可是提早寫新議題有個壞處,因為常寫太前面,所以寫完經常性的讓很多人無法理解,我的粉頁按讚數已經少得可憐,每次寫了什麼新東西,又一堆人誤解退讚;直到後來越來越多證據和事實證實我的說法正確後,當初罵我退讚的,也沒有回來過…。退讚我也不會怪你,我非常尊重我的讀者,尊重到,我甚至不會去主動邀讚。有緣,我會很珍惜;無緣,我祝你心想事成。
我認為,在現在這些新科技領域中,未來五~七年的經濟危機,會出現在AI、機器人、第三方支付系統,尤其以AI產業風險最大,它可能是下一波的泡沫;而第三方支付系統則會引發許多的抗爭,甚至國際上的隔閡;網路系統的自由化和集中化之爭,則是另一波很嚴重的知識危機。
範圍大到我不知道該怎麼下筆。先說AI產業好了。
在七月底的時候,臉書的查克柏格和特斯拉的埃隆馬斯克掀起一場AI之爭,很多人不知道他們在吵什麼,更多人紛紛從自己的專業去選邊站,這場爭議到現在還再延燒。
說穿了,他們倆派的爭議,爭的就是「AI的角色定位問題」;因為現在的AI發展,一直往『用AI取代人類』的角度發展中,所以特斯拉的馬斯克看到AI取代人類的可怕,臉書的查克柏格卻看到AI取代人類的便利。
「用AI取代人類」的AI研發,這是一種符合電子運算邏輯的必然研發過程,因為AI所運算出來的結果,必須是人類能聽懂看懂的,而且要讓人類願意並喜愛去使用AI做繁複的計算,要達到讓人類喜歡使用AI的目的,最簡單的方法,就是讓AI去使用人類的思維方式和人類的語法語言來主動進行和人類的溝通。這和以往電腦軟體發展,有很大的不同。
在一般的電腦軟體發展上,軟體依循一定的程式語言而建構,所以我們要使用某軟體時,必須去學習該程式的操作方式;這,是人類主動去和軟體溝通。
但是在AI發展中,為了便利人類使用,AI在解譯運算結果和傳達給人類時,它的重點必須擺在「讓人類輕鬆接收」的方面。所以,從人類的大腦運作、思維整合、自由聯想、訊息延伸、神經傳導連結方式…等等,用人類的生理方式,去研發AI的運算型態,這是一種符合科學(理論上的)的調校研發模式。
就像是Google的AI研發計畫中,近期有一項計畫,從人類讓大腦休息以加深學習印象的生理機制中,延伸出一個,讓AI在學習之後深度複習以加深學習印象的計劃。當然,現在世界各國的AI研發團隊,想要讓AI學會人類大腦「產生意義」功能的研究,一直在進行中,這是很自然的研發方向,卻也是異常危險的研發方向,還沒團隊能宣稱成功,但是倘若連「產生意義」這種生物獨有的功能,都能被AI取代,到時候真不知道人類要用什麼身分存在…
因為這種模仿人類功能的研發過程,造成馬斯克和比爾蓋茲這一派人的擔憂,認為人類會被AI箝制甚至取代人類,而導致人類滅絕;同樣的這種研發方式,讓AI能更快速有效的和人類溝通,所以被查客柏格這一派,視為人類的救贖。
所以說,繞了大半圈,我們可愛的小查和小馬,吵的是同一件事:「AI取代人類的研發方向」。
現在世界各國發展的AI,絕大多數都是用「取代人類」的角度去研發,這是我認為,AI發展在大約五年後很可能會泡沫化的主要原因之一。原因之二是,研發團隊的能力良莠不齊,許多研發團隊只是白白燒錢,看似風風火火,實則泡沫一場。因為老實說,現代人類的思維方式、語言表達能力、自由聯想能力、訊息整合和產生意義的能力,都是消退中的,所以,人類的現況,並不是一個最好的「典範」;但是因為研發者找不到一個更好的研發典範,所以只能把人類當成AI學習的對象,卻忘記了,他們認定的「人類」狀況,和一般多數人的現況,有多少的差距…這就是實驗室和現實世界的差距阿…
而有個常被研發者忽略的問題是,這些以模仿人類運做研發的AI,他們使用的語言,除了有用來跟人類溝通的人類似語言,還同時操作著人類短期很難搞懂的程式語言(AI從程式語言轉譯成人類語言而呈現給人類),所以,倘若如之前微軟關掉的AI聊天機器人,使用了扭曲的意識型態、邏輯思維當成參考範本,若一直順向發展下去,再遇到臉書AI聊天機器人的忘記鎖定使用英語語法的機制,到時候,機器人會用人類短期無法解讀的程式語言,做出多少的可怕計畫,那是合理而很可能發生的。
對於那些一直把AI解讀成「人工智慧」的人來說,他們對AI的誤解讀,是遠比那些將AI解讀成「人工智能」的人,來的危險的。因為智慧一詞就是取代人類的思維之下的產物,而智能一詞,卻是一個表現能力的概念;和人類擁有相似表現的能力。
有沒有很難懂?
就如同我一直對於被許多人誤解的「自動駕駛」的概念感到很無力。一般人都認為,「自動駕駛」完全等同無人駕駛,這真的讓我感到非常喪失力氣。
事實上,所謂的自動駕駛系統,美國國家公路交通安全管理局(NHTSA)於2016,將駕駛分成六級別(自駕五級別):
等級0:無自動駕駛功能;由駕駛者全權駕駛。
等級1:特定功能自動化。駕駛者操作車輛,配有行車安全輔助裝置(如ESP、ABS等)。
等級2:特定功能自動化。駕駛者控制車輛,由部分自駕機制,明顯減輕駕駛人負擔(如ACC、自動跟車、車道偏離警示、AEB、盲點偵測、防撞系統等)
等級3:駕駛者需隨時準備接手自駕無法順利執行的狀況。
等級4:在有明顯道路規則的狀況下,駕駛人有條件允許自動駕駛。
等級5:完全自動駕駛。自駕系統足以應付所有行車意外和問題,完全不需要駕駛人。
多數人都以為自動駕駛就是一定要完全拿掉駕駛者的角色,這種認知不僅現況做不到,在情感面上,我甚至認為這種對自駕的偏見,嚴重剝奪了我的駕駛權(嗯~ 我對方向盤的執著,簡直就跟小狗對潔牙骨的執著一樣的偏執)。
在現況中,能較為符合自駕等級4以上的系統,最適合的狀況是運用在大眾運輸系統中,有一定的行進軌道、有一定的交通規則、定速定向定點停靠、無需太多意外反應的狀況中。
而自動駕駛這樣子的發展狀況,和AI的目前的研發,很巧合的落入了同一個思考陷阱之中→他們都想取代人類。
取代人類的思考,是好是壞?
如果從我一個人類的身分來說,我會對這種「取代人類」的思維和科技發展方向,感到害怕;但是如果不站在人類的角度來看,人類是一個需要存在的種族嗎…恩,好冷血的想法,是吧…而特斯拉的馬斯克擔心的,就是這種取代人類的呼聲,在科技研發圈中漫延發酵的傾向。
AI該怎麼發展?這個議題很值得玩味。
你無法教會一台AI機器說謊,因為AI的語言學習程式,依靠的是邏輯,而且最主要的語言邏輯和思考邏輯,是西方邏輯;所以騰訊QQ才會搞出那麼大的麻煩,讓它自己被關閉了…
倘若你有辦法教會一台AI說謊,或者教會一台AI,說出屈意奉承的違心之論,那麼當你成功教壞AI時,就是人類再無用處應該被消滅時。這樣說,很讓人感覺悲傷吧!難道人類最高最不可取代的價值,竟然是違心之論和謊言嗎…
從AI聊天機器人的概念,在日本以陪伴人類形式,開始發展之後,這種「陪伴人類」的角色,一直存在AI語言研發的過程中;很多研發團隊一直卡在這樣的概念中,所以一直執著在「讓AI做出和人類相近的表現」這方面的成績上,順著這種研發思考,將AI當成陪伴人類寂寞的聊天機器人,是再自然不過的發展了。
但是這個狀況卻載舟覆舟。 這種追求「和人類相似表現」的目標,卻嚴重限制了機器的最佳表現可能性,也嚴重耽誤AI成為人類輔助工具的功能發展。太可惜了…
聽說台灣想搞AI,我很悲觀的認為他們一定會狂燒一堆錢,然後搞得一蹋糊塗,最後的巨額虧損要我們全民買單,因為投資錯誤而被耽誤的國家經濟,也將成為我們全民的苦果…
但是,對個人投資而言,如果你想避免被幾年後這波AI泡沫所害,記得,頭幾年跟風頭跑、見好就收,然後後幾年,避開那種以想「取代人類」為研發目標的AI研發團隊產品。
AI阿,應該是以「人類輔具」的概念去研發,不需要刻意限制AI的運算、資料整合、統彙整、提供建議等等功能,甚至不一定要限制AI的固定操作功能,所謂的操作功能,指的是替代人類執行部分工作,只要不是將「產生意義」的權力交給AI,AI的發展就大有可為。
留言列表