數據濫用、偏見隱憂浮現,法規能解決當前的AI問題嗎

李開復專訪(下):數據濫用、偏見隱憂浮現,法規能解決當前的AI問題嗎?

我們看到許多歐洲國家,都在近期推出AI 標準化的Roadmap或相關規範,對於整個AI技術與產業的發展,又將帶來哪些影響?此外,身為全球知名AI趨勢專家,同時也投資多家AI獨角獸,李開復在出書後接受媒體時最常被問到的往往是AI在產業層面的發展方向。對此,他的觀察與心得又是什麼?

對於科技發展略有認識的人應該可以了解,要預測未來三、五年的發展雖有難度,但仍然有跡可循,可是若要預測二十年後,資訊科技家們常笑稱:「那是電影導演才有辦法做的事。」

不僅科技發展有其限制,另外,《AI 2041:預見10個未來新世界》的難度還來自於不只是AI突飛猛進,其他技術同樣快速發展,而且持續進行整合應用,所以這絕不只是一本AI的產業預測,而是以AI為切入點的「未來生活預言書」

在上一篇專訪中,李開復從作者角度出發,分享內容的取材、選擇與結構,並建議讀者最好從第一章循序讀起,可以將書中的十篇短篇小說當做是十本書,不過,務必要同時閱讀之後的〈開復解讀〉,才有辦法具體掌握AI的能與不能。

而身為全球知名AI趨勢專家,同時也投資多家AI獨角獸,李開復在出書後接受媒體時最常被問到的往往是AI在產業層面的發展方向。對此,他的觀察與心得又是什麼?以下是專訪精采內容摘要:

問:從2017年AI受到全球關注開始至今,台灣至今大部份的討論還是聚焦在產業層面,社會、生活或文化方面著墨,感覺對於未來的想像較為局限,你認為有沒有什麼角度是我們忽略的?

答:這本書在台灣是最早出版的(編按:後續有英文版及簡體中文版,分別在美國及中國發行),目前在美國已發了一些樣書給記者跟KOL(Key Opinion Leader),我發現有趣的是,美國跟台灣媒體問的題目差異很大,而差異背後當然有其脈絡。

先談美國的部份。今天人工智慧發展很大的挑戰,就是企業會不斷優化目標函數,所以幾家大科技公司都會應用手上擁有的海量數據進行優化,這一點很令美國人憂心。不僅讓人對內容上癮,而且如果這個人有暴力傾向,演算法就會推更多暴力內容讓你看;如果相信美國自由派,就會一直看到自由派的內容,因此大家所看到的內容會愈來愈極端,甚至看不到對方的東西(指不同觀點與看法)。

美國經過幾年很多事件的洗禮之後,他們比較好奇這些問題該怎麼解決,提問的方向也都集中在這裡。例如現在就有很多人想要拆了Facebook(指強制將Facebook分拆為幾家子公司,以避免不公平競爭或濫用數據侵犯隱私),但是我認為這恐怕不是唯一的方法,例如說可以設定多元化目標函數,不是看使用者點擊了什麼,而是看兩年後是否有看其他內容?或是有第三方監督機制,透過制度的設計促使企業有動機去調整。

美國科技公司為了賺錢,會想盡各種方法加長用戶的黏著度,這是無可避免的,也不太可能期待企業會有自律管理,我想提出的是有不同的制度與評估指標,像是ESG、考慮企業社會責任、綠色能源使用等,這些是可以衡量的。單靠法律無法達到最終目的,而是誘導公司有足夠的經濟動機去做這些事情。在美國談的都是這些,還有像是AI帶來的不公正、偏見該怎麼處理?AI沒有辦法自我解釋,個人隱私資料怎麼保護?AI的安全問題,都是美國目前關注的議題。

問:那台灣媒體關注的是?AI發展中台灣的角色是什麼?

答:最主要是AI產業發展中。台灣所扮演的角色,可能因為台灣小,在轉變的時候希望找到立足點,看得出來這是很迫切的需要。不過我也在想,我們可否再看得更遠一些?

美國因為走在比較前面,經歷過去十年網路公司還有AI的發展,面臨許多挑戰,也希望可以解決這些問題。當然,這些也都是全球問題,在美國,目前對AI負面的認知已經超過正面,而台灣、亞洲國家正面還是居多,這是相當大的差異。

如何看得更遠?我想書中所寫的這些故事是有幫助的。多年前我還在Apple的時候,Apple做了一個10分鐘的影片《Apple Knowledge Navigator》,描述20年後的未來。這個影片的內容相當令人震撼,記得當時我大概有50場演講都用這個影片開場,包含語音、圖像、影片、電腦視覺技術等,大概都在這部影片裡面呈現出來。而影片中的願景也差不多在30年後都實現,可見這個影片很有價值。所以寫這本書,可以說是潛意識受到這部影片的影響。

問:那如果是中國的媒體,可能會問什麼問題?

答:其實跟台灣的問題很類似,也是著重在產業發展。不過因為最近有些政策,對大型互聯網公司做一些要求,要他們在使用AI與數據時更自律。大家在書裡的故事中可以看到,有好幾個大公司擁有大量用戶跟數據,因此擁有很大的權力,權力愈大責任愈大,這也提醒大家需要考慮。其他中國跟台灣問的問題就差不多,不會想那麼深那麼遠。

問:既然談到法律規範的問題,我們也看到歐洲包括德國、英國在內的國家,都在近期推出AI 標準化的Roadmap或相關規範,對於整個AI技術與產業的發展,你認為有哪些影響?

答:一直以來歐洲特別喜歡用法律法規來管理,我認為這肯定是需要的,歐洲願意站出來也很好,但,如果一個國家唯一能使用的是法規企圖來管理AI,就不是很好的結果,因為很多問題不是只靠法律法規來解決。就好像電腦接上網路,就會有病毒,造成癱瘓,但是也沒有國家規定因此不能上網,反倒是防毒軟體崛起。

我想應該思考的是,現在已經出現的一些問題跟隱憂,可以用什麼技術和方法解決,法律或規範當然可以一起用,但如果只靠法規限制,或者是無限上綱到把數據都還給個人,那AI可能就不用做了,我們現在享受的AI福利與便利也都沒有了。

比較好的方式是,考慮AI為什麼會有這些問題?要怎麼解決?例如AI有偏見,但人沒有偏見嗎?或者換個方向問,AI做的決策比人更有偏見嗎?完全沒有偏見是沒有人能夠做得到的,所以對於AI的標準應該不是零偏見,而是要做的比人更好。

那再進一步分析,AI為什麼有偏見?偏見來自於訓練數據的不平衡?可能是因為數據集不夠大?是不是要告訴工程師要多大的數據才能做成產品?或是在訓練模型的過程中需要提醒工程師,若訓練數據不夠、或某一種性別的數據不夠,可能會產生偏見?

另一個問題是個人資料會被濫用,那是不是可以應用新的技術,例如聯邦學習,放在信任的地方去訓練,不暴露給互聯網公司但仍然能夠使用。假設為了訓練全人類的醫療模型,可以有一個妥協,每個醫院的數據跑成個別的模型,然後合併起來,這就是全人類的模型,而且數據沒有離開醫院。魚與熊掌是可以兼得的。

歐洲要變成立法的先驅很好,但是不應該把立法當做唯一解方。我跟一些歐洲的政治家,討論到他們的法規太多太嚴,可能會阻礙AI發展。有人回答:「不是因為要管AI造成發展緩慢,而是因為想要AI發展緩慢,才加以限制。」用這種思路管理科技是危險的,如果按照這樣的想法繼續下去。可能前三次工業革命都不會發生。網路也是一樣,當時百花齊放地讓科技公司推出它的產品,就是希望促進發展,等發展到一定程度,再針對問題來進行管制,會是比較好的思路,也是人類科學發展比較好的管理方式。

回到頂端