打造大型基礎模型之必要?跨領域合作與應用想像將是關鍵

鴻海研究院攜手人工智慧科技基金會、臺灣大學人工智慧技術暨全幅健康照護聯合研究中心於3月3日舉辦「NExT Forum:Multi-Modal Foundation Model 多模態基礎模型」論壇,集結國內外學者與產業專家,共同討論多模態基礎模型對台灣AI產業帶來的挑戰與機會,並提出整合台灣AI量能的務實模型建構方法,持續推進台灣AI的發展。

跨領域合作,打造AI 2.0生態

臺灣大學人工智慧技術暨全幅健康照護聯合研究中心主任陳信希提到,隨著大型語言模型的崛起,提供了解決問題的新模式,也降低了人工智慧模型開發的障礙,即使非電腦科學領域的人員也可以發揮所長。而基礎模型提供了系統開發便利的環境,應用點子將會是成功的關鍵之一。

華碩雲端暨台智雲總經理吳漢章指出,這一波AI 2.0的浪潮除了大型語言模型,還有Computational Genomics以及高High-fidelity Digital Twin兩波趨勢正在醞釀,但都需要大運算資源、大AI模型以及大量的數據,而AI 2.0需要以GPU為算力核心的AIHPC。目前全球前100大HPC中,包含台灣杉二號在內僅有25座可作商業用的HPC,其中包括俄羅斯5座、大型石油公司7座、NVIDIA自有3座,韓國則是三星及SKT各有一座。而台智雲團隊已在台灣杉二號實踐GPT3同級的大語言模型,也期待能與鴻海研究院以及不同單位,在各種領域有不同合作,共同打造更具開放性的AI 2.0生態。

臺灣大學人工智慧技術暨全幅健康照護聯合研究中心主任陳信希
華碩雲端暨台智雲總經理吳漢章

ChatGPT應用極廣,真假訊息越來越難辨認

創新工場董事長兼執行長、鴻海研究院諮詢委員李開復認為,AI1.0 歷經過四波浪潮後,已經改變各行各業。而要做好AI 1.0 必須要具備海量數據、精準且自動地標註、單一清晰的領域、頂尖的AI科學家,以及強大的計算能力,因此,資料越多,表現越好。但是,收集與清洗資料的成本極高,這也是為什麼許多AI公司創造了很大的價值卻無法盈利。另一方面,雖然目前的AI可以應用在許多領域,但是每個領域的優化都是離散的,也無法跨領域應用,而各個技術也無法形成一個有效的平台。

他指出,AI 2.0與1.0不同的地方在於,利用全世界的數據,無需人工標註訓練出一個具跨領域知識基礎模型,並執行五花八門的任務。雖然目前ChatGPT的表現還有待改善,卻也帶來新的典範轉移,也就是說,當你有一個基礎模型,微調的成本也能因此降低,而AI公司也就能獲利了。目前已經可以看到許多應用未來,包括文本生成圖像,也可以看到一些影像和3D模型的應用潛力。

但李開復也提醒,雖然應用領域範圍極廣,但是隨著進入大模型階段,海量資料的訓練成本也很高,只有極少數企業有足夠財力負荷,也會有越來越多惡意針對,以及真假難辨的訊息出現。除此之外,還有如何做好適合遷移式學習的API等技術問題,以及其他合規性的問題要解決。

台灣需要打造台版ChatGPT嗎?

華碩電腦協理暨台智雲技術長陳忠誠認為,由於語言模型具有地域性,使用的邏輯與方式也不一定相同,依照目前AI的趨勢,若是未來資源集中掌握在少數的雲端大廠上,後續在資源的使用與應用的彈性上都有可能受限他人的規則與邏輯。

台灣微軟首席技術長花凱龍則指出,從趨勢來看,國際大廠不僅在大型語言模型投入可觀資源,競爭態勢也十分明顯,例如微軟將對OpenAI單一投資100億美元,各科技巨頭的投資能量也越來越多。國內中小企業礙於資本額有限,難以在投入資源上比拼,需要思考如何站在巨人的肩膀找出新的應用。若真要投入大型語言模型的建立,建議先評估思考模型的應用情境為何?所要解決的問題又是什麼?

中央研究院資料科學研究所研究員古倫維則提醒,由於技術進展十分快速,雖然擁有自己的大型語言模型一定會有好處,但後續若沒有足夠且持續的投入資源支撐運作,所能帶來的幫助就相對減少。同時,也要注意人才短缺的議題,更期待產業鏈的建立與發展,相信將有助於人才的培育。

鴻海研究院攜手人工智慧科技基金會、臺灣大學人工智慧技術暨全幅健康照護聯合研究中心於今日(3/3),舉辦「NExT Forum:Multi-Modal Foundation Model 多模態基礎模型」論壇

⊕文章轉載自知勢

返回頂端