今天小編分享的科技經驗:沈向洋馬毅牽頭搞新AI會議:不要「大力」要「簡約」,首屆在香港大學舉辦,征稿中,歡迎閱讀。
大模型時代,有人要來唱唱 " 大力出奇迹 " 的反調了。
沈向洋和 UC 伯克利 & 香港大學教授馬毅牽頭,搞了一個新的學術會議,CPAL(Conference on Parsimony and Learning),即簡約學習會議。
官網信息顯示,這一會議專注于解決機器學習、信号處理、優化等領網域普遍存在的簡約、低維結構。
對理論、算法、應用程式、硬體和系統以及簡約學習的科學基礎感興趣。
馬毅本人也做了 " 定向 " 推薦:
厭倦了包羅萬象的大型機器學習會議?CPAL 會成為一個專注于理論和計算基礎的高标準會議。
首屆會議,将于 2024 年 1 月 3 日 -6 日,在香港大學數據科學研究院舉辦。論文的提交截止日期為今年 8 月 28 日。
具體時間表如下:
會議主席,除了前文提到的沈向洋和馬毅,還有慕尼黑大學的 Gitta Kutyniok,和賓夕法尼亞大學的 Ren é Vidal。
另外,組織團隊中,還有來自 CMU、香港大學等高校,以及谷歌、Meta 的專家學者。
此前,馬毅、沈向洋和神經科學家曹穎曾合作發表過一篇論文:On the Principles of Parsimoy and Self-Consistency for the Emergence of Intelligence。
此次的 CPAL 會議,核心思想與這篇論文一脈相承:強調人工智能的兩個基本原則,簡約性和自洽性。
以下附 CPAL 會議願景全文:
智能或科學存在甚至產生的最基本原因之一,是世界并非完全随機,而是具有高度的結構性和可預測性。因此,智能或科學的一個基本目的和功能就是通過大量感知世界的數據,學習簡潔的模型(或法則)來理解這種可預見的結構。
在過去的十年中,機器學習和大規模計算的出現,極大地改變了我們在工程和科學中處理、解釋和預測數據的方式。傳統的算法設計方法,基于特定信号和測量結構的參數模型,比如稀疏和低秩模型,以及相關的優化工具集,現在已經被豐富的數據驅動的學習技術所補充,這些技術通過大規模網絡的預訓練和适應各種特定任務。然而,現代數據驅動和經典模型基礎範例的成功,都嚴重依賴于正确識别現實世界數據中存在的低維結構,以至于我們認為學習和壓縮數據處理算法的角色——無論是顯式還是隐式,如深度網絡——是不可分割的。
在過去的十年左右的時間裡,包括理論、計算和實踐在内的多個研究領網域,探讨了學習和壓縮之間的相互作用。一些作品探讨了深度學習時代信号模型的作用,試圖理解深度網絡和非線性、多模态數據結構之間的相互作用。其他人則将這些洞察應用于原則上設計深度架構,将數據中所需的結構融入學習過程中。還有其他人把通用深度網絡視為他們自己的首要任務,探索如何壓縮和稀疏模型以提高效率,這通常伴随着硬體或系統意識的共同設計。在這些環境中,理論工作以低維建模為基礎,開始解釋深度架構和有效學習的基礎,盡管存在 " 超參數化 " 和其他阻礙。最近,基礎模型的出現使一些人認為,簡潔和壓縮本身是智能系統學習目标的一個基本部分,與神經科學中關于壓縮作為大腦代表世界感知數據的指導原則的觀點相連接。
總的來說,這些工作線路到目前為止在一定程度上是相互孤立發展的,盡管它們共享同一基礎并且以簡潔和學習為目的。我們組織這個會議的意圖就是要解決這個問題并且更進一步:我們設想這個會議作為一個一般的科學論壇,其中機器學習、應用數學、信号處理、優化、智能系統,以及所有相關的科學和工程領網域的研究人員可以聚集,分享洞察,最終朝着一個共同的現代理論和計算框架努力,從簡約學習的視角理解智能和科學。
如果你對此感興趣,這裡奉上官網,可以關注起來了:
https://cpal.cc/