今天小編分享的科技經驗:當AI開始“發Nature”,人類科學家靠什麼絕地反擊?,歡迎閱讀。
文 | 追問nextquestion
在人類探索自然奧秘的征途中,科學工具的革新始終是突破認知邊界的核心驅動力。2024年諾貝爾化學獎的頒發,标志着人工智能(AI)正式登上科學研究的核心舞台——三位獲獎者通過AI驅動的蛋白質結構預測與設計,破解了困擾生物學半個世紀的難題,并實現了"從無到有"的蛋白質創新設計。這些發現不僅深化了我們對生命的理解,還為開發新藥物、疫苗和環保技術,甚至解決抗生素耐藥性和塑料降解等全球性挑戰提供了實際解決方案。
這一裡程碑事件尚未散去餘溫,2025年初微軟發布的生成式AI模型MatterGen又在材料領網域掀起驚濤駭浪:它逆向設計生成的新材料TaCr₂O₆,其體積模量實驗值與設計目标誤差不足20%,将傳統材料研發周期從數年縮短至數周。這些突破揭示了一個不可逆的趨勢:AI已從科學家的輔助工具蛻變為科學發現的"共謀者",正在重構科學研究的底層邏輯。
▷ MatterGen設計的無機材料。圖源:@satyanadella
面對這場科學革命,科研工作者正面臨着前所未有的機遇與挑戰。
一方面,許多科研人員雖然擁有扎實的專業知識背景,卻缺乏足夠的人工智能知識和技能,他們對AI的應用可能感到困惑和局限,更不知道從何處着手,以讓AI在具體的科研任務中發揮最大效能。另一方面,許多科研領網域依賴的溼實驗方法,需要高昂的試錯成本和大量重復性實驗,加上人力、物力的巨額消耗,也為科研進程增添了很大的不确定性。
在此過程中,許多看似無用的數據被遺棄,導致一些潛在有價值的信息未能被充分發掘,造成了巨大的資源浪費。在AI領網域,自然科學和社會科學領網域中的數據往往存在長期匮乏的情況,即便勉強搜集到數據,也難免存在置信度不足或可解釋性欠缺的問題(研究人員在評估模型性能時會有選擇性地挑選評估指标)。尤其在大語言模型(LLMs)的應用中,"胡編亂造"或錯誤引用時有發生,進一步加深了對AI 結果可信度的疑慮。
AI技術的"黑箱"特性,也使得許多生成的結果缺乏透明度,無法明确解釋背後的機制和邏輯,從而影響了其在科研中的信任度和應用深度。更為嚴峻的是,随着AI技術逐漸發展和普及,一些本來由人類科學家完成的工作逐步被自動化,部分崗位甚至面臨被取代的風險。越來越多科研工作者擔心,AI技術的普及可能導致人類的創造性工作被削弱。最終,若不謹慎把握AI的發展方向,這場技術革命可能帶來社會結構、職業市場和科學倫理的深刻變化。
本文針對科研工作者如何應對挑戰、擁抱人工智能助力科學研究,提供了一些可供參考的實踐指導和策略建議。本文會首先闡明人工智能助力科學研究的關鍵領網域,并探讨在這些方向取得突破所需的核心要素。随後将深入分析在科學研究中使用人工智能時常見的風險,特别是對科學創造力和研究可靠性的潛在影響,并提供如何通過合理的管理與創新,利用人工智能帶來最終整體的淨效益。最後,本文将提出三項行動指南,旨在幫助科研工作者在這場變革中以主動姿态擁抱AI,開啟科學探索的黃金時代。
01 AI助力科學研究的關鍵領網域
獲取、創造和傳播知識的方式變革
為了取得新的突破性發現,科學家們往往得面對一座又一座日益龐大的知識高峰。又因為新知識層出不窮、專業分工不斷深化,"知識負擔"愈發沉重,導致具備重大創新力的科學家平均年齡越來越大,也更傾向于跨學科研究,且多在頂尖學術機構扎根。即便小團隊通常更具推動颠覆性科學理念的能力,但由個人或小團隊撰寫的論文比例卻逐年下降。在科研成果分享方面,多數科學論文行文晦澀、術語繁多,不僅阻隔了科研工作者之間的交流,更難以激發其他科研工作者、公眾、企業或者政策制定者對相關科研工作的興趣。
然而,随着人工智能,尤其是大語言模型的發展,我們正在發現新的方法來應對當前科研中的種種挑戰。借助基于LLM的科學助手,我們能夠更加高效地從海量文獻中提煉出最相關的見解,還可以直接對科研數據提出問題,例如探索研究中行為變量之間的關聯。如此一來,繁瑣的分析、寫作和審稿過程不再是獲取新發現的"必經之路","從數據中提取"科學發現,也有望顯著加快科學進程。
随着技術進步,尤其是通過在科學領網域特定數據上微調LLM,以及在長上下文視窗處理能力和跨文獻引用分析方面的突破,科學家們将能夠更高效地提取關鍵信息,從而顯著提升研究效率。更進一步,若能開發出"元機器人"式的助手,跨越不同的研究領網域整合數據,就有望解答更復雜的問題,為人類勾勒出學科知識的全景。可以預見,未來可能會出現專門為這些"論文機器人"設計高級查詢的科研工作者,借由智能拼接多個領網域的知識"碎片",推動科學探索的邊界。
盡管這些技術提供了前所未有的機會,它們也伴随着一定的風險。我們需要重新思考一些科學任務的本質,特别是在科學家可以依賴LLM幫助批判性分析、調整影響力或将研究轉化為互動式論文、音頻指南等形式時,"閱讀"或"撰寫"科學論文的定義可能會發生變化。
生成、提取、标注和創造大型科學數據集
随着科研數據的不斷增加,人工智能正在為我們提供越來越多的幫助。例如,它能夠提高數據收集的準确性,減少在DNA測序、細胞類型識别或動物聲音采集等過程中可能出現的錯誤和幹擾。除此之外,科學家們還可以利用LLM增強的跨影像、視頻和音頻分析能力,從科學出版品、檔案資料和教學視頻等較為隐蔽的資源中提取隐藏的科學數據,并将其轉化為結構化的數據庫,便于進一步分析和使用。人工智能還能夠為科學數據添加輔助信息,幫助科學家更好地使用這些數據。例如,至少三分之一的微生物蛋白質功能細節尚無法可靠注釋。2022年,DeepMind的研究人員通過人工智能預測蛋白質的功能,為UniProt、Pfam和InterPro等數據庫增添了新的條目。
當真實數據不夠時,經過驗證的人工智能模型還能成為合成科學數據的重要來源。AlphaProteo蛋白質設計模型便是基于超過1億個由AlphaFold 2生成的人工智能蛋白質結構,以及來自蛋白質數據庫的實驗結構進行訓練。這些人工智能技術不僅能夠補充現有的科學數據生成過程,還能顯著提升其他科研努力的回報,例如檔案數字化,或資助新的數據采集技術和方法。以單細胞基因組學領網域為例,正以前所未有的精細度構建龐大的單細胞數據集,推動這一領網域的突破與進展。
▷ alphafold預測的某蛋白結構圖,顏色越藍可信度越高,越紅可信度越低。圖源:AFDB
模拟、加速并為復雜實驗提供信息
許多科學實驗成本高昂、復雜且耗時漫長,也有些實驗因為研究人員無法獲取所需的設施、參與者或投入根本無法開展。核聚變就是一個典型的例子。核聚變有望成為一種幾乎取之不盡、零排放的能源,并能推動海水淡化等高能耗創新技術的規模化應用。要實現核聚變,科學家們需要創造并控制等離子體。然而,所需的設施建造起來卻極其復雜。國際熱核聚變實驗堆的原型托卡馬克反應堆于2013年開始建造,但最早也要到2030年代中期才能開始進行等離子體實驗。人工智能能夠幫助模拟核聚變實驗,并使後續實驗時間得到更高效的利用。研究者們可以在物理系統的模拟中運行強化學習代理來控制等離子體的形狀。類似的思路也可以推廣到粒子加速器、天文望遠鏡陣列或引力波探測器等大型設施上。
利用人工智能模拟實驗在不同學科中的表現形式會大相徑庭,但一個共同點是,這些模拟通常會為物理實驗提供信息和指導,而非取而代之。例如,AlphaMissense模型能夠對7100萬種潛在人類錯義變異的89%進行分類,幫助科學家聚焦于那些可能導致疾病的變異,從而優化實驗資源的配置,提升研究效率。
▷ DIII-D的反應室,這是一個由通用原子公司在聖地亞哥運營的實驗性托卡馬克聚變反應堆,自20世紀80年代末完工以來一直用于研究。典型的環形腔室覆蓋有石墨,有助于承受極端高溫。圖源:Wikipedia
對復雜系統及其組件間的相互作用進行建模
在 1960 年的一篇論文中,諾貝爾物理學獎得主尤金·維格納(Eugene Wigner)對數學方程在模拟諸如行星運動等自然現象時展現的"不可思議的有效性"感到驚嘆。然而,在過去的半個世紀裡,依賴方程組或其他确定性假設的模型,始終難以全面捕捉生物學、經濟學、天氣和其他復雜領網域系統中瞬息萬變的動态與混沌。這些系統的構成部分數量龐大、相互作用密切,且可能發生随機或混沌行為,使科學家們難以預判或掌控其在復雜情景下的反應。
人工智能則可以通過獲取更多關于這些復雜系統的數據,并從中學習更強大的模式和規律,來改進對其的建模。例如,傳統的數值預測主要基于精心定義的物理方程,對大氣復雜性有一定解釋力,但精度始終不足,且計算成本高昂。而基于深度學習的預測系統,能夠提前10天預測天氣狀況,在準确性和預測速度方面均勝過傳統模型。
在許多情況下,AI 并非取代傳統復雜系統的建模方法,而是賦予其更豐富的工具。例如,基于智能體的建模方法通過模拟個體(比如公司和消費者)之間的互動,來研究這些互動如何影響像經濟這樣的更大、更復雜的系統。傳統的方法要求科學家預先設定智能體的行為方式,如"看到商品漲價就少買10%""每個月存工資的5%"。但現實的復雜度常讓這些模型"捉襟見肘",對新興現象(如直播帶貨對零售業的衝擊)難以給出準确預測。
在人工智能的幫助下,科學家現在可以創建更加靈活的智能體。這些智能體能夠進行交流、采取行動(如搜索信息或購買商品),并能對這些行動進行推理和記憶。利用強化學習還可以讓這些智能體在動态環境中進行學習和适應,甚至在面對能源價格變動或應對疫情政策變化時,智能體能夠自行調整自己的行為。這些新方法不僅提高了模拟的靈活性和效率,還為科學家們提供了更多創新的工具,幫助他們應對日益復雜的研究問題。
找出具有廣闊搜索空間問題的創新解決方案
許多重要的科學問題嘗嘗伴随着近乎天文數字級的難以理解的潛在解決方案。設計小分子藥物時,科學家要在 1060 之多的可能性中篩選;而若設計含 400 個标準氨基酸的蛋白質,選擇空間甚至高達 1020400。傳統上,科學家依靠直覺、試錯、迭代或強力計算的組合來尋找最佳的分子、證明或算法。但這些方法難以窮盡搜索空間,因而往往與最佳方案失之交臂。人工智能則能夠開辟這些搜索空間的新領網域,同時更快地聚焦于最有可能是可行和有用的解決方案——這是一個微妙的平衡。
2016 年 AlphaGo 對弈李世石為例。AI 的落子位置看似不合常規,甚至超出了人類傳統的棋路與經驗,但卻成功擾亂李世石的思路,反而讓 AlphaGo 更易掌控局勢。李世石後來表示,自己被這一着棋震驚到了。這意味着AlphaGo的這一着棋完全超出了人類傳統棋手的思維方式和經驗。也證明了AI可以在巨大的可能性空間中發現人類未曾想到的解決方案,從而推動策略革新。
▷ AlphaGo(執黑)與李世石(執白)對戰第二局的落子情況,最終AlphaGo赢下本局。AlphaGo 的第37手落在了第五線,超出了絕大多數棋手和專家的預料。賽後,很多人對這步棋評價甚高,認為這展現了AlphaGo的全局判斷力。圖源:芥子觀須彌
02 AI驅動科學突破的核心要素
問題的選擇
正如量子力學奠基人海森堡所言,"提出正确的問題,往往等于解決了問題的大半"。那麼,怎樣評估問題的好壞呢?DeepMind首席執行官Demis Hassabis提出了一個思維模型:如果将整個科學看作一棵知識樹,我們應該特别關注的是樹根——那些基本的"根節點問題",解決這些問題可以解鎖全新的研究領網域和應用。其次,需要評估人工智能是否适用且能夠帶來增益,我們需要尋找具有特定特征的問題,例如巨大的組合搜索空間、大量數據和明确的目标函數,以進行性能基準評估。
通常,一個問題在理論上适合人工智能,但由于輸入數據尚未到位,可能需要暫時擱置,等待時機。除了選擇合适的問題外,指定問題的難度級别和可行性也至關重要。人工智能的強大問題陳述能力往往體現在那些能夠產生中間結果的問題上。如果選擇一個過于困難的問題,就無法生成足夠的信号來取得進展。這需要依賴直覺和實驗來實現。
評估方法的選擇
科學家們使用多種評估方法,如基準測試、度量标準和競賽,來評估人工智能模型的科學能力。通常,多個評估方法是必要的。例如,天氣預報模型從一個初步的"進展度量"開始,基于一些關鍵變量(如地表溫度),來"爬升"模型的性能。當模型達到一定的性能水平時,他們使用超過1300個度量(靈感來源于歐洲中期天氣預報中心的評估評分卡)來進行更全面的評估。
對科學最具影響力的人工智能評估方法通常是由社區推動或得到認可的。社區的支持也為發布基準測試提供了依據,使研究人員可以使用、批評并改進這些基準。但此過程中需警惕一個隐憂:基準數據若被模型的訓練過程意外"吸收",評估準确度便會打折扣。目前尚無完美方案來應對這一矛盾,但定期推出新公共基準、建立新的第三方評估機構并舉辦各類競賽,都是持續檢驗與完善 AI 科研能力的可行之道。
跨學科合作
人工智能在科學領網域的應用往往默認是多學科的,但要取得成功,它們需要真正轉變為跨學科的合作。一個有效的開端是選擇一個需要各種專業知識的科學問題,然後為其提供足夠的時間和精力,以便圍繞問題培養團隊的協作精神。例如,DeepMind的伊薩卡項目(Ithaca project)利用人工智能修復和歸類受損的古希臘銘文,幫助學者研究過去文明的思想、語言和歷史。為了取得成功,項目的聯合負責人Yannis Assael必須理解碑銘學——研究古代刻寫文字的學科。而項目中的碑銘學家們則必須學習AI模型的工作原理,以便将自己的專業直覺與模型輸出相結合。
這種團隊精神的養成,離不開恰當的激勵機制。賦予一個小而緊密的團隊專注于解決問題的權力,而非專注于論文的作者署名,是AlphaFold 2取得成功的關鍵。這樣的專注在工業實驗室中可能更容易實現,但也再次強調了長周期公共科研資助的重要性,尤其是這種資助不應過于依賴于出版壓力。
同樣,組織還需要為能夠融合不同學科的人才創造職位和職業發展路徑。例如在谷歌,DeepMind的研究工程師在推動研究與工程之間的良性互動中發揮了關鍵作用,項目經理則有助于培養團隊合作氛圍,并促進團隊之間的溝通與協作。那些能夠識别和連接不同學科之間聯系,并迅速提升新領網域技能的人才應該給予更多的重視。此外,為了激發思想交流,組織應鼓勵科學家和工程師定期調整項目,建立一種促進好奇心、謙遜态度和批判性思維的文化,使不同領網域的從業者能夠在公開讨論中提出建設性的意見和反饋。
當然,建立合作夥伴關系絕非易事。在開始讨論時,必須盡早達成共識,明确整體目标,并解決一些棘手的潛在問題,比如各方對成果的權利分配、是否發表研究、是否開源模型或數據集、以及應采用什麼類型的許可。分歧在所難免,但如果能讓不同激勵機制下的公共與私營組織找到清晰、對等的價值交換點,那麼就有可能在充分發揮各自優勢的同時,共同走向成功。
▷ 伊薩卡(Ithaca)的架構。文本中受損部分用短橫線"-"表示。在此例中,項目組人為損壞了字元"δημ"。基于這些輸入,伊薩卡能夠恢復文本,并識别出文本撰寫的時間和地點。圖源:deepmind
03 管理AI風險,提升科學創造力與研究可靠性
2023年Nature刊發的深度調查報告顯示,全球62%的科研團隊已在數據分析中使用機器學習工具,但其中38%的研究欠缺對算法選擇的充分論證。這種普遍性警示我們:AI正在重塑科研範式的同時,也在制造新的認知陷阱。
雖然AI可以幫助我們從海量信息中提取有用的規律,但它往往基于已有數據和知識進行推演,而不是從全新的視角出發進行創造性思考。這種"模仿"式的創新,可能使得科學研究變得越來越依賴于已有的數據和模型,從而限制了科研人員的思維廣度。在過度依賴AI的情況下,我們有可能忽視一些原創的、非傳統的研究方法,這些方法或許能打開新的科學領網域。尤其在探索未知和前沿領網域時,人的直覺和獨立思考能力依然至關重要。
除了對科學創造力的影響,AI的普及還可能對研究的可靠性和理解力帶來隐患。AI在提供預測和分析時,往往基于概率和模式識别,而不是直接的因果推理。因此,AI給出的結論可能只是一種統計上的相關性,而不一定代表真實的因果關系。此外,AI算法的"黑箱"特性也使得它們的決策過程變得不透明。因此對于科研人員而言,理解AI得出的結論背後的邏輯至關重要,尤其是在需要對結果進行解釋或應用到實際問題時。若我們盲目接受AI的結果而不加以審視,可能會導致誤導性結論的產生,進而影響研究的可信度。
另一方面,我們認為,若能合理管理AI的風險,便有機遇将這項技術深度融入科學探索,幫助應對更多層面的挑戰,甚至帶來深遠影響。
創造力
科學創造力指的是在科學研究中,個體或團隊通過獨特的思維方式、方法論或視角,提出新穎的假設、理論、方法或解決方案,推動科學進展的能力。在實際操作中,科學家通常基于一些主觀因素來判斷一個新想法、方法或成果是否具備創造性,比如它的簡潔性、反直覺性或美感。一些科學家擔心,大規模使用AI可能削弱科學中更具直覺性、偶然發現式或不拘一格的研究方式。這個問題可能通過不同方式表現出來。
一個擔憂是,AI模型經過訓練後會盡量減少訓練數據中的異常值,而科學家往往通過跟随直覺放大異常值,來應對一些令人困惑的數據點。另一個擔憂是,AI系統通常被訓練來完成特定任務,依賴AI可能會錯過更多偶然的突破,比如那些未曾研究的問題的解決辦法。在社區層面,一些人擔心,如果科學家大規模擁抱AI,可能會導致研究成果的逐漸同質化,畢竟,大型語言模型在回應不同科學家的提問時可能會產生相似的建議,或是科學家會過度關注那些最适合AI解決的學科和問題。
為緩解此類風險,科研人員可在保證探索性研究深度的前提下,靈活調整AI使用策略。例如,通過對大型語言模型進行微調,使其能夠提供更個性化的研究創意,或幫助科學家更好地引發自己的想法。
AI還能夠促進一些可能原本不會出現的科學創造性。其中一種AI創造性是插值(Interpolation),即AI系統在其訓練數據中識别出新的想法,尤其是在人的能力受到限制的情況下。例如,使用AI檢測來自大型強子對撞機實驗的大規模數據集中的異常值。
第二種是外推(Extrapolation),在這種情況下,AI模型能夠将知識推廣到訓練數據之外,提出更具創新性的解決方案。
第三種是發明(Invention),AI系統提出完全脫離其訓練數據的全新理論或科學體系,類似于廣義相對論的最初發展或復數的創造。雖然目前AI系統尚未展示出這樣的創造性,但新的方法有望解鎖這種能力,例如多智能體系統,這些系統會針對不同的目标(如新穎性和反直覺性)進行優化,或者是科學問題生成模型,專門訓練用于生成新的科學問題,進而激發創新的解決方案。
可靠性
可靠性指的是科學家們在相互依賴他人研究成果時的信任程度,他們需要确保這些結果并非偶然或錯誤。目前人工智能研究中存在不良做法,科研工作者在進行科學研究時應高度警惕。例如研究人員根據自己的偏好挑選用來評估模型表現的标準,而AI模型,尤其是LLMs,也容易"幻覺"產生"幻覺",即虛假或誤導性的輸出,包括科學引用。LLMs還可能會導致大量低質量論文的泛濫,這些論文類似于"論文工廠"產生的作品。
為了應對這些問題,目前已經存在一些解決方案,包括制定供研究人員遵循的良好實踐清單,以及不同類型的AI事實性研究,例如訓練AI模型将其輸出與可信來源對接,或幫助驗證其他AI模型的輸出。
另一方面,科研人員還可以利用AI提升更廣泛研究基礎的可靠性。例如,如果AI能夠幫助自動化數據注釋或實驗設計的部分過程,這将為這些領網域提供迫切需要的标準化。随着AI模型在将其輸出與引用文獻對接方面的能力不斷提升,它們也可以幫助科學家和政策制定者更系統地回顧證據基礎。科研人員還可以使用AI幫助檢測錯誤或偽造的影像或識别誤導性的科學聲明,比如Science期刊最近對一款AI影像分析工具的試驗。AI甚至可能在同行評審中發揮作用,尤其考慮到一些科學家已經使用LLMs來幫助審閱自己的論文以及驗證AI模型的輸出。
可解釋性
在Nature雜志最近的一項調查中,科學家們認為,使用AI進行科學研究最大的風險是依賴模式匹配,而忽視了深入的理解。對于AI可能破壞科學理解的擔憂,其中之一是對現代深度學習方法 "無理論"的質疑。它們并不包含,也沒有為所預測現象提供理論解釋。科學家們還擔心AI模型的"不可解釋性",即它們不基于明确的方程式和參數集。還有人擔心任何解釋AI模型輸出的方式都不會對科學家有用或易于理解。畢竟,AI模型或許能提供蛋白質結構或天氣預測,卻未必能告訴我們為何蛋白質以特定方式折疊,或大氣動力學又是如何導致氣候變化。
其實,人們對"用低級的計算替代‘真正的理論科學’"的擔憂并不新鮮,過去的技術,如蒙特卡羅方法,也曾遭到過類似的批評。将工程學與科學相結合的領網域,如合成生物學,也曾被指責優先考慮有用的應用而忽視深入的科學理解。但歷史證明,這些方法和技術最終推動了科學理解的發展。更何況,大多數AI模型并非真正的"無理論"。它們通常基于先前知識構建數據集與評估标準,有些還具備一定程度的可解釋性。
如今的可解釋性技術正不斷發展,研究者嘗試通過識别模型中學到的"概念"或内在結構,來理解AI的推斷邏輯。盡管這些可解釋性技術有很多局限性,但它們已經使科學家能夠從AI模型中得到新的科學假設。例如,有研究能夠預測DNA序列中每個鹼基對不同轉錄因子結合的相對貢獻,并用生物學家熟悉的概念解釋這一結果。此外,AlphaZero在下棋時學到的"超人類"策略,經由另一個AI系統解析後,還能傳授給人類棋手。這意味着,AI學習的"新概念"或許能反哺人類認知。
即使沒有可解釋性技術,AI也能通過開啟新的研究方向來改善科學理解,這些方向本來是無法實現的。例如,通過解鎖生成大量合成蛋白質結構的能力,AlphaFold使科學家能夠跨越蛋白質結構進行搜索,而不僅僅是蛋白質序列。這一方法被用來發現Cas13蛋白家族的一個古老成員,該成員在RNA編輯方面有潛力,尤其是在幫助診斷和治療疾病方面。這個發現還挑戰了關于Cas13進化的先前假設。相反,嘗試修改AlphaFold模型架構以融入更多的先驗知識,卻導致了性能下降。這凸顯了準确性與可解釋性之間的權衡。AI"模糊性"源于自它們能夠在高維空間中操作,而這些空間對人類來說可能是不可理解的,但卻是科學突破所必需的。
04 結語:把握機遇,人工智能賦能科研的行動方案
顯然,科學及人工智能在加速科學進程中的潛力應當引起科研工作者的高度重視。那麼,科研工作者應該從哪裡開始呢?為了充分利用AI驅動的科學機遇,以主動的姿态擁抱變革是必要的。或許有這樣一些建議可以采用。
首先,掌握AI工具的語言,如理解生成模型、強化學習等技術原理,并熟練運用開源的代碼庫進行定制化探索;其次要構建數據與實驗的閉環,将AI生成結果通過自動化實驗室(如加州大學伯克利分校A-Lab)快速驗證,形成"假設-生成-驗證"的迭代鏈路;更重要的是重塑科研想象力——當AI能設計出超越人類經驗範疇的蛋白質或超導體時,科學家應轉向更本質的科學問題,例如通過AI揭示材料性能與微觀結構的隐變量關系,或探索多尺度跨物理場的耦合機制。正如諾貝爾獎得主David Baker所言:"AI不是替代科學家,而是賦予我們觸碰未知的階梯。"在這場人機協同的探索中,唯有将人類的創造性思維與AI的計算暴力深度融合,方能真正釋放科學發現的無限可能。
參考文獻
https://www.aipolicyperspectives.com/p/a-new-golden-age-of-discovery
https://mp.weixin.qq.com/s/_LOoN785XhnXao9s9jTSVQ243145.