今天小編分享的科技經驗:2025年AI入門指南,從DeepSeek到AI智能體,歡迎閲讀。
文 | 田威 AI
DeepSeek 火爆,AI 學習的熱潮也吹到了我們公司,上周給公司的同事做了一期關于 AI 入門的分享,感覺内容非常适合小白入門了解 AI,于是整理成公眾号文章,作為我 AI 入門科普的總集和收尾,後面會更專注寫一些進階的内容。
如果你當下對 AI 還是雲裏霧裏,半知不解,那麼非常适合閲讀這篇文章,讀完就能幫助對 AI 建立一個基礎的認知,簡單了解 AI 的技術原理,AI 生成内容的本質,為什麼能生成内容,AI 能做什麼,提示詞如何寫,以及實用好用的 AI 工具和 AI 幻覺應對的方法等。
如果本文幫助到了當下的你,歡迎點贊轉發,你的每一個互動都是我持續創作的動力。
一、大語言模型為什麼會在今天出現?
OpenAI 的 ChatGPT 發布在 2022 年,為什麼 AI 會在這個時候發布?主要是因為這三樣東西滿足了條件:
1. 算法——機器學習範式的突破
2017 年 Google 團隊開創的 Transformer 架構,通過神經網絡模型學習語言規律,實現文本理解與生成。如 Transformer 架構可捕捉長距離語義關聯,GPT 系列模型通過自注意力機制預測詞序列。
2014 年生成對抗網絡(GAN)的技術創新,通過生成器與判别器的對抗訓練,實現影像 / 視頻的創造性輸出。如 Phenaki 模型可根據文本生成連貫視頻,DALL · E 能跨模态生成影像。
當前的 AI 工具基本都基于 Transformer 架構和生成對抗網絡(GAN)這兩個算法技術,算法的突破是當前 AI 誕生的原因之一。
2. 數據——海量知識庫的積累
AI 需要學習海量的高質量數據才能從中找到規律,模仿人類生成内容。
随着互聯網和生產力的發展,近二十年人類生產的内容可能比過去幾千年還多,這些海量的數據積累讓 AI 有了足夠的 " 學習資料 ",可以通過學習去了解分析分析數據中的語法結構、視覺特征等潛在規律從而模仿人類進行創作。
如果沒有這些高質量的數據資料,AI 可能根本找不到人類文本的規律。
3. 算力——硬體性能的飛躍
過去人類的顯卡算力沒有辦法處理如此海量的數據,現在像 NVIDIAH100 集群可以支持 1750 億參數模型訓練,再有分布式計算技術的發展,像谷歌 TPUv4 實現了每秒 2.3exaflops 運算能力,這種超強算力讓 AI 模型訓練時間從幾年縮短到幾周甚至幾天。
綜上所述,簡單來説,算法,數據,算力三者都滿足了 AI 誕生的條件!
二、為什麼 AI 能生成内容?
以 DeepSeek 為例來説明。
如果用一個比喻來描述 DeepSeek,它大概就像是你的一位非常博學多才的朋友,讀過浩如煙海的書籍,還能瞬間在腦海中建立起各種知識之間的聯系。這就是現代大語言模型的工作方式,而支撐這種能力的核心,就是上文提到的 Google 團隊開創的 Transformer 架構。
Transformer 最厲害的本事,就是它的"注意力機制"。打個比方,當你在看一本書時,普通人需要從頭讀到尾,而 Transformer 就像是一個 " 超級讀者 ",能夠一眼就找到文本中最關鍵的信息,并迅速理解它們之間的關聯。
DeepSeek 在 " 成長過程 " 中 " 閲讀 " 人類積累的海量知識,從枯燥的維基百科到優美的文學作品,從前沿的學術論文到專業的技術文檔,通過不斷預測句子中缺失的詞,逐漸掌握了語言的規律,知道了某個詞後面出現哪個詞的概率更大。
所以 AI 生成内容的方式是概率最大化,也就是 " 猜 ",通過海量數據來預測下一個單詞,而不是真的理解了人類的説的到底是什麼意思。
也就是説 AI 只是一只鹦鹉,它并不是真的理解現實世界,也不是通過邏輯推理來回答我們的問題。
現在的大語言模型跟我們在影視劇中看到的,比如像威爾 · 史密斯主演的《我,機器人》中的人工智能完全不一樣,我們與 AGI 距離依舊無限遙遠,當然可能并不是壞事。
三、AI 到底能做什麼?
1.AI 基礎能力
DeepSeek 火爆之後很多人對 AI 有了不切實際的期待,以為 AI 什麼都能做,這是一個很大的誤區。就像我上文説的,現階段 AI 的主要能力主要是生成文本等,所以可用範圍基本局限在内容創作當中。
下圖我就羅列了四種最基礎的 AI 能力:文本生成、圖片生成、視頻生成和音頻生成。AI 是什麼,AI 之于我是創造的源泉,創造的能力和創造的工具。
我之前将 AI 的多模态能力整合做的一個《舌尖上的中國》風格的奧特曼搞怪視頻。
具體的制作路徑是先用 DeepSeek 生成腳本和具體的文案,然後再使用 Whisk 生成靜态圖片,用可靈根據靜态圖片生成視頻畫面,最後用剪映的 AI 配音功能生成音頻,合成為一個完整的視頻。
2.AI 進階能力
基于上面這些基礎功能,現在的 AI 還延伸出了一系列的其他的能力,像豆包聊天機器人、秘塔 AI 搜索、Manus 這種都是對某方面的能力進行了強化,或者與其他工具組合後誕生的 AI 工具。
Manus、秘塔 AI 搜索等我們都可以理解為 AI 智能體,原本 AI 智能體的定義是能夠感知環境、做出決策并采取行動以實現特定目标的人工智能系統。但現在我們對其定義已經泛化了,像豆包上面的各種聊天機器人都被稱為智能體。
順着這個邏輯,現在市面上的智能體可以被理解為一個具有輸入 - 處理 - 輸出能力的人工智能系統,核心在于對信息的處理和響應能力,不同程度的智能體在自主性、感知廣度和決策復雜度上存在差異。
豆包上面的智能體聊天機器人我們就可以理解為是初級智能體,而像 Manus 這樣的 " 通用型 AI 智能體 " 相對就更高階了,能做的事情也更多。
基礎如豆包聊天機器人,可以根據我們設定的 prompt 做出特定的回復。下圖就是我做的一款男友聊天器,他會像男朋友一樣和你聊天,給到充足的情緒價值。
更進一步的 AI 智能體像秘塔 AI 搜索,則是在搜索方面做了進一步的優化,可以自主拆分問題,然後搜索相關資料,最終将答案匯總。
相比直接和基礎大模型聊天,AI 搜索工具給到的内容更全面,更詳細,幻覺發生的概率也更低。
而 Manus 這樣的智能體相比豆包的聊天機器人和秘塔 AI 搜索能做的事情就更多了,當我們告訴它需要做的事情後,它可以自己思考規劃任務,通過自動浏覽網頁,調用各種工具來完成復雜任務。
做一份行業趨勢分析,旅遊攻略,抑或編寫一個小遊戲這些功能都不在話下。而且全程無需人工幹預,它自己就一步步去完成。
随着技術的進步,智能體将擁有更高級的特性,如更強的自主性、更廣泛的環境感知和更復雜的決策能力。
AI Agent 也确實是 AI 發展的重要趨勢之一,它們正在彌合強大 AI 能力與實際應用場景之間的鴻溝。
對普通用户而言,AI 不再是一個需要精心 " 喂養 " 提示詞的工具,而是一個能真正理解并執行任務的助手。對企業而言,AI Agent 能大幅降低 AI 落地的門檻,讓更多行業和場景能夠切實享受到 AI 帶來的效率提升。
未來的某個時刻,或許人類真的就可以脱手生產,擺脱重復性的勞動,去從事更有創造性的工作了。
四、如何與 AI 交流?
現在大多數人對 AI 的重點還是放在了無所不知上,卻忽視了 AI 沒有現實世界的體驗。如果要用一個比喻來形容 AI,那" 全知全能的實習生 "再合适不過了,什麼都懂,但什麼都不會。
所以怎麼和 AI 溝通就變得非常重要了。
這一塊我重點分享幾個适合普通人的 AI 提示詞技巧和溝通技巧,學會了這幾個技巧,我們在和 AI 溝通時效率會高很多。
1.AI 提示詞技巧
語言的邊界是世界的邊界,AI 能力的發揮取決于我們語言的運用。
AI 提示詞(Prompt)是用户與 AI 大模型互動的關鍵工具,其本質在于借助自然語言指令引導 AI 生成特定内容或達成任務的輸入信息。
例如,輸入 " 撰寫一篇有關火星探索的科普文章 ",AI 便會依據該提示生成相關内容。提示詞的清晰程度和詳細細節直接對 AI 生成内容的準确性與質量產生影響。
一般來説我會将提示詞分為以下三種,這三種是可以同時出現的,只不過某些簡單的需求使用簡單提示詞就夠啦。
我們寫提示詞的時候可以遵從這三種來。
直接指定任務,像 " 翻譯以下英文段落 " 或者 " 生成 300 字的產品文案 ",适用于需求明确的場景。
經由設定角色來引導 AI 輸出,例如 " 假設您是資深營養師,設計一周減脂食譜 ",這樣能夠增強專業性與創意性。
采用模板化指令(如 CRISPE 原則:清晰、角色、步驟、示例、反饋),以提高 AI 的理解效率。例如:
角色:資深文案策劃
任務:撰寫新能源汽車廣告語
要求:包含科技感、簡潔有力、目标用户為 30-40 歲男性
``````
如果還是對提示詞一知半解的,可以直接去閲讀 DeepSeekAPI 文檔裏面的提示詞庫,了解學習寫法。
鏈接:https://api-docs.DeepSeek.com/zh-cn/prompt-library/
2. 分解復雜任務
現階段 AI 由于上下文,模型能力等問題,其實在處理復雜任務的時候時常會出現 " 偷懶 " 這種情況,這種時候就需要我們幫 AI 拆解任務。
接下來用寫一篇 " 遠程辦公的未來發展 " 的文章為例,告訴大家怎麼一步步指導 AI 完成高質量寫作。
3. 連續提問技巧
不要指望 AI 能一次性完成你想要的内容,在使用 AI 時要調整好心态,把它當作一個博學但經驗尚淺的實習生。它知識面很廣,但需要你的引導才能交出令人滿意的作業。
比如我們讓 AI 寫一個咖啡店的開業方案,剛產出的第一版大概率是不符合我們的需求,我們可以通過繼續提問的方式讓它優化内容,直到符合我們的要求。
以咖啡店開業方案為例,AI 寫的第一版方案沒有很好地突出 " 大學生 " 這個目标客群。這時候,别急着否定,而是可以這樣優化對話:
掌握這三個 AI 溝通的技巧,可以大幅度提升使用效率和生成内容的質量。
五、2025 年 AI 工具推薦
之前我寫過一篇 2025 年 AI 工具推薦的文章,已經非常全了,感興趣的朋友可以閲讀一下這篇:從 ChatGPT、DeepSeek 到可靈、豆包,2025 年 AI 工具全景圖,從入門到精通,這一篇就夠了
六、AI 使用注意事項
最後再講一個要點,AI 都會有幻覺,尤其是 DeepSeekR1,幻覺率高達 14%,所以千萬不要輕信 AI。
AI 幻覺就是 AI 編造看似合理但實際錯誤的信息。比如你讓 AI 引用論文,它可能會虛構不存在的論文。就像早期 AI 會告訴你北京有埃菲爾鐵塔,因為它把 " 北京是中國首都 " 和 " 巴黎有埃菲爾鐵塔 " 這兩個知識點錯誤地混在了一起。
首先,AI 本質是在猜下一個詞。它不真正理解世界,只是通過統計關系預測最可能的下一個詞。就像 " 春天來了,小草 ..." 後面大概率是 " 發芽了 "。猜得越多,出錯可能性越高。
其次,訓練數據本身可能有錯。AI 就像只能根據讀過的書回答問題,書裏有錯,回答自然也會錯。
再者,過拟合問題。這就像學生不僅記住知識點,還把教材的每個例題、每句話都背下來,遇到不同的場景時就懵了。
此外,AI 的上下文限制 ( 約 64K 或 128K 詞 ) 和被設計成必須回答的傾向,也會導致它在不确定時編造答案,就像考試時不會的題也要瞎寫一樣。
技術上,可以用更高質量的數據集,對數據嚴格篩選清洗,或者利用人工反饋引導模型。還可以讓 AI 生成多個答案再投票選出最靠譜的答案,或用思維鏈讓 AI 展示推理過程。
日常使用時,給 AI 設定明确邊界,比如限定在特定範圍内回答,或明确要求基于事實不要推測。也可用不同 AI 交叉驗證,或利用 RAG 技術提升準确度。
RAG 技術是現在減少 AI 幻覺的主流方法。相當于給 AI 配個專業知識庫,先檢索相關事實,再基于這些信息回答。普通 AI 像是在參加閉卷考試,而使用了 RAG 技術的 AI 是開卷考試,自然更準确!
AI 幻覺也不一定全是壞處,它也能啓發創意,提供意想不到的觀點和靈感。在藝術領網域,可能帶來獨特效果和驚喜。在科研中,雖然最初可能是錯誤的假設,但可能啓發新的研究方向,拓寬思路。
借用《三體》的話:" 不要輕信,不要輕信,不要輕信 "。特别是健康問題上,不要拿 AI 的診斷建議質疑醫生,或自行治療。時刻保持警惕,别盲目相信 AI。
更詳細的内容也可以看這篇内容:為什麼 AI 這麼能編?深度解析大模型的 " 幻覺 " 機制
最後,簡單總結一下。
随着 DeepSeek 的走紅和 AI 技術的普及,我們正站在人類認知革命的風口浪尖。從算法的突破、數據的積累到算力的飛躍,AI 的誕生不是偶然,而是人類智慧長河中的必然產物。
未來已來,但未來不是由 AI 決定的,而是由我們每一個人共同塑造的。讓我們懷着好奇心和批判精神,與 AI 共同創造一個更加美好的明天。
在這個 AI 與人類共同演進的新紀元,希望這篇入門科普能為你打開認知的一扇窗,讓你不再對 AI 感到雲裏霧裏,而是能夠自信地駕馭這個強大的工具,在自己的領網域創造更多可能。