今天小编分享的科技经验:2025年AI入门指南,从DeepSeek到AI智能体,欢迎阅读。
文 | 田威 AI
DeepSeek 火爆,AI 学习的热潮也吹到了我们公司,上周给公司的同事做了一期关于 AI 入门的分享,感觉内容非常适合小白入门了解 AI,于是整理成公众号文章,作为我 AI 入门科普的总集和收尾,后面会更专注写一些进阶的内容。
如果你当下对 AI 还是云里雾里,半知不解,那么非常适合阅读这篇文章,读完就能帮助对 AI 建立一个基础的认知,简单了解 AI 的技术原理,AI 生成内容的本质,为什么能生成内容,AI 能做什么,提示词如何写,以及实用好用的 AI 工具和 AI 幻觉应对的方法等。
如果本文帮助到了当下的你,欢迎点赞转发,你的每一个互动都是我持续创作的动力。
一、大语言模型为什么会在今天出现?
OpenAI 的 ChatGPT 发布在 2022 年,为什么 AI 会在这个时候发布?主要是因为这三样东西满足了条件:
1. 算法——机器学习范式的突破
2017 年 Google 团队开创的 Transformer 架构,通过神经网络模型学习语言规律,实现文本理解与生成。如 Transformer 架构可捕捉长距离语义关联,GPT 系列模型通过自注意力机制预测词序列。
2014 年生成对抗网络(GAN)的技术创新,通过生成器与判别器的对抗训练,实现影像 / 视频的创造性输出。如 Phenaki 模型可根据文本生成连贯视频,DALL · E 能跨模态生成影像。
当前的 AI 工具基本都基于 Transformer 架构和生成对抗网络(GAN)这两个算法技术,算法的突破是当前 AI 诞生的原因之一。
2. 数据——海量知识库的积累
AI 需要学习海量的高质量数据才能从中找到规律,模仿人类生成内容。
随着互联网和生产力的发展,近二十年人类生产的内容可能比过去几千年还多,这些海量的数据积累让 AI 有了足够的 " 学习资料 ",可以通过学习去了解分析分析数据中的语法结构、视觉特征等潜在规律从而模仿人类进行创作。
如果没有这些高质量的数据资料,AI 可能根本找不到人类文本的规律。
3. 算力——硬體性能的飞跃
过去人类的显卡算力没有办法处理如此海量的数据,现在像 NVIDIAH100 集群可以支持 1750 亿参数模型训练,再有分布式计算技术的发展,像谷歌 TPUv4 实现了每秒 2.3exaflops 运算能力,这种超强算力让 AI 模型训练时间从几年缩短到几周甚至几天。
综上所述,简单来说,算法,数据,算力三者都满足了 AI 诞生的条件!
二、为什么 AI 能生成内容?
以 DeepSeek 为例来说明。
如果用一个比喻来描述 DeepSeek,它大概就像是你的一位非常博学多才的朋友,读过浩如烟海的书籍,还能瞬间在腦海中建立起各种知识之间的联系。这就是现代大语言模型的工作方式,而支撑这种能力的核心,就是上文提到的 Google 团队开创的 Transformer 架构。
Transformer 最厉害的本事,就是它的"注意力机制"。打个比方,当你在看一本书时,普通人需要从头读到尾,而 Transformer 就像是一个 " 超级读者 ",能够一眼就找到文本中最关键的信息,并迅速理解它们之间的关联。
DeepSeek 在 " 成长过程 " 中 " 阅读 " 人类积累的海量知识,从枯燥的维基百科到优美的文学作品,从前沿的学术论文到专业的技术文档,通过不断预测句子中缺失的词,逐渐掌握了语言的规律,知道了某个词后面出现哪个词的概率更大。
所以 AI 生成内容的方式是概率最大化,也就是 " 猜 ",通过海量数据来预测下一个单词,而不是真的理解了人类的说的到底是什么意思。
也就是说 AI 只是一只鹦鹉,它并不是真的理解现实世界,也不是通过逻辑推理来回答我们的问题。
现在的大语言模型跟我们在影视剧中看到的,比如像威尔 · 史密斯主演的《我,机器人》中的人工智能完全不一样,我们与 AGI 距离依旧无限遥远,当然可能并不是坏事。
三、AI 到底能做什么?
1.AI 基础能力
DeepSeek 火爆之后很多人对 AI 有了不切实际的期待,以为 AI 什么都能做,这是一个很大的误区。就像我上文说的,现阶段 AI 的主要能力主要是生成文本等,所以可用范围基本局限在内容创作当中。
下图我就罗列了四种最基础的 AI 能力:文本生成、图片生成、视频生成和音频生成。AI 是什么,AI 之于我是创造的源泉,创造的能力和创造的工具。
我之前将 AI 的多模态能力整合做的一个《舌尖上的中国》风格的奥特曼搞怪视频。
具体的制作路径是先用 DeepSeek 生成脚本和具体的文案,然后再使用 Whisk 生成静态图片,用可灵根据静态图片生成视频画面,最后用剪映的 AI 配音功能生成音频,合成为一个完整的视频。
2.AI 进阶能力
基于上面这些基础功能,现在的 AI 还延伸出了一系列的其他的能力,像豆包聊天机器人、秘塔 AI 搜索、Manus 这种都是对某方面的能力进行了强化,或者与其他工具组合后诞生的 AI 工具。
Manus、秘塔 AI 搜索等我们都可以理解为 AI 智能体,原本 AI 智能体的定义是能够感知环境、做出决策并采取行动以实现特定目标的人工智能系统。但现在我们对其定义已经泛化了,像豆包上面的各种聊天机器人都被称为智能体。
顺着这个逻辑,现在市面上的智能体可以被理解为一个具有输入 - 处理 - 输出能力的人工智能系统,核心在于对信息的处理和响应能力,不同程度的智能体在自主性、感知广度和决策复杂度上存在差异。
豆包上面的智能体聊天机器人我们就可以理解为是初级智能体,而像 Manus 这样的 " 通用型 AI 智能体 " 相对就更高阶了,能做的事情也更多。
基础如豆包聊天机器人,可以根据我们设定的 prompt 做出特定的回复。下图就是我做的一款男友聊天器,他会像男朋友一样和你聊天,给到充足的情绪价值。
更进一步的 AI 智能体像秘塔 AI 搜索,则是在搜索方面做了进一步的优化,可以自主拆分问题,然后搜索相关资料,最终将答案汇总。
相比直接和基础大模型聊天,AI 搜索工具给到的内容更全面,更详细,幻觉发生的概率也更低。
而 Manus 这样的智能体相比豆包的聊天机器人和秘塔 AI 搜索能做的事情就更多了,当我们告诉它需要做的事情后,它可以自己思考规划任务,通过自动浏览网页,调用各种工具来完成复杂任务。
做一份行业趋势分析,旅游攻略,抑或编写一个小游戏这些功能都不在话下。而且全程无需人工干预,它自己就一步步去完成。
随着技术的进步,智能体将拥有更高级的特性,如更强的自主性、更广泛的环境感知和更复杂的决策能力。
AI Agent 也确实是 AI 发展的重要趋势之一,它们正在弥合强大 AI 能力与实际应用场景之间的鸿沟。
对普通用户而言,AI 不再是一个需要精心 " 喂养 " 提示词的工具,而是一个能真正理解并执行任务的助手。对企业而言,AI Agent 能大幅降低 AI 落地的门槛,让更多行业和场景能够切实享受到 AI 带来的效率提升。
未来的某个时刻,或许人类真的就可以脱手生产,摆脱重复性的劳动,去从事更有创造性的工作了。
四、如何与 AI 交流?
现在大多数人对 AI 的重点还是放在了无所不知上,却忽视了 AI 没有现实世界的体验。如果要用一个比喻来形容 AI,那" 全知全能的实习生 "再合适不过了,什么都懂,但什么都不会。
所以怎么和 AI 沟通就变得非常重要了。
这一块我重点分享几个适合普通人的 AI 提示词技巧和沟通技巧,学会了这几个技巧,我们在和 AI 沟通时效率会高很多。
1.AI 提示词技巧
语言的边界是世界的边界,AI 能力的发挥取决于我们语言的运用。
AI 提示词(Prompt)是用户与 AI 大模型互動的关键工具,其本质在于借助自然语言指令引导 AI 生成特定内容或达成任务的输入信息。
例如,输入 " 撰写一篇有关火星探索的科普文章 ",AI 便会依据该提示生成相关内容。提示词的清晰程度和详细细节直接对 AI 生成内容的准确性与质量产生影响。
一般来说我会将提示词分为以下三种,这三种是可以同时出现的,只不过某些简单的需求使用简单提示词就够啦。
我们写提示词的时候可以遵从这三种来。
直接指定任务,像 " 翻译以下英文段落 " 或者 " 生成 300 字的产品文案 ",适用于需求明确的场景。
经由设定角色来引导 AI 输出,例如 " 假设您是资深营养师,设计一周减脂食谱 ",这样能够增强专业性与创意性。
采用模板化指令(如 CRISPE 原则:清晰、角色、步骤、示例、反馈),以提高 AI 的理解效率。例如:
角色:资深文案策划
任务:撰写新能源汽车广告语
要求:包含科技感、简洁有力、目标用户为 30-40 岁男性
``````
如果还是对提示词一知半解的,可以直接去阅读 DeepSeekAPI 文档里面的提示词库,了解学习写法。
链接:https://api-docs.DeepSeek.com/zh-cn/prompt-library/
2. 分解复杂任务
现阶段 AI 由于上下文,模型能力等问题,其实在处理复杂任务的时候时常会出现 " 偷懒 " 这种情况,这种时候就需要我们帮 AI 拆解任务。
接下来用写一篇 " 远程办公的未来发展 " 的文章为例,告诉大家怎么一步步指导 AI 完成高质量写作。
3. 连续提问技巧
不要指望 AI 能一次性完成你想要的内容,在使用 AI 时要调整好心态,把它当作一个博学但经验尚浅的实习生。它知识面很广,但需要你的引导才能交出令人满意的作业。
比如我们让 AI 写一个咖啡店的开业方案,刚产出的第一版大概率是不符合我们的需求,我们可以通过继续提问的方式让它优化内容,直到符合我们的要求。
以咖啡店开业方案为例,AI 写的第一版方案没有很好地突出 " 大学生 " 这个目标客群。这时候,别急着否定,而是可以这样优化对话:
掌握这三个 AI 沟通的技巧,可以大幅度提升使用效率和生成内容的质量。
五、2025 年 AI 工具推荐
之前我写过一篇 2025 年 AI 工具推荐的文章,已经非常全了,感兴趣的朋友可以阅读一下这篇:从 ChatGPT、DeepSeek 到可灵、豆包,2025 年 AI 工具全景图,从入门到精通,这一篇就够了
六、AI 使用注意事项
最后再讲一个要点,AI 都会有幻觉,尤其是 DeepSeekR1,幻觉率高达 14%,所以千万不要轻信 AI。
AI 幻觉就是 AI 编造看似合理但实际错误的信息。比如你让 AI 引用论文,它可能会虚构不存在的论文。就像早期 AI 会告诉你北京有埃菲尔铁塔,因为它把 " 北京是中国首都 " 和 " 巴黎有埃菲尔铁塔 " 这两个知识点错误地混在了一起。
首先,AI 本质是在猜下一个词。它不真正理解世界,只是通过统计关系预测最可能的下一个词。就像 " 春天来了,小草 ..." 后面大概率是 " 发芽了 "。猜得越多,出错可能性越高。
其次,训练数据本身可能有错。AI 就像只能根据读过的书回答问题,书里有错,回答自然也会错。
再者,过拟合问题。这就像学生不仅记住知识点,还把教材的每个例题、每句话都背下来,遇到不同的场景时就懵了。
此外,AI 的上下文限制 ( 约 64K 或 128K 词 ) 和被设计成必须回答的倾向,也会导致它在不确定时编造答案,就像考试时不会的题也要瞎写一样。
技术上,可以用更高质量的数据集,对数据严格筛选清洗,或者利用人工反馈引导模型。还可以让 AI 生成多个答案再投票选出最靠谱的答案,或用思维链让 AI 展示推理过程。
日常使用时,给 AI 設定明确边界,比如限定在特定范围内回答,或明确要求基于事实不要推测。也可用不同 AI 交叉验证,或利用 RAG 技术提升准确度。
RAG 技术是现在减少 AI 幻觉的主流方法。相当于给 AI 配个专业知识库,先检索相关事实,再基于这些信息回答。普通 AI 像是在参加闭卷考试,而使用了 RAG 技术的 AI 是开卷考试,自然更准确!
AI 幻觉也不一定全是坏处,它也能启发创意,提供意想不到的观点和灵感。在艺术领網域,可能带来独特效果和惊喜。在科研中,虽然最初可能是错误的假设,但可能启发新的研究方向,拓宽思路。
借用《三体》的话:" 不要轻信,不要轻信,不要轻信 "。特别是健康问题上,不要拿 AI 的诊断建议质疑医生,或自行治疗。时刻保持警惕,别盲目相信 AI。
更详细的内容也可以看这篇内容:为什么 AI 这么能编?深度解析大模型的 " 幻觉 " 机制
最后,简单总结一下。
随着 DeepSeek 的走红和 AI 技术的普及,我们正站在人类认知革命的风口浪尖。从算法的突破、数据的积累到算力的飞跃,AI 的诞生不是偶然,而是人类智慧长河中的必然产物。
未来已来,但未来不是由 AI 决定的,而是由我们每一个人共同塑造的。让我们怀着好奇心和批判精神,与 AI 共同创造一个更加美好的明天。
在这个 AI 与人类共同演进的新纪元,希望这篇入门科普能为你打开认知的一扇窗,让你不再对 AI 感到云里雾里,而是能够自信地驾驭这个强大的工具,在自己的领網域创造更多可能。