Skip to content
在当前的生成式人工智能应用中,不同的任务需求决定了选择不同的平台和模型至关重要。根据网络条件、费用以及使用场景的不同,用户在访问和使用大语言模型时,需要根据任务的复杂性、推理需求以及具体的操作类型(如编程、文本生成等)做出相应的调整。
0. 一般原则
使用 大模型 替代你的脑力活动中的重复性劳力,而不是创造性思考。
使用 大模型 为你提供头脑风暴参考,但要确保你的判断力是可靠且理性的。
时常想想,大模型弱化了你的哪种能力,以及你是否容许它弱化你的这种能力。
代码是大模型和你的任务之间的重要桥接,能够很大程度上规避模型幻觉问题。与其让大模型为你提供处理结果,不如让它生成可复用的代码。
模型回答结果不理想时思考:① 可否换用在这项任务上更强的模型?② 你的提示词是否逻辑清晰、明确,包含必要的解释和案例?大多数情况下,由于问题 ② 的普遍,使得问题 ① 的上限远未被触及。
好的提示词长什么样的?可以参考这个 Github 仓库 ,它收集了 GPTs 泄露出的大量系统提示词。
有时我们需要结果也需要过程,例如阅读文献的实际收益在阅读前是未知的,使用大模型对 PDF 提问往往舍弃了阅读文献带给你我的真正启发。
1. 在线平台选择
免费:
直接访问 OpenAi 官网使用免费 4o-mini 模型(需要有网络条件)
访问 POE 使用免费模型(需要有网络条件)
付费(订阅制):
如需 Openai 的高级模型(4o/o1-preview)需要付月费(安卓手机绑定外币信用卡支付)
或使用 Claude 中的高级模型(Sonnet 3.5)需要付月费
付费(按 Token 计费):
NYai 包含很多高级模型,按量收费(最贵的模型一次问答 0.2元 左右),有免费额度。
2. 在线模型选择
复杂推理:GPT-o1 preview
轻推理重文字输出:GPT-4o
代码编写与 Debug: Claude 3.5 sonnet = Cursor > GPT-o1 preview > GPT-4o (不要使用其他模型编程,比如 Kimi )
搜索结果归纳: 跃问 > Kimi >> 智谱清言 (不基于搜索结果的任何「知识性/逻辑性」 问题都不建议问 Kimi ,使用 智谱清言 的唯一场景是「这模型真的有说的那么差吗?我倒要看看。」)
3. 离线(本地)大语言模型选择
中文模型:Qwen2.5 > GLM4
英文模型:Llama3.1
多种模型及参数量比较:本地语言模型个人推荐 (2024-07-09)
离线大模型平台:Ollama (能被 Ollama 支持的模型,就不要自己搭建环境)
4. 离线(本地)模型硬件选择
5. 理论及原理学习
6. 提示词工程参考
Z. 总结
没有网络条件或需要少量且高质量的问答,使用 NYai 。
高质量问答指的是「需要复杂逻辑推理/生成准确代码」,前者使用 GPT-o1 preview 后者使用 Claude 3.5 sonnet 。
代码输出仅推荐 Claude 3.5 sonnet ,其次 Cursor 、GPT-o1 preview ,不要使用任何其他模型输出代码,它们往往给你带来的帮助和苦恼一样多。
Kimi 大模型能力很弱,它强在基于搜索结果的答案整合,如果你确信你需要答案不在搜索结果中,那就别用 Kimi 。
慎重使用:xlchatbox.top ,已被举报封禁。
文章导航
Warning : call_user_func_array() expects parameter 1 to be a valid callback, function 'wp_print_speculation_rules' not found or invalid function name in
/usr/local/lighthouse/softwares/wordpress/wp-includes/class-wp-hook.php on line
324