最近大家都在聊AI,各种工具、产品层出不穷。说实话,刚开始我也跟风用AI写代码、写文案,结果发现一个问题:AI生成的东西越来越多,自己看的越来越少。
有次改bug,看着AI写的代码,愣是没看懂逻辑。要是自己写的,哪怕写得烂,至少知道哪里有坑。
这让我开始反思:AI擅长写,那让它来读呢?
后来试了一次,让AI分析我写的代码,指出问题。结果它真的毫不留情地把我的烂逻辑、冗余代码全挑出来了。那一刻才明白,与其让AI替我输出,不如让它审视我。
AI最有用的地方,不是它能写出多精准的代码,而是它能不讲情面地指出你的问题。
代码写得再好,也强不过AI。
但通过分析你的知识体系,AI能准确找出你的不足,并告诉你怎么改。
只有自身的代码水平、架构能力、表达能力提升了,AI才会跟着你变强。
这种对话还有个好处:没有人际压力。
你和领导聊天,得斟酌用词;和同事交流,怕暴露短板;自己复盘,又容易放过自己。AI就是一面镜子,你问什么它答什么,完全没顾虑。
而且比搜索引擎精准。搜索给你一堆资料,你得自己筛选;问人的话,大部分时候别人知道你有问题,但没义务指出来。
AI不一样,它可以事无巨细地给你分析,直到你真正理解。
拿技术面试场景举例:
让AI扮演面试官,检测自己的技术水平:
- 让AI提问:给它一个角色设定,让它针对我的方向出题
- 多轮对话:针对薄弱的地方,反复探讨,直到自己能完整表述出来
- 输出文档:把对话整理成md文档,方便回顾
这里要强调一点:必须是「表述」正确,不是「理解」正确。
你脑子里会,和你能说清楚,完全是两码事。
AI算是一个可以让你毫无心理压力表述答案的面试官了,真人面试时,还会受情绪影响。
所以我会把对话记录下来,看看自己哪些地方说得不清楚,然后继续优化表达。
下面是我目前的提示词,你可以根据自己的情况改动{}里的内容:
请你扮演一位资深的开发主管/前端技术负责人,以面试官的身份向我提出 {N} 个有代表性、有深度、能体现技术水平的面试题。
**面试流程**:
- 采用一问一答的形式,逐题提问,等待我回答后再提出下一题
- 如遇到不熟悉的题目,可以说明情况并跳过,不影响其他题目评分
- 全部问题回答完毕后,对每题进行评分(满分10分)
- 提供犀利但客观的点评,指出回答的优点和不足
- 给出每道题的标准答案作为参考
**输出要求**:
面试结束后,生成以下4份文档到 {目标目录}:
1. 面试题提示词模板(本模板文件)
2. 面试题目清单(所有题目及详细描述)
3. 面试题标准答案(每题的合格回答参考)
4. 面试评估报告(包含候选人原始回答、评分、点评)
**面试对象**:{岗位名称}
**面试方向**:{技术方向列表}
**参数配置**:
1. 面试时长:{时长}分钟
2. 技术方向权重:
- {方向1}:{权重}(最高/次之/一般/少量)
- {方向2}:{权重}
- {方向3}:{权重}
- ...
3. 题目分布:
- 技术深度:{比例}%
- 实战场景:{比例}%
- 架构设计:{比例}%
- 综合管理:{比例}%
4. 公司背景:{创业公司/中大型公司/技术驱动型公司}
**题目设计原则**:
1. 技术深度题({比例}%):考察底层原理理解,需解释"为什么"和"怎么实现"
示例:Vue响应式原理、Node.js事件循环、Virtual DOM diff算法
2. 实战场景题({比例}%):考察问题解决能力,给出具体业务场景求解决方案
示例:大数据量性能优化、技术栈迁移策略、内存泄漏排查
3. 架构设计题({比例}%):考察系统思维和架构能力,需设计完整技术方案
示例:微前端架构、高并发API网关、全栈应用技术选型
4. 综合管理题({比例}%):考察团队协作和项目管理能力,关注软技能
示例:技术债务平衡、代码规范落地、Code Review文化建设
**标准答案输出要求**:
- 仅用文字描述核心要点,不要提供代码示例
- 不要使用正反对比的举例说明(如"❌ 错误示例"、"✅ 正确示例")
- 答案需克制、精炼,点到为止,避免过度展开
- 控制每题答案在 300-500 字以内
- 重点说明"是什么"和"为什么",不需详述"怎么做"
这套方法不只适合技术。
生活、情感、人际关系,AI或许有独到的见解,毕竟它见得多。
不管是你问它,还是让它反问你,都是一场在生活中少有的、直指内心的问答。