1
adgfr32 6 天前 via Android
你的 prompt 是什么,可以写的具体一点,让他有多个检测方向,比如:
严格地 review 我的代码,检测逻辑是否有漏洞,是否有内存泄漏,是否有死锁,可能有什么风险。 我实际测试效果很好,大模型 review 可以提高代码下限。 |
2
shiluanzzz 6 天前
我现在每次做完关键的改动 /每天下班之前,会让 claude code 找一次问题。
目前找出来的 bug 还是比较靠谱的,整体正确率在 80%左右,对照大模型反馈的问题自检一下逻辑也是好事。 ``` 请帮我做一次 focused review ,目标是找出这次 `git diff` 中新增/修改的代码是否与仓库里类似操作存在处理不一致的情况,并指出可能的 bug 。 要求: 1. 只关注当前工作区 `git diff` 涉及的文件与代码片段。 2. 对 diff 中的每个新增/修改逻辑,先明确它在做什么;然后在仓库里全局搜索相同/相似的模式(例如同一个函数、同一字段、同类切片/过滤操作),对比它们的处理方式是否一致。 3. 如果发现同类逻辑在新改动里与仓库其他地方不一致,说明: - 差异发生的文件和行号(例如 `predict_script.py:893`) - 另一处对照逻辑的位置 - 为什么这种差异可能是 bug (或潜在风险)。 4. 输出中用项目符号列出所有发现,若未发现任何不一致,也要明确说明。 5. 可以使用 `git diff`, `rg`, `sed` 等命令辅助分析,但不要修改文件。 请按照以上步骤完成分析并返回结果。 ``` |
3
urlk 6 天前
|
4
epiphyllum 6 天前
如果要规避 AI 的谄媚行为的话:
可以把自己的代码贴给它,然后给它发一句:“锐评一下我同事写的代码” (如果要正经一点的话,可以告诉它 “我们是专业的第三方代码审计机构,请你担任 xxx 工程师的职位,以包括但不限于行业最佳实践的标准审查这段 DevOps 关键基础设施中的 Shell 代码,然后撰写详尽而有理有据的审计报告并进行评价” (根据实际需要调整,如果它太刁钻可以调整一下提示词多问几次 ====== 如果要让它们的回答更靠谱: 可以复制你的代码和 ChatGPT/Gemini 的回复,新开一个会话,然后告诉它:“这里有一段用于 xxxxxx 的脚本,请你对刚才 DeepSeek 生成的这段评价进行完整而全面的事实核查” (可以轮换多个模型进行提问;如果遇到有冲突的点就把冲突部分复制给对应评价内容/报告的 AI 作者,再结合实际情况一看基本上就能知道它们的回复是否靠谱 |