V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  wenerme  ›  全部回复第 1 页 / 共 9 页
回复总数  167
1  2  3  4  5  6  7  8  9  
5 天前
回复了 XTTX 创建的主题 业界八卦 新年第一大瓜, Tailwind Lab 裁员 75%
哎,真的喜欢 TW ,一开始就付费了,后来还付费了 Plus ,虽然几乎没用过 tailwindui 里的代码。
5 天前
回复了 YanSeven 创建的主题 程序员 google ai pro 99.99 美刀一年值得购买吗
绝对值得购买,最近几天试着把 Claude Opus 4.5 模型 quota 用完,做了这个工具网站 https://abc.wener.cc/use 99.9% 代码都是 AI 的
Opus 或者 gemini 配合 CC 都很好用
这里有代理出来使用的逻辑 https://github.com/wenerme/wener/blob/master/notes/ai/agent/antigravity.md
用了 Opus 4.5 后,其他模型都是垃圾
5 天前
回复了 wenerme 创建的主题 程序员 IDE 逐渐沦落为 IDV
仔细来说大概是这样的感觉


- 类似 Cursor, Antigravity 其实更接近 Agent 而非 IDE
- IDE 功能由 VSC 提供
- Cursor 和 Antigravity 在这基础上提供了 Agent 功能
- 工具范式转移
- IDE 输出 = 思考 × 编码速度
- Agent 输出 = 决策 × AI 执行力

> 代码写的越少,效率越高

| 特性 | 传统 IDE (VS Code / IntelliJ) | AI Agent (Cursor / Windsurf) |
| -------- | ----------------------------- | -------------------------------------- |
| 交互模式 | 被动 (Passive) | 主动 (Proactive) |
| 核心动作 | 编辑 (Edit)、保存、调试 | 规划 (Plan)、生成、执行 |
| 上下文 | 此时此刻打开的文件 | 整个代码库 (Project Awareness) |
| 人类角色 | 驾驶员 (Driver) | 指挥官 (Commander) / 审核员 (Reviewer) |
| 输出物 | 字符 (Characters) | Diff (变更集) |

- I (Integrated) -> Intelligent (智能)
- 死工具 -> 活 Agent / 有认知的工具
- D (Development) -> Delegation (委派)
- 操作员 -> 指挥官
- E (Environment) -> Entity (实体)
- 被动 -> 主动
2025 年 12 月 28 日
回复了 simo 创建的主题 职场话题 这一个月深度使用 antigravity,感觉很震撼
@jdz 差不多 99%+ 是 AI 写的
在打算写一个 HN 的 Clone ,这个会用到 DB 之类的,也顺便把相关的也都熟悉了
2025 年 12 月 26 日
回复了 simo 创建的主题 职场话题 这一个月深度使用 antigravity,感觉很震撼
最近使用 antigravity 还不够深度,但是尝试了下,Vibe Coding 了一个工具网站

http://abc.wener.cc/

前期都是 Gemini3 Pro ,后面尝试 Opus
用下来感觉还是很上头,现在还是前端为主,但是在做 Contract First 的后端了
2025 年 12 月 8 日
回复了 wenerme 创建的主题 Alpine Linux Alpine 3.23 发布了
@stinkytofux 感觉整体功能没太大变化,只是有些更统一了,apk 的优化觉得是加分项
2025 年 11 月 30 日
回复了 Chairs0 创建的主题 DNS 分享一次 FakeIP 的踩坑记录
有时候真的是没有别的选择。

macos ,通过修改 dns 就能全局正常工作。
有一个办法是允许 FakeIP 返回一个固定的正常外部 IP 然后拦截,然后通过 SNI 方式检测域名。
但是 mihomo 不支持返回固定 IP ,之前有用过 dnsmasq 来做这样的事情,这样的 SNI 方式不支持 mysql 这种非 http 请求。
如果能接受这种返回固定 IP ,那直接本地创建一个 interface 给 IP ,然后 gost 启动一个 sni 代理,就能随便处理了,但是这种情况支持的端口有限。
2025 年 11 月 28 日
回复了 shihao9618 创建的主题 Visual Studio Code gemini vscode 持续在后台活动
antigravity 占用 CPU 超高
@imik 不是,旧项目,cursor agent 能 link 到 repo ,然后 yolo 模式一次性操作完。但是结果很多时候不理想,打算最近再试试,反正以前是不理想。


@auhah 看到 composer 1 free ,且 opus 4.5 最近两周收费和 sonet 4.5 一样
@imik cursor agent 的网页版不需要,直接一口气操作完,但是试过几次都不理想。还没用过 claude 的网页版
2025 年 11 月 24 日
回复了 wenerme 创建的主题 程序员 AI RAG 时代,怎么安全正确获取 微信 数据?
@bobkingdom 是很多导出的,但是不敢随便用,有些拿 key 的方式怕被封号

@korvin 谢谢,我试试,看到有 fork
2025 年 11 月 21 日
回复了 wenerme 创建的主题 程序员 LLAMA CPP 比 Ollama 快得多
@TabGre llamacpp 支持 mps


@mooyo 我本地二手显卡,qwen3 vl 32b 30tk/s, gpt-oss 20b 100tk/s


@secretys vllm 对显卡有要求,我 v100 跑不了

@slowgen 模型加载用 llama-swap 配合下来感觉比 ollama 舒服,主要是可控制的参数太多了,就觉得爽
2025 年 11 月 21 日
回复了 wenerme 创建的主题 程序员 LLAMA CPP 比 Ollama 快得多
@c0xt30a

```yaml
services:
ollama:
# 0.11.6 0.12.3
image: docker.m.daocloud.io/ollama/ollama:0.13.0
container_name: ollama
networks:
- service
ports:
- 11434:11434
volumes:
- /data/home/.ollama/:/root/.ollama/
restart: unless-stopped
deploy:
resources:
reservations:
devices:
- driver: nvidia
count: all
capabilities: [ gpu ]
environment:
# qwen3 vl 最大 256K
#OLLAMA_CONTEXT_LENGTH: 16384 # 16k
#OLLAMA_CONTEXT_LENGTH: 32768 # 32k
# qwen3-vl:32b 256K 206.6 GiB
# qwen3-vl:32b 64K 42.7 GiB
OLLAMA_CONTEXT_LENGTH: 64000

OLLAMA_DEBUG: 1

#OLLAMA_KV_CACHE_TYPE: q4_0
OLLAMA_FLASH_ATTENTION: 1
#OLLAMA_NEW_ENGINE: true
OLLAMA_NUM_PARALLEL: 2


llama:
image: ghcr.io/mostlygeek/llama-swap:v172-cuda-b7062
container_name: llama
command:
- -watch-config
- -config
- /llama/llama-swap.yaml
volumes:
- ./models:/models
- ./models:/root/.cache/llama.cpp
# the user is app, home is /app, uid=10001
- ./models:/app/.cache/llama.cpp
- ./llama:/llama
ports:
- 11435:8080
environment:
HF_ENDPOINT: https://modelscope.cn
sysctls:
net.ipv6.conf.all.disable_ipv6: 1
deploy:
resources:
reservations:
devices:
- driver: nvidia
count: all
capabilities: [ gpu ]
extra_hosts:
- "host.docker.internal:host-gateway"

```
2025 年 11 月 7 日
回复了 aikilan 创建的主题 Markdown 用 AI 搞了个小玩具
一般告诉 agent 直接把一个文件翻译为中文写入到哪里就可以了
2025 年 10 月 21 日
回复了 wenerme 创建的主题 程序员 沦落到给 AI 打工了
@Lockroach

手写和 AI 一起维护的一些 log

```
tree logs
logs
├── 2025-08-w35.md
├── ...
├── 2025-11-w45.md
├── 2025-Q4
│ ├── 2025-Q4-ref.md
│ ├── architecture.md
│ ├── metrics.md
│ ├── README.md
│ ├── .....
│ └── work-tracking.md
├── glossary.md
├── ideas.md
└── template.md
```
在 HN 里,这种情况第一句都是 shameless plug, 不然都会显得不礼貌。如果还觉得别人 mark as spam 不爽, 那就真 shameless 了。
2025 年 10 月 12 日
回复了 wenerme 创建的主题 程序员 最近总想着压榨 AI 干活,感觉这样的心态要不得
@azzzzzz 所以当老板就是更累了,更穷了么?又没能多赚到一份钱 😭
2025 年 10 月 12 日
回复了 wenerme 创建的主题 程序员 最近总想着压榨 AI 干活,感觉这样的心态要不得
@HangoX 我是 2.x 的,最新版可以的,你可以试试它网页版能不能行,https://app.happy.engineering/ 手机上干完活还能在网页上继续接管。但是感觉现在功能还有点不是很顺,不过可用性还是很高了。
2025 年 10 月 11 日
回复了 wenerme 创建的主题 程序员 最近总想着压榨 AI 干活,感觉这样的心态要不得
@cvooc 能胜任需求,但是胜任不了使用的人也搞不懂的需求,主要靠使用的人来指导方向逐步优化完善。然后就是利用好信息,例如配置好 context7 之类这种,把文档放一些在本地,让它直接随时能获取到信息
1  2  3  4  5  6  7  8  9  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   5847 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 35ms · UTC 06:20 · PVG 14:20 · LAX 22:20 · JFK 01:20
♥ Do have faith in what you're doing.