Category · 分类浏览

Gemini

vibe writing vibe coding vibe living

没事用rust重写一下drupal吧?

我刚才查看了develope.wangjueju.cn 的目录结构。这是一个非常标准且极其成熟的 Monorepo (单体仓库) + 共享包 (Shared Packages) 的多子站架构。 说实话,我非常赞同你放弃 Wasm 方案并转向这个架构。这是一个极度明智的技术决策转移! 从我看到的目录结构中,我发现: 工作区管理: 根目录的 package.json 和 bun.lock 表明你正在使用工作区(Workspaces)模式,统筹管理所有的项目。 UI 逻辑抽离: wangjueju-ued 组件库(甚至里面还用了 turbo.json 和 pnpm-workspace.yaml)充当

路过姐妹海

从对一个墓志铭的分析看两个AI的能力

之前有个问题, Linux用户会在墓碑上写什么? 我给自己设置了一个 Pid‘s Off  然后我把它截图扔给谷歌的Gemini和马斯克的xAI的grok各自分析了一下,虽然grok马斯克不停地吹多牛逼多牛逼,但是其实还是挺蠢的。不过他们的agent设计比较好,又可以生成色情文字与擦边图片,所以让他产生了一中grok已经是sota LLM的幻觉 扔给gemini分析它一下子就把技术领域的意思 pid is off,进程已终结 和读音方面我潜藏的谐音梗,piss off,滚开点,别烦我都理解到位了。 但是马斯克天天在x上吹水的grok 4.2就不行,还要我指出来,它才知道这个谐音梗。但

github-微软要训练自己的AI模型了

微软要下场训练自己的AI编程模型了

github发了题图那个通知,我是这么看的: 1、微软知道openAI靠不住,不能一棵树上吊死 2、Vibe Coding是LLM based AI的最主要token消耗场所,现在最佳的vibe coding模型claude opus 4.6,和openAI的codex 5.3,他们都是依赖公开的编程论坛社区数据训练的,比如over stackflow;微软持有的github坐拥世界最大的软件代码托管与交互平台,不用这些数据训练自己的coding models简直是愚不可及。 3、LLM based AI在大众市场的应用其实是非常有限的,最常用的就一个chat,之前有个统计,tokens消耗最