LLM无法解释它们的答案——这个CLI迫使它们这样做。
LLMs can't justify their answers–this CLI forces them to

原始链接: https://wheat.grainulation.com/

``` /research "GraphQL性能特征" 收集证据,读取你的代码库,搜索网络,并记录发现的内容。每个发现都有一个类型(事实、风险、预估)和一个证据等级——从“声明”(有人说)到“测试”(原型验证)。 r001 [事实|文档] GraphQL消除了移动客户端的过度获取,减少了40-60%的负载大小。 r002 [事实|网络] GraphQL N+1查询问题需要DataLoader或等效的批量处理层。 r003 [风险|文档] 现有的REST缓存(CDN、HTTP)无法直接应用于GraphQL,需要自定义解决方案。 ```

一个黑客新闻的讨论围绕着人工智能生成工具和网站的激增,特别是名为“wheat”的一个工具,它迫使LLM通过CLI来解释它们的答案。 许多评论者表示怀疑,一些人认为这些工具是“无用的垃圾”,认为直接与LLM交互足以完成简单的任务。 还有人指出这些网站的重复性和糟糕的设计,并提到烦人的“淡入”效果是明显的标志。 然而,一些用户发现像“wheat”这样的工具很有价值,尤其是在与Claude等模型进行长时间会话时,并指出在代码合并方面提高了生产力。 讨论凸显了人们对不断涌现的人工智能工具的日益疲劳,以及关于它们是否真正解决了问题,还是仅仅增加了不必要的复杂性的争论。
相关文章

原文

/research "GraphQL performance characteristics"

Gather evidence

wheat reads your codebase, searches the web, and records what it finds. Each finding gets a type (factual, risk, estimate) and an evidence grade — from "stated" (someone said it) to "tested" (prototype-validated).

r001 [factual|documented] GraphQL eliminates over-fetching for mobile clients, reducing payload size 40-60% r002 [factual|web] GraphQL N+1 query problem requires DataLoader or equivalent batching layer r003 [risk|documented] Existing REST caching (CDN, HTTP) does not transfer to GraphQL without custom solutions

联系我们 contact @ memedata.com