原文
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
原始链接: https://news.ycombinator.com/item?id=44004224
Hacker News 上的一个帖子讨论了 xAI 在 GitHub 上发布 Grok 聊天助手提示词一事。用户对这种透明度表示怀疑,指出自开源以来,X/Twitter 算法库就没有更新过。一些人认为发布提示词只是为了转移公众对 Grok 过去争议的注意力,特别是关于其与南非相关的偏见回应和“白人种族灭绝”叙事。 评论强调了操纵的可能性以及难以验证发布的提示词是否是生产中使用的唯一提示词。一位用户提到了 Grok 的私有版本“BigBrain 模式”,引发了对其能力的质疑。虽然一些人赞赏这种透明度的努力,但其他人则批评埃隆·马斯克的所有权,并对潜在的偏见表示担忧。一些用户链接到外部资源,引用了 Grok 的南非事件和 X/Twitter 算法库停滞不前的相关信息。最终,该帖子反映出人们对 xAI 是否真正致力于透明和道德 AI 开发的谨慎乐观和深深怀疑并存的态度。
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
reply