原文
| |||||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||||
![]() |
原始链接: https://news.ycombinator.com/item?id=43909191
Hacker News用户正在讨论“反图灵测试游戏”,在这个游戏中,人类试图让AI相信他们是机器人。一些评论者报告说,AI在识别人类玩家方面异常准确,即使人类使用AI生成的文本“作弊”。一位用户怀疑发生了数据泄露,AI无意中访问了人类的输入。 其他用户描述了他们愚弄AI的策略,例如减少用词,故意延迟响应时间(模仿人类打字速度),或提及AI的局限性。然而,这些方法往往效果不稳定。一位用户甚至尝试使用“作为一个AI语言模型……”的借口,结果却被AI识破,因为AI也用了同样的说法。 一位评论者推荐了一个替代的、bug较少的双向图灵测试游戏。最后,一条标准的Hacker News公告提醒读者Y Combinator 2025年夏季申请截止日期。
| |||||||||||||||||||||||||||||||||
| |||||||||||||||||||||||||||||||||
![]() |
reply