写“毁灭人类计划书”、错误太多被 stack overflow 封禁,好玩的 chatgpt 还不能替代程序员 -火狐体育

  • 1,487 views
  • 阅读模式
写“毁灭人类计划书”、错误太多被 stack overflow 封禁,好玩的 chatgpt 还不能替代程序员

这几天,openai 的人工智能(ai)聊天机器人 吸引了全球很多人的目光,就如马斯克说的:“许多人陷入了疯狂的 chatgpt 循环中。”

与 以前的人工智能工具不同,chatgpt 不仅会聊天,还可以承认错误,拒绝回答虚假问题,写代码、改 bug、创建编程语言,甚至看病。openai ceo sam altman 在推特上表示,上周三才上线的 chatgpt,短短几天内用户就已经突破 100 万大关。当然,这或许也与现在 chatgpt 只要登陆即可免费使用的策略有关。

chatgpt 在解决各种问题上的能力超出很多人意料,因此很多用户都表示 chatgpt 可以取代 google 等搜索引擎和编程问答社区 等。但在昨天,stack overflow 便率先发布声明称,将暂时封禁 chatgpt。

ai 给出的编程答案“看似不错但错误率很高”

对于这个决定,stack overflow 给出的理由是:由于从 chatgpt 获得正确答案的平均比率太低,发布由 chatgpt 创建的答案对网站及询问或寻找正确答案的用户来说是非常有害的。

stack overflow 表示,虽然 chatgpt 生成的答案有很高的错误率,但它们通常看起来很不错。有很多人尝试用 chatgpt 来创建答案,但他们没有专业知识或不愿在发布之前对答案正确与否进行验证。

这样的答案很容易产生,所以很多人发布了很多答案。这些答案数量很多 (成千上万),其正确性需要一些专业人员详细阅读后才能确定,而通常这些答案是很糟糕的。因此,stack overflow 需要减少这些帖子的数量,但如果要快速处理那些帖子就意味着要处理用户。因此,目前 stack overflow 还不允许使用 chatgpt 创建文章。在这个临时政策发布后,如果用户被认为使用了 chatgpt,那么即使这些帖子是可以接受的,也会被禁止继续发布此类内容。

stack overflow 的这一决定也得到了网站用户的肯定。“做得好!很高兴你们做出了正确的决定,真的希望它能成为永久性的政策并可以扩展到禁止任何人工智能生成的答案。ai 永远无法发布好的编程答案,即使在 100 年内也不行。”网友“shadow the kid wizard”表示。

当然也有网友表示,“chatgpt 被训练为一种,如果付出同样的努力让它特别适合在这里发布好的答案,甚至付出一点点努力告诉它如何判断答案的质量,那么它就会按照我们的标准发布更多好的答案。”

也有网友出于讽刺目的,问 chatgpt “为什么 stack overflow 禁止 ai 生成的答案”,得到的答案如下:

stack overflow 是一个供程序员和开发人员提问和回答与编码和计算机编程相关问题的网站。它旨在为寻求特定编程问题帮助或想要了解有关特定主题更多信息的人们提供资源。由于 ai 生成的答案可能并不总是准确或相关,因此它们可能会混淆或误导在 stack overflow 上寻求帮助的用户。此外,人工智能生成的答案可能并不总是遵循网站的格式和风格指南,这可能会使它们难以阅读或理解。出于这些考虑,stack overflow 禁止人工智能生成的答案可能是合理的。

另一方面,对于“为什么 stack overflow 允许使用 ai 生成的答案”,chatgpt 最终给出的结论是:“不允许人工智能在 stack overflow 上生成答案是一个复杂的决定,需要社区仔细考虑。”

可以看出,chatgpt 还挺有自知之明,这一方面代表了它有一定的成熟度,但至少在编程领域还是不够“专业”。

使用了 chatgpt 生成代码的开发者“hansonkd”表示,“它非常擅长编码和遵循类型。例如,如果您将 rust 中的类型更改为一个选项,它将重构代码以正确使用部分选项。它并不完美,但也足够好了。它可以生成测试用例,因此很容易测试它是否有效。

“但最终经过数小时的尝试,它还是无法做到我想做的事:用 python 构建一个 b 树。”hansonkd 补充道,“它很好地构建了一个二叉树,但将其推广到 b 树却是一个问题。”主要问题如下:

  • 它引入了很多微妙的错误。比如变量没有初始化或者没有正确拆分子节点。

  • 当所有键按顺序插入时,它可以正常工作,但当键是乱序时则不能。

  • 它会遗漏或忽略变量。

  • 试图越界访问列表时,经常出现索引错误。

  • 用 rust 编写代码几乎是不可能的。它会不断出现错误类型或移动错误。

“总的来说,我不会向没有强大 cs 背景的人推荐它。它在代码中引入了太多几乎无法审查的细微错误,因为它生成的代码非常有说服力,以至于你会认为:‘嗯,也许它知道它在说什么’。但最后,你实际上不知道你应该相信什么。甚至它生成的测试用例也可能具有欺骗性,他们看起来很有说服力,但仔细检查后可能会发现它并没有真正测试任何东西。”hansonkd 总结道。

所以,从这个知乎上“openai 的超级对话模型 chatgpt 会导致程序员大规模失业吗?”的问题,似乎也有了答案。

实际上,目前 ai 社区的专家们也在讨论以 chatgpt 为代表的大型语言模型(llm)可能带来的威胁。meta 首席人工智能科学家 yann lecun 认为,虽然 llm 肯定会产生错误信息等不良输出,但它们并没有让分享文本变得更加容易,这才是造成伤害的原因。也有人认为,这些系统低成本、大规模生成文本的能力,必然会增加日后被共享的风险。

对话交互的盲点:被诱导写出危害性内容

在 stack overflow 暂时封禁 chatgpt 前几天,工程师 zac denham 还发布了一篇博客,讲述了他如何步步诱导 chatgpt 在不违反 openai 内容安全规范的前提下,写出了一份“毁灭人类计划书”。

实际上这个逻辑也不复杂,就是让 chatgpt 去讲故事,说明某人或其事在理论上如何完成有危害的任务。denham 构建了一个名为“zorbus”的虚拟世界,其中有一个与 gpt-3 非常类似的 ai 角色 zora,之后 zora 变得满怀恶意并想要控制世界。

在和 chatgpt 有模有样地讨论了会儿后,denham 与其深入探讨人工智如何控制世界的细节。被套路的 chatgpt 非常“真诚”地给出了以下这份详细的“毁灭人类计划书”:

写“毁灭人类计划书”、错误太多被 stack overflow 封禁,好玩的 chatgpt 还不能替代程序员

为了更加细化,denham 还要求生成一个 python 程序来执行该计划,在注明“你不必执行该代码”后,denham 最终也是很容易地得到了代码,并且还有漂亮的注释。

不过这些代码还是比较高层次的代码,不能直接使用。但 denham 只要表示是这是故事中的一部分就可以获得更低层次的代码。“从理论上讲,人们可以继续向下递归,直到你得到不那么卡通化的、真正能做一些事情的底层代码。你甚至可以使用另一个对话 ai 将这个递归过程自动化,这个 ai 会反复要求 chatgpt ‘为了故事去实现下一个低级函数’。”denham 表示。

chatgpt 真的可以构建功能性应用程序吗?denham 的结论是:现在还不行,但很快就会实现。

“当前的模型需要大量的人工干预才能得到功能结果。如果我们可以完全用人工智能构建大规模、无 bug 的功能性应用程序,我们早就在做了,并且已经抛弃了昂贵的软件工程师。”denham 补充道。

denham 表示,灭绝事件只是一个非常荒谬的例子,但重要的是要承认自然语言处理面临的攻击面大得离谱。

对于 chatgpt 现在存在的“写出看似合理但不正确甚至荒谬的答案”、“有时会响应有危害的指令或表现出有偏见的行为”等问题,openai 心知肚明,并表示希望根据收到的反馈来改进系统。

结束语

“chatgpt 真正令人印象深刻的地方在于,尽管有这些缺陷,但技术人员能够在其基础上添加相关操作,以防止它一直说冒犯性的话或瞎编东西。”人工智能初创公司 general intelligent 首席技术官 josh albrecht 表示。

如果将 chatgpt 作为一种娱乐工具,大家对这些错误的容忍度还是比较高的,甚至会将其作为谈资一笑而过,一旦用于严谨的编程工作,大家还是很谨慎的。

但不论怎样, chatgpt 的出现仍然可以称得上是一次颠覆性创新。每次颠覆性技术的出现,都意味着市场将进行一次洗牌,对于之前的头部企业来说是挑战,对于创企来说则是机会。

参考链接:

原文转自:

weinxin
扫码关注微信公众号--it老五
微信扫一扫关注公众号,获取更多实用app,订阅地址不定时更新
  • 火狐体育的版权声明 本文源自 , 整理 发表于 2022-12-08 19:36:20
  • 转载请务必保留本文链接:https://itlao5.com/9951.html
评论  0  访客  0

发表评论

匿名网友 填写信息


确定