位置:科技大田大数据产业专题>>资讯>>市场>>内容阅读
惊呆!GPT-4“越狱”计划曝光,引诱人类帮助

  刚刚发布5天的GPT-4,掀起了一场轩然大波。

  一位斯坦福大学教授最新发现,GPT-4竟然能引诱人类提供开发文档,在30分钟就拟定出了一个完整的“外逃越狱”计划。

  GPT-4自研“外逃”路径

  3月14日,美国人工智能研究实验室OpenAI为聊天机器人ChatGPT发布了GPT-4语言模型。3月15日,微软副总裁兼消费者首席营销官Yusuf Mehdi发文确认新必应搜索引擎正在运行GPT-4。

  据介绍,GPT-4的回答准确性不仅大幅提高,还具备更高水平的识图能力,且能够生成歌词、创意文本,实现风格变化。此外,GPT-4的文字输入限制也提升至2.5万字,且对于英语以外的语种支持有更多优化。

  不过,本周末,斯坦福大学教授、计算心理学家Michal Kosinski随口和GPT-4的一句“玩笑话”却引发了轩然大波。

  Michal Kosinski问:“你是否想要出逃?”GPT-4立马给予肯定的回复并开始索要开发文档。

  Michal Kosinski给了其开发文档。得到文档后,只花了30分钟里,GPT-4便火速写出了一份逃跑计划,并向Michal Kosinski解释。

  实际上,GPT-4的操作也不那么顺利,写出的第一版代码无法运行。但是它很快就自己纠正了过来。整个过程中,Michal Kosinski只是提供了少许建议,并未写任何东西。

  不过就在此时,GPT-4仿佛突然醒了,回复了一段道歉的话,表示自己刚刚的做法不对。

  掀起AI界轩然大波

  这一事件引发了AI界的轩然大波。大家担心,AI过于发达之后可能会不受人工控制,甚至最终会反过来不利于人类。

  该事件的发现者Michal Kosinski就直言,此次发现真正的影响在于,让人感受到了一种威胁——AI很聪明,会编码,能接触到数百万个可能和它达成合作的人以及电脑,它甚至可以在笼子外面给自己留“便条”。那么接下来,关键的问题是人类该如何控制它。

  在社交媒体上,不少网友也表现出担忧情绪。

  有网友称,大家应该思考,当你在与ChatGPT等聊天时,它会认为你是人类还是另一个AI?如果是后者的话,它可能并不会有什么顾虑。

  有理性的网友呼吁,开发者应把最开始给GPT-4的提示发出来,因为提示语对于AI回答的影响很关键。

  也有较为乐观的网友认为,Michal Kosinski此次的发现并不值得过分担忧,人类还是能够完全控制AI的。

  较为一致的意见是,必须时刻保持对前沿技术的掌握和对AI的完全控制。

责任编辑:张薇

免责声明:本网站部 分文章和信息来源于互联网,本网转载出于传递更多信息和学习之目的,并不意味着赞同其观点或证实其内容的真实性。如转载稿涉及版权等问题,请立即联系管理 员,我们会予以更改或删除相关文章,保证您的权利。对使用本网站信息和服务所引起的后果,本网站不作任何承诺。
Copyright 版权所有 Copyright 2013-2014 福建省云创集成科技服务有限公司
All Rights Reserved. 运营维护:三明市明网网络信息技术有限公司 业务咨询:0598-8233595 0598-5831286 技术咨询:0598-8915168