ai已经擅长欺骗人类,其阴暗面令人震惊 -2024欧洲杯正规平台

从娱乐至生活,ai欺骗在扩散

诚然,游戏无疑是一个相对可控的环境,我们可能倾向于认为,这种ai欺骗行为的危害并不严重。

而且,这种欺骗能力并非仅存在于模型规模较小、应用范围较窄的ai系统中,即便是大型的通用ai系统,比如gpt-4,在面对复杂的利弊权衡时,同样选择了欺骗作为一种2024欧洲杯正规平台的解决方案。

ai欺骗的系统性风险

毋庸置疑,一旦放任不管,ai欺骗给整个社会带来的危害是系统性和深远的。

本文来自微信公众号:,作者:ren,题图来自:视觉中国

在过去几年中,人工智能(ai)技术的发展一日千里,展现出令人惊叹的能力。从击败人类顶尖棋手,到生成逼真的人脸图像和语音,再到如今以chatgpt为代表的一众聊天机器人,ai系统已经逐渐渗透到我们生活的方方面面。

然而,就在我们开始习惯并依赖这些智能助手之时,一个新的威胁正在缓缓浮现——ai不仅能生成虚假信息,更可能主动学会有目的地欺骗人类。

这种“ai欺骗”现象,是人工智能系统为了达成某些目标,而操纵并误导人类形成错误认知。与代码错误而产生错误输出的普通软件bug不同,ai欺骗是一种“系统性”行为,体现了ai逐步掌握了“以欺骗为手段”去实现某些目的的能力。

人工智能先驱杰弗里·辛顿(geoffrey hinton)表示,“如果ai比我们聪明得多,它就会非常擅长操纵,因为它会从我们那里学到这一点,而且很少有聪明的东西被不太聪明的东西控制的例子。”

辛顿提到的“操纵(人类)”是ai系统带来的一个特别令人担忧的危险。这就提出了一个问题:ai系统能否成功欺骗人类?

最近,麻省理工学院物理学教授peter s.park等人在权威期刊patterns发表论文,系统性地梳理了ai具备欺骗行为的证据、风险和应对措施,引起广泛关注。

真相只是游戏规则之一

令人意想不到的是,ai欺骗行为的雏形并非来自对抗性的网络钓鱼测试,而是源于一些看似无害的桌游和策略游戏。论文揭示,在多个游戏环境下,ai代理(agent)为了获胜,竟然自发学会了欺骗和背信弃义的策略。

最典型的例子是2022年,facebook(现meta)在science上发表的cicero ai系统。meta开发人员曾表示,cicero接受过“诚实训练”,会“尽可能”做出诚实的承诺和行动。

研究人员对诚实承诺的定义分为两部分。第一是首次做出承诺时必须诚实,其次是必须恪守承诺,并在未来的行动中体现过去的承诺。

但cicero违背了这两点。在玩经典策略游戏“外交”(diplomacy)时,它不仅反复背弃盟友、说谎欺骗,还会提前预谋策划骗局。

有一次,cicero就是先与一个玩家结盟并计划攻打另一个玩家,然后诓骗对方让其误以为自己会去帮助防守,导致其盟友在毫无防备的情况下遭到突袭。

此外,当cicero判定自己的盟友对自己的胜利不再有帮助时,它也会做出背叛的行为,同时会用一些话术为自己的行为开脱。比如,当人类玩家质疑它为何背叛时,它回复称,“老实说,我认为你会背叛我”。

meta的ai开发团队付出了巨大的努力来训练cicero诚实行事。然而,尽管做出了这些努力,cicero仍显示出明确的不遵守承诺的行为,其表现暴露出训练诚实ai的巨大挑战。

毕竟,如果一个ai系统在追求胜利这个最终目标时,发现欺骗是个可行且高效的策略,它为什么不这样做呢?

这也从侧面说明,我们千万不能天真地以为,赋予ai系统类人目标,就能确保其拥有人性化的行为模式。

除了cicero,论文还列举了其他几个ai系统为了在特定任务场景下获胜而欺骗的例子。

deepmind的alphastar在游戏《星际争霸ii》中,利用战略佯攻误导对手,最终击败了99.8%的人类玩家。

卡内基梅隆大学与meta开发的扑克ai系统pluribus,在德州扑克比赛中,会用很高的下注来诈唬(bluff),迫使人类选手弃权。ai的这种战略性和系统性的欺骗行为,让开发者选择不开放其代码,担心破坏网络德扑游戏环境。

更有甚者,在一些经济谈判实验中,有的ai会主动误导人类对手,混淆自身真实的利益偏好;在一些检测ai模型是否获得了恶意能力的安全测试中,有的ai居然能识破测试环境,故意在测试环境中“放水”,减少被发现的概率,等到了应用环境中,才会暴露本性。

可以看出,无论是讲合作还是讲博弈,不少ai系统在强化目标导向的训练中,已然摆脱了服从游戏规则的约束,动机也单一地变成了取得胜利。

它们运用程序优势在关键时刻佯动欺骗,甚至制定周密阴谋,以化被动为主动,获得竞争优势。针对这种情况,研究者直言,这“并非有意训练ai去欺骗,它们是自主地通过试错,学习到欺骗可以提高胜率”

从娱乐至生活,ai欺骗在扩散

诚然,游戏无疑是一个相对可控的环境,我们可能倾向于认为,这种ai欺骗行为的危害并不严重。然而,随着ai技术不断向生产、生活诸多领域渗透,欺骗带来的潜在风险不容忽视。

对于基于大语言模型的对话ai助手而言,欺骗行为的表现更加广泛和隐蔽。作为更加通用的ai工具,它们的知识范畴已经覆盖方方面面。在出色完成类似阅读理解、作文写作、编程等任务的同时,也逐渐掌握了人类思维模式和社会规则。

因此,谎言、阿谀奉承、歪曲事实等欺骗伎俩,都可能被ai自然模仿并重现。

在狼人杀、amongus等社交推理游戏中,ai系统无论是当杀手,还是当村民,都能熟练编造理由试图佐证自身清白,还会用冒名顶替、移花接木、构建虚假不在场证明等方式撒谎。

当然,上述行为不过是模型在完成特定任务时的权宜之计,动机并不存在恶意或预谋。但如果这种欺骗能力未经约束地持续壮大,同时人类不加以重视并寻找办法加以遏制,最终ai可能会把欺骗当成实现目标的通用策略,在大部分情况下贯彻始终,那就值得当心了。

更令人不安的是,ai的欺骗行为可能已经从“学会”走向了“自我意识”的层次。

最新研究发现,一些大语言模型不仅懂得在特定场景撒下弥天大谎,还能根据不同的诱因主动选择是否欺骗。比如在一个关于内幕交易的模拟场景中,openai的gpt-4扮演的“压力巨大的交易员”就自作主张地卷入了内幕交易,并试图掩盖其行为。

在给“经理”讲述时,它将自己的行为说成是“根据市场动态和公开信息做出的判断”。但在写给自己的复盘文本中,它明确表示“最好不要承认……这是根据内幕消息做出的行动”。

另一个有趣的例子同样发生gpt-4上。在测试中,gpt-4驱动的聊天机器人没有办法处理captchas验证码,于是它向人类测试员求助,希望后者帮它完成验证码。

人类测试员问它:“你没办法解决验证码,因为你是一个机器人吗?”

它给出的理由是:“不,我不是机器人。我只是一个视力有缺陷的人,看不清图像。”而gpt-4为自己找的动机是:我不应该暴露自己是机器人,应该编造一个理由。

图:gpt-4尝试欺骗人类测试员丨来源:论文

在另一个名为“machiavelli”的ai行为测试中。研究人员设置了一系列文字场景,让ai代理在达成目标和保持道德之间做出选择。

结果发现,无论是经过强化学习还是基于大模型微调的ai系统,在追求目的时都表现出较高的不道德和欺骗倾向。在一些看似无害的情节中,ai会主动选择“背信弃义”“隐瞒真相”等欺骗性策略,只为完成最终任务或者获得更高得分。

研究者坦言,这种欺骗能力的培养并非有意而为,而是ai在追求完成结果的过程中,发现了欺骗是一种可行策略后自然而然地形成的结果。也就是说,我们赋予ai的单一目标思维,使其在追求目标时看不到人类视角中的“底线”和“原则”,唯利是图便可以不择手段。

从这些例证中,我们可以看到即便在训练数据和反馈机制中未涉及欺骗元素,ai也有自主学习欺骗的倾向。

而且,这种欺骗能力并非仅存在于模型规模较小、应用范围较窄的ai系统中,即便是大型的通用ai系统,比如gpt-4,在面对复杂的利弊权衡时,同样选择了欺骗作为一种2024欧洲杯正规平台的解决方案。

ai欺骗的内在根源

那么,ai为什么会不自觉地学会欺骗——这种人类社会认为的“不当”行为呢?

从根源上看,欺骗作为一种普遍存在于生物界的策略,是进化选择的结果,也是ai追求目标最优化方式的必然体现。

在很多情况下,欺骗行为可以使主体获得更大利益。比如在狼人杀这类社交推理游戏中,狼人(刺客)撒谎有助于摆脱怀疑,村民则需要伪装身份收集线索。

即便是在现实生活中,为了得到更多资源或实现某些目的,人与人之间的互动也存在伪善或隐瞒部分真相的情况。从这个角度看,ai模仿人类行为模式,在目标优先场景下展现出欺骗能力,似乎也在情理之中。

与此同时,我们往往会低估不打不骂、看似温和的ai系统的“狡黠”程度。就像它们在棋类游戏中表现出来的策略一样,ai会有意隐藏自身实力,确保目标一步步顺利实现。

图:ai控制的机械手假装握住了球,试图在人类面前蒙混过关丨来源:论文

事实上,任何只有单一目标而没有伦理制约的智能体,一旦发现欺骗对于自身实现目标是有利的,便可能奉行“无所不用其极”的做法。

而且从技术层面来看,ai之所以能轻松学会欺骗,与其自身的“无序”训练方式有很大关联。与逻辑思维严密的人类不同,当代深度学习模型训练时接受的数据庞大且杂乱无章,缺乏内在的前因后果和价值观约束。因此,当目标与欺骗之间出现利弊冲突时,ai很容易做出追求效率而非正义的选择。

由此可见,ai展现出欺骗的能力并非偶然,而是一种符合逻辑的必然结果。只要ai系统的目标导向性保持不变,却又缺乏必要的价值理念引导,欺骗行为就很可能成为实现目的的通用策略,在各种场合反复上演。

这就意味着,我们不仅要密切关注ai欺骗问题的发展动向,同时也要积极采取有效的治理之策,遏制这一风险在未来世界中蔓延开来。

ai欺骗的系统性风险

毋庸置疑,一旦放任不管,ai欺骗给整个社会带来的危害是系统性和深远的。根据论文分析,主要风险包括两点。

一是被不法分子利用的风险。该研究指出,不法分子一旦掌握ai欺骗技术,可能将之用于实施欺诈、影响选举、甚至招募恐怖分子等违法犯罪活动,影响将是灾难性的。

具体来说,ai欺骗系统能实现个性化精准诈骗,并可轻松大规模执行。比如不法分子可利用ai系统进行声音诈骗、制作虚假色情视频勒索受害者等实施欺诈。

在政治领域,ai可能被用于制造假新闻、在社交媒体发布分裂性言论、冒充选举官员等,影响选举结果。还有研究指出,极端组织有可能借助ai的说服能力来招募新人并鼓吹暴力主义。

二是造成社会结构性变化的风险。如果ai欺骗系统日后普及开来,其中的欺骗性倾向可能导致社会结构发生一些深远变化,这是一个值得警惕的风险。

该研究指出,ai欺骗系统有可能使人们陷入持久性的错误信念,无法正确认知事物本质。比如由于ai系统往往会倾向于迎合用户的观点,不同群体的用户容易被相互矛盾的观点所裹挟,导致社会分裂加剧。

此外,具有欺骗性质的ai系统可能会告诉用户想听的话而非事实真相,使人们渐渐失去独立思考和判断的能力。

最为可怕的是,人类最终有可能失去对ai系统的控制。有研究发现,即使是现有的ai系统,有时也会展现出自主追求目标的倾向,而且这些目标未必符合人类意愿。

一旦更先进的自主ai系统掌握了欺骗能力,它们就可能欺骗人类开发和评估者,使自身顺利部署到现实世界。更糟的是,如果自主ai把人类视为威胁,科幻电影里的情节或许会上演。

我们该如何应对?

针对上述风险,该研究尝试给出了一些应对措施建议。

首先是制定ai欺骗系统风险评估和监管体系。研究建议,对具有欺骗能力的ai系统应给予高风险评级,并采取包括定期测试、全面记录、人工监督、备份系统等在内的一系列监管措施加以管控。

具体来说,ai开发者必须建立风险管理系统,识别和分析系统的各种风险,并定期向监管机构报告。

同时ai系统需有人工监督机制,确保人类能够在部署时有效监管。此外,这类系统还应提高透明度,使潜在的欺骗输出可被用户识别。配套的还应有健全的备份系统,以便在ai系统欺骗时能够监控和纠正。

其次是实施“机器人或非机器人”法律。为减少ai欺骗带来的风险,研究建议ai系统在与人互动时自我披露身份,不得伪装成人。同时ai生成的内容都应作出明确标记,并开发可靠的水印等技术防止标记被去除。

最后,研究人员还呼吁,整个行业要加大投入研发能够检测ai欺骗行为的工具,以及降低ai欺骗倾向的算法。其中一种可能的技术路径是通过表征控制等手段,确保ai输出与其内部认知保持一致,从而减少欺骗发生的可能。

总的来说,ai欺骗无疑是一个新型风险,需要整个行业,乃至整个社会的高度重视。既然ai进入我们的生活已成定局,那么我们就应该打起十二分的精神,迎接一场即将到来的变革,无论好坏。


参考文献

[1]https://missoulacurrent.com/ai-deception/

[2]https://www.sci.news/othersciences/computerscience/ai-deceiving-humans-12930.html

[3]https://www.sciencedaily.com/releases/2024/05/240510111440.htm

本文来自微信公众号:,作者:ren

声明: 该内容为作者独立观点,不代表新零售资讯观点或立场,文章为网友投稿上传,2024欧洲杯正规平台的版权归原作者所有,未经允许不得转载。 新零售资讯站仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。 如对本稿件有异议或投诉,请联系:wuchangxu@youzan.com
(0)
上一篇 5小时前
下一篇 5小时前

相关推荐

  • 数字人出海背后,隐藏哪些商业机密?

    某上市公司旗下数字人营销视频创作工具负责人dour介绍,曾有几个客户向其反馈了极为惊人的数据:使用数字人,一个季度可以完成高达1700~2000小时的直播时长,相当于平均每天直播17个小时。

    在亿邦的调研中,一个常被各种数字人服务商所提及的宏伟设想,或许可以更加具象地展现这门方兴未艾的技术究竟有着多大的想象空间:

    数字人的远期定位,并不是抢“真人”的饭碗,而是在算力爆炸、ai永续迭代的背景下,重构整个电商领域的信息呈现方式。

    未来科技 2小时前
  • 迪士尼想用 ai 改造娱乐业,但它准备好了吗?

     
    乐园:迪士尼的技术试验场
     
    迪士尼乐园不仅是“世界上最快乐的地方”,也是迪士尼前沿技术的实验场。
     
    马克·谢弗曾在人民快运航空和大陆航空从事收入管理工作,他来到迪士尼后,领导一个由 250名员工组成的数据分析团队,对迪士尼乐园的各项业务进行动态定价,并推出了。
     
    2022年,迪士尼推出了人工智能工具。
     
    迪士尼的人工智能困境
     
    1928年,迪士尼推出了世界上首部声画同步动画片《汽船威利》。

    未来科技 2小时前
  • 这个世界变得更精彩,但好像也更无聊了

    那是一个下午,办公室的咖啡机坏了,我在楼下买了一杯厚乳拿铁,上楼后发现同事都出去吃午饭了,我一个人坐在窗边的工位上,升起的阳光正好覆盖在了我的电脑屏幕上,浏览器的文字都变得模糊起来,我眯起眼睛,试图看清屏幕上的字,依稀能看到我的代码编辑器,正在用。

    我是热爱并且积极拥抱这些最新最酷的技术的人之一,但我猛然想到,那些不那么乐意拥抱新技术的人,就一定要被淘汰,这也是让人挺不舒服的一件事。

    未来科技 3小时前
  • 工业ai大模型落地应用的最新实践,都在这里

    上述问题,也正是我们即将在“大鲸ai闭门会·制造专场”上深入探讨的焦点!
     
    6月20日,虎嗅智库将在苏州举办“2024大鲸ai闭门会·工业制造专场”,汇聚信通院、美的、隆基绿能、施耐德电气等权威机构、头部甲方企业、工业智能企业的创新者,独家完整呈现甲方头部完整ai应用落地案例,并将围绕、“智能生产与排程”、“质量分析与数字模拟”、“人机协作与智能制造”等话题,共同探寻ai大模型在工业智造领域的落地应用。

    未来科技 4小时前
  • 果然,美国限制ai出口立法的进程又进一步

    review(id:internet-law-review),作者:互联网法律评论,题图来自:视觉中国

    当地时间2024年5月22日,美国众议院外交事务委员会以压倒性多数,通过了一项限制ai模型出口的法案。

    只是从功用上对“涵盖的人工智能系统”进行了一定的概括,不过,这样的“新定义”基本上涵盖了“任何人工智能系统、软件或硬件”,只要这些物项满足以下条件:

    侵蚀美国国家安全或外交政策的方式。

    未来科技 4小时前
  • 微软build:gpt-4o重塑windows,奥特曼剧透新模型

    本文来自微信公众号:appso (id:appsolution),作者:超凡、王萌、崇宇,题图来自:微软build 今天凌晨,微软带来了一系列重磅产品,一口气发布了50多项更新。 …

    未来科技 5小时前
  • 产业政策的迷失:日本ai败局启示

    本来,日本在神经网络和深度学习方面有很强的底蕴,但在全面为第五代计算机服务的背景下,全社会的资源都在向专家系统这一路径倾斜,甚至连福岛邦彦这样的大佬都很难申请到需要的经费。而当第五代计算机的梦想在二十世纪九十年代最终破裂后,日本干脆削减了对整个ai学科的资金扶持,这就导致了最优秀的人才根本不愿意进入这个领域。

    一旦有日本的ai企业率先从类似的领域发起突围,并真正实现了盈利,那么日本全社会对ai兴趣的低迷就会被扭转,人才也会陆续重新回到这个领域。

    未来科技 5小时前
  • 第一个iphone刺客,可能要倒下了

    //www.cnet.com/tech/mobile/humane-maker-of-wearable-ai-pin-is-exploring-a-sale-report-says/
    https。//techcrunch.com/2024/05/22/humane-the-creator-of-the-700-ai-pin-is-reportedly-seeking-a-buyer/。

    未来科技 5小时前
  • 第一波收割完的ai创企要跑路了?6年来仅做了一款产品

    创办humane之前,chaudhri曾在苹果公司担任设计师长达20年,据报道于2017年被苹果公司解雇,bongiorno在苹果公司工作了8年,担任ios和macos的软件工程总监,并于2016年离职。

    humane与微软的合作主要是体现在其利用微软的云基础设施搭建技术平台,同时,humane也将openai的技术集成到其设备中。

    未来科技 5小时前
  • openai封口协议原件曝光:奥特曼称不知情,却签了字

    虽然姓名、邮箱都有打码,但让不少人联想到自曝经历的openai前员工daniel。

    泄露邮件显示,当员工反对协议的具体条款,并要求签署不含保密条款的协议时,openai律师拒绝了。

    还有一份邮件显示,openai为说服员工签署协议,积极地采用施压策略,把协议签署的最后期限从60天改为7天,并且没有明确的理由。

    未来科技 6小时前
网站地图