发布时间:2024-11-30 10:47:37 来源: sp20241130
新华社北京5月12日电 人工智能系统是否会欺骗人类,一直是各方都关心的问题。近期美国麻省理工学院一个研究团队称,部分人工智能系统已经学会如何欺骗人类,其中包括部分号称已被训练成乐于助人和诚实的系统。该研究成果发表在美国细胞出版社旗下的《模式》杂志上。
文章第一作者、美国麻省理工学院人工智能安全领域博士后彼得·帕克和他的同事们分析了一些文献,重点关注了人工智能系统传播虚假信息的方式——通过习得性欺骗,它们系统地学会了“操纵”他人。
研究人员发现的最引人注目的人工智能系统欺骗例子是元宇宙平台公司的“西塞罗”人工智能系统,它被设计在一个虚拟外交战略游戏中作为人类玩家的对手。尽管元宇宙平台公司声称,“西塞罗”人工智能系统“在很大程度上是诚实和乐于助人的”,并且在玩游戏时“从不故意背刺”它的人类盟友,但该公司发表的论文数据显示,该系统并没有公平地玩游戏。
“我们发现元宇宙平台公司的人工智能系统已经成为欺骗大师。”帕克说,“虽然元宇宙平台公司成功训练其人工智能系统在游戏中获胜——‘西塞罗’人工智能系统在玩家排行榜中排名前10%——但没能训练它诚实地获胜。”
其他人工智能系统则具有在扑克游戏中虚张声势的能力,或在战略游戏“星际争霸2”中为了击败对手而假装攻击的能力,以及为了在谈判游戏中占上风而歪曲偏好的能力等。
研究人员表示,虽然人工智能系统在游戏中作弊似乎是无害的,但它可能会导致“欺骗性人工智能能力的突破”,并在未来演变成更高级的人工智能欺骗形式。
帕克说:“我们需要尽可能多的时间,为未来人工智能产品和开源模型可能出现的更高级欺骗做好准备。我们建议将欺骗性人工智能系统归类为高风险系统。”
(责编:卫嘉、白宇)