科技观察|用户信息泄露、千名科技从业者叫停训练,GPT-4会被按下暂停键吗?

封面区块链 该文章已上链 >

封面新闻 2023-03-29 17:46 169041

封面新闻记者 边雪

赞誉累积数日之后,有史以来最强大的人工智能系统GPT-4最近如同在坐“过山车”,开始面对争议与危机。

当地时间3月29日,在OpenAI公开发布GPT-4两周后,马斯克和一群人工智能专家和行业高管在一封公开信中称,他们呼吁暂停六个月训练比 GPT-4 更强大的系统,理由是人工智能的最新进展对社会和人类带来了“深远的风险”。

公开信部分内容。(图片来源:官网截图)


“先进的人工智能可能代表地球生命史上的深刻变化,应该以相应的关怀和资源来规划和管理,”信中说,“不幸的是,这种级别的规划和管理并没有发生,尽管最近几个月人工智能实验室陷入了一场失控的竞赛,以开发和部署更强大的数字思维,没有人——甚至他们的创造者——可以理解、预测或可靠地控制。”

千人响应:叫停GPT-4后续AI大模型训练

这封“叫停公开信”由非营利组织未来生命研究所(Future of Life Institute)发布。3月29日,封面新闻记者查看该公开信时发现,该网站显示签名者名单上共有 1125人,其中包括马斯克、苹果联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)、《智人》作者尤瓦尔·诺亚·哈拉里,以及负责机器学习多项突破的一些最杰出的人工智能学者,但没有 OpenAI 员工在这封信上签名。

“叫停公开信”官网已有 1125人签名。(图片来源:官网截图)

公开信部分签名者的信息汇总(图片来源:官网截图)

据外媒报道, OpenAI CEO Sam Altman 的名字曾短暂出现,然后从签名者名单中消失。至少有四名谷歌员工,包括其子公司 AI 实验室 DeepMind 的三名员工、Stability AI的首席执行官 Emad Mostaque 也出现在了名单上。

“在一般任务上,现在人工智能系统变得与人类(一样)具有竞争力,”公开信中写道:“我们必须扪心自问:我们是否应该让机器用宣传和谎言充斥我们的信息渠道?我们应该自动化所有的工作,包括令人满意的工作吗?我们是否应该发展最终可能超越我们并取代我们的非人类思维?我们应该冒险失去对我们文明的控制吗?此类决定不得委托给未经选举的技术领导者。”

这封公开信还呼吁所有人工智能实验室同意用六个月时间暂停训练比GPT-4更强大的人工智能系统,并进行安全研究。“人工智能实验室和行业学者应该利用这次暂停,共同开发和实施一套,由独立的外部学者严格审计和监督的先进人工智能设计和开发共享安全协议,”

除了呼吁暂停高级人工智能开发,直到共享此类安全协议设计由独立专家开发、实施和审核,该公开信还详细说明了具有人类竞争力的人工智能系统以经济和政治破坏的形式对人类社会和文明造成的潜在风险,并呼吁开发人员与政策制定者就治理和监管机构进行合作。

“这些协议应确保遵守AI的系统是安全的,无可置疑。”这封信的呼吁者指出,他们并不是在呼吁全面暂停 AI 开发,而是“从危险的竞赛中退后一步”。“只有当我们确信它们的影响将是积极的并且它们的风险将是可控的时候,才应该开发强大的人工智能系统。”

在该公开信上签名的知名人工智能科学家、纽约大学心理系教授 加里·F. 马库斯(Gary F. Marcus)公开表示:“事实上,我的信念并没有改变,我仍然认为大型语言模型与超级智能或人工智能(AGI)没有多大关系;我仍然认为LLMS是通往AGI道路上的一个‘出口’,我的预测可能与马斯克的不一样,据我所知,他们貌似主要关注的是——计算机是否能迅速而彻底地自我改进。”

知名人工智能科学家、纽约大学心理系教授 加里·F. 马库斯(Gary F. Marcus)在公开信上签名。(图片来源:官网截图)

尽管很多研究将人工智能风险等同于超级智能或人工智能的风险,但加里·F. 马库斯认为,实际上不需要超级智能,也能制造出严重的问题。加里·F. 马库斯认为,“AGI风险”是人类无法控制的超级智能机器的风险,在当前这并不需要担心。“在短期内,我担心的是“MAI风险”-不可靠的普通AI(比如 Bing和GPT-4)正在进行广泛应用,无论是在使用它的人数方面,还是在软件对世界的访问方面。前不久,一家名为Adept.AI的公司刚刚筹集了3.5亿美元去实现这一目标,让大型语言模型能够访问几乎所有的东西(目标是‘在世界上任何软件工具或API上增强你的能力’,尽管LLMs明显倾向于幻觉和不可靠)。”

目前,这封仅仅出现数小时的公开信仍在持续发酵,在国外 AI 社区已经引起了极大的关注与讨论,也有用户对该公开信内容的真实性表示质疑。

但对人工智能产生威胁的担心,已经从人工智能行业外溢。在这封公开信发布之前,当地时间3月27日,欧盟警察部队欧洲刑警组织开展了对 ChatGPT 等先进人工智能的道德和法律问题的讨论,并整理成《ChatGPT-大型语言模型对执法的影响》的报告,警告世人该系统可能被滥用于网络钓鱼企图、虚假信息和网络犯罪。

OpenAI承认1.2%ChatGPT Plus遭受信息泄露

实际上,在“神通广大”的ChatGPT,用令人炫目的AI技术吸引全球科技爱好者使用的同时,用户隐私和数据安全的危险也同样存在。

在某用户公开声称其ChatGPT聊天栏出现了他人的聊天记录标题后,当地时间3月25日,OpenAI 在社交媒体表示,部分ChatGPT Plus服务订阅用户可能被泄露了部分个人隐私和支付信息,已将出现问题的ChatGPT下线,并与“Redis”数据平台的维护人员合作修补了导致用户信息泄露的漏洞。

该问题与 ChatGPT 使用开源 Redis 客户端库“Redis-py”有关,并由 OpenAI于当地时间3月20日进行的更改引入。

ChatGPT的开发人员使用“Redis”在服务器中缓存用户信息,以避免为每个请求检查数据库,而将“Redis-py”用作 Python 接口的错误使用,导致 ChatGPT 用户显示属于他人的聊天数据。

根据OpenAI的调查,活跃用户的聊天记录标题和新建对话的第一条消息在数据泄露中被暴露。该漏洞还暴露了1.2% ChatGPT Plus用户的支付信息,包括名字和姓氏、电子邮件地址、支付地址、支付卡到期日期以及客户卡号的最后四位数字。

“我们已经通知受影响的用户,他们的支付信息可能已经泄露,但我们相信用户数据不会持续存在风险,”除了在推文中表示用户信息泄露的情况,OpenAI还描述了问题的技术细节以及公司采取的应对措施。

OpenAI回应用户数据泄露的问题,并描述了问题的技术细节。(图片来源:官网截图)

这不是上周曝光的唯一ChatGPT安全问题。同样在周五,情报公司GreyNoise就一项新的 ChatGPT 功能发出了警告,该功能通过使用插件扩展了聊天机器人的信息收集能力。

封面新闻记者注意到,OpenAI向有兴趣将其插件与新功能集成的客户提供的代码示例包括用于“MinIO”分布式对象存储系统的 docker映像。

OpenAI示例中使用的docker镜像版本受“ CVE-2023-28432 ”影响,这是一个潜在的严重信息泄露漏洞,ChatGPT可以利用该安全漏洞获取密钥和 root 密码。

“人工智能浪潮正在深刻赋能人类生产和生活的各个方面,基于“深度学习+大数据+高性能计算”的解决方案为许多复杂任务提供了有效解决途径,在某些特定领域其能力已经接近甚至超越人类。”西安交通大学教授、网络空间安全学院副院长沈超表示,在美好蓝图之下,AI系统本身及其在数据、模型和代码等方面的可信问题也逐渐暴露出来,AI的可信安全已经成为一个不容忽视的问题。

AI赛道的竞争上,跑得快很关键,考虑不翻车似乎更为重要。在以ChatGPT为代表的人工智能技术掀起新一轮的人工智能革命的当下,人类工作生活使用人工智能的频次越来越高,潜在新型攻击和内容合规等安全风险的出现,涉及AI产品使用的安全问题也应该成为目前及未来应该重视的问题。

截至发稿,OpenAI尚未对公开信作出任何回应。

评论 8

  • fm2113398 2023-03-31 发表于四川

    人工智能的发展需要一个限制,终结者的剧情不是不可能发生

  • 加贺见葵 2023-03-30 发表于四川

    据说训练大型语言模型是在非洲的血汗工厂

  • fm1846 2023-03-30 发表于四川

    隐私问题

查看更多

去APP中参与热议吧