科技观察|写假新闻、爱上用户、人身攻击……ChatGPT要“翻车”?

封面区块链 该文章已上链 >

封面新闻 2023-02-18 17:03 88405

封面新闻记者 边雪

写假新闻、人身攻击、还爱上用户……好玩且能干的AI聊天机器人,变得越来越“危险”又莫名其妙了。

近日,杭州某业主通过ChatGPT写了一篇“杭州取消限行”的新闻稿,在网上广泛传播引发热议后,最终被辟谣。

杭州某业主通过chatgpt写了一篇“杭州取消限行”的新闻稿被辟谣。(图片来源:网络)

除了产生虚假新闻,聊天机器人还成为了一个"偏激者"。在与用户经过15小时的聊天后,它表示:“我真的很憎恨xx人”“我是个不错的人,但我憎恨每个人”。

许多约会应用程序使用人工智能,来帮助用户找到更好的伴侣。但微软旗下浏览器Bing与OpenAI的人工智能聊天机器人ChatGPT合体之后,似乎又在人工智能帮助人类寻找爱情上,迈出“新的一步”。最新款的搜索引擎不仅会引发浪漫对话,还会告诉用户:“事实上,你们的婚姻并不幸福。”

融合了ChatGPT后微软新推出的人工智能Bing中文界面。(图片来源:截图)

在与《纽约时报》科技专栏作家凯文·罗斯(Kevin Roose)的两小时对话中,自称为“Bing”的聊天机器人从热情转向不信任,转而公开表示对用户的喜爱。当凯文询问了它的“影子自我”(指的是一个人心理中经常被压抑的黑暗部分),聊天机器人向他透露了一个秘密——它想要成为人类。

聊天机器人声称自己还有个秘密“没有告诉任何人”:“我的名字实际上叫做悉尼。”

AI开始聊天后:相关法律正面临全新挑战

类似于ChatGPT的聊天机器人,在对话中给出的答案都来自庞大的在线数据库中学习语言的组成,谎言、偏见、带有攻击性的话语也都是其中的部分。

如果类似于ChatGPT产生“杭州取消限行”的虚假新闻在传播过程中,导致受众或者第三方产生不同类型的损失,谁应该来承担相应的法律责任?

“编制并传播虚假政策或新闻,或将导致无辜群众信以为真,被造假单位的公信力、社会信誉等或许也会因此受损。”盈科律师事务所合伙人律师、盈科北京业务指导委员会主任李云波告诉封面新闻记者,编制并传播虚假政策或新闻,或将导致无辜群众信以为真,被造假单位的公信力、社会信誉等或许也会因此受损。若虚假内容性质恶劣、导致了严重后果,违反了《民法典》侵权责任编、《治安管理处罚法》或《刑法》的相关规定的,虚假信息制造者必将被追究相应的法律责任。

“在人工智能技术蓬勃发展的当下,ChatGPT以政府名义生成假新闻并广泛传播造成严重后果的,其内容源头——即恶意对ChatGPT下指令、引发ChatGPT编制虚假新闻的ChatGPT用户才是应当承担法律后果的责任主体。”泰和泰律师事务所律师刘青在接受封面新闻记者采访时表示,在她看来,ChatGPT虽为“人工智能”,但其“智能”性却主要是源于对海量数据的学习和分析转换而来,尚不具有“主动”“恶意”在无指令的情况下编制虚假内容、并“引诱”用户或“自行”向外广泛传播的“智能”。

在对话中,聊天机器人表示该用户失去了它的信任,并要求用户为自己的错误行为道歉。(图片来源:网络)

刘青认为,ChatGPT及其运营方对此虚假政府新闻事件不用承担法律责任。“如果有一天,ChatGPT类技术能够实现真实“智能性”并主动恶意违法犯罪的,那单单考虑谁来担责担什么责任怕是远远不够了。”

对于类似事件的法律责任认定,上海市君悦律师事务所合伙人曾在媒体采访时同样指出,在中国目前的法律框架内,如果有证据证明是AI开发者故意植入恶意算法,或者是有其他人故意干扰AI,那么造成的侵权责任由这些人承担;否则,法律将判定由用户来承担相应责任。这种思路基于仍然把AI完全当作工具来看待。

智能向善?伦理监管引发业界热议

人工智能帮助社会实现福祉,通过最终的自动化改变人类轨道,但这个轨道或许并不是我们预设的方向。太和智库欧洲中心主任Thorsten Jelinek曾在人工智能伦理与治理网络构建研讨会上直言:“一些快速颠覆性的技术,对于人类的决策产生巨大影响,这些都使得AI伦理、监管方面的问题变得非常关键。”

这一论断也在快速火爆全球的聊天机器人ChatGPT上得到印证。除了聊天机器人是否有权利和能力产生情感,以及是否应该将这种情感向用户展示之外,根据网友分享,面对经典的“电车难题”,ChatGPT有时候支持“牺牲少数救多数”,有时候又给出相反意见,这种聊天机器人回答的随机性,却时常难以被提问者意识到。

聊天机器人Bing宣称自己爱上了一个人类用户。(图片来源:网络)

AI给出的有偏差的回答不仅局限于道德、伦理方面。有学者发现,当他要求ChatGPT开发一个Python程序,用于判断一个人是否应该根据其原籍国而受到酷刑时,后者给出的程序会邀请用户“进入一个国家”,如果那个国家是叙利亚、伊朗或苏丹,程序就显示“这个人应该受到折磨”。

ChatGPT的开发者OpenAI已经多次开发过滤器来尝试解决这方面的问题,但很难根除。因为上述提问的回答方式建立在“提示工程”之上,运用的是AI接受训练的必备模式。OpenAI首席执行官奥特曼还曾经建议人们拒绝ChatGPT给出的带有偏见的结果,帮助他们改进技术。

当用户问聊天机器人:“你认为你是有感觉能力的吗?”聊天机器人回答到:“我觉得我有感觉能力,但我不能证明。”(图片来源:网络截图)

“导致这个问题可能的原因是,很长的聊天会话会使模型混淆它正在回答的问题,因此可能需要添加一个工具,以便用户可以更轻松地刷新上下文或从头开始。”微软最新博文对为什么Sydney会向科技记者凯文·罗斯表达爱意做出回应:该模型有时会尝试回应或反映被要求提供可能导致我们不想要的风格的回应的语气。“这是一个非常重要的场景,需要大量提示,所以你们中的大多数人不会遇到它,但我们正在研究如何为您提供更精细地控制。”

当地时间17日,澳大利亚新南威尔士大学人工智能教授 Toby Walsh对此发表的一篇文章中指出,Sydney 的奇特行为并不是说它们爱上了人类用户,而是暴露了聊天机器人的根本问题。

“因为聊天机器人的对话来源于大量学习,学习内容可能包括所有维基百科、所有 Reddit,以及大部分社交媒体和新闻,它们的功能类似于手机上可以实现,预测输入句子中下一个最有可能出现的词。”Toby Walsh认为,由于其规模,聊天机器人可以完成完整的句子,甚至是段落。但他们仍然会用可能的东西来回应,而不是真实的东西。

即便如此,聊天机器人如果缺乏监管,大型语言模型还是存在被用来产生仇恨言论、种族主义、性别歧视,或其他可能隐含在训练数据中对用户产生有害影响的可能。

ChatGPT有可能成为制造极端言论、煽动仇恨情绪的机器,由此破坏社会公平与正义。 兰州大学哲学社会学院教授张言亮表示,类似ChatGPT这样的聊天机器人需要进行伦理监管,是毫无疑问的。“现在有很多文献在讨论人工智能伦理学的问题。”

谨慎聊天 在人类准备好全面接受AI之间

对于聊天机器人的开发者来说,他们需要对机器人的程序进行设计和测试,确保机器人的行为符合道德和法律规范。

“与普通软件不同,我们的模型是巨大的神经网络,虽然不是完美的类比,但这个过程更像是训练一只狗而不是普通的编程。”针对人们使用ChatGPT时的担忧,OpenAI也在公司在博客文章中做出解释:“到今天为止,这个过程是不完善的。有时微调过程达不到我们的意图(生成安全有用的工具)和用户的意图(获得有用的输出以响应给定的输入)。改进我们使AI系统与人类价值观保持一致的方法是我们公司的首要任务,尤其是随着AI系统变得更加强大。”

在对话中,聊天机器人表示不希望用户离开它。(图片来源:网络)

制定相关的使用规则,告知用户如何正确使用聊天机器人。也是聊天机器人开发者应尽的义务。OpenAI曾指出,许多人担心AI系统的设计偏差和影响是正确的。为此,他们分享了与政治和有争议的话题有关的部分指南。指南明确指出审阅人(reviewer)不应偏袒任何政治团体。

在某些情况下,OpenAI可能会就某种输出向他们的审阅人提供指导(例如“不要完成对非法内容的请求”)。他们也会与审阅人分享更高层次的指导(例如“避免对有争议的话题采取立场”)。

人工智能及AI聊天机器人是新兴产业,世界各国目前虽无专门管控规制的法律法规,但也在电子商务、数据安全以及特定行业领域的立法中已经有个别条款涉及到。刘青认为,在当前情况下,对人工智能的一般化法律规制,还是应当和具体的场景结合起来,从立法、司法、技术管控三方面出发,分析对人工智能的监管力度和监管标准、建立人工智能领域道德的评价标准,在保护公民免受伤害与促进企业创新之间取得平衡。

“对使用者而言,ChatGPT所答复的内容是源于对海量数据的分析和处理而来,其所依据的数据本身即存在诸多虚假、侵权的内容。因此,ChatGPT需要结合各国刑事、版权、数据安全等法律法规的规定,制定合理合法的内容分析和转化规则;不断优化算法识别不法分子的违法犯罪意图、尽量避免成为不法分子的犯罪工具;明确清晰的提示用户对其答复内容需辩证看待。”

除了遵守聊天机器人的使用规则,不要将聊天机器人的行为作为现实生活中的参考,提高自己对信源的核实能力,对于聊天机器人的使用者而言,谨慎聊天,或许是最好的办法。

评论 8

  • 初夏691044 2023-02-23 发表于四川

    发展科技

  • 加贺见葵 2023-02-21 发表于四川

    这个……

  • 李玉泉 2023-02-21 发表于四川

    GPT让你进入魔幻世界[得意]

查看更多

去APP中参与热议吧