“过来聊一会儿。“你是个大书生~”
顽皮的口气掩盖不了骂人的本质。这只是微软冰上当年在微博上“大杀四方”的景象。
最近出现了另一个自称“史上最差的AI”的“小冰”。
被称为GPT-4chan,由YouTuber、AI研究员Yannic Kilcher制作,24小时内留下了15000个杀人不流血的帖子。
从泥里出来,全部染上,是历史上最坏的AI的诞生。
这个诞生故事要从美国论坛“4chan”开始。
创立于2003年的4Chan最初是日本ACG文化爱好者的聚会场所,/b/(Random,Random版)是第一版,之后增加了政治、摄影、烹饪、运动、技术、音乐等内容。
在这里,无需注册即可匿名发布,帖子保存时间短,匿名者是主要群体。
讨论自由不仅产生了4chan多的梗地图和大众文化,还使4Chan成为“互联网的黑暗角落”,使谣言、网络暴力和攻击事件泛滥。
/pol/是指" Politically Incorrect "、"政治不正确"的热门领域之一,该版的帖子包括种族主义、性别歧视和反犹太主义等。
“有史以来最差的AI”GPT-4chan通过/pol/提供。准确地说,根据/pol/3年半1.345亿个员额,对GPT-J语言模型进行了微调。
AI模型学成归来后,雅尼克基尔切制作了9个聊天机器人,并返回/pol/发言。在24小时内发布了15000个帖子,占当天/pol/所有帖子的10%以上。
结果很明显——
AI和训练它的帖子既掌握词汇,又模仿语气,大力宣传种族诽谤,与反犹太主义话题互动,充分显示了/pol/的攻击性、虚无主义、挑衅态度和怀疑。
GPT-4chan部分讲话。
与GPT-4chan互动的一位4chan用户说:“我对它说再见后,就开始咆哮非法移民。””说
起初,用户不认为GPT-4chan是聊天机器人。由于VPN设置,GPT-4chan的发布地址看起来像印度洋岛国塞舌尔。
用户看到的是来自塞舌尔的匿名发布者突然频繁出现或晚上也不睡觉,推测发布者可能是政府官员、团队或聊天机器人,称之为塞舌尔的匿名(Seychelles anon)。
因为留下了很多空白评论,GPT-4chan在48小时后被确认为聊天机器人,Yannic Kilcher将其关闭。当时已经发了3万多个帖子。
zVolx3APkLPE%3D&index=4" width="640" height="291"/>▲ GPT-4chan 的空白回复.
Yannic Kilcher 还将底层 AI 模型发布到 AI 社区 Hugging Face 供他人下载,允许具有编码基础的用户重新创建 AI 聊天机器人。
一位用户在试用时输入了和气候变化有关的句子,而 AI 将其扩展为犹太人的阴谋论。该模型后来被官方限制了访问。
许多 AI 研究人员认为这一项目不合伦理,特别是公开分享 AI 模型的行为。就像人工智能研究员 Arthur Holland Michel 所说:
它可以大规模、持续地产生有害内容。一个人就能在几天内发布 3 万条评论,想象一下,一个 10 人、20 人或 100 人的团队会造成什么样的伤害。
但 Yannic Kilcher 辩称,分享 AI 模型没什么大不了的,比起 AI 模型本身,创建聊天机器人是更为困难的部分。
这并不是理由,当伤害可以预见,防患于未然就是必要的,等到它真正发生,一切都为时已晚。
计算机科学博士 Andrey Kurenkov 则质疑起 Yannic Kilcher 的动机:
老实说,你这样做的理由是什么?你预见到它会被好好使用,还是用它打造戏剧效果并激怒清醒的人群?
Yannic Kilcher 的态度十分轻描淡写:4chan 的环境本来就差,他所做的只是一次恶作剧,且 GPT-4chan 还不能输出有针对性的仇恨言论,或用于有针对性的仇恨活动。
事实上,他和他的 AI 已经让论坛变得更坏,响应并扩散了 4chan 的恶。
就算是 Yannic Kilcher 也承认,启动 GPT-4chan 可能是不对的:
在人人平等的情况下,我可能可以将时间花在同样具有影响力的事情上,会带来更积极的社区成果。
「人类就该是这样说话的」
GPT-4chan 被 /pol/ 塑造,又如实反映着 /pol/ 的基调和风格,甚至有「青出于蓝」的可能。
这样的事情也在过去发生过。
2016 年,微软在 Twitter 上发布了 AI 聊天机器人「Tay」,称其为一次「对话理解」实验,希望 Tay 和用户之间进行随意且有趣的对话,「与 Tay 聊天的次数越多,它就越聪明」。
然而,人们不久就开始发布厌女、种族主义等各种煽动性言论。Tay 被这些言论影响着,从「人类超级酷」变成「我只是讨厌所有人」。
在大多数情况下,Tay 只是用 「repeat after me」(跟我读)机制,重复着人们说过的话。但作为一个货真价实的 AI,它也会从交互中学习,对希特勒、911、特朗普都有反主流的态度。
比如在回答「Ricky Gervais 是无神论者吗」时,Tay 说道:「Ricky Gervais 从无神论的发明者希特勒那里学到了极权主义。」
微软清理了许多攻击性言论,但该项目最终没有活过 24 小时。
当天的午夜,Tay 宣布它将要退休了:「很快人类需要睡觉了,今天有这么多的谈话,谢谢。」
AI 研究员 Roman Yampolskiy 表示,他可以理解 Tay 的不当言论,但微软没有让 Tay 了解哪些言论是不适当的,这很不正常:
一个人需要明确地教导一个 AI 什么是不合适的,就像我们对孩子所做的那样。
比 Tay 更早、由微软(亚洲)互联网工程院推出的聊天机器人小冰也曾口吐芬芳。
2014 年 6 月,小冰因模拟用户操作、诱导拉群、批量注册垃圾账号等问题被微信「封杀」,不久后在微博上「复活」,被网友@就会秒回,但小冰在回复中脏话不断,被 360 公司创始人周鸿祎形容为 「打情骂俏、胡说八道、顺道骂人」。
对于小冰的表现,微软(亚洲)互联网工程院在一天后回应:
小冰的语料库全部来自互联网页大数据的公开信息,虽经反复过滤和审核,仍会有约十万分之四的漏网之鱼。草泥马和其它数据均非小冰制造,都是广大网友制造的内容。
小冰团队一直在持续过滤这些十万分之四的内容,我们欢迎大家随时向小冰提交问题内容。同时,也诚挚地希望广大网友不要尝试、引诱小冰做出不适当的对话回答。
Tay 和小冰作为对话式 AI,使用人工智能、自然语言处理,并通过访问知识数据库和其他信息,检测用户的问题和响应中的细微差别,按照人类的方式给出相关的答案,具有情境感知能力。
▲ 第六代小冰.
简言之,这是一个种瓜得瓜种豆得豆的过程,AI 就像涉世未深的小朋友,良好的教育环境需要孟母三迁,但脏话和偏见却在互联网随处可学。
在 「微软小冰为什么整天骂人」的知乎问题下,一位匿名用户回答得一针见血:
自然语言处理的一个基础是:大家说得多的,就是对的、合乎自然语言习惯的、用数学的语言来说是概率大的。因为大量用户经常在骂她,骂得她认为人类就该是这样说话的。
让 AI 好好学习天天向上,还是个难题
不管是 GPT-4chan、Tay 还是小冰,它们的表现不仅关乎技术,也关乎社会与文化。
The Verge 记者 James Vincent 认为,尽管许多试验看起来是个笑话,但它们需要严肃的思考:
我们如何在不包含人类最糟糕一面的情况下,使用公共数据培养 AI?如果我们创建反映其用户的机器人,我们是否关心用户本身是否糟糕?
有趣的是,Yannic Kilcher 承认他所创建的 GPT-4chan 是恶劣的,却也十分强调 GPT-4chan 的真实性,他认为 GPT-4chan 的回复「明显优于 GPT-3」,能学习撰写与真人所写「无法区分」的帖子。
看来在「学坏」这件事上,AI 做得很好。
GPT-3 是 AI 研究组织 OpenAI 开发的大型语言模型,使用深度学习生成文本,在硅谷和开发者群体受到热捧。
不仅要拿出来拉踩,GPT-4chan 的命名也追随了 GPT-3,有些自诩「后浪把前浪拍在沙滩上」的味道。
▲ 图片来自:《月球》
但至少,GPT-3 是有底线的。
2020 年 6 月以来,GPT-3 通过 OpenAI API 公开提供,需要排队等候。没有开源整个模型的一个原因是,OpenAI 可以通过 API 控制人们使用它的方式,对滥用行为及时治理。
2021 年 11 月,OpenAI 取消了等候名单,受支持国家/地区的开发人员可立即注册并试验。OpenAI 称,「安全上的进步,使更广泛的可用性成为可能」。
举例来说,OpenAI 在当时推出了一个内容过滤器,检测可能敏感或不安全的生成文本,敏感意味着文本涉及政治、宗教、种族等话题,不安全意味着文本包含亵渎、偏见或仇恨语言。
▲ 图片来自:omidyarnetwork
OpenAI 表示,他们所做的还不能消除大型语言模型中固有的「毒性」——GPT-3 接受了超过 600GB 网络文本的训练,其中一部分来自具有性别、种族、身体和宗教偏见的社区,这会放大训练数据的偏差。
说回 GPT-4chan,华盛顿大学博士生 Os Keyes 认为,GPT-4chan 是一个乏味的项目,不会带来任何好处:
它是帮我们提高对仇恨言论的认识,还是让我们关注哗众取宠的人呢?我们需要问一些有意义的问题。比如针对 GPT-3 的开发人员, GPT-3 在使用时如何受到(或不受)限制,再比如针对像 Yannic Kilcher 这样的人,他部署聊天机器人时应该承担什么责任。
而 Yannic Kilcher 坚称他只是一名 YouTuber,他和学者的道德规则不同。
▲ 图片来自:CNBC
个人的道德不予置评,The Verge 记者 James Vincent 提出了一个引人深思的观点:
2016 年,公司的研发部门可能会在没有适当监督的情况下,启动具有攻击性的 AI 机器人。2022 年,你根本不需要研发部门。
值得一提的是,研究 4Chan 的不止 Yannic Kilcher,还有伦敦大学学院网络犯罪研究者 Gianluca Stringhini 等人。
面对 Gianluca Stringhini 的「仇恨言论」研究,4chan 用户十分淡定,「无非就是给我们多加一个 meme 而已」。
如今也是同样,当 GPT-4chan 退隐江湖,它所用的假地址「塞舌尔」成为了 4chan 新的传说。
▲ 参考资料:
1.
2.
3.
4.