ChatGPT背后的隐秘角落:血汗工厂与“扯淡生成器”

天天财经116
2023-02-17 09:58:23
28543
ChatGPT的出现,只是让我们看到人工智能行业的一个拐点,让我们在与它的互动中感受到从“弱人工智能”到“强人工智能”的转变。


ChatGPT的出现,让我们看到人工智能行业的一个拐点,但人们所期待的下一代互联网变革时刻,还远未到来。


作者|魏笺
来源|天天财经116

继谷歌推出的“学徒巴德”在发布会翻车之后,ChatGPT也从神坛跌落。
据《时代周刊》报道,在推出ChatGPT之前,OpenAI曾雇用肯尼亚的廉价劳工对暴力、仇恨言论和性虐待等有害信息进行标注。而这些劳工只能得到低至1.36美元的时薪,以及难以愈合的心理创伤。
OpenAI的宗旨是“AI造福全体人类”,而这些隐秘角落的廉价劳工们,显然不包括在内。
另一边,随着越来越多人使用ChatGPT,其局限性也体现出来。人们发现,ChatGPT对于现有内容的总结比较擅长,但是在回答具体的问题时,容易自说自话,甚至出现事实错误。
扯去“性格呆萌”的遮羞布,ChatGPT作为一款科技产品,可以让我们看见人工智能行业发展的一个拐点,却难以称其为一场革命。

人类驱动的人工智能

我们不想推出一个要么说错话,要么说有害信息的系统。
2月13日,Alphabet的董事长John Hennessy在一场峰会上说出谷歌为什么迟迟不发布“学徒巴德”的原因,他认为生成式人工智能还需要一到两年才能成为对公众真正有用的工具。
John Hennessy的担心并不多余,去除AIGC中的有害信息始终难以完美解决,连OpenAI也不得不利用廉价劳工来驱动人工智能产品。
据《时代周刊》报道,OpenAI在2021年底与第三方公司SAMA签署了三份合同,总价值约为20万美元,雇佣肯尼亚的员工为性侵犯、仇恨言论和暴力的文本描述贴上标签。
合同中称,OpenAI将向SAMA支付12.5美元的时薪,这是SAMA参与该项目的员工每小时工资的6到9倍。
根据资历和表现,参与标注的员工时薪不超过2美元,最低档只有1.32美元(折合人民币9元),每天工作9小时,阅读并标注150-250段文字。
由于这些信息都带有色情暴力元素,长期面对这些信息的员工遭受到心理创伤,而后续对这些员工的心理治疗并未达到效果。一位员工称,自己想和心理治疗师进行一对一谈话,但被SAMA公司拒绝。
OpenAI发言人在一份声明中表示,公司没有发布任何生产力目标,由SAMA负责管理员工的薪酬和心理健康。该发言人说:“我们非常重视员工和承包商的心理健康。我们之前认为SAMA会为员工提供一对一的心理健康咨询,员工可以选择退出任何工作而不会受到惩罚,接触露骨的内容会有限制,敏感信息将由经过专门培训的员工处理。”
除了为文字标注,2022年2月,SAMA还应OpenAI要求,为一些暴力色情图片进行标注。据报道,SAMA这个月取消了与OpenAI相关的所有工作,比原计划提前了8个月。
人类仍然需要为人工智能系统标记数据,至少目前是这样。人工智能伦理学家Andrew Strait最近在推特上写道:“ChatGPT令人印象深刻,但它和其他生成模型并不神奇——它们依赖于大规模的人工劳动供应链和抓取的数据,其中许多是未经授权和未经同意使用的。这些都是严重的基础性问题,我认为OpenAI没有解决这些问题。”
这也意味着人工智能仍然遵循发明者的价值判断,比如GPT-3会有明显的基于宗教的偏见和性别歧视,这是隐藏在现有产品中难以被意识到的部分。

隐秘的角落

实际上,OpenAI所做的内容审核,是Facebook、谷歌、腾讯等互联网平台一直在做的事。
为什么AI没有代替人工审核?根据加州大学洛杉矶分校副教授萨拉·罗伯茨的看法,目前机器学习算法和自然语言处理的投入并未减少内容审核的人数,反而增加了人数。因为员工需要对训练工具要用到的图像和文本进行注释,而且算法判断是否正确仍然需要人工检查。
OpenAI背后的这家“血汗工厂”SAMA就是专职提供内容审核的公司,招聘的都是发展中国家的人。它的官网上列举了谷歌、微软、沃尔玛等大型合作商。
SAMA表示,自己是“有道德的AI公司”,其使命是为人们提供“有尊严的数字工作”,因为帮助穷国的最佳方式是“提供工作,而不是援助”。该公司声称已经帮助发展中国家超过5万人摆脱了贫困。
而根据《时代周刊》2022年2月的一篇报道,该公司没有公布其与Facebook的合作关系。
他们为Facebook所做的工作更加基础。作为外包的内容审查员,他们需要24小时轮班工作,在普通用户看到Facebook上的非法或禁止内容之前,查看并删除这些内容。
《时代周刊》称,Facebook指南指示内容管理员只观看视频的前15秒,接着标记该条内容是否可以继续留在平台上,然后进入下一段内容。一位员工称,自己必须要在50秒内做出决定,否则可能要继续参加内部培训项目,甚至被解雇。
由于审核讲究速度和效率至上,仇恨言论和暴力视频至今还会出现在Facebook平台上。
自2019年以来,内罗毕员工负责了整个撒哈拉以南非洲的内容审核业务。一项调查发现,内罗毕的这些员工是该平台在世界上收入最低的员工之一,其中一些人的时薪仅为1.5美元。
在价格低廉之外,员工还需要忍受长期的心理创伤。
2020年,Facebook花了5200万美元用于一些美国内容审核员的心理健康治疗,此前他们曾发起一场针对精神疾病的诉讼,比如有些员工在长期审核暴力色情内容后患上了PTSD。之后,一些内容审核员被要求签订一份弃权书,提前声明自己知道从事这项工作可能会患上精神疾病。
内罗毕当地的员工曾试图组织工会来反抗这种不人道的内容审核工作以及极低的薪酬,但最终以失败告终。支持组织工会的员工也被SAMA解雇。
2021年,Facebook与全球1.5万多名内容审查员签订了服务合同,其中大多数受雇于SAMA等第三方机构。
2022年2月17日,也就是《时代周刊》公布调查结果的三天后,SAMA的CEO温迪·冈萨雷斯向高管发出了一条信息:“我们将逐步结束OpenAI的工作。今年1月,SAMA发布声明称,将停止为Facebook提供内容审核服务。
人们在使用ChatGPT时,会因为它能识别与暴力、色情、自杀有关的内容,并且不提供答案而感到惊叹,殊不知背后是廉价劳工对其学习数据提前标注而成。在我们为人工智能的新发展欢呼之时,互联网巨头对发展中国家劳力的剥削就这样隐身了。

破圈,而非破局
2022年是AIGC出圈的一年,不仅有爆火产品,还受到资本追捧。但人工智能还远没到能够“造福全人类”的时候,反而还需要更多的人来辅助其运行。
一直以来,各大互联网平台都在致力于虚假信息和信息安全的治理,但AIGC内容的持续增长,会使得这类信息的治理难度加大。新闻可信度评估机构News Guard的联合执行官格洛维茨称:“ChatGPT可能成为互联网有史以来最强大的传播虚假信息的工具。”
越来越多的人发现,ChatGPT生成了大量看起来似乎正确且合理,实际上往往是错误的答案。技术专家将这种现象称为“幻觉”或“随机联想”,即ChatGPT等大型语言生成模型可以预测给定输入的下一个关联内容,而不管事实是否正确或者编造了事实。
普林斯顿大学计算机系教授阿尔文德·纳拉亚南将ChatGPT称为“扯淡生成器”(bullshit generator),这个词不是为了贬低ChatGPT,它来自于哲学家哈里·富兰克福写的《扯淡论》,其中对“扯淡”的定义是:意图说服别人却罔顾事实。
纳拉亚南认为,产生准确的文本只是ChatGPT在说服别人的过程中产生的“副作用”,而不是它的目的。换句话说,ChatGPT只在乎能不能和像人一样说话,并且流畅地与人交谈,而不在乎是不是说得正确。
2月7日,谷歌推出的“学徒巴德”在演示过程中出现事实性错误,导致谷歌的股价暴跌7%。
一周后,搜索引擎研究员德米特里·布里尔顿发现,微软在演示新版必应时也出现了事实性错误,但无人在意。
当时微软演示了用新版必应总结GAP公司Q3的财报,但是多项数据AI都给出了错误答案。比如AI给出GAP运营利润率为5.9%,实际上这个数字在财报中是4.6%,而5.9%这个数字在该公司的财报中根本没有出现。
对此,微软回应称,“我们预计到该系统可能会在预览期间犯一些错误,正因如此,反馈才至关重要,这可以帮助我们学习和改进模型”。
这个消息并没有影响到微软的股价。最近,OpenAI的CEO山姆·阿尔特曼在一档播客里称,ChatGPT其实是一款糟糕的产品,连1.0都算不上,但是人们对它的喜爱和包容让它变得像是真正的产品。
看起来也的确如此。当ChatGPT出现问题时,人们笑称它是个“顽固”“呆萌”的机器人。而其他类似产品出现问题时,他们的公司却不得不面临一场公关危机。
北京师范大学的教授喻国明对ChatGPT在中国的未来表示担心:“仅仅将这款产品作为一个娱乐对象来处理,没问题。可一旦正式进入我们的社会生活,比如跟新闻资讯、社会表达相关的时候,就要面对监管部门的要求。这对它将是巨大的考验。”
相比于一个产品,ChatGPT更被认为是下一代互联网基础设施。根据公开数据,现在已经有628个调用GPT-3系列模型开发的应用程序,比ChatGPT出现前多了160家。应用GPT-3模型的写作辅助工具Jasper,成立18个月估值就高达15亿美元。
在ChatGPT出现之前,出色的人工智能产品只在有限圈层内应用,比如应用于机器下棋的深蓝和Alphago。而ChatGPT作为一个产品确实做到了“破圈”,让全民都能使用。但在娱乐之外,当ChatGPT真正进入我们的社会生活时,人们又不得不面临大量有害信息和虚假信息的入侵。
目前的OpenAI给出的最优解是靠人工标注和AI深度学习来识别有害信息,但尚不能完全解决虚假信息的问题。
ChatGPT的出现,只是让我们看到人工智能行业的一个拐点,让我们在与它的互动中感受到从“弱人工智能”到“强人工智能”的转变。但人们所期待的下一代互联网变革时刻,还远未到来。

编辑 | 杜仲
设计 | 任孟强




免责声明:本文观点来自原作者,不代表天天在线的观点和立场。文章内容仅供参考、交流、学习,不构成投资建议
责任编辑:徐蕊_XN043
猜你感兴趣