20230630/人工智能技术六种危害!AI教父建议年轻人从事管道工

(星星生活/捷克佳)人工智能先驱辛顿(Geoffrey Hinton)表示,AI技术的进步正在将世界推入“一个巨大不确定的时期”。随着技术变得更加智能,Hinton强调它可能对人类造成六种危害,包括偏见和歧视,战斗机器人,失业,信息茧房,现存风险,假新闻。

据CTV报道,周三在多伦多举行的今年Collision技术会议上,Hinton解释说,使用AI的一些危险源于它可能会产生控制他人的欲望,“我们必须认真对待这种可能性。”

这位认知心理学家和计算机科学家今年早些时候从谷歌辞职,以更公开地谈论AI的潜在危险。随着AI技术通过ChatGPT等工具变得更容易为公众所接受,Hinton几个月来一直在表达他的担忧。

自2022年11月发布以来,AI聊天机器人的使用量呈爆炸式增长。该工具由OpenAI开发,能够模仿人类对话以响应用户提交的提示。作为一种大型语言模型,ChatGPT以文本形式消化大量数据,并根据其摄取的信息提供响应。

但除了提出与剽窃和个人信息披露相关的道德问题外,ChatGPT还产生了令人反感和有偏见的结果。

Hinton成为Collision技术会议聚焦的中心人物,他向数百名与会者发表了讲话。来自世界各地的40,000多人齐聚多伦多参加今年的会议,几乎每次演讲都涉及人工智能的广泛影响。

计算机科学家Yann LeCun在本月早些时候于巴黎举行的Viva技术会议上分享了他对AI的看法,称其“本质上是好的”。然而,Hinton仍然怀疑善意设计的AI能否战胜不良行为者开发的技术。

Hinton、LeCun和Yoshua Bengio在2018年荣获被誉为计算机界诺贝尔奖的图灵奖。

Hinton表示,人工智能(AI)可能对人类造成的六大主要危险:

1. 偏见和歧视

Hinton表示,通过使用有偏见的数据集进行训练,AI技术和ChatGPT等大型语言模型能够产生同样有偏见的响应。

例如,一位推特用户在2022年12月发布的帖子显示,聊天机器人编写的代码表示,只有白人或亚洲男性才能成为优秀的科学家,这一反应是根据其训练数据得出的。ChatGPT对提示的回应已更新,OpenAI表示正在努力减少该工具系统中的偏见。

尽管存在这些挑战,Hinton表示,通过冻结该技术表现出的行为、分析它并调整参数来纠正它,相对容易限制潜在的偏见和歧视。

2. 战斗机器人

Hinton说,世界各地武装部队生产战斗机器人(Battle Robots)等致命自动化武器的想法是现实的。他表示,制定一项类似于《日内瓦公约》的条约可能会有所帮助,以便围绕禁止使用此类技术建立国际法律标准。但他表示,这样的协议应该尽早制定。

上个月,《特定常规武器公约》背后的国家会议召开,讨论致命自动化武器系统。然而,经过10年的审议,关于使用这些武器系统的国际法律和法规尚不存在。尽管如此,此类技术可能会继续发展。如完全自主的杀手无人机是武器开发“合乎逻辑且不可避免的下一步”。

3. 失业

Hinton表示,大型语言模型的开发将有助于提高员工的生产力,在某些情况下,可能会取代生成文本者的工作。

其他专家也表达了他们对AI在就业市场取代人类劳动力的潜力的担忧。但多伦多大学罗特曼管理学院劳资关系和人力资源管理名誉教授Anil Verma表示,雇主更有可能使用AI来取代个人任务,而不是整个工作。

专门研究AI和数字技术对技能和工作影响的Verma表示,这项技术的采用将“逐步”进行。

虽然有些人可能希望AI将有助于在新领域创造就业机会,但Hinton表示,他不确定该技术消除的就业机会比创造的更多。

Hinton对年轻人的建议是从事管道工等领域的职业。他说,那些能够在人工智能中长期存在的工作,是你必须具有很强的适应能力和身体素质的工作,手工灵活性仍然很难复制。

4. 信息茧房(Echo Chambers)

Hinton说,在大型语言模型开发之前就已经存在并且可能持续存在的一个问题是在线信息茧房的建立。在这些环境中,用户会接触到与自己相似的信念或想法。结果,这些观点得到了强化,而其他观点则没有得到考虑。

Hinton说,可能有一些程序使用AI算法,经过人类情感训练,让用户接触某种类型的内容。他表示,AI是否可以用来解决这个问题或使问题变得更糟,这是一个悬而未决的问题。

5. 现存风险

最后,Hinton还对AI可能对人类生存构成的威胁表示担忧。Hinton说,如果这项技术变得比人类聪明得多,并且能够操纵人类,它可能会取代人类。

Hinton表示,人类有一种强烈的、内在的控制欲,而这也是人工智能能够发展的特质。“你获得的控制权越多,就越容易实现目标,我认为AI也能够得出这一点,”他说。

Hinton表示,人类可能无法克服这种控制欲望,也无法监管可能怀有恶意的人工智能。这可能会导致人类的灭绝或消失。虽然有些人可能认为这是危言耸听,但Hinton说:“这是我们需要考虑的真正风险,我们需要提前弄清楚如何应对。”

6.假新闻

Hinton表示,人工智能还具有传播假新闻的能力。因此,他说,标记虚假信息以防止错误信息非常重要。

Hinton指出,各国政府已将故意使用或保留假币定为刑事犯罪,并表示应该对AI能生成的故意误导的内容采取类似的措施。不过,他表示他不确定这种方法是否可行。

有什么办法可以提供帮助吗?

Hinton表示,他不知道如何让人工智能更有可能成为一种行善的力量,而不是作恶的力量。但在这项技术变得异常智能之前,他敦促开发人员努力了解AI可能会如何出错或试图压倒人类。

他表示,开发AI技术的公司还应该投入更多资源来阻止AI接管,而不仅仅是让技术变得更好。“我们真的应该担心减轻人工智能的所有不良副作用,”他说。