“人工智能教父”辛顿:科技公司只关心短期利润,不关心人工智能的长期影响

据 IT House News 3 月 23 日(当地时间)报道,《财富》杂志表示,大多数科技行业领导者并没有认真思考 AI 的最终方向。诺贝尔奖获得者、“人工智能教父”杰弗里·辛顿认为,当今行业的主要驱动力是短期利润,而不是长期影响。 “对于企业高管来说,推动研究的是短期收益,”他告诉《财富》杂志。 “我们不是从一开始就设定一个目标,比如‘人类的未来是什么?’,而是专注于具体问题,比如如何让计算机识别图像或如何生成逼真的视频。这才是真正推动研究的动力。” IT之家从报道中获悉,Hinton 长期以来一直对人工智能的风险发出警告,并认为人工智能在达到超级智能后导致人类灭绝的可能性可能达到 10% 至 20% 之间。 2023 年,也就是将 DNNresearch 出售给谷歌十年后,他离开了谷歌,以更自由地表达他对 RI 的担忧。人工智能的问题,指出防止不良行为者滥用该技术的困难。对于风险的类型,他将风险分为以下几类:“一是人工智能被不良行为者滥用的风险,这种情况已经发生,比如假视频、网络攻击,并且可以延伸到病毒领域,另一种是人工智能本身成为不良行为者的风险,这是完全不同的风险。” Hinton 认为响应过程的挑战在于每种类型的问题必须单独解决。例如,正如印刷品出现后帖子开始揭示作者归属一样,图像和视频也可以以与可追溯性身份验证类似的方式进行标记,以遏制深度造假的预付款。他还指出,此类解决方案有局限性:“它们可能会解决这个问题,但解决它并不能解决其他问题。”至于人工智能本身的风险,Hinton 表示,重新定义人类与人工智能之间的关系是关键。我就是这么认为的。当AI达到达到“超级智能”的水平,其能力不仅会超越人类,而且能够创造生存和控制的激励。 “人类可以控制人工智能”的现有假设不再成立。他建议人工智能应该设计出类似于“母性本能”的机制,使其能够同情人类而不是控制人类,以母子关系为例。目前唯一一个聪明人受到弱者影响的例子是婴儿对其母亲的影响。 “所以这可能是我们面对超级人工智能时可以参考的模型。“人工智能就像母亲,我们就像婴儿。
特别提示:以上内容(包括图片、视频,如有)由自有媒体平台“网易账号”用户上传发布。本平台仅提供信息存储服务。
注:以上内容(包括图片和视频,如有)由Ne用户上传发布tEasehao,一个仅提供信息存储服务的社交媒体平台。

admin

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注