Geoffrey Hinton AI 教父高调退出 Google:后悔研发 AI 威胁人类

图片[1]-Geoffrey Hinton AI 教父高调退出 Google:后悔研发 AI 威胁人类-弦外音

据外媒报道,深度学习(Deep Learning)泰斗、人工神经网络(Artificial Neural Network)之父Geoffrey Hinton昨日(5月1日)在Twitter发文,高调宣布已经辞职,不再为Google工作。Hinton在接受外媒采访时更称“后悔投身AI行业”。Hinton离职前在Google负责Deep Learning研发工作超过十年。

据 New York Times 报道, Geoffrey Hinton 表示辞职是为了可以在不影响 Google 的情况下公开评论生成式 AI。同时 Hinton 亦重申,Google 在应对 AI 方面非常负责任,并表扬 Google 先前一直限制应用 AI 的决定。

2022 年起,Google 及 OpenAI (开发 ChatGPT 的初创公司)使用更庞大的数据训练旗下 AI。Hinton 认为用于训练 AI 的数据量实在太多,AI 在某些地方可能已超越人类的智能。

Geoffrey Hinton 表示,科技巨头间的竞争使各大公司以危险的速度发布 AI 技术,一方面会损害工作机会,另一方面会助长假信息传播。Hinton 称:“现时看不到有任何预防措施可以用于限制不良份子利用 AI 来做坏事。”Hinton 认为虽然现时有很多人已开始学会用 AI 辅助工作,但像 ChatGPT 这种发展迅速的聊天机械人会导致人类失业。Hinton 亦警告,AI 可能会助长虚假消息传播,不久以后网络上将会充斥假消息、AI 生成的虚假影片和相片等,更指“普通人无从分辨真假”。

除此以外, Geoffrey Hinton 亦担心 AI 技术未来会对人类生命安全构成威胁。由于很多人和公司允许 AI 在无人监督的情况下自行生成并运行电脑程序,Hinton 担心有一天 AI 会发展成武器主动攻击人类。Hinton 过往认为以上问题起码 30-50 年后才会出现,但看见目前 AI 发展速度后他改变了看法。他重申,在有能力限制通用人工智能(artificial general intelligence,AGI)之前,科学家不应继续扩大开发规模。

很多 AI 行业的专家,甚至是 Geoffrey Hinton 的学生和同事都认为 Hinton 过份杞人忧天,表示这种威胁仅存于假设性层面。 Hinton 认为如果科技公司继续在缺乏监管下放任 AI 发展,则最终必然会出现这种威胁。Geoffrey Hinton 向外媒透露,他对研发 AI 一事感到后悔,但亦表示即使他自己没有研究 AI ,也会有其他人研究。

Geoffrey Hinton 为人工智能技术先驱,于 1972 年在英国爱丁堡大学(The University of Edinburgh)开始研究神经网络,于 2012 年在加拿大多伦多大学(University of Toronto)与 2 名研究生开发人工智能系统的雏形,并共同创立 DNNresearch。2018 年,Geoffrey Hinton 因对神经网络的研究获得图灵奖(ACM A.M. Turing Award)。

除了Geoffrey Hinton外,科技界亦有不少专家曾经建议放慢AI发展步伐。今年3月下旬Elon Musk、Steven Wozniak等业界巨子联名签署公开信,呼吁业界在建立保障机制前停止训练比GPT-4更强的AI。Geoffrey Hinton当时未有在公开信联署,表示不希望在辞职前公开批评AI。

© 版权声明
THE END
喜欢就支持一下吧
点赞0 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容