查看原文
其他

CCCF卷首语 | 人工智能,不是填充知识的容器,而是要点燃的火把

刘云浩 中国计算机学会 2022-12-18


作为计算机领域的研究人员,作为计算领域学术杂志的CCCF,有义务科学地与大家一起探讨对于人工智能的种种迷思。热烈邀请更多的读者、科研工作者就AI的现在与未来展开讨论,我们期望唤醒公众对科学的认知,点燃人工智能技术的火把。



2014年,ACM时任主席亚历克斯·沃尔夫(Alex Wolf)教授来清华大学访问,他本是来和我讨论图灵纪念活动的,但是他坐下来的第一个问题竟然是“Yunhao,do you believe the Singularity theory?”原来,在来中国的路上,他一直在读一本书:The Singularity Is Near,中文名叫《奇点临近》。


自从AlphaGo战胜围棋世界冠军李世石,IT领域没有比“人工智能”更能吸引眼球的话题了。2017~2020年,我在清华大学高中暑校课上,回答了不少高中学生关于人工智能方面的问题。今天的高中生,见识与水准令人叹为观止。很多学生都觉得人工智能无所不能。同时他们的想法也代表了社会上对人工智能的思潮:有遐想与期待,也有担忧和恐惧。作为计算机领域的研究人员,作为计算领域学术杂志的CCCF,有义务科学地与大家一起探讨对于人工智能的种种迷思。


人工智能七十年,热了冷,冷了热。时至今日,以联结主义为纲的机器学习(特别是深度学习)技术在一些领域取得了极大成功,这正是本轮人工智能热潮的核心技术。在2019年的人工智能会议NeurIPS上,专家们开始担心深度学习是否达到了天花板。2020年5月,由马斯克(Elon Musk)等人创办的OpenAI发布了预训练语言模型GPT-3,它以惊人的文本生成能力显示,深度学习还可以通过继续扩大模型的参数规模实现更好的效果。今年6月初,北京智源研究院发布了“悟道2.0”,模型参数是GPT-3的10倍,达到了1.75万亿。GPT-3耗资1200万美元,“悟道2.0”没有公布其成本,从公开报道看成本不低。


增加算力是人工智能最主要的发展方向吗?


抛开成本不谈,深度神经网络的可解释性问题,是当前学术界公认的挑战。上周,我和“互联网之父”温顿·瑟夫(Vinton Cerf)讨论,他反复强调我们需要“可解释的人工智能”(Explainable AI)。缺乏可解释性的AI可能带来两方面的后果,一是在医疗、法律等关键领域,不可解释的模型的应用是受限的;二是难以预防各类针对模型的攻击。


以深度学习为代表的机器学习,典型的成功应用目前主要停留在特定领域,比如计算机视觉和自然语言处理等。我们不禁又要问另一个问题,机器学习这条路径能否通向通用人工智能(AGI)?


1956年夏天,麦卡锡(John McCarthy)召集众星在达特茅斯举办“人工智能夏季研讨会”,AI这一新兴学科诞生。逻辑学、统计学、神经科学和计算机科学等领域的研究者分别以符号主义、联结主义和行为主义等三个纲领出发研究人工智能。打造AGI是否需要第四种纲领?还是依靠这三者的融合就能解决?


本期CCCF最大的看点,是李国杰老师以一个“过来人”的身份,分享了他对人工智能若干问题的观点和看法,见解深刻,内容独到,我反复看了很多遍,不忍释卷。李老师还讲到,我国学术界辩论风气还不够浓。这使我想起古希腊普罗塔戈的名言,“人的大脑,不是一个要填满的容器,而是一支要点燃的火把”。CCCF响应李老师的号召,热烈邀请更多的读者、科研工作者就AI的现在与未来展开讨论,我们期望唤醒公众对科学的认知,点燃人工智能技术的火把。



刘云浩

CCF高级会员,CCCF主编,ACM Fellow。清华大学教授。ACM Transactions on Sensor Network主编。


特别声明:中国计算机学会(CCF)拥有《中国计算机学会通讯》(CCCF)所刊登内容的所有版权,未经CCF允许,不得转载本刊文字及照片,否则被视为侵权。对于侵权行为,CCF将追究其法律责任



CCF推荐

【精品文章】



点击“阅读原文”,查看更多CCCF文章。

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存