暂无图片
暂无图片
暂无图片
暂无图片
暂无图片

CCCF精选|究天人之际,成AI之言

195




人类在视觉、听觉等方面存在明显极限,AI可以成为我们的“洞悉之镜”,提供对复杂系统更精准的洞察,形成科学探索“启迪之源”,甚至成为“真理之使”,替我们做某种程度的思考,告诉我们理解的过程。




继2016年“阿尔法围棋”(AlphaGo)击败世界冠军李世石引发人工智能热潮,2022年,OpenAI开发的ChatGPT再次将AI推上风口浪尖。连比尔·盖茨都认为2023年将是AI最火热的一年,有望形成新的里程碑。ChatGPT原本只是一个聊天程序,设计的核心功能是模仿人类对话,没想到还能写代码、创作剧本诗歌,甚至还能帮学生写论文、回答考试问题,真是应了丘吉尔的那句话“This is not the end. It is not even the beginning of the end. But it is, perhaps, the end of the beginning.”


现实一点,更多人开始忧虑自己是否会因为人工智能而失业。前段时间,AI图像生成公司从网上抓取了几十亿张图像训练模型,生成具有独特风格的新图像,普通用户可以通过输入短语生成与现有艺术家作品相似的图像。由于这些图像只是用于AI训练,图像艺术家没有从中获利。Joseph Saveri律师事务所代表一组艺术家在美国旧金山递交了集体诉讼,指控Stability AI、Midjourney和DeviantArt等公司侵犯了数字千年版权法(Digital Millennium Copyright Act,DMCA)。


就在人工智能高歌猛进的同时,人们也开始担心:AI提供的结果是可信的吗?我们是否需要AI对其结果进行解释呢?乐观的研究者认为,期待AI给人们提供解释过于短视了,是出于以人为中心的偏见。目前火热的深度学习是模仿人类大脑神经元的工作方式进行设计的,从神经元的数量来看,人类经历了数百万年只增长了三倍,而神经网络模型参数的数量在近几年以年均10倍的速率在增长。庄子说,“井蛙不可以语于海者,拘于虚也;夏虫不可以语于冰者,笃于时也”,人类和AI,谁是“井蛙”,谁是“夏虫”?


当前AI面临的困境也是显而易见的,比如在医疗、法律等关键领域,不可解释的模型应用非常受限,此外由于万物互联的广度和深度不断加大,针对模型的攻击带来越来越多的安全隐患。而我们也期待AI可以更好地助力人类的科学探索。马克斯·普朗克研究所(Max Planck Institutes)的马里奥·克伦(Mario Krenn)等2022年12月在Nature Reviews中的文章里讲到,人类在视觉、听觉等方面存在明显极限,AI可以成为我们的“洞悉之镜”(Scientific Microscope),提供对复杂系统更精准的洞察,形成科学探索“启迪之源”(Source of Inspiration),甚至成为“真理之使”(Agent of Understanding),替我们做某种程度的思考,告诉我们理解的过程。


善言天者,必质于人;善言人者,必本于天。康德说,人最大的事务是正确地理解人之为人所必须是的样子。人工智能之为人工智能的样子将是什么呢?走向未来的路径,是可解释人工智能(Explainable AI)、生成式人工智能(Generative AI)、基石模型(Foundation Models),还是通用人工智能(Artificial General Intelligence,AGI)?本期专题中,来自中科院、北大、南邮、清华的学者们,从跨媒体人工智能的角度,就知识图谱构建与推理,媒体分析与生成,文本到图像的智能创作,视频时序定位,数据驱动、知识融合与物理约束相结合等方面,探讨人工智能的未来。

 


刘云浩

CCF会士,ACM Fellow,CCCF主编,2022年CCF王选奖获得者。清华大学教授。ACM Transactions on Sensor Networks主编。


特别声明:中国计算机学会(CCF)拥有《中国计算机学会通讯》(CCCF)所刊登内容的所有版权,未经CCF允许,不得转载本刊文字及照片,否则被视为侵权。对于侵权行为,CCF将追究其法律责任



CCF推荐

【精品文章】



点击“阅读原文”,查看更多CCCF文章。

文章转载自中国计算机学会,如果涉嫌侵权,请发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。

评论