AI正在以惊人的速度重塑世界,人工神经网络技术为图像识别、自然语言处理、语音识别等领域带来了革命性的进步。而猫咪,在这场革命中可谓是“功不可没”,扮演了你可能想不到的关键角色。
在今天这个特别的日子——8月8日国际猫咪日,让我们一起探索猫咪与AI的奇妙联系,重新认识一下我们毛茸茸的朋友们🐈
01
猫咪如何启发了
人工神经网络的诞生
20世纪60年代初,当哈佛大学两位神经生物学家David Hubel和Torsten Wiesel首次开始合作时,视觉生理学还是一个未知领域。他们对视觉皮层(大脑中处理图像的部分)的工作原理一无所知,他们的工作纯粹是探索。正如Hubel在演讲中回忆的那样,他们“在Wilmer研究所地下室的一个黑暗、肮脏、没有窗户的房间里工作,这被认为是进行视觉研究的理想场所。”
他们的想法是向猫展示视觉刺激,然后记录其大脑中的电活动。猫会对它看到的东西做出反应,这种反应会激活视觉皮层中的相应细胞。为此,他们将Hubel发明的钨电极贴在猫的颅骨底部。这个电极足够灵敏,可以捕捉单个脑细胞发出的信号。任何神经活动都会被音频监视器放大。猫感觉不到疼痛,甚至经常发出舒服的呼噜声。
他们用幻灯机向猫展示各种视觉刺激。通常情况下,猫不会有任何反应。猫会看到一个点,但没反应;看到一道亮光,也没反应;Hubel挥手,猫还是没反应。有一次,科学家们甚至在困惑的猫面前跳舞——实验似乎没完没了。但他们很有耐心,经常工作到凌晨。
后来有一天,他们意外地成功了。不知怎么,当时恰好幻灯片的边缘卡在了投影仪里。猫看到了幻灯片的边缘,一条特定角度的小直线,它的细胞开始疯狂地放电。他们花了九个小时研究这个脑细胞的反应,为来之不易的成果高兴地尖叫——
Hubel和Wiesel发现,特定的细胞会对非常特定的视觉信息作出反应。图案、颜色、对比度、角度……大脑会分析外在世界的每个细节,然后将它们组合起来,形成详细的心理图像。他们终于明白,视觉处理是一个极其专业化的进程:具有类似功能的视觉细胞会紧密地聚集在一起,形成垂直的簇或柱,这种结构创造了几乎难以想象的连接水平。两位科学家不辞辛劳地,系统地绘制了整个视觉皮层,并揭示了视觉皮层的神经网络如何处理视觉信息;他们也因为在视觉信息处理方面的杰出贡献,荣获了1981年诺贝尔生理学或医学奖。
1981年获得诺贝尔奖后的Hubel和Weisel
上述实验证明,视觉特征在大脑皮层的反应是通过不同的细胞达成的。其中,简单细胞 (Simple Cell) 感知光照信息,复杂细胞 (Complex Cell) 感知运动信息。到了1980年前后,日本科学家福岛邦彦受猫咪生物实验的启发,模拟生物视觉系统提出了一种层级化的多层人工神经网络,即“神经认知”系统,这是现今卷积神经网络的前身。在论文中,福岛邦彦提出了一个包含卷积层、池化层的神经网络结构。
福岛邦彦的多层神经网络为AI“认识世界”打下了重要的基础。由此看,如果没有猫咪,人类便无法深刻地理解视觉皮层神经网络进行视觉信息处理的机制,也更不可能让AI像人类一样感知并理解这个世界。可以说,是猫咪让AI“睁眼看世界”。
02
猫咪如何让AI理解世界
猫咪不但在神经网络上给了人类莫大的启发,还是人类训练AI漫漫长路上的得力助手。AI真正学会“看”,很大程度上归功于计算机科学家李飞飞与猫咪的故事。被誉为“AI教母”的李飞飞参与创建了两个被AI研究者广泛使用的物体分类学习数据库——Caltech 101和ImageNet。其中的ImageNet数据集,包含了62,000张猫咪的照片,使得2009年成为猫咪参与AI研究的元年。
在研究过程起始的15年中,李飞飞一直致力于教会计算机如何“看”。她的目标是让机器能够像人类一样,仅凭一瞥就能理解整个场景中的人物、地点和事件。实现这一目标的第一步是教会计算机识别“对象”,这是构建视觉世界的基石。
起初,李飞飞的团队使用数学语言来描述猫的特征:圆润的脸庞、丰满的身体、尖尖的耳朵和长长的尾巴。但很快,他们发现猫咪不可能总是保持同一姿势,不同的拍摄角度和光线条件使得猫咪呈现出千变万化的形态。
2007年,李飞飞提出了一个大胆的想法:像教孩子认识猫一样,让机器通过观察大量的照片来学习。如果你只看过5张猫咪的照片,那么你只能从5个视角和5种品种中学习。但如果你看过500张,你就能从中发现更多的共性。
因此,李飞飞将重点放在了为算法提供大量的训练数据上。于是,ImageNet计划应运而生。
2009年,ImageNet项目正式启动——这是一个包含1500万张照片的数据库,涵盖了22,000种物品。这些物品根据日常英语单词进行分类,规模之大,前所未有。例如,在“猫”这一类别中,就有超过62,000只形态各异、品种繁多的猫咪照片。
ImageNet的出现为特定类别的机器学习算法提供了丰富的信息资源。“卷积神经网络”借助ImageNet提供的大规模数据,通过大量的CPU和GPU进行训练,以前所未有的方式迅速发展。
2012年的ImageNet竞赛中,Geoffrey Hinton和他的学生们使用深度卷积神经网络在图像识别任务上取得了显著的进步,这一成就被许多人视为当今人工智能浪潮的催化剂。
从原理上讲,当神经网络用于解析图像时,它包含多层排列的人工神经元,这些神经元的数量从几十到数百万不等。每层神经元负责识别图像的不同特征,从像素到颜色差异,再到形状。到了顶层,计算机就能对图像有一个大致的识别。
目前,AI教会了计算机识别对象,就像婴儿学会几个名词一样,但这仅仅是第一步。很快,机器将不仅仅是识别出图像中有一只“猫”,而是能够描述出“这只猫正坐在床铺上”。当然,计算机在识别过程中仍然会犯错误,比如错误地将许多非猫物体识别为猫。为了教会计算机理解图像并生成句子,它需要从图像和人类创造的自然语言句子中同时学习,这将进一步推动自然语言处理的发展。
ImageNet改变了AI领域人们对数据集的认识,人们开始意识到它在研究中的地位,与算法同等重要。这其中,62,000张猫咪的美照发挥了不可磨灭的作用。
03
被动识猫到主动识猫
在机器学习的世界里,模型主要分为两大阵营:判别模型 (Discriminative Model) 和生成模型 (Generative Model)。简单来说,判别模型好比给计算机一张图片,让它判断里面的动物是猫咪还是狗狗;而生成模型则是给计算机一堆猫咪的照片,让它创造出一张全新的猫咪图片,这张新面孔在数据集中是从未出现过的。
对于猫奴而言,辨认一只猫几乎是一种本能,瞬间就能完成。然而,对于计算机来说,由于它缺少人类大脑那套精密的神经系统,识别一只猫就成了一项艰巨的任务,这不是拥有超速运算能力就能解决的问题。
2012年,由斯坦福大学计算机科学家Andrew Y. Ng(吴恩达)和谷歌研究员Jeff Dean领导的Google Brain研究团队使用了使用了16,000个处理器阵列来创建具有超过10亿个连接的神经网络。然后,他们向该网络输入随机图像缩略图,每个缩略图都取自1000万个YouTube视频。Google Brain通过利用记忆位置的层次结构,在接触数百万张图像后,连续筛选出一般特征,从而拼凑出一幅如梦似幻的猫的数字图像。
吴恩达展示神经网络自学识别的猫的图像
这标志着人工智能领域迎来了一种新型的机器学习形式——“深度学习”。简单来说,就是让计算机模仿人脑的学习与思考方式,通过大量的数据录入去归纳总结规律,从而识别特定的事物。
此方法与传统的人脸识别不同,过去的人脸识别需要程序员预先编写一整套鉴别系统,明确告诉计算机人脸的特征。而谷歌的研究者并没有向系统输入任何关于“猫是什么样子”的信息。系统通过发现图像中重复出现的模式,自动创建了一个“图像地图”,这张地图随后帮助系统自动识别与之前学习过的图像信息相似的物体。
如今,类似的技术已经被应用在亚马逊Echo智能音箱和特斯拉的无人驾驶汽车中。此外,深度学习还在语音和面部识别、医疗诊断等多个领域大放异彩,展现出其强大的应用潜力。
04
AI与猫咪的故事未完待续
在人工智能蓬勃发展的今天,AI与猫咪的关系日益紧密。
AI不仅能精准识别猫咪的品种、年龄甚至情绪,还渗透到了宠物护理的多个层面,帮助宠物主人更好地理解和照顾他们毛茸茸的朋友们——AI被集成到宠物监控系统中,让主人即使身在远方,也能即时了解宠物的一举一动;智能玩具和护理产品的开发也借助AI的力量,显著提升了宠物的日常生活体验;AI在宠物医学诊断领域的应用,比如对猫咪疼痛状况的评估,能够及时发现并处理潜在的健康问题。
通过AI判断猫咪是否处于疼痛的App
此外,AI在宠物行业的营销和娱乐领域也展现出巨大潜力。AI生成的猫咪图像和视频,在短视频平台上屡屡爆火。健身的猫咪,喝奶茶的猫咪,赶地铁的猫咪……各种由AI创造的虚拟猫咪,不仅形态各异、栩栩如生,还能根据用户的喜好进行个性化定制,再搭配上可爱的配音和有趣的故事线,让人不禁大呼上瘾!当流量达到一定程度之后,甚至可以和人类网络红人一样接广告。AI猫咪也因此成为了自媒体平台打造账号、实现变现的一条新路径。
YouTube上的网红AI猫
AI蓬勃发展,猫猫立了大功。总结来说,猫咪的确和当代人工智能的发展密不可分。一开始,猫咪给了AI技术发展莫大的启示;而随着技术的不断演进,AI也能够更深入地理解猫咪的行为和需求,给猫咪带来更便利的生活。在未来,猫咪的可爱与神秘或许可以继续成为人工智能相关领域研究学者的灵感注射器,为更多人工智能领域的新创举助力。这么说来,猫咪或许真的可以拯救世界吧!