时间: 2019-05-29 13:05 浏览次数:107 来源:未知
深度学习的挑战
如果我们追溯历史会发现,当下正值爆发期的人工智能技术,在过去60年间的发展是一个螺旋上升的增长曲线,期间遭遇过质疑,经历过寒冬。直到深度学习的出现,利用多层神经网络模拟人类大脑神经元的信息传递方式,才使得人工智能技术开始大放异彩。
从20世纪50年代引入感知器开始,到80年代多层感知器及反向传播算法,再到2010兴起的深度学习,几乎每三十年技术都会经历一次质的跃迁,与此同时自20世纪80年代以来,全世界的数据总量每三年就会翻一番。大数据促成了深度学习的腾飞,然而其背后的隐忧也随之而来。
1
数据垄断加剧 数据孤岛林立
达维多定律认为在网络经济中,进入市场的第一代产品能够自动获得50%的市场份额。
尽管无数业界人士都发出过警惕数据垄断的呼声,但现实情况正在向少数巨头垄断,小企业获取数据困难,大大小小“数据孤岛”林立的局势滑落。
2
谁拥有最多数据,谁就拥有最大的话语权
如果没有数百万张图像和其他类型的标签数据,就无法训练真正的大型深度学习网络,换言之那些拥有大数据的公司可以创建各类预测模型来进行“操控”,比如脸书将5000万人的数据卖给剑桥分析公司,从而影响美国总统大选。近年来,欧美各国频繁颁布数据安全、隐私保护相关的政策,未来对于数据的使用将变得更加谨慎。
3
大数据 高能耗
运行人工智能应用的大型网络需要巨大的运算能力,按照摩尔定律,计算机的运算能力每18个月才会翻一番,目前深层神经网络模型有数百万个单元和数十亿的权重,比人类大脑皮层中的神经元和突触的数量少一万倍,人的大脑本身就是一台超级计算机,功耗只有几瓦,而运行一台超级计算机则需要几百万瓦的能耗。高耗能对于深层神经网络的发展,将会是一个非常巨大的挑战。
为什么是联邦学习?
当前,大多数机器学习算法是在20年前开发的,那么现在是否存在一种算法可以把复杂问题变得简单化,既保证系统的复杂性泛化能力,又能求得最优目标函数,又能兼顾数据的安全性呢?
同盾科技副总裁兼人工智能研究院院长李晓林教授正在带领团队,致力于「联邦学习」技术的研发。李晓林是美国公立常春藤名校佛罗里达大学的终身教授,牵头创立了美国国家科学基金首家深度学习中心NSF CBL。
李晓林在某次同盾行业大会上,深度剖析了「联邦学习」所展现出的强大的应用前景。