首页 » 行业声音

人工智能 | 同盾科技李晓林教授:联邦学习用“小数据”实现“大智能”

时间: 2019-05-29 13:05     浏览次数:107    来源:未知

 

深度学习的挑战

 
 

如果我们追溯历史会发现,当下正值爆发期的人工智能技术,在过去60年间的发展是一个螺旋上升的增长曲线,期间遭遇过质疑,经历过寒冬。直到深度学习的出现,利用多层神经网络模拟人类大脑神经元的信息传递方式,才使得人工智能技术开始大放异彩。

 

从20世纪50年代引入感知器开始,到80年代多层感知器及反向传播算法,再到2010兴起的深度学习,几乎每三十年技术都会经历一次质的跃迁,与此同时自20世纪80年代以来,全世界的数据总量每三年就会翻一番。大数据促成了深度学习的腾飞,然而其背后的隐忧也随之而来。

 

1

数据垄断加剧 数据孤岛林立

达维多定律认为在网络经济中,进入市场的第一代产品能够自动获得50%的市场份额。

 

尽管无数业界人士都发出过警惕数据垄断的呼声,但现实情况正在向少数巨头垄断,小企业获取数据困难,大大小小“数据孤岛”林立的局势滑落。

 

2

谁拥有最多数据,谁就拥有最大的话语权

如果没有数百万张图像和其他类型的标签数据,就无法训练真正的大型深度学习网络,换言之那些拥有大数据的公司可以创建各类预测模型来进行“操控”,比如脸书将5000万人的数据卖给剑桥分析公司,从而影响美国总统大选。近年来,欧美各国频繁颁布数据安全、隐私保护相关的政策,未来对于数据的使用将变得更加谨慎。

 

3

大数据 高能耗

运行人工智能应用的大型网络需要巨大的运算能力,按照摩尔定律,计算机的运算能力每18个月才会翻一番,目前深层神经网络模型有数百万个单元和数十亿的权重,比人类大脑皮层中的神经元和突触的数量少一万倍,人的大脑本身就是一台超级计算机,功耗只有几瓦,而运行一台超级计算机则需要几百万瓦的能耗。高耗能对于深层神经网络的发展,将会是一个非常巨大的挑战。

 

 
 

为什么是联邦学习?

 
 

当前,大多数机器学习算法是在20年前开发的,那么现在是否存在一种算法可以把复杂问题变得简单化,既保证系统的复杂性泛化能力,又能求得最优目标函数,又能兼顾数据的安全性呢?

 

同盾科技副总裁兼人工智能研究院院长李晓林教授正在带领团队,致力于「联邦学习」技术的研发。李晓林是美国公立常春藤名校佛罗里达大学的终身教授,牵头创立了美国国家科学基金首家深度学习中心NSF CBL。

 

李晓林在某次同盾行业大会上,深度剖析了「联邦学习」所展现出的强大的应用前景。