在线入会 | 登录会员

欢迎光临广东省数字贸易与服务公共服务平台!今天是:2024年11月14日 星期四
您当前的位置:首页 > 行业资讯
资金+人才,人工智能领先的关键
来源: 发布时间:2017年05月31日

日前,美国谷歌公司首席执行官孙达尔·皮柴宣布,谷歌的业务发展战略从“移动优先”转向“人工智能优先”。有机构预测,未来10年几乎每个应用和服务都将包含一定的人工智能。

近年来,人工智能技术不断取得突破,在金融、医疗、制造等行业应用迅速扩展。麦肯锡咨询公司预计,至2025年,人工智能应用市场总值将达1270亿美元。人工智能因此成为很多国家政府和企业争相角逐的领域。据统计,目前全球人工智能企业集中分布在少数国家,美国、中国、英国的企业数量共占全球的65.73%。其中,美国人工智能企业共有2900多家,中国700多家,英国360多家。美国白宫2016年的报告将人工智能视为影响未来国家实力的重要因素,并将其列为国家战略。

政府设专门机构协调行动

美国一直注重人工智能研发,最近几年步伐加快。早在2013年财政年度,美国政府便将22亿美元的国家预算投入到先进制造业,“国家机器人计划”是投入重点之一。同年4月美国政府启动创新神经技术脑研究计划,计划10年投入45亿美元。

2016年5月,白宫成立“人工智能和机器学习委员会”,协调美国各界在人工智能领域的行动,探讨制定人工智能相关政策和法律;同年10月,奥巴马政府时期总统办公室发布《为了人工智能的未来做好准备》和《美国国家人工智能研究与发展战略规划》的文件,将人工智能上升到美国国家战略高度,确定了有关人工智能发展的7项长期战略:长期投资人工智能研发领域、开发人机工作的有效方法、理解和应对人工智能带来的伦理问题、确保人工智能驱动系统的安全、为人工智能培训和测试开发共享公共数据集与环境、建立评估人工智能技术的标准、深入了解国家人工智能研发人才需求。

2016年12月,白宫发布了一份关于人工智能、自动化和经济的报告。报告讨论了人工智能驱动的自动化对经济预期的影响,并描述了提升人工智能益处并减少其成本的广泛战略。报告指出,应对人工智能驱动的自动化经济将是后续政府要面临的重大政策挑战,应该通过政策激励释放企业和工人的创造潜力,确保美国在人工智能的研发和应用中保持领先。

人才培养跟不上市场需求

美国知名的科技公司脸书、谷歌、亚马逊以及微软等著名信息技术公司把发展人工智能作为企业的核心战略,在斥巨资发展人工智能业务的同时,对该领域的人才争抢也进入“白热化”。脸书吸引人才的战略包括提供高达几十万美金的薪水、分布在全球的工作地点等。而对于大力开发无人驾驶的汽车公司而言,直接并购掌握技术的初创公司则成了流行的方式。

美国公司对于人工智能人才的渴求,甚至导致了人工智能方面的人才供给出现瓶颈,因为美国大学不可能以企业招聘的高速度培养人才。而且,由于许多教授离开学校,到科技公司和车企就职,这一问题日益凸显。不过,这一趋势也使得更多学生希望从事人工智能方面的研究。在未来一学年,卡耐基梅隆大学的机器学习博士学位收到了800份申请,而在两年前,只有300份申请。

美国人口调查局称,在25到64岁的STEM(科学、技术、工程、数学)专业本科毕业的美国人中,只有26%的人从事传统意义上的STEM工作。2016年5月10日起,美国国土安全局修订了对非移民类F1国际学生签证实习工作期(OPT)的规定,将OPT延长24个月,意味着STEM专业的国际学生在毕业后找工作、申请H1B工作签证有了长达3年的缓冲期。

来自保加利亚的小伙子尼古拉·阿塔纳索夫是美国宾夕法尼亚大学工程学院电子工程专业的博士生,长期从事机器人和人工智能项目的研发。他毕业后,在长达36个月的实习工作期,利用充分的时间找到了心仪的工作。最近,他来到加州大学圣地亚哥分校继续从事机器人与人工智能的深造和教学工作。而他的太太就没那么幸运,因为非STEM专业的国际学生毕业后,在短短3个月的实习期很难找到工作,绝大多数只能打道回府。

管控快速发展带来的风险

2016年12月,美国白宫发布报告称,人工智能的时代即将来临,未来10到20年里因人工智能技术而受到威胁的就业岗位数量将占到9%到47%左右。这被认为将是人工智能和自动化带来的最严重的负面影响,涉及各行各业。

麻省理工学院数字经济项目首席科学家及联合创始人安德鲁·麦克菲通过走访140位研究人工智能、自动化与就业的专家,得出几个推断:到2018年,95%航空流量管理工作将由机器人完成;2026年,医疗行业的文本工作将基本由机器完成;2032年,一半的卡车将不再配有人类司机;2034年,美国大多数工厂将只有不到20名人类员工……按照美国卡车行业现有的从业人员规模计算,在未来15年内,这种自动化的进程将导致175万司机失业。

此外,随着机器学习和人工智能技术的发展,不断引发业界对其带来的伦理挑战的担忧。现在政府和企业越来越依赖机器学习系统作决策,技术上存在的“盲点”和“偏见”会使得这项技术的实际应用偏离预期和道德准则。

《哈佛商业评论》刊发毕马威会计师事务所4位安全专家的分析文章称,和其他任何技术一样,如果人工智能技术应用不当,同样会给企业立即带来网络安全威胁,从而令业务运营受到冲击。专家认为,随着人工智能技术的崛起,独特的新型网络安全风险也相伴而生。如果人工智能系统遭到恶意破坏,或者被人为输入不准确的信息,就可能将不准确的信息判断为“准确”,或者“学习”到坏习惯。


微软曾经开发了一个聊天机器人,并且放在推特上让机器人“边聊边学”。但是,机器人很快就跟人类学会了各种带有“种族歧视”色彩的语言,引起社会对人工智能的重新思考。微软研究部门副总裁彼得·李认为,“机器系统如果犯错,影响是很大的。”要将会学习的软件应用于真实世界,需要人类专家的密切监督。谷歌研究人员玛雅·古普塔认为,这一产业应该更加团结,应该协力建构一套程序,确保用来训练算法的数据不会遭到曲解。目前,美国多个高校和企业已经在着手立项或成立机构,专门研究人工智能的伦理与安全。

本文链接:http://gdsoa.cn/Article/20170531/15743.html 点击复制链接
分享到: