软硬兼施,苹果加快脚步布局AI版图
2018-09-25 16:53:10
  • 0
  • 0
  • 0

自2018年4月苹果挖角谷歌搜索技术和人工智能部门工程副总裁John Giannandrea,看得出来这半年苹果在AI领域积极出招,并将Core ML和Siri团队合并为AI/ML团队,有John Giannandrea担任机器学习和AI策略主管,其中核心ML是机器学习API于2017年推出,协助第三方开发者执行本地AI任务和AI集中应用程序与服务时,在iOS装置上更有效率,并在AI版图占有一席之地。

尽管2011年苹果推出iOS系统人工智能助理软件Siri,抢下AI头香,但没赶上深度学习浪潮,随着谷歌、微软、脸书等科技大厂竞相投入,苹果影响利却不同以往。不过,这半年来苹果在AI领域有一系列大动作,不论AI硬件、软件、开发工具到应用生态,苹果皆急起直追,积极结合在行动装置和生态系统的优势以迅速追赶。


苹果通过并购与挖角,积极投入AI领域

苹果近年积极投入AI领域,通过收购语音和图像厂商,提高自身产品价值,强调使用者体验最佳化。自2015年并购语音业者VocallQ和Perceptio,VocallQ提升使用者在与电脑语音交流更加顺畅,并转型为当地Siri研发中心;Perceptio则改善Siri功能。2016年另收购Emotient,以装置追踪、辨识及分析脸部表情,直接用于iPhone,并收购Turi提高苹果产品与服务运算能力,为苹果布局AI版图更上一层楼。

2017年WWDC(The Apple Worldwide Developers Conference)活动期间,苹果推出首款Core ML(苹果机器学习框架),2018年6月推出Core ML 2,速度提高30%,量化使框架能够将模型缩小75%,并为 CreateML工具及其Core ML框架延续,即Core ML(皆在简化AI模式建置)让开发者更方便训练机器学习模型并封装进App,而CreateML则实现在行动装置的AI运算,强调苹果保护用户隐私为初衷,将所有资料储存在手机,相关运算皆在本地完成,有助于降低资料泄漏风险。

应用程序开发人员通过苹果Core ML使用神经引擎,通过Core ML即插即用技术,加上AI演算法(如图像识别等)。由于核心ML功能可通过神经引擎以更快地处理相关任务,大幅降低发送至云端数据进行图像处理等,进而提高性能、降低功耗。


苹果强化AI应用生态圈,打造专属硬件、软件平台

2017年苹果推出iPhone X采用脸部辨识技术,做到流畅用户体验,通过AI功能,让智能手机执行各种任务,提供即时翻译、处理自然语言、协助用户通过智能辨识拍摄更好的照片,通过分析用户行为模式,装置做出决策并执行任务,其中语音助理将分析和学习用户行为,进而提高用户不同需求,提升和装置间互动。

苹果A11仿生(Bionic)芯片于2017年9月发表,首先搭载于iPhone 8、iPhone 8 plus及iPhone X三款智能型手机,A11 Bionic芯片强调使用于机器学习和深度学习任务,包括AR物体侦测、脸部辨识、Animoji脸部追踪等任务都依赖AI芯片,采用双核设计,每秒可达成高达6000亿次即时操作处理,专为特定机器学习演算法而设计。随着新款苹果在2018年9月正式发表,A12芯片功率将比A11更高效。

 
最新文章
相关阅读