20个机器学习工具,哪个语言最适合程序员入门AI?(下)
PyTorch:易于使用的研究工具
PyTorch是一个支持和加速GPU的深度神经网络的开源机器学习框架。由Facebook的团队与来自Twitter,SalesForce,NRIA,ENS,ParisTech,Nvidia,Digital Reasoning和INRIA的工程师共同开发,该库于2016年10月首次发布.PyTorch基于Torch框架构建,但与Lua编写的前身不同,它支持常用的Python。

PyTorch的开发理念是尽可能快速灵活地提供建模体验。值得一提的是,PyTorch中的工作流程类似于基于Python的科学计算库NumPy中的工作流程。
动态计算图是使该库流行的特征之一。在TensorFlow,Theano,CNTK和Caffe等大多数框架中,模型都是以静态方式构建的。数据科学家必须改变神经网络的整体结构 – 从头开始??重建 – 以改变它的行为方式。 PyTorch使它更容易,更快捷。该框架允许任意改变网络行为而没有滞后或开销。
动态构建模型(在运行期间)的能力是使用PyTorch的驱动因素之一,同意Facebook AI Research的Denis Yarats。 “我使用PyTorch – 它是最好的。我过去尝试过很多DL框架,包括TensorFlow,Torch,Keras和Theano。这些都不像PyTorch那么简单和强大。当我从事深度学习研究时,我非常重视快速修改和调试模型的能力。“
Illia Polosukhin和Vitaliy Bulygin也强调通过使用动态计算图表可以实现研究的便利性和灵活性,这也是他们选择PyTorch作为深度学习工具的原因。
Keras:轻量级,易于使用的库,用于快速原型设计
Keras是一个Python深度学习库,能够在Theano,TensorFlow或CNTK上运行。 Google Brain团队成员Francois Chollet开发了它,使数据科学家能够快速运行机器学习实验。

该库可以在GPU和CPU上运行,并支持循环和卷积网络以及它们的组合。
借助图书馆的高级,可理解的界面,将网络划分为易于创建和添加的独立模块序列,可以实现快速原型设计。
根据数据科学家的说法,建模速度是该库的优势之一。 来自三星的Vitaliy Bulygin指出,使用TensorFlow的Keras可实现非常快速的神经网络实施。 如果其工具集足以满足特定任务,他建议坚持使用Keras。 如果没有,最好用PyTorch进行研究。
Caffe2:具有移动部署支持的深度学习库
Caffe2是Caffe的改进版本,是由Facebook构建的开放式机器学习框架,用于简化和灵活深入学习复杂模型并支持移动部署。

用户可以通过多种方式组织使用库进行计算,可以在桌面,云端或数据中心中安装和运行。
该库具有交替工作的本机Python和C API,允许开发人员随时随地进行原型设计并进行优化。
通过与Xcode,Visual Studio和Android Studio IDE的集成,部署的模型可以在移动设备上快速运行。该框架还允许快速放大或缩小,而无需进行设计重构。
快速原型设计,研究和开发是使用Caffe2的好处。 “我正在使用它,因为它具有清晰的代码基础设施,并且很容易扩展它以用于新方法的研究,”NURE Andrii Babii的高级讲师总结道。
大数据工具
Apache Spark:分布式计算的工具
使用Apache Spark进行大数据处理就像驾驶法拉利一样:它更快,更方便,并且与普通汽车相比,可以在相同的时间内探索更多。

Apache Spark是一个分布式开源集群计算框架,通常配备其内存数据处理引擎。该引擎的功能包括ETL(提取,转换和加载),机器学习,数据分析,批处理和数据流处理。
Apache Spark的流处理能力是Facebook AI Denis Yarats的研究人员使用它的原因之一:“该工具使用数据流/流处理概念进行分布式计算,并允许将解决方案扩展到大型集群。”
虽然主要是在Scala中编写,但该引擎附带了用于Java,Python,Clojure和R的高级开发人员API。
各种运行选项(本地,集群或云或本地)以及从任何数据源访问数据的功能是Apache Spark的其他有益功能。
MemSQL:专为实时应用程序设计的数据库

MemSQL是用于实时分析的分布式内存SQL数据库平台。 它可以摄取和分析流数据并运行PB级查询,以支持即时消息,在线游戏或社区存储解决方案等实时应用程序的工作。 MemSQL支持对关系SQL,地理空间或JSON数据的查询。
简而言之,该平台可以同时提供数据库,实时数据处理和数据仓库服务,帮助用户实现数据效率。
“MemSQL允许你不关心数据的大小,并且像它只是一个常规的SQL数据库一样工作,”来自NEAR.AI的Illia Polosukhin强调说。
如果您是活跃的机器学习从业者,请随时在评论与我们分享您喜欢的工具。 我们也很乐意分享您的意见。
实践人工智能,AI硬件加速神经网络运算
继谷歌宣布其Tensor处理单元AI芯片的嵌入式友好Edge TPU版本和物联网网关的相关云物联网边缘堆栈之后,该公司宣布推出可与任何Linux或Android物品计算机配合使用的USB计算机版Edge TPU。

Edge TPU Accelerator使用与即将推出的开发套件中内置的相同的精简边缘TPU神经网络协处理器。它具有USB Type-C端口,可插入任何Debian Linux或Android Things计算机,以加速机器学习(ML)推理,实现本地边缘分析。 65 x 30mm设备具有用于主机板的安装孔,例如Raspberry Pi Zero。
与Edge TPU开发套件一样,Edge TPU Accelerator可以直接在设备上处理ML推理数据。 “本地ML加速器可以增加隐私,消除对持久连接的需求,减少延迟,并使用更少的功率实现高性能,”Google表示。

Edge TPU Accelerator与英特尔的神经计算(以前称为Fathom)等产品竞争。配备USB的神经计算配备了Movidius Myriad 2 VPU和神经网络加速器。






