人工智能的最常用的12大工具和框架

yizhihongxing

人工智能促进了大量数据的处理及其在行业中的使用。随着 AI 和 ML 的发展,人工智能开发人员可用的工具和框架的数量也在增加。如果你想实际开发人工智能程序,这些框架和工具是必不可少的。

本篇文章将带您了解常用的关于人工智能的工具和框架。

人工智能的工具和框架

当前人工智能开发最热门的工具和框架有以下:

  • Scikit Learn
  • TensorFlow
  • Theano
  • Caffe
  • MxNet
  • Keras
  • PyTorch
  • CNTK
  • Auto ML
  • OpenNN
  • H20: Open Source AI Platform
  • Google ML Kit

接下来将为大家详细介绍这些工具、框架的作用与使用方法。

Scikit-learn

Scikit-Learn(简称sklearn)是一个基于Python编程语言的开源机器学习库,它为各种机器学习任务提供了简单且一致的接口,支持广泛的算法,包括分类、回归、聚类和降维等。Scikit-Learn可以在许多不同的环境中使用,包括数据预处理、特征选择和建模。

1200px-Scikit_learn_logo_small.svg_-300x162

Scikit-Learn是机器学习领域中最流行的Python库之一,因为它提供了易于使用的API,同时又提供了高效的底层实现。它还包括用于数据预处理、特征选择和模型评估的工具。除此之外,Scikit-Learn还提供了用于解决大规模数据集的功能,例如随机梯度下降和增量学习算法等。

以下是Scikit-Learn的优点:

  • 易于使用的API:Scikit-Learn提供了一套一致的API,让使用者可以轻松地完成各种机器学习任务。
  • 大量的示例和文档:Scikit-Learn包含大量的示例和文档,方便使用者快速了解如何使用库中的各种算法和工具。
  • 丰富的算法:Scikit-Learn支持许多机器学习算法,包括监督学习和无监督学习算法。
  • 高效的实现:Scikit-Learn使用Cython和BLAS等高效的底层实现,使得它的算法在处理大规模数据集时表现出色。
  • 可扩展性:Scikit-Learn具有高度可扩展性,可以轻松地添加新的算法和工具。

Scikit-Learn是机器学习初学者和专业人士的理想选择,它提供了一种简单、高效和灵活的方式来处理各种机器学习任务。

Tensorflow

TensorFlow 是一个强大的深度学习框架,是谷歌基于 DistBelief 进行研发的第二代人工智能学习系统。

udacity-logo-png-7-528x173

TensorFlow 由Tensor(张量)和Flow(流)组成,Tensor意味着N维数组,Flow(意味着基于数据流图的计算,TensorFlow指的是张量从流图的一端流动到另一端计算过程。

TensorFlow提供了一个高级API,可以用Python编写并且非常易于使用。它还提供了低级API,使用户能够更好地控制模型的训练和推理。TensorFlow还提供了可视化工具,如TensorBoard,以帮助用户监视模型的训练和评估。

TensorFlow 的强大之处有以下:

计算图模型。TensorFlow 使用称为定向图的数据流图来表达计算模型。这使得它对于开发人员非常直观,开发人员可以使用内置工具轻松地可视化神经网络层内的运行情况,并以交互方式调节参数和配置,从而完善他们的神经网络模型。

简单的 API。Python开发人员可以使用 TensorFlow 的原始、低级的 API(或核心 API)来开发自己的模型,也可以使用高级 API 库来开发内置模型。TensorFlow 有许多内置库和分布式库,而且可以叠加一个高级深度学习框架(比如 Keras)来充当高级 API。

分布式处理结构。Google Brain 在其自定义 ASIC TPU 上针对分布式处理从头重新设计了 TensorFlow,使得 TensorFlow 可以在多个 NVIDIA GPU 核心上运行。

架构灵活。TensorFlow拥有模块化、可扩展、灵活的设计。开发人员只需更改少量代码,就能轻松地在 CPU、GPU 或 TPU 处理器之间移植模型。

推荐阅读:《深度学习的8种神经网络》

Theano

Theano是Python深度学习中的一个基础库,主要用于操作和评估数学表达式。你可以直接用它来创建深度学习模型或包装库,大大提高了开发效率。

1280px-Theano_logo.svg_-300x69

它的出现使得深度学习模型的实现更加快速简单,而且可以在 GPU 和 CPU 上平稳地运行。它利用了 PC 的 GPU,使信息升级计数比单独在 CPU 上运行时快数倍。Theano 的速度使得可以更加高效地处理深度学习和其他复杂的任务。

Caffe框架

Caffe,即Convolutional Architecture for Fast Feature Embedding。是一个具有可读性强、速度快、模块化等特点的深度学习框架。

Caffe的优势有以下:

简单,上手快。它的模型是以文本形式展现而非代码形式。Caffe给出了模型的定义、最优化设置以及预训练的权重,方便立即上手。

速度快。Caffe能够运行最棒的模型与海量的数据,在K40上处理一张图片只需要1.17ms.

模块化。模块化使得Caffe更方便地扩展到新的任务和设置上。

开放性。Caffe的代码和参考模型都是开源的。

mxnet

mxnet是由华人为主的团队(陈天奇,王乃岩)开发的深度学习架构,也是亚马逊公司选择的深度学习库。它允许允许用户在多种设备上定义、训练和部署深度神经网络。

mxnet_logo_2-300x103

该框架的核心是动态依赖性调度程序,可自动即时并行处理符号式操作和命令式操作。图形优化层使符号执行速度更快、内存效率更高。

它的优点有以下:

  • 混合前端:命令符号混合 Gluon API 提供了一种简单的方法,无需牺牲训练速度即可对模型进行原型设计、训练和部署。开发者仅需几行 Gluon 代码,就能构建线性回归、CNN 和循环 LSTM 模型,以用于物体检测、语音识别和推荐引擎等。
  • 可扩展性:MXNet 从头开始专为云基础设施设计,采用分布式参数服务器,可以使用多个 GPU 或 CPU 实现近线性扩展。深度学习工作负载可跨多个 GPU 进行分配,实现近线性可扩展性和自动扩展。Amazon Web Services 运行的测试发现,在包含 128 个 GPU 的集群中,MXNet 的性能比使用单个 GPU 快 109 倍。正是由于 MXNet 具有扩展到多个 GPU(跨多个主机)的能力,及其开发速度和可移植性,AWS 才选择 MXNet 作为深度学习框架,而不是 TensorFlow、Theano 和 Torch 等其他选择。
  • 强大的生态系统:MXNet 具有适用于计算机视觉、自然语言处理、时间序列等的工具包和库。
  • 多语言支持:MXNet 支持的语言包括 Python、C++、R、Scala、Julia、Matlab 和 JavaScript。MXNet 还可以编译成 C++,生成一种轻量级神经网络模型表征,可以在各种设备上运行,包括 Raspberry Pi 等低功耗设备和云服务器。

推荐阅读:《排名前10的人工智能算法!》

Keras

Keras是一个由Python编写的开源人工神经网络库,可以作为Tensorflow、Theano的高阶应用程序接口,进行深度学习模型的设计、调试、评估、应用和可视化。

Keras-Artificial-Intelligence-Tools-Frameworks-300x87

Keras有以下优点:

  • 用户友好。 Keras 是为人类而不是为机器设计的 API。它把用户体验放在首要和中心位置。Keras 遵循减少认知困难的最佳实践:它提供一致且简单的 API,将常见用例所需的用户操作数量降至最低,并且在用户错误时提供清晰和可操作的反馈。

  • 模块化。 模型被理解为由独立的、完全可配置的模块构成的序列或图。这些模块可以以尽可能少的限制组装在一起。特别是神经网络层、损失函数、优化器、初始化方法、激活函数、正则化方法,它们都是可以结合起来构建新模型的模块。

  • 易扩展性。 新的模块是很容易添加的(作为新的类和函数),现有的模块已经提供了充足的示例。由于能够轻松地创建可以提高表现力的新模块,Keras 更加适合高级研究。

  • 基于 Python 实现。 Keras 没有特定格式的单独配置文件。模型定义在 Python 代码中,这些代码紧凑,易于调试,并且易于扩展。

PyTorch

PyTorch是一个开源的基于Torch的Python深度学习框架,用于自然语言处理等应用程序。

Pytorch-Artificial-Intelligence-Tools-Frameworks-300x63

PyTorch是 Facebook 创建的人工智能系统。它的代码可以在GitHub 上访问,目前有超过 22k 颗星。自 2017 年以来,它一直在吸收大量能量,并处于不懈的接待发展中。

CNTK

CNTK 允许用户轻松实现和组合流行的模型类型,例如前馈 DNN、卷积网络 (CNN) 和循环网络 (RNN/LSTM)。它通过跨多个 GPU 和服务器的自动微分和并行化实现随机梯度下降(SGD,误差反向传播)学习。它是开源的,任何人都可以在开放源代码许可下试用 CNTK。

Auto ML

在上面列出的所有工具和库中,Auto ML 可能是最强大的工具之一。AutoML 让数据分析人员可以只关注头(数据收集)跟尾(结果预测),中间繁琐的过程都可以自动自动化完成。包括数据清洗、特征工程、模型选址等。

AutoML主要分为三类:

  • 自动参数调整(相对基本的类型)
  • 非深度学习的自动机器学习(如:AutoSKlearn)。此类型主要应用于数据预处理,自动特征分析,自动特征检测,自动特征选择和自动模型选择等。
  • 深度学习的自动机器学习(例如Auto-Keras)

Auto-ML-Artificial-Intelligence-Tools-Frameworks-edureka-300x154

优化在机器学习任务中至关重要。虽然从中获得的收益是丰厚的,但成功确定最佳超参数并非易事。在像神经网络这样的黑匣子中尤其如此,随着网络深度的增加,确定重要的事情变得越来越困难。

因此我们进入了一个新的元领域,其中软件帮助构建软件。AutoML 是许多机器学习工程师用来优化模型的库。

除了明显节省时间之外,这对于那些在机器学习领域没有太多经验因而缺乏直觉或过去经验来自行更改某些超参数的人来说也非常有用。

OpenNN

OpenNN 的全称为 “Open Neural Networks Library”,即开源神经网络库,其主要面向深度学习领域,助力于用户构建各种不同的神经网络模型。

OpenNN 可用于实现监督学习场景中任何层次的非线性模型,同时还支持各种具有通用近似属性的神经网络设计。

OpenNN 的主要优势还在于强大的性能表现。OpenNN 能够通过 C++ 语言实现的核心代码高效地调节内容使用,通过 OpenMP 库很好地平衡多线程 CPU 调用,以及通过 CUDA 工具对 GPU 进行加速。

H20:开源人工智能平台

H20 是一个开源的深度学习平台。它是一种面向业务的人工智能工具,可帮助他们根据数据做出决策,并使用户能够获得洞察力。它有两个开源版本:一个是标准的 H2O,另一个是付费版的 Sparkling Water。它可用于预测建模、风险和欺诈分析、保险分析、广告技术、医疗保健和客户情报。

它提供了各种机器学习算法和模型,包括分类、回归、聚类、降维和深度学习等。 H2O可以与各种编程语言集成,如Python、Java和R等,并且可以在各种环境中运行,包括云、Hadoop和本地计算机等。

H2O的特点有以下:

自动化:H2O提供了自动化的机器学习工具,可以在不需要用户干预的情况下自动选择最佳算法和参数。
可扩展性:H2O可以在多个计算节点上运行,可以轻松扩展到大规模数据集和计算资源。
实时预测:H2O提供了实时预测功能,可以在生产环境中快速部署和运行模型。
可视化:H2O提供了可视化工具,可以帮助用户更好地理解和分析数据,并优化模型的性能。
开放性:H2O是一个开放的平台,可以轻松地与其他开源和商业工具集成,包括Python、R和Hadoop等。

Google ML Kit

Google ML Kit 是谷歌面向移动开发者的机器学习 beta SDK,旨在让开发者能够在 Android 和 IOS 手机上构建个性化功能。

unnamed-215x180

该套件允许开发人员将机器学习技术与在设备或云中运行的基于应用程序的 API 相结合。其中包括面部和文本识别、条形码扫描、图像标签等功能。

在内置 API 可能不适合用例的情况下,开发人员还可以构建自己的 TensorFlow Lite 模型。

以上就是本文的全部内容。这些开源框架是作为数据科学家和工程师解决现实生活问题的平台的一些工具,这将使底层架构更好、更健壮。

另请阅读:

本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:人工智能的最常用的12大工具和框架 - Python技术站

(0)
上一篇 2022年12月1日 下午9:13
下一篇 2022年12月2日 下午8:43

相关文章

  • Pytorch使用tensorboardX实现loss曲线可视化。超详细!!!

    https://www.jianshu.com/p/46eb3004beca使用到的代码:writer=SummaryWriter()writer.add_scalar(‘scalar/test’,loss,epoch) ###tensorboardX #第一个参数可以简单理解为保存图的名称,第二个参数是可以理解为Y轴数据,第三个参数可以理解为X轴数据。#当…

    PyTorch 2023年4月7日
    00
  • Multiplication in PyTorch

    1. Element-wise Multiplication * torch.Tensor.mul() torch.mul()   2. Matrix Multiplication torch.Tensor.matmul() torch.matmul() torch.Tensor.mm() torch.mm()   3. Batch Matrix Multi…

    PyTorch 2023年4月8日
    00
  • 卷积神经网络的理解

    CNN中减少参数的2两个规则: 1、局部感知。生物学中,视觉皮层的神经元是局部感知信息的,只响应某些特定区域的刺激;图像的空间联系中,局部的像素联系较为紧密,距离较远的像素相关性较弱。   这个对应于算法中卷积核的大小,mnist手写识别在28*28的像素中取patch为5*5。 上图中:左边是全连接,右边是局部连接。 2、权值共享。每个神经元对应的参数(权…

    卷积神经网络 2023年4月7日
    00
  • 学习笔记TF027:卷积神经网络

    卷积神经网络(Convolutional Neural Network,CNN),可以解决图像识别、时间序列信息问题。深度学习之前,借助SIFT、HoG等算法提取特征,集合SVM等机器学习算法识别图像。 SIFT,缩放、平移、旋转、视角转变、亮度调整畸变的一定程度内,具有不变性。有局限性,ImageNet ILSVRC比赛最好结果错误率在26%以上,常年难以…

    卷积神经网络 2023年4月8日
    00
  • 机器学习技法6-Support Vector Regression

    注:文章中所有的图片均来自台湾大学林轩田《机器学习技法》课程。笔记原作者:红色石头微信公众号:AI有道 上节课我们主要介绍了Kernel Logistic Regression,讨论如何把SVM的技巧应用在soft-binary classification上。方法是使用L2-level learning,先利用SVM得到参数\(b\)和\(w\),然后再用…

    机器学习 2023年4月10日
    00
  • cs231n—卷积网络可视化,deepdream和风格迁移

    本课介绍了近年来人们对理解卷积网络这个“黑盒子”所做的一些可视化工作,以及deepdream和风格迁移。   1 卷积网络可视化   1.1 可视化第一层的滤波器  我们把卷积网络的第一层滤波器权重进行可视化(权重值缩放到0~255之间)可以发现: 第一层的滤波器可以看做模版匹配,那么它寻找的模式就是一些边和线。也就是说,当滤波器滑动到边和线的时候,会有较大…

    2023年4月6日
    00
  • CTC+pytorch编译配置warp-CTC遇见ModuleNotFoundError: No module named ‘warpctc_pytorch._warp_ctc’错误

    如果你得到如下错误: Traceback (most recent call last): File “<stdin>”, line 1, in <module> File “/my/dirwarp-ctc/pytorch_binding/warpctc_pytorch/__init__.py”, line 8, in <mod…

    PyTorch 2023年4月8日
    00
  • 【keras】基本概念计算方法、Tensor张量、数据类型data_format、函数式模型、batch、epoch

    1、符号计算 Keras的底层库使用Theano或TensorFlow,这两个库也称为Keras的后端。无论是Theano还是TensorFlow,都是一个“符号式”的库。 符号主义的计算首先定义各种变量,然后建立一个“计算图”,计算图规定了各个变量之间的计算关系。建立好的计算图需要编译以确定其内部细节,然而,此时的计算图还是一个“空壳子”,里面没有任何实际…

    2023年4月8日
    00

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注

评论列表(1条)

合作推广
合作推广
分享本页
返回顶部