900字范文,内容丰富有趣,生活中的好帮手!
900字范文 > 主流开源深度学习框架简介

主流开源深度学习框架简介

时间:2019-03-01 07:07:05

相关推荐

主流开源深度学习框架简介

主流开源深度学习框架简介

本文目录:

一、TensorFlow深度学习框架

二、PyTorch深度学习框架

三、Keras深度学习框架

四、Caffe深度学习框架

五、中国深度学习开源框架状况

六、几种框架的对比

七、其他统计数据

当下,有许多主流的开源深度学习框架供开发者使用。

主要包括TensorFlow、PyTorch、Keras、Caffe等。

下面是对这几种框架的详细介绍和对比:

一、TensorFlow深度学习框架

TensorFlow(谷歌出品):

TensorFlow 是最受欢迎和广泛使用的深度学习框架之一。

TensorFlow是一个由Google Brain团队开发的开源深度学习框架。它允许开发者创建多种机器学习模型,包括卷积神经网络、循环神经网络和深度神经网络等。

TensorFlow使用数据流图来表示计算图,其中节点表示数学操作,边表示数据流动。使用TensorFlow可以利用GPU和分布式计算来加速训练过程。

该框架有着广泛的应用场景,包括图像识别、自然语言处理、语音识别、推荐系统等。同时,TensorFlow也有着丰富的社区支持和文档资源,使其容易学习和使用。

适合各种应用,包括计算机视觉、自然语言处理和推荐系统等。提供了丰富的工具和库,用于构建和训练神经网络模型。支持静态计算图和动态计算图。可以在图构建阶段进行优化具有强大的分布式计算能力。支持多种语言接口,包括Python、C++、Java等提供了许多高级操作,如自动微分、数据并行性等易于在各种硬件平台上部署和运行有强大的社区支持和丰富的文档

Tensorflow有三种计算图的构建方式:静态计算图,动态计算图,以及Autograph.

TensorFlow1.0时代,采用的是静态计算图,需要先使用TensorFlow的各种算子创建计算图,再开启一个会话Session,显示执行计算图。

TensorFlow2.0时代,采用的是动态计算图,即每使用一个算子后,该算子会被动态加入到隐含的默认计算图中立即执行得到结果,而无需开启Session。

TensorFlow2.0默认动态计算图(Eager Excution)

使用动态计算图的好处是方便调试程序。

使用动态计算图的缺点是运行效率相对会低一些。

如果需要在TensorFlow2.0中使用静态图,可以使用@tf.function装饰器,将普通Python函数转换成对应的TensorFlow计算图构建代码。运行该函数就相当于在TensorFlow1.0中用Session执行代码。

TensorFlow2.0为了确保对老版本tensorflow项目的兼容性,在pat.v1子模块中保留了对TensorFlow1.0静态计算图构建风格的支持。已经不推荐使用了。

tf.Variable在计算图中是一个持续存在的节点,不受作用域的影响,一般的方法是把tf.Variable当做类属性来调用

静态图尽量使用tf.Tensor做参数,tensorflow会根据Python原生数据类型的值不同,而重复创建图,导致速度变慢

静态图tf.Tensor比值比的是tensor的hash值,而不是原本的值

tf自带数学大小函数

大于 tf.math.greater(a, b)

等于 tf.math.equal(a, b)

小于 tf.math.less(a, b)

使用tf.function构建静态图的方式叫做 Autograph。

TensorFlow深度学习例子

以下是一个使用TensorFlow保存当前训练模型并在测试集上进行测试的样例代码:

代码中,我们使用了一个简单的线性模型,并在训练过程中将模型保存到了当前目录下的my_model.ckpt文件中。在训练完成后,我们使用测试集进行了模型的测试,输出了测试集上的损失值。

import tensorflow as tfimport numpy as np# 初始化数据和标签train_data = np.random.rand(1000, 10)train_labels = np.random.rand(1000, 1)test_data = np.random.rand(200, 10)test_labels = np.random.rand(200, 1)# 创建输入占位符和变量input_ph = tf.placeholder(tf.float32, shape=[None, 10])labels_ph = tf.placeholder(tf.float32, shape=[None, 1])weights = tf.Variable(tf.zeros([10, 1]))bias = tf.Variable(tf.zeros([1]))# 创建模型和损失函数output = tf.matmul(input_ph, weights) + biasloss = tf.reduce_mean(tf.square(output - labels_ph))# 创建训练操作和初始化操作train_op = tf.train.GradientDescentOptimizer(0.1).minimize(loss)init_op = tf.global_variables_initializer()# 创建Saver对象saver = tf.train.Saver()# 训练模型with tf.Session() as sess:sess.run(init_op)for i in range(100):_, loss_val = sess.run([train_op, loss], feed_dict={input_ph: train_data, labels_ph: train_labels})print("Epoch {}: loss = {}".format(i+1, loss_val))# 保存模型saver.save(sess, "./my_model.ckpt")# 在测试集上测试模型test_loss_val = sess.run(loss, feed_dict={input_ph: test_data, labels_ph: test_labels})print("Test loss = {}".format(test_loss_val))

代码运行结果:

Epoch 1: loss = 0.33758699893951416Epoch 2: loss = 0.11031775921583176Epoch 3: loss = 0.09063640236854553Epoch 4: loss = 0.0888814628124237Epoch 5: loss = 0.08867537975311279Epoch 6: loss = 0.08860388398170471Epoch 7: loss = 0.0885448306798935Epoch 8: loss = 0.0884876698255539Epoch 9: loss = 0.0884314551949501Epoch 10: loss = 0.08837611228227615Epoch 11: loss = 0.08832161128520966Epoch 12: loss = 0.08826790004968643Epoch 13: loss = 0.08821499347686768Epoch 14: loss = 0.0881628543138504Epoch 15: loss = 0.08811149001121521Epoch 16: loss = 0.08806086331605911Epoch 17: loss = 0.08801095187664032Epoch 18: loss = 0.0879617705941Epoch 19: loss = 0.08791326731443405Epoch 20: loss = 0.08786546438932419Epoch 21: loss = 0.08781831711530685Epoch 22: loss = 0.08777181059122086Epoch 23: loss = 0.08772596716880798Epoch 24: loss = 0.08768074214458466Epoch 25: loss = 0.08763613551855087Epoch 26: loss = 0.08759212493896484Epoch 27: loss = 0.08754870295524597Epoch 28: loss = 0.08750586211681366Epoch 29: loss = 0.08746359497308731Epoch 30: loss = 0.08742187172174454Epoch 31: loss = 0.08738070726394653Epoch 32: loss = 0.08734006434679031Epoch 33: loss = 0.0872999653267Epoch 34: loss = 0.08726035058498383Epoch 35: loss = 0.08722126483917236Epoch 36: loss = 0.0871826633810997Epoch 37: loss = 0.08714456111192703Epoch 38: loss = 0.08710692077875137Epoch 39: loss = 0.08706976473331451Epoch 40: loss = 0.08703305572271347Epoch 41: loss = 0.08699680119752884Epoch 42: loss = 0.08696100115776062Epoch 43: loss = 0.08692563325166702Epoch 44: loss = 0.08689068257808685Epoch 45: loss = 0.0868561640381813Epoch 46: loss = 0.08682206273078918Epoch 47: loss = 0.0867883637547493Epoch 48: loss = 0.08675506711006165Epoch 49: loss = 0.08672215789556503Epoch 50: loss = 0.08668963611125946Epoch 51: loss = 0.08665750920772552Epoch 52: loss = 0.08662573993206024Epoch 53: loss = 0.0865943431854248Epoch 54: loss = 0.08656331896781921Epoch 55: loss = 0.08653264492750168Epoch 56: loss = 0.0865023210644722Epoch 57: loss = 0.08647233247756958Epoch 58: loss = 0.08644269406795502Epoch 59: loss = 0.08641338348388672Epoch 60: loss = 0.08638441562652588Epoch 61: loss = 0.0863557755947113Epoch 62: loss = 0.0863274559378624Epoch 63: loss = 0.08629942685365677Epoch 64: loss = 0.0862717255949974Epoch 65: loss = 0.08624432235956192Epoch 66: loss = 0.0862172394990921Epoch 67: loss = 0.08619043231010437Epoch 68: loss = 0.08616391569375992Epoch 69: loss = 0.08613769710063934Epoch 70: loss = 0.08611176162958145Epoch 71: loss = 0.08608610183000565Epoch 72: loss = 0.08606073260307312Epoch 73: loss = 0.08603561669588089Epoch 74: loss = 0.08601076900959015Epoch 75: loss = 0.08598621189594269Epoch 76: loss = 0.08596190065145493Epoch 77: loss = 0.08593783527612686Epoch 78: loss = 0.08591403067111969Epoch 79: loss = 0.08589048683643341Epoch 80: loss = 0.08586718887090683Epoch 81: loss = 0.08584412187337875Epoch 82: loss = 0.08582130074501038Epoch 83: loss = 0.0857987329363823Epoch 84: loss = 0.08577638119459152Epoch 85: loss = 0.08575427532196045Epoch 86: loss = 0.08573239296674728Epoch 87: loss = 0.08571072667837143Epoch 88: loss = 0.08568929135799408Epoch 89: loss = 0.08566807210445404Epoch 90: loss = 0.08564707636833191Epoch 91: loss = 0.08562628924846649Epoch 92: loss = 0.08560571074485779Epoch 93: loss = 0.0855853483080864Epoch 94: loss = 0.0855653815231Epoch 95: loss = 0.08554524928331375Epoch 96: loss = 0.0855254977941513Epoch 97: loss = 0.0855059400438Epoch 98: loss = 0.08548659086227417Epoch 99: loss = 0.08546742796897888Epoch 100: loss = 0.08544846624135971Test loss = 0.09260907769203186

二、PyTorch深度学习框架

PyTorch(Facebook开源):

PyTorch 是另一个非常受欢迎的深度学习框架。

PyTorch是一个由Facebook开源的深度学习框架,是目前市场上最流行的深度学习框架之一。它基于Python语言,提供了强大的GPU加速功能和动态计算图的支持。

PyTorch的应用范围非常广泛,包括图像和语音识别、自然语言处理、计算机视觉、推荐系统等领域。

PyTorch具有易于使用、灵活性高和代码可读性好等特点,使得它成为深度学习研究和应用的首选框架之一。

易于在GPU上加速训练,具有出色的 GPU 加速性能。提供了广泛的预训练模型和工具包,张量库,用于使用 GPU 和 CPU 进行深度学习。强调动态计算图的构建,可以更灵活地进行模型调整和调试,使得模型构建和调试更加直观。它在灵活性和易用性方面表现出色,特别适合研究和原型开发。具有丰富的工具和库,如Torch方便使用。提供简洁灵活的API,减少代码编写量有活跃的社区和详细的文档支持

PyTorch深度学习例子

#使用 PyTorch 张量将三阶多项式拟合到正弦函数。手动实现转发 并向后通过网络:

#使用 PyTorch 张量将三阶多项式拟合到正弦函数。#手动实现转发 并向后通过网络:# -*- coding: utf-8 -*-import torchimport mathdtype = torch.floatdevice = torch.device("cpu")# device = torch.device("cuda:0") # Uncomment this to run on GPU# Create random input and output datax = torch.linspace(-math.pi, math.pi, 2000, device=device, dtype=dtype)y = torch.sin(x)# Randomly initialize weightsa = torch.randn((), device=device, dtype=dtype)b = torch.randn((), device=device, dtype=dtype)c = torch.randn((), device=device, dtype=dtype)d = torch.randn((), device=device, dtype=dtype)learning_rate = 1e-6for t in range(2000):# Forward pass: compute predicted yy_pred = a + b * x + c * x ** 2 + d * x ** 3# Compute and print lossloss = (y_pred - y).pow(2).sum().item()if t % 100 == 99:print(t, loss)# Backprop to compute gradients of a, b, c, d with respect to lossgrad_y_pred = 2.0 * (y_pred - y)grad_a = grad_y_pred.sum()grad_b = (grad_y_pred * x).sum()grad_c = (grad_y_pred * x ** 2).sum()grad_d = (grad_y_pred * x ** 3).sum()# Update weights using gradient descenta -= learning_rate * grad_ab -= learning_rate * grad_bc -= learning_rate * grad_cd -= learning_rate * grad_dprint(f'Result: y = {a.item()} + {b.item()} x + {c.item()} x^2 + {d.item()} x^3')

代码运行结果:

99 2351.4306640625199 1585.7086181640625299 1071.2376708984375399 725.2841796875499 492.4467468261719599 335.59881591796875699 229.84210205078125799 158.46621704101562899 110.2466812133789999 77.638267517089841099 55.563991546630861199 40.605293273925781299 30.457519531251399 23.56592369079591499 18.8805103302001951599 15.691409111022951699 13.5183496475219731799 12.0359420776367191899 11.0234947204589841999 10.331212043762207Result: y = 0.030692655593156815 + 0.8315182328224182 x + -0.005294993054121733 x^2 + -0.08974269032478333 x^3

三、Keras深度学习框架

Keras(谷歌):

Keras(谷歌)(最初由François Chollet开发,现在为TensorFlow官方API):

Keras 是一个易用且功能强大的,用 Python 编写的高级神经网络 API,它能够以 TensorFlow, CNTK, 或者 Theano 作为后端运行。

Keras 的开发重点是支持快速的实验。能够以最小的时延把你的想法转换为实验结果,是做好研究的关键。

Keras支持多个后端引擎,可以在 Tensorflow、Theano、CNTK 等框架上运行。提供简洁易用的高级API,尤其适合初学者和快速原型设计具有广泛的模型库、预训练模型和各种工具包,使得模型构建更加高效。可以无缝切换到TensorFlow,以享受其强大的功能和生态系统允许简单而快速的原型设计(由于用户友好,高度模块化,可扩展性)。同时支持卷积神经网络和循环神经网络,以及两者的组合。在 CPU 和 GPU 上无缝运行。

指导原则

用户友好。 Keras 是为人类而不是为机器设计的 API。它把用户体验放在首要和中心位置。Keras 遵循减少认知困难的最佳实践:它提供一致且简单的 API,将常见用例所需的用户操作数量降至最低,并且在用户错误时提供清晰和可操作的反馈。模块化。 模型被理解为由独立的、完全可配置的模块构成的序列或图。这些模块可以以尽可能少的限制组装在一起。特别是神经网络层、损失函数、优化器、初始化方法、激活函数、正则化方法,它们都是可以结合起来构建新模型的模块。易扩展性。 新的模块是很容易添加的(作为新的类和函数),现有的模块已经提供了充足的示例。由于能够轻松地创建可以提高表现力的新模块,Keras 更加适合高级研究。基于 Python 实现。 Keras 没有特定格式的单独配置文件。模型定义在 Python 代码中,这些代码紧凑,易于调试,并且易于扩展。

四、Caffe深度学习框架

Caffe(伯克利)

Caffe的全称是Convolutional Architecture for Fast Feature Embedding,意为“用于特征提取的卷积架构”,它是一个清晰、高效的深度学习框架,核心语言是C++。

Caffe是一种流行的深度学习框架,是由加州大学伯克利分校的研究人员开发的,用于卷积神经网络(CNN)和其他深度学习模型的训练和部署。

Caffe的主要优点是速度快、易于使用和高度可移植性。

它已被广泛应用于计算机视觉、自然语言处理和语音识别等领域。

Caffe还具有一个强大的社区,提供了许多预训练的模型和可视化工具,使用户可以轻松地构建自己的深度学习模型。

Caffe 是一个基于 C++ 的深度学习框架,旨在高效地进行卷积运算。它特别适合计算机视觉任务,并在图像分类和物体检测方面表现出色。Caffe 提供了简单的配置文件来定义网络结构和超参数。具有高效的 GPU 加速,适合在大规模数据集上训练模型。

五、中国深度学习开源框架状况

中国深度学习开源框架市场形成三强格局

国际权威数据调研机构IDC发布《中国深度学习框架和平台市场份额,H2》报告。报告显示,百度稳居中国深度学习平台市场综合份额第一,领先优势进一步扩大。中国深度学习开源框架市场形成三强格局,框架市场前三份额超过80%。

六、几种框架的对比

几种框架的对比表

目前最受欢迎的深度学习框架包括TensorFlow、PyTorch和Caffe。

据市场研究公司O'Reilly发布的《AI和深度学习市场调查报告》显示,TensorFlow是最受欢迎的深度学习框架,有57.2%的受访者使用它。PyTorch紧随其后,有37.1%的受访者使用它。Caffe和Keras也很受欢迎,分别占据了16.2%和13.7%的市场份额。

这几种框架的主要特点的简单对比表

需要注意的是,这些框架各有优缺点,并且在不同的应用场景下可能有不同的最佳选择。因此,在选择框架时,建议应根据项目需求和研究方向、编程技能和个人喜好来决定,进行评估和比较,最后选择具体的框架。

七、其他统计数据

.NET(5+) 用户明年希望使用的前三个选项是 .NET(5+)、.NET MAUI 和 .NET Framework (1.0 - 4.8)。.NET 偏袒性很强 在他们的社区内。

推荐阅读:

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。