对于python最近最火的方向很多小伙伴都会脱口而出——机器学习,而深度学习作为机器学习的一部分python也适用于此。python深度学习里面最出名的库/框架应该算pytorch了,接下来这篇文章小编带你了解一下pytorch怎么用吧。

    一、Tensor

    Tensor(张量是一个统称,其中包括很多类型):

    0阶张量:标量、常数、0-D Tensor;1阶张量:向量、1-D Tensor;2阶张量:矩阵、2-D Tensor;……

    二、Pytorch如何创建张量

    2.1 创建张量

    import torch
    	
    	t = torch.Tensor([1, 2, 3])
    	print(t)

    2.2 tensor与ndarray的关系

    两者之间可以相互转化

    import torch
    import numpy as np
    
    t1 = np.array(torch.Tensor([[1, 2, 3],
            [1, 2, 3]]))
    t2 = torch.Tensor(np.array([[1, 2, 3],
            [1, 2, 3]]))
    

    运行结果:


    2.3 常用api

    torch.empty(x,y)

    创建x行y列为空的tensor。

    torch.ones([x, y])

    创建x行y列全为1的tensor。

    torch.zeros([x,y])

    创建x行y列全为0的temsor。

    zeros与empty的区别

    后者的数据类型是不固定的。

    torch.rand(x, y)

    创建3行4列的随机数,随机数是0-1。

    torch.randint(low, high, size)

    创建一个size的tensor,随机数为low到high之间。

    torch.randn([x, y])

    创建一个x行y列的tensor,随机数的分布式均值为0,方差1。

    2.4 常用方法

    item()

    获取tensor中的元素,注意只有一个元素的时候才可以用。


    numpy()

    转化成ndarray类型。

    size()

    获取tensor的形状

    view()

    浅拷贝,tensor的形状改变

    可以传参,表示获取第几个。若参数为-1,表示不确定,与另一个参数的乘积等于原始形状的乘积。 例如:原始形状为8,则
    view(-1,2)
    view(4, 2); 参数只有-1,表示一维。

    dim()

    获取维度。

    max()

    获取最大值。

    t()

    转置。

    transpose(x,y)

    x,y是size里面返回的形状相换。

    permute()

    传入size()返回的形状的顺序。

    transpose与permute的区别

    前者传入列即可相互交换;后者传入列会根据传入的顺序来进行转化,且需要传入所有列数的索引。

    取值[第一阶, 第二阶,……]

    一个逗号隔开代表一个阶乘冒号代表全取

    赋值[第一阶, 第二阶,……]

    直接赋值即可

    三、数据类型

    3.1 获取数据类型

    tensor.dtype

    获取数据类型

    设置数据类型

    注意使用Tensor()不能指定数据类型。

    type()

    修改数据类型。

    四、tensor的其他操作

    4.1 相加

    torch.add(x, y)

    将x和y相加

    直接相加

    tensor.add()

    使用add_() 可相加后直接保存在tensor中

    4.2 tensor与数字的操作

    tensor + 数值

    五、CUDA中的tensor

    CUDA (Compute Unified Device Architecture),是NVIDIA推出的运算平台。CUDATM是一种由NVIDIA推出的通用并行计算架构,该架构使GPU能够解决复杂的计算问题。
    torch.cuda这个模块增加了对CUDA tensor的支持,能够在cpu和gpu上使用相同的方法操作tensor通过.to方法能够把一个tensor转移到另外一个设备(比如从CPU转到GPU)

    可以使用torch.cuda.is_available()判断电脑是否支持GPU

    到此这篇pytorch怎么用的文章就介绍到这了,值得一提的是,本文力求精简所以在一些详细的地方并没有深入介绍,如果需要相应的收藏可以关注W3Cschool搜索相关的手册。

    声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。