快速入门Pytorch:张量维度变换与常用操作
这篇文章介绍了Pytorch张量的核心知识,包括基础、维度变换、常用操作及练习建议。张量是Pytorch存储数据的基本结构,类似NumPy数组,支持GPU加速和自动求导。创建方式有:从列表/数值用`torch.tensor()`,从NumPy数组用`torch.from_numpy()`,或用内置函数生成全0/1/随机张量。 维度变换是关键操作:`reshape()`灵活调整形状(元素总数不变),`squeeze()`去掉单维度,`unsqueeze()`增加单维度,`transpose()`和`permute()`交换维度。常用操作包括基础算术运算、矩阵乘法`matmul()`、广播机制(自动扩展维度运算)及聚合操作(`sum()`/`mean()`/`max()`等)。 文章建议通过练习巩固张量操作,如维度调整、广播机制和维度交换,以掌握“形状语言”,为后续模型构建奠定基础。
阅读全文零基础学Pytorch:从张量到神经网络的入门指南
这篇文章介绍了PyTorch的核心内容及基础应用。PyTorch以灵活直观、语法接近Python著称,适合深度学习初学者,支持GPU加速和自动求导。核心内容包括: 1. **张量(Tensor)**:基础数据结构,类似多维数组,支持从数据、全0/1、随机数创建,可与NumPy互转,支持形状操作、算术运算(元素级/矩阵)及设备转换(CPU/GPU)。 2. **自动求导**:通过`autograd`实现自动微分,设置`requires_grad=True`的张量会被追踪计算历史,调用`backward()`自动计算梯度,如函数`y=x²+3x-5`在`x=2`时梯度为7.0。 3. **神经网络构建**:基于`torch.nn`模块,包含线性层(`nn.Linear`)、激活函数、损失函数(如MSE)和优化器(如SGD),支持自定义模型类和`nn.Sequential`组合。 4. **实战线性回归**:生成模拟数据`y=2x+3+噪声`,定义线性模型、MSE损失、
阅读全文