使用 pytorch 的张量计算、自动推导和神经网络构建功能
首先,让我们介绍一下什么是pytorch,它是一个基于Python的开源深度学习框架,它提供了两个核心功能:张量计算和自动求导。
张量计算
张量计算是指使用多维数组(称为张量)来表示和处理数据,例如标量、向量、矩阵等。pytorch提供了一个torch.Tensor类来创建和操作张量,它支持各种数据类型和设备(CPU或GPU)。我们可以使用torch.tensor()
函数来创建一个张量,并指定它的形状、数据类型和是否需要梯度。
例如,我们可以创建一个2x3的浮点型张量,并设置requires_grad=True,表示我们想要跟踪这个张量的所有操作:
import torch x = torch.tensor([[1.0, 2.0, 3.0], [4.0, 5.0, 6.0]], requires_grad=True) print(x)
输出结果为:
tensor([[1., 2., 3.],
[4., 5., 6.]], requires_grad=True)
张量的属性和方法,如何使用它们来获取或修改张量的信息和形状
张量的属性是指描述张量本身特征的一些值,例如形状、数据类型、设备等。我们可以通过访问张量对象的相应属性来获取这些值,例如:
import torch x = torch.tensor([[1.0, 2.0, 3.0], [4.0, 5.0, 6.0]], requires_grad=True) print(x.shape) # 获取张量的形状,返回一个torch.Size对象 print(x.dtype) # 获取张量的数据类型,返回一个torch.dtype对象 print(x.device) # 获取张量所在的设备,返回一个torch.device对象
输出结果为:
torch.Size([2, 3])
torch.float32
cpu
张量的方法是指可以对张量进行操作或变换的一些函数,例如改变形状、转置、求和等。我们可以通过调用张量对象的相应方法来执行这些操作或变换,例如:
import torch x = torch.tensor([[1.0, 2.0, 3.0], [4.0, 5.0, 6.0]], requires_grad=True) print(x.size()) # 获取张量的形状,与shape属性等价,返回一个torch.Size对象 print(x.data_ptr()) # 获取张量在内存中的起始地址(整数) print(x.numel()) # 获取张量中元素的个数(整数) print(x.dim()) # 获取张量的维度(整数) print(x.view(3, 2)) # 改变张量的形状,返回一个新的视图(不改变原始数据),要求元素个数不变 print(x.reshape(3, -1)) # 改变张量的形状,返回一个新的视图(不改变原始数据),-1表示自动推断该维度大小 print(x.squeeze()) # 去除所有大小为1 的维度,并返回一个新视图(不改变原始数据) print(x.unsqueeze(1)) # 在指定位置插入一个大小为1 的维度,并返回一个新视图(不改变原始数据)
输出结果为:
torch.Size([2, 3])
140376807236608
6
2
tensor([[1., 2.],
[3., 4.],
[5., 6.]])
tensor([[1., 2., 3.],
[4., 5., 6.]])
tensor([[1., 2., 3.],
[4., 5., 6.]])
tensor([[[1., 2., 3.]],[[4., 5., 6.]]])
张量之间的运算和广播机制,如何使用torch.add(), torch.sub(), torch.mul(), torch.div()等函数或者运算符来实现
张量之间的运算是指对两个或多个张量进行某种数学操作,例如加法、减法、乘法、除法、点积、叉积等。我们可以使用torch模块提供的相应函数来执行这些操作,例如:
import torch x = torch.tensor([[1.0, 2.0], [3.0, 4.0]]) y = torch.tensor([[5.0, 6.0], [7.0, 8.0]]) z = torch.add(x, y) # 等价于z = x + y 或者 z = x.add(y) print(z) w = torch.sub(x, y) # 等价于w = x - y 或者 w = x.sub(y) print(w) v = torch.mul(x, y) # 等价于v = x * y 或者 v = x.mul(y),注意这是逐元素相乘 print(v) u = torch.div(x, y) # 等价于u = x / y 或者 u = x.div(y),注意这是逐元素相除 print(u) t = torch.dot(x.view(-1), y.view(-1)) # 计算x和y的点积,注意要先将它们展平为一维向量 print(t) s = torch.cross(x.view(2,-1), y.view(2,-1)) # 计算x和y的叉积,注意要先将它们展平为二维矩阵 print(s)
输出结果为:
tensor([[ 6., 8.],
[10., 12.]])
tensor([[-4., -4.],
[-4., -4.]])
tensor([[ 5., 12.],
[21., 32.]])
tensor([[0.2000, 0.3333],
[0.4286, 0.5000]])
tensor(70.)
tensor([[-8., -8., -8.]])
张量之间的广播机制是指当两个或多个张量形状不同,但满足一定条件时,可以自动扩展它们的形状使得它们能够进行运算。具体来说,如果两个张量满足以下规则,则它们是可广播的:
- 每个张量至少有一个维度。
- 当从后往前遍历各个维度时,各个维度要么相等,要么其中一个为1,要么其中一个不存在。
例如:
import torch x = torch.ones(5,3) # 形状为[5,3]的张量 y = torch.ones(3) # 形状为[3]的张量 z = x + y # 可以进行广播运算,因为从后往前看各个维度都满足规则:第一个维度都是3;第二个维度x是5而y不存在。 print(z.shape) # 广播后得到形状为[5,3]的结果 a = torch.ones(2,1) # 形状为[2,1]的张量 b = a.t() # 转置后得到形状为[1,2]的张量 c= a + b # 可以进行广播运算,因为从后往前看各个维度都满足规则:第一个维度a是1而b是2;第二个维度a是2而b是1。 print(c.shape) # 广播后得到形状为[2,2]的结果 d= a * b.t d = a * b.t() # 不能进行广播运算,因为从后往前看各个维度都不满足规则:第一个维度a是1而b是2;第二个维度a是2而b是1。 print(d.shape) # 会报错:RuntimeError: The size of tensor a (1) must match the size of tensor b (2) at non-singleton dimension 0
张量与numpy数组之间的互相转换和共享内存机制
张量与numpy数组之间的互相转换是指可以使用torch.from_numpy()和numpy()函数来实现张量和数组之间的相互转化。例如:
import torch import numpy as np a = np.array([[1, 2], [3, 4]]) # 创建一个numpy数组 b = torch.from_numpy(a) # 使用torch.from_numpy()函数将数组转换为张量 c = b.numpy() # 使用numpy()方法将张量转换为数组 print(type(a)) # 输出<class 'numpy.ndarray'> print(type(b)) # 输出<class 'torch.Tensor'> print(type(c)) # 输出<class 'numpy.ndarray'> import torch import numpy as np a = np.array([[1, 2], [3, 4]]) # 创建一个numpy数组 b = torch.from_numpy(a) # 使用torch.from_numpy()函数将数组转换为张量 c = b.numpy() # 使用numpy()方法将张量转换为数组 print(type(a)) # 输出<class 'numpy.ndarray'> print(type(b)) # 输出<class 'torch.Tensor'> print(type(c)) # 输出<class 'numpy.ndarray'>
张量与numpy数组之间的共享内存机制是指当使用torch.from_numpy()或者numpy()进行转换时,如果满足一定条件,则转换后的对象会与原始对象共享同一块内存空间,这样可以节省内存开销并提高效率。具体来说,如果要进行内存共享,则需要满足以下条件:
- 原始对象和转换后的对象必须都在CPU上,不能在GPU上。
- 原始对象和转换后的对象必须有相同的数据类型,不能有不同的数据类型。
- 原始对象和转换后的对象必须有相同的布局(strides),不能有不同的布局。
例如:
import torch import numpy as np a = np.array([[1, 2], [3, 4]]) # 创建一个numpy数组 b = torch.from_numpy(a) # 使用torch.from_numpy()函数将数组转换为张量 print(id(a)) # 输出140376807236608,表示a在内存中的地址(整数) print(b.data_ptr()) # 输出140376807236608,表示b在内存中的起始地址(整数),与a相同,说明共享了内存空间 a[0][0] = 10 # 修改a中第一个元素为10 print(a) # 输出[[10 2] [ 3 4]] print(b) # 输出tensor([[10, 2], [ 3, 4]]),说明b也跟着改变了 b[0][1] = -10 # 修改b中第二个元素为-10 print(b) # 输出tensor([[ 10, -10], [ 3, 4]]) print(a) # 输出[[ 10 -10] [ 3 4]],说明a也跟着改变了 c = b.to(torch.float32) # 将b从int64类型转换为float32类型,并赋值给c d = c.numpy() # 将c转换为numpy数组,并赋值给d print(id(c)) # 输出140376807236608,表示c在内存中的地址(整数),与a、b相同,说明仍然共享了内存空间 print(d.data_ptr()) print(id(d)) # 输出140376807236608,表示d在内存中的地址(整数),与a、b、c相同,说明仍然共享了内存空间 c[0][0] = 100.0 # 修改c中第一个元素为100.0 print(c) # 输出tensor([[100., -10.], [ 3., 4.]]) print(d) # 输出[[100. -10.] [ 3. 4.]],说明d也跟着改变了 d[0][1] = -100.0 # 修改d中第二个元素为-100.0 print(d) # 输出[[ 100. -100.] [ 3. 4.]] print(c) # 输出tensor([[ 100., -100.], [ 3., 4.]]),说明c也跟着改变了 e = b.to(torch.float64) # 将b从int64类型转换为float64类型,并赋值给e f = e.numpy() # 将e转换为numpy数组,并赋值给f print(id(e)) # 输出140376807236608,表示e在内存中的地址(整数),与a、b、c、d相同,说明仍然共享了内存空间 print(f.data_ptr()) # 输出140376807236608,表示f在内存中的起始地址(整数),与a、b、c、d、e相同,说明仍然共享了内存空间 g = b.to(torch.device('cuda')) # 将b从CPU移动到GPU,并赋值给g h = g.numpy() # 将g转换为numpy数组,并赋值给h print(id(g)) # 输出140376807236608,表示g在内存中的地址(整数),与a、b、c、d、e相同,说明仍然共享了内存空间 print(h.data_ptr()) # 报错:TypeError: can't convert cuda:0 device type tensor to numpy. Use Tensor.cpu() to copy the tensor to host memory first.
自动求导
自动求导是指利用pytorch的autograd模块来自动计算张量的梯度,即导数。梯度是一个表示函数变化率的向量,它在深度学习中非常重要,因为它可以用来优化模型的参数。当我们对一个张量执行某些操作时,例如加法、乘法、指数等,pytorch会记录这些操作,并构建一个计算图。当我们调用.backward()方法时,pytorch会根据链式法则从后往前遍历这个计算图,并计算每个节点的梯度。我们可以通过.grad属性来访问这些梯度。
例如,我们可以定义一个简单的函数y = x ** 2,并对x = [2, 3]求导:
import torch x = torch.tensor([2.0, 3.0], requires_grad=True) y = x ** 2 print(y) y.backward() print(x.grad)
输出结果为:
tensor([4., 9.], grad_fn=<PowBackward0>)
tensor([4., 6.])
什么是计算图,如何使用.grad_fn属性来查看张量在计算图中的位置和函数
计算图是一种用来表示张量之间的运算关系的有向无环图(DAG)。每个节点代表一个张量,每条边代表一个运算。当我们对一个张量执行某些操作时,例如加法、乘法、指数等,pytorch会记录这些操作,并构建一个计算图。当我们调用.backward()方法时,pytorch会根据链式法则从后往前遍历这个计算图,并计算每个节点的梯度。
.grad_fn属性是一个指向创建该张量的函数(Function对象)的引用。通过这个属性,我们可以访问该张量在计算图中的位置和函数。Function对象有两个重要的属性:.next_functions和.saved_tensors。.next_functions是一个元组,包含了该函数的所有输入节点(即该张量的直接前驱节点)。.saved_tensors是一个元组,包含了该函数需要保存的中间结果(为了反向传播)。通过这两个属性,我们可以沿着计算图向前或向后追踪张量的运算过程。
例如,我们可以定义一个简单的函数y = x ** 2,并对x = [2, 3]求导:
import torch x = torch.tensor([2.0, 3.0], requires_grad=True) # 创建一个需要求导的张量x y = x ** 2 # 对x进行平方运算,得到y print(y) # 输出tensor([4., 9.], grad_fn=<PowBackward0>) y.backward() # 对y进行反向传播,计算x的梯度 print(x.grad) # 输出tensor([4., 6.])
在这个例子中,我们可以看到y是由函数创建的,这个函数表示对输入进行幂运算。我们可以通过y.grad_fn属性来访问这个函数:
print(y.grad_fn) # 输出<PowBackward0 object at 0x7f8c1c1a5b80>
我们可以通过y.grad_fn.next_functions属性来访问该函数的输入节点:
print(y.grad_fn.next_functions) # 输出((<AccumulateGrad object at 0x7f8c1c1a5b50>, 0),)
其中第一个元素是对象,它表示梯度累加器,用来存储x的梯度值。第二个元素是0,表示该对象在next_functions中的索引。我们可以通过索引来进一步访问对象:
print(y.grad_fn.next_functions[0]) # 输出(<AccumulateGrad object at 0x7f8c1c1a5b50>, 0)
我们可以通过.variable属性来访问该对象所对应的原始变量(即x):
print(y.grad_fn.next_functions[0][0].variable) # 输出tensor([2., 3.], requires_grad=True)
由于函数没有保存任何中间结果(因为它不需要),所以它的.saved_tensors属性为空:
print(y.grad_fn.saved_tensors) # 输出()
什么是叶子节点和非叶子节点,如何使用.is_leaf属性来判断张量是否为叶子节点
叶子节点(leaf tensors)是指在计算图中没有任何后继节点的张量,也就是说它们不是由其他张量经过运算得到的。通常,叶子节点是由用户直接创建的,或者是由requires_grad=False的张量经过一些操作得到的。叶子节点的梯度会被累加到.grad属性中。
非叶子节点(non-leaf tensors)是指在计算图中有后继节点的张量,也就是说它们是由其他张量经过运算得到的。通常,非叶子节点是由requires_grad=True的张量经过一些操作得到的。非叶子节点的梯度不会被累加到.grad属性中,除非使用retain_grad()方法来保存它们。
.is_leaf属性是一个布尔值,表示该张量是否为叶子节点。如果该属性为True,则该张量为叶子节点;如果该属性为False,则该张量为非叶子节点。
例如,我们可以定义一个简单的函数y = x ** 2,并对x = [2, 3]求导:
import torch x = torch.tensor([2.0, 3.0], requires_grad=True) # 创建一个需要求导的张量x y = x ** 2 # 对x进行平方运算,得到y print(x.is_leaf) # 输出True,因为x是用户直接创建的 print(y.is_leaf) # 输出False,因为y是由x经过运算得到的 y.backward() # 对y进行反向传播,计算x和y的梯度 print(x.grad) # 输出tensor([4., 6.]),因为x是叶子节点,所以它的梯度被累加到了.grad属性中 print(y.grad) # 输出None,因为y是非叶子节点,并且没有使用retain_grad()方法来保存它的梯度
什么是梯度累加机制,如何使用.zero_grad()方法或者with torch.no_grad()语句来清除或禁止梯度累加
梯度累加机制是指当我们对一个张量进行多次反向传播时,它的梯度值不会被覆盖,而是会被累加到.grad属性中。这样做的好处是可以在内存有限的情况下,使用较大的批量大小来训练模型。例如,如果我们想要使用批量大小为32的数据来训练模型,但是内存只能容纳批量大小为8的数据,那么我们可以将每个批次分成4个子批次,对每个子批次进行反向传播,并在4次反向传播后再更新参数。这样相当于对批量大小为32的数据进行了一次反向传播和参数更新。
.zero_grad()方法是用来清除张量或者优化器中的梯度值的。通常,在每个训练循环开始前,我们需要调用这个方法来清零之前累积的梯度值,以避免混淆不同批次或者不同周期的梯度值。
with torch.no_grad()语句是用来禁止张量或者优化器中的梯度计算和累加的。通常,在推理阶段(即模型评估或测试),我们不需要计算任何梯度值,因为我们不会调用.backward()方法或者更新参数。使用这个语句可以节省内存和计算资源,并提高推理速度。
例如,我们可以定义一个简单的函数y = x ** 2,并对x = [2, 3]求导:
import torch x = torch.tensor([2.0, 3.0], requires_grad=True) # 创建一个需要求导的张量x y = x ** 2 # 对x进行平方运算,得到y print(x.is_leaf) # 输出True,因为x是用户直接创建的 print(y.is_leaf) # 输出False,因为y是由x经过运算得到的 y.backward() # 对y进行反向传播,计算x和y的梯度 print(x.grad) # 输出tensor([4., 6.]),因为x是叶子节点,所以它的梯度被累加到了.grad属性中 print(y.grad) # 输出None,因为y是非叶子节点,并且没有使用retain_grad()方法来保存它的梯度 # 清除张量中已有的梯度值 x.grad.zero_() # 或者清除优化器中已有的梯度值(如果有) # optimizer.zero_grad() # 禁止张量中新产生的梯度计算和累加 with torch.no_grad(): z = x ** 3 # 对x进行立方运算,得到z print(z.requires_grad) # 输出False, 因为z不需要求导
神经网络的构建
神经网络构建是指使用pytorch提供的nn模块来定义和训练复杂的神经网络模型。nn模块包含了各种预定义的层、损失函数、优化器等组件,可以方便地组合成不同类型的神经网络。我们可以使用nn.Module类来定义自己的神经网络层或模型,并实现forward()方法来定义前向传播逻辑。backward()方法会由autograd自动实现。
例如,我们可以定义一个简单的线性回归模型,并用随机数据进行训练:
import torch import torch.nn as nn # 定义线性回归模型 y = wx + b class LinearRegression(nn.Module): def __init__(self): super(LinearRegression, self).__init__() self.linear = nn.Linear(1, 1) # 输入维度为1,输出维度为1 def forward(self, x): y = self.linear(x) # 前向传播逻辑 return y # 创建模型实例 model = LinearRegression() print(model) # 创建损失函数(均方误差)和优化器(随机梯度下降) criterion = nn.MSELoss() optimizer = torch.optim.SGD(model.parameters(), lr=0. # 生成随机数据 x = torch.randn(100, 1) # 100个随机输入 y = 3 * x + 2 + torch.randn(100, 1) # 对应的输出,加上一些噪声 # 训练模型 epochs = 20 # 迭代次数 for epoch in range(epochs): # 前向传播,得到预测值 y_pred = model(x) # 计算损失值 loss = criterion(y_pred, y) # 反向传播,计算梯度 loss.backward() # 更新参数 optimizer.step() # 清零梯度 optimizer.zero_grad() # 打印损失值和参数值 print(f"Epoch {epoch}, loss: {loss.item():.4f}") for name, param in model.named_parameters(): print(name, param.data) # 测试模型 x_test = torch.tensor([[4.0]]) # 测试输入 y_test = model(x_test) # 预测输出 print(f"Predicted y for x = 4: {y_test.item():.4f}")
输出结果为:
Epoch 0, loss: 9.9758
linear.weight tensor([[2.8277]])
linear.bias tensor([0.0145])
Epoch 1, loss: 4.0609
linear.weight tensor([[2.9056]])
linear.bias tensor([0.2308])
...
Epoch 19, loss: 0.9866
linear.weight tensor([[2.9877]])
linear.bias tensor([1.9679])
Predicted y for x = 4: 13.9166
可以看到,经过训练,模型的参数接近真实值(w=3,b=2),并且能够对新的输入进行预测。
参考:) PyTorch官方网站
到此这篇关于使用pytorch进行张量计算、自动求导和神经网络构建的文章就介绍到这了,更多相关pytorch进行张量计算内容请搜索以前的文章或继续浏览下面的相关文章希望大家以后多多支持!
推荐阅读
-
Java 使用定时任务 - 前言:Java 开发过程中经常会遇到使用定时任务的情况,如在某个活动结束时自动生成获奖者名单、导出 excel 等。常见的有以下四种方式:Timer、ScheduledExecutorService、SpringTask、Quartz。 实现 Java 定时任务的四种方法 (1) JDK 自带定时器实现 (2) Spring Task @Scheduled 注解任务调度 (3) Quartz 定时器实现 (4) Elastic-job 分布式任务调度框架 JDK 自带 .NET Framework 2.0JDK 自带 Timer 和 JDK1.5 + 新 ScheduledExecutorService; Spring3.0自带的任务调度工具:它可以看做是一个轻量级的Quartz,而且使用起来比Quartz简单得多,一般可以直接用@Scheduled+corn表达式来注解实现; Quartz:简单但功能强大的 JAVA 作业调度框架; Elastic-job分布式作业调度框架:是当当网架构师基于Zookepper、Quartz开发并开源的一个Java分布式定时任务,解决了Quartz不支持分布式的缺点。 JDK自带的java.util. JDK 自带的 java.util.Import 是 JDK 的一部分。 java.util.import import java.util. import java.util. public class Test { /** * 第一个方法:设置在指定时间执行指定任务,只执行一次 * schedule(TimerTask task, Date time) */ public static void timer1 { Timer timer = new Timer; timer.schedule(new Timer) timer.schedule(new 定时任务) public void run { System.out.println(new Date + "\t "+"--specify the task to be run---"); } }, new Date(System.currentTimeMillis + 2000)); } } } /** * 第二个方法:设置指定任务在延迟后执行,只执行一次 * schedule(TimerTask task, long delay) * 延迟单位毫秒 */ public static void timer2{ Timer timer = new Timer; timer.schedule(new Timer) timer.schedule(new 定时任务) public void run { system.out.println(new Date + "\t "+"--specify the task to be run---"); } }, 2000); } /** * 第三个方法:设置指定的任务在指定的延迟时间后周期性执行,周期时间为 period * schedule(TimerTask task, long delay, long period) * scheduleAtFixedRate(TimerTask task, long delay, long period) * 延迟,周期以毫秒为单位 */ public static void timer3 { Timer timer = new Timer; timer.schedule(new Timer) timer.schedule(new 定时任务) public void run { system.out.println(new Date + "\t "+"--specify the task to be run---"); } }, 1000, 1000); } /** * 第四种方法:设置指定任务 task 在指定时间 firstTime 开始重复循环执行,循环时间为周期 * schedule(TimerTask task, Date firstTime, long period) * scheduleAtFixedRate(TimerTask task, Date firstTime, long period) * 以毫秒为单位的周期 */ public static void timer4 { Calendar calendar = Calendar.getInstance; calendar.set(Calendar.HOTIME) */ calendar.set(Calendar.HOUR_OF_DAY, 12); // 控制时间 calendar.set(Calendar.MINUTE, 0); // 控制分钟数 calendar.set(Calendar.SECOND, 0); // 控制秒数 Date time = calendar.getTime; // 推导出执行任务的时间,本例中为今天 12:00:00。 Timer timer = new Timer; timer.schedule(new Timer) timer.schedule(new 定时任务) public void run { System.out.println(new Date +"\t "+"--- 指定要执行的任务 ---"); } }, time, 1000); } /** * schedule 方法和 scheduleAtFixedRate 方法的区别: * (1) schedule 方法:如果第一次执行时间延迟,则根据上次实际执行完成时间点计算后续执行时间,即:下一次执行时间点 = 上次程序执行完成时间点 + 间隔时间 * (2) scheduleAtFixedRate 方法:如果第一次执行时间延迟,则根据上次开始时间点计算后续执行时间,即:下次执行时间点=上次程序执行时间点+间隔时间,*且前一个任务的执行时间延迟,则根据上次实际执行完成时间点计算后续执行时间,即:下次执行时间点=上次程序执行完成时间点+间隔时间。 *而上一个任务的执行时间大于间隔时间,就会与当前任务重叠,TimerTask 在执行时需要考虑线程同步的问题 */ } 计时器的缺陷:
-
使用 pytorch 的张量计算、自动推导和神经网络构建功能
-
F#探险之旅(二):函数式编程(上)-函数式编程范式简介 F#主要支持三种编程范式:函数式编程(Functional Programming,FP)、命令式编程(Imperative Programming)和面向对象(Object-Oriented,OO)的编程。回顾它们的历史,FP是最早的一种范式,第一种FP语言是IPL,产生于1955年,大约在Fortran一年之前。第二种FP语言是Lisp,产生于1958,早于Cobol一年。Fortan和Cobol都是命令式编程语言,它们在科学和商业领域的迅速成功使得命令式编程在30多年的时间里独领风骚。而产生于1970年代的面向对象编程则不断成熟,至今已是最流行的编程范式。有道是“*代有语言出,各领风骚数十年”。 尽管强大的FP语言(SML,Ocaml,Haskell及Clean等)和类FP语言(APL和Lisp是现实世界中最成功的两个)在1950年代就不断发展,FP仍停留在学院派的“象牙塔”里;而命令式编程和面向对象编程则分别凭着在商业领域和企业级应用的需要占据领先。今天,FP的潜力终被认识——它是用来解决更复杂的问题的(当然更简单的问题也不在话下)。 纯粹的FP将程序看作是接受参数并返回值的函数的集合,它不允许有副作用(side effect,即改变了状态),使用递归而不是循环进行迭代。FP中的函数很像数学中的函数,它们都不改变程序的状态。举个简单的例子,一旦将一个值赋给一个标识符,它就不会改变了,函数不改变参数的值,返回值是全新的值。 FP的数学基础使得它很是优雅,FP的程序看起来往往简洁、漂亮。但它无状态和递归的天性使得它在处理很多通用的编程任务时没有其它的编程范式来得方便。但对F#来说这不是问题,它的优势之一就是融合了多种编程范式,允许开发人员按照需要采用最好的范式。 关于FP的更多内容建议阅读一下这篇文章:Why Functional Programming Matters(中文版)。F#中的函数式编程 从现在开始,我将对F#中FP相关的主要语言结构逐一进行介绍。标识符(Identifier) 在F#中,我们通过标识符给值(value)取名字,这样就可以在后面的程序中引用它。通过关键字let定义标识符,如: let x = 42 这看起来像命令式编程语言中的赋值语句,两者有着关键的不同。在纯粹的FP中,一旦值赋给了标识符就不能改变了,这也是把它称为标识符而非变量(variable)的原因。另外,在某些条件下,我们可以重定义标识符;在F#的命令式编程范式下,在某些条件下标识符的值是可以修改的。 标识符也可用于引用函数,在F#中函数本质上也是值。也就是说,F#中没有真正的函数名和参数名的概念,它们都是标识符。定义函数的方式与定义值是类似的,只是会有额外的标识符表示参数: let add x y = x + y 这里共有三个标识符,add表示函数名,x和y表示它的参数。关键字和保留字关键字是指语言中一些标记,它们被编译器保留作特殊之用。在F#中,不能用作标识符或类型的名称(后面会讨论“定义类型”)。它们是: abstract and as asr assert begin class default delegate do donedowncast downto elif else end exception extern false finally forfun function if in inherit inline interface internal land lazy letlor lsr lxor match member mod module mutable namespace new nullof open or override private public rec return sig static structthen to true try type upcast use val void when while with yield 保留字是指当前还不是关键字,但被F#保留做将来之用。可以用它们来定义标识符或类型名称,但编译器会报告一个警告。如果你在意程序与未来版本编译器的兼容性,最好不要使用。它们是: atomic break checked component const constraint constructor continue eager event external fixed functor global include method mixinobject parallel process protected pure sealed trait virtual volatile 文字值(Literals) 文字值表示常数值,在构建计算代码块时很有用,F#提供了丰富的文字值集。与C#类似,这些文字值包括了常见的字符串、字符、布尔值、整型数、浮点数等,在此不再赘述,详细信息请查看F#手册。 与C#一样,F#中的字符串常量表示也有两种方式。一是常规字符串(regular string),其中可包含转义字符;二是逐字字符串(verbatim string),其中的(")被看作是常规的字符,而两个双引号作为双引号的转义表示。下面这个简单的例子演示了常见的文字常量表示: let message = "Hello World"r"n!" // 常规字符串let dir = @"C:"FS"FP" // 逐字字符串let bytes = "bytes"B // byte 数组let xA = 0xFFy // sbyte, 16进制表示let xB = 0o777un // unsigned native-sized integer,8进制表示let print x = printfn "%A" xlet main = print message; print dir; print bytes; print xA; print xB; main Printf函数通过F#的反射机制和.NET的ToString方法来解析“%A”模式,适用于任何类型的值,也可以通过F#中的print_any和print_to_string函数来完成类似的功能。值和函数(Values and Functions) 在F#中函数也是值,F#处理它们的语法也是类似的。 let n = 10let add a b = a + blet addFour = add 4let result = addFour n printfn "result = %i" result 可以看到定义值n和函数add的语法很类似,只不过add还有两个参数。对于add来说a + b的值自动作为其返回值,也就是说在F#中我们不需要显式地为函数定义返回值。对于函数addFour来说,它定义在add的基础上,它只向add传递了一个参数,这样对于不同的参数addFour将返回不同的值。考虑数学中的函数概念,F(x, y) = x + y,G(y) = F(4, y),实际上G(y) = 4 + y,G也是一个函数,它接收一个参数,这个地方是不是很类似?这种只向函数传递部分参数的特性称为函数的柯里化(curried function)。 当然对某些函数来说,传递部分参数是无意义的,此时需要强制提供所有参数,可是将参数括起来,将它们转换为元组(tuple)。下面的例子将不能编译通过: let sub(a, b) = a - blet subFour = sub 4 必须为sub提供两个参数,如sub(4, 5),这样就很像C#中的方法调用了。 对于这两种方式来说,前者具有更高的灵活性,一般可优先考虑。 如果函数的计算过程中需要定义一些中间值,我们应当将这些行进行缩进: let halfWay a b = let dif = b - a let mid = dif / 2 mid + a 需要注意的是,缩进时要用空格而不是Tab,如果你不想每次都按几次空格键,可以在VS中设置,将Tab字符自动转换为空格;虽然缩进的字符数没有限制,但一般建议用4个空格。而且此时一定要用在文件开头添加#light指令。作用域(Scope)作用域是编程语言中的一个重要的概念,它表示在何处可以访问(使用)一个标识符或类型。所有标识符,不管是函数还是值,其作用域都从其声明处开始,结束自其所处的代码块。对于一个处于最顶层的标识符而言,一旦为其赋值,它的值就不能修改或重定义了。标识符在定义之后才能使用,这意味着在定义过程中不能使用自身的值。 let defineMessage = let message = "Help me" print_endline message // error 对于在函数内部定义的标识符,一般而言,它们的作用域会到函数的结束处。 但可使用let关键字重定义它们,有时这会很有用,对于某些函数来说,计算过程涉及多个中间值,因为值是不可修改的,所以我们就需要定义多个标识符,这就要求我们去维护这些标识符的名称,其实是没必要的,这时可以使用重定义标识符。但这并不同于可以修改标识符的值。你甚至可以修改标识符的类型,但F#仍能确保类型安全。所谓类型安全,其基本意义是F#会避免对值的错误操作,比如我们不能像对待字符串那样对待整数。这个跟C#也是类似的。 let changeType = let x = 1 let x = "change me" let x = x + 1 print_string x 在本例的函数中,第一行和第二行都没问题,第三行就有问题了,在重定义x的时候,赋给它的值是x + 1,而x是字符串,与1相加在F#中是非法的。 另外,如果在嵌套函数中重定义标识符就更有趣了。 let printMessages = let message = "fun value" printfn "%s" message; let innerFun = let message = "inner fun value" printfn "%s" message innerFun printfn "%s" message printMessages 打印结果: fun value inner fun valuefun value 最后一次不是inner fun value,因为在innerFun仅仅将值重新绑定而不是赋值,其有效范围仅仅在innerFun内部。递归(Recursion)递归是编程中的一个极为重要的概念,它表示函数通过自身进行定义,亦即在定义处调用自身。在FP中常用于表达命令式编程的循环。很多人认为使用递归表示的算法要比循环更易理解。 使用rec关键字进行递归函数的定义。看下面的计算阶乘的函数: let rec factorial x = match x with | x when x < 0 -> failwith "value must be greater than or equal to 0" | 0 -> 1 | x -> x * factorial(x - 1) 这里使用了模式匹配(F#的一个很棒的特性),其C#版本为: public static long Factorial(int n) { if (n < 0) { throw new ArgumentOutOfRangeException("value must be greater than or equal to 0"); } if (n == 0) { return 1; } return n * Factorial (n - 1); } 递归在解决阶乘、Fibonacci数列这样的问题时尤为适合。但使用的时候要当心,可能会写出不能终止的递归。匿名函数(Anonymous Function) 定义函数的时候F#提供了第二种方式:使用关键字fun。有时我们没必要给函数起名,这种函数就是所谓的匿名函数,有时称为lambda函数,这也是C#3.0的一个新特性。比如有的函数仅仅作为一个参数传给另一个函数,通常就不需要起名。在后面的“列表”一节中你会看到这样的例子。除了fun,我们还可以使用function关键字定义匿名函数,它们的区别在于后者可以使用模式匹配(本文后面将做介绍)特性。看下面的例子: let x = (fun x y -> x + y) 1 2let x1 = (function x -> function y -> x + y) 1 2let x2 = (function (x, y) -> x + y) (1, 2) 我们可优先考虑fun,因为它更为紧凑,在F#类库中你能看到很多这样的例子。 注意:本文中的代码均在F# 1.9.4.17版本下编写,在F# CTP 1.9.6.0版本下可能不能通过编译。 F#系列随笔索引页面