jmeter的基本操作与使用【基础篇一】
目录
- 1、 jmeter的介绍
- 2、jmeter安装
- 3、界面功能介绍
- 4、jmeter的十大元件
- 5、作用域
- 6、进程、线程、线程组
- 7、jmeter的基本使用
- 1. 启动jmeter
- 2. 创建了测试计划
- 3. 选中测试计划右击选择线程组
- 4. 右击线程组添加http请求
- 5. 配置http请求的相关信息
- 6. 添加察看结果树(察看请求结果的)
- 7. 点击绿色箭头执行
- 案例一:jmete实现数据驱动
- 案例二:从相应结果中提取变量
- 案例三:2、编辑接口(从上述结果中提取变量token实现接口关联)
- 案例四:从查询接口中获取id,从而实现以上的从添加数据,修改数据,删除数据的闭环操作
- **结果返回乱码:,解决乱码的一下两种方式**
- **方式一1,直接在请求接口中修改为utf-8,如果还没解决,试着方法二**
- **方式二,在bin文件找那个修改jmeter.properties文件**
- 8、接口关联的方式
- 1、方式一:正则表达器
- 2、方式二:jsonpath方式提取
- 9、setup线程组和teardown线程组
- 10、http请求默认值
- 11、参数化
- 11.1、用户参数实现参数化
- 11.2、csv文件实现参数化
- 11.3、csv文件实现参数化和用户参数实现参数化对比
- 12、jmeter实现操作数据库的原理
- 1、直连数据库
- 2、jmeter 实现操作sqlite数据库的步骤
- 3、jmeter 实现操作mysql数据库的步骤
- 4、jmeter 实现增删改的操作
- 5、数据库查询结果再处理
- 6、调试取样器
- 调试取样器的使用步骤
- 13、提取器
- 1、XPath提取器的使用
- 2、JSON提取器的使用
- 14、断言
- jmeter断言的分类
- 响应断言
- 大小断言
- 持续时间断言
- 14、聚合报告
- 1、聚合报告参数说明:
- 2、ramp-up
- 3、ramp-up总结:
- 4、同步定时器(集合点)
- 5、__setProperty 和 __property函数的使用
- 7、常数吞吐量定时器
- 8、生成html报告
- 9、使用已有的jtl日志文件生成
1、 jmeter的介绍
jmeter也是一款接口测试工具,由java语言开发的,主要进行性能测试。
2、jmeter安装
jmeter官网下载链接: https://jmeter.apache.org/download_jmeter.cgi ,查看是否安装成功【jmeter -v】
下载 java jdk1.8,进行安装,测试命令:java -version, https://repo.huaweicloud.com/java/jdk/
把jmeter下的bin目录添加到环境变量,然后即可使用
3、界面功能介绍
4、jmeter的十大元件
1、侧测试计划 , jmeter的起点和容器
2、线程组,代表一定的虚拟用户
3、取样器 , 一般会使用http请求 发送请求的最小单元
4、 逻辑控制器, if逻辑控制器,用于条件判断
5、 前置处理器, 发送请求前要做的事情 请求之前的操作
6、 后置处理器, 得到响应数据后要做的事情,比如: json提取器,xpath提取器。 请求之后的操作
7、 断言, 判断预期结果和实际结果是否一致
8、 定时器,一般会同步定时器 主要用于做接口性能测试 是否延迟或者定时发送
9、配置元件,一般会使用csv数据参数,用户定义的变量,请求和配置参数
10、监听器,一般会使用察看结果树,聚合报告
测试计划>>>线程组>>>配置元件>>>前置处理器>>>定时器>>>取样器>>>后置处理器>>>断言>>>监听器
5、作用域
组件会作用域他的父及组件,同及组件,以及子组件
-
只作用于简单控制器1
-
之作用与简单控制器2
-
作用于简单控制器1,2
6、进程、线程、线程组
-
进程:一个正在执行的程序或者软件称为进程,进程是用于提供运行资源的,一个进程默认会有一个线程(主线程)
-
线程:进程中执行任务的一个单元。线程是属于进程的,是进程中真正干活的。
-
线程组:把线程进行分组,可以形成不同的团队或者部门。比如:开发组,测试组。
线程组的执行:默认情况下多个线程组是并行执行的,想要设置成顺序执行,需要在测试计划里面勾选独立运行每个线程组
提示:在线程组内,多个任务是顺序执行的。
7、jmeter的基本使用
1. 启动jmeter
2. 创建了测试计划
3. 选中测试计划右击选择线程组
4. 右击线程组添加http请求
5. 配置http请求的相关信息
6. 添加察看结果树(察看请求结果的)
7. 点击绿色箭头执行
一下是一个简单get请求的设计
案例一:jmete实现数据驱动
-
步骤一: 创建测试计划
-
步骤二:创建线程组
-
步骤三:添加 HTTP Cookie管理器
-
步骤四:天剑 HTTP请求默认值
-
步骤五:添加 用户定义的变量
-
步骤六: 添加循环控制器-数据驱动
-
步骤七: 获取统一鉴权码-数据驱动
步骤八: CSV 数据文件设置
案例二:从相应结果中提取变量
-
步骤一: 1、获取统一鉴权码token
-
步骤二:添加 正则表达式提取器
-
步骤三:添加 响应断言
案例三:2、编辑接口(从上述结果中提取变量token实现接口关联)
案例四:从查询接口中获取id,从而实现以上的从添加数据,修改数据,删除数据的闭环操作
- 步骤一:查询接口
- 步骤二:” 正则表达式提取器
- 步骤三 ForEach控制器
- 步骤四: 固定定时器
- 步骤五 4、批量删除的设计
结果返回乱码:,解决乱码的一下两种方式
方式一1,直接在请求接口中修改为utf-8,如果还没解决,试着方法二
方式二,在bin文件找那个修改jmeter.properties文件
8、接口关联的方式
1、方式一:正则表达器
2、方式二:jsonpath方式提取
1、代表根节点的目录:$
2、取子节点的目录:.
结合起来复杂一点:$.tag[17].name
9、setup线程组和teardown线程组
setup线程组:在所有线程组中最先执行的,一般可以用于初始化工作,比如: 准备测试数据,登录。
线程组:在setup之后和teardown线程组之前执行的。
teardown线程组:在所有线程组中最后执行的,一般用于扫尾工作,比如: 退出登录,测试数据。
10、http请求默认值
当发送http请求的时候,请求信息会有一些重复,比如:http协议、ip地址、端口号,编码格式等一般都是相同的,则可以把http请求相同的信息添加到http请求默认值里面。位置是在配置元件里面
提示:当配置完http请求默认值以后,在发送http请求的时候,重复的信息就不需要再次填写了,只添加动态变化的数据,比如:请求的路径,请求的方法
11、参数化
11.1、用户参数实现参数化
1. 创建线程组
2. 右击线程组选择前置处理器添加用户参数
3. 分别添加用户(数据共几条)和添加变量(参数有几个)
4. 添加http请求,配置相关的信息,在消息头里面获取用户参数,语法:${变量名}
5. 添加http信息管理器,配置请求头信息,Content-Type:application/json
6. 点击线程组,把线程数改成用户数(数据的条数)
11.2、csv文件实现参数化
- 1、准备csv文件,数据如下:
T803,三国学院,罗贯中,男人的一部戏
T804,红楼梦学院,曹雪芹,女人的一部戏
内容格式
-
2、创建线程组
-
3、右击线程组选择配置元件添加csv数据文件设置(CSV Data Set Config)
-
4、配置CSV Data Set Config相关信息:
1、csv文件的路径
2、 文件的编码格式
3.、设置变量名,每一列对应一个变量名,变量名之间使用逗号,比1如:dep_id,dep_name,master_name,slogan -
5、添加http请求,添加学院信息,在消息体里面获取变量名对应的数据,比如:
{
"data": [
{
"dep_id":"${dep_id}",
"dep_name":"${dep_name}",
"master_name":"${master_name}",
"slogan":"${slogan}"
}
]
}
-
6、右击线程组,添加http信息头管理器,设置Content-Type:application/json
-
7、点击线程组,设置循环次数,这个次数等于文件中的条数(参数数据的条数)
-
8、执行察看结果树。
11.3、csv文件实现参数化和用户参数实现参数化对比
两者实现思路基本一致
实现流程 用户参数 相对简单
批量设置数据时 csv 相对简单
用户参数 设置的是线程数
csv 设置的是循环次数
用户参数设置的是线程数,使用线程意味着更加消耗资源,效率从微观角度讲不如csv
提示: csv 相对更常用
12、jmeter实现操作数据库的原理
jmeter本身不具备操作数据库的能力,因为jmeter是java语言编写的,所以可以借助第三方模块(JDBC jar 包) 来实现操作数据库。
1、直连数据库
jmeter操作数据库的原因:
1. 对比查询数据库的结果和接口返回的结果是否一致,
2. 可以对数据库进行压力测试。
2、jmeter 实现操作sqlite数据库的步骤
1、点击测试计划,添加sqlite数据库的jar
2、创建线程组
3、右击线程组选择配置元件选择JDBC Connection Configuration
1. 配置连接数据库的名字(Variable Name for created pool)
2. 设置操作数据库的路径(Database URL):
路径格式为:jdbc:sqlite:sqlite数据库路径
3. JDBC Driver class 选择:org.sqlite.JDBC
4、右击线程组添加JDBC request
1. 配置连接数据库的名字
2. 如果是查询操作,Query Type设置为:Select Statement
5、执行查看结果树
3、jmeter 实现操作mysql数据库的步骤
1、点击测试计划,添加mysql数据库的jar
2、创建线程组
3、右击线程组选择配置元件选择JDBC Connection Configuration
1. 配置连接数据库的名字(Variable Name for created pool)
2. 设置操作数据库的路径: Database URL
如果操作mysql数据库,路径格式为:
jdbc:mysql://数据库对应的ip地址:数据库的端口号/操作的数据库
例:jdbc:mysql://127.0.0.1:3306/zhujiang
如果window电脑报错:
在database url后面加上【?serverTimezone=UTC】其中UTC是统一标准世界时间即可解决。
解决中文乱码输入问题,可以在database url后面加上【?characterEncoding=UTF-8?useUnicode=true】。
3. JDBC Driver class选择:com.mysql.jdbc.Driver
4、右击线程组添加JDBC request
1. 配置连接数据库的名字
2. 如果是查询操作,Query Type设置为:Select Statement
5、执行查看结果树
4、jmeter 实现增删改的操作
1、点击测试计划,添加sqlite数据库的jar
2、创建线程组
3、右击线程组选择配置元件选择JDBC Connection Configuration
1. Variable Name for created pool(配置连接数据库的名字)
2. 设置操作数据库的路径(Database URL):
操作sqlite数据库,路径格式为:
jdbc:sqlite:sqlite数据库路径
3. JDBC Driver class选择:org.sqlite.JDBC
4、右击线程组添加JDBC request
Variable Name of Pool declared in JDBC Connection Configuratior(配置连接数据库的名字)
如果是修改操作,Query Type设置为:update Statement
update、insert、delete sql语句
5、执行查看结果树
5、数据库查询结果再处理
1、在JDBC request里面设置保存结果的变量
Variable names设置保存结果的变量名,比如: name
2、在http request 获取name变量保存的数据,比如:获取第一个数据,${name_1}
3、执行查看结果树
6、调试取样器
用来获取用户设置的变量名和变量值
调试取样器的使用步骤
- 创建线程组,添加jdbc request,设置对应设置变量,比如: name来保存用户查询的数据
2. 右击线程组选择取样器添加debug sampler (调试取样器)
3. 执行查看结果树
13、提取器
1、XPath提取器的使用
1、创建http请求,比如:请求京东
2、右击http请求选择后置处理器添加xpath提取器
1. 勾选use tidy 表示在html文档中提取数据,不勾选表示xml文档中提取数据,
2. 设置引用的名字,比如: jd_title
3. 设置xpath路径表达式
4. 如果想要查看提取的数据,可以添加一个调试取样器
3、创建http请求,在设置参数的时候获取之前xpath提取的内容,比如:${jd_title}
4、执行查看结果树
2、JSON提取器的使用
1、创建http请求,请求学生管理系统中所有学院信息
2、右击http请求选择后置处理器添加JSON提取器
1. names of created variables(设置一个变量名),用于保存提取的json数据
2. JSON Path expressions(json 路径表达式),比如: $.results[0].dep_name
$:表示整个json数据对象
3. 还可以设置默认值[可选]
4. 如果想要查看提取的数据,可以添加一个调试取样器
3、创建http请求,在设置参数的时候获取之前json提取的内容,比如:${dep_name}
4、执行查看结果树
14、断言
使用程序或者工具来判断预期结果和实际结果是否一致。
jmeter断言的分类
- 响应断言
- 大小断言
- 持续时间断言
响应断言
1、判断响应的内容是否和预期结果一致,比如: 状态码,响应内容(响应体)
2、响应断言的操作步骤
3、创建http请求
4、右击http请求,选择断言,添加响应断言
设置响应代码
设置响应文本
等于
包含
… …
5、执行查看结果树
说明:
-
响应文本:响应体
-
响应代码:状态码
-
响应信息:英文的状态描述,比如: 404 Not Found,200 OK
大小断言
判断响应内容的大小和预期结果是否一致
大小断言的步骤
1、创建http请求
2、右击http请求,选择断言,添加大小断言
选择完整响应
选择响应头
选择响应消息体
选择响应代码
选择响应信息
选择符号
设置大小
3、执行查看结果树
持续时间断言
判断接口响应时间是否在指定的时间内进行响应,否则断言失败
1、创建http请求
2、右击http请求,选择断言,添加持续时间断言
限定响应的时间,单位毫秒
3、执行查看结果树
14、聚合报告
用于查看接口的性能指标的。
添加聚合报告的步骤:在监听器里面添加聚合报告
1、聚合报告参数说明:
1. 样本: 每个请求发送次数
2. 平均值: 请求的平均响应时间
3. 中位数: 50%的请求响应时间小于该值
4. 90%百分位: 90%的请求响应时间小于该值
5. 95%百分位: 95%的请求响应时间小于该值
6. 99%百分位: 99%的请求响应时间小于该值
7. 最小值: 请求的最小响应时间
8. 最大值: 请求的最大响应时间
9. 异常: 请求的错误率
10. 吞吐量: 每秒处理完成的请求数,一般认为它为TPS:每秒处理的请求数 ***
11. 接收KB/sec: 每秒从服务器端接收到的数据量
12. 发送KB/sec: 每秒向服务器发送数据量
2、ramp-up
启动所有线程数需要的时间
提示: 通过设置ramp-up的值进行对比,可以得知ramp-up值越大,异常率越小。
3、ramp-up总结:
ramp-up时间越短,错误率越高。
线程数:表示就是用户数。
如果ramp-up时间为10,本质上是将10秒平均分成1000份,即 10/1000 = 0.01秒执行一次请求。
同理,如果设置为0,则相当于1000个人同时请求 。
通过聚合报告来查看接口的性能。
4、同步定时器(集合点)
模拟多用户的并发请求,保证同一时刻有指定的并发量。
在定时器里面选择同步定时器(Synchronizing Timer)
参数说明:
1、模拟用户组的数量:表示同一时刻有多少并发用户
2、超时时间: 不够指定用户数量,超过时间后也会做并发请求
5、__setProperty 和 __property函数的使用
主要是实现跨线程组传参的。
这两个函数关联需要通过后置处理器的BeanShell PostProcessor来完成
##6、 逻辑控制器
1. if控制器: 根据条件真假判断是否执行取样器(http请求)
2. ForEach控制器: 根据用户定义的变量来循环执行取样器(http请求)
3. 循环控制器: 根据用户设置循环次数,循环执行控制器里面取样器(http请求)
7、常数吞吐量定时器
常数吞吐量定时器有的地方也称常量吞吐量定时器,主要用于保证访问次数,一般用于压力测试。
主要针对于模拟单个用户发送多次请求
同步定时器:是针对于模拟多用户发送多次请求
8、生成html报告
无日志文件生成
基本命令格式:
jmeter -n -t <test JMX file> -l <test log file> -e -o <Path to output folder>
jmeter -n -t /Users/apple/Desktop/计划/test.jmx -l testlog.jtl -e -o ./output/report
参数详解:
-n:以非GUI形式运行Jmeter
-t:source.jmx 脚本路径
-l:运行结果保存路径(.jtl),此文件必须不存在
-e:在脚本运行结束后生成html报告
-o:保存html报告的地址, 此文件必须不存在
9、使用已有的jtl日志文件生成
基本命令格式:
jmeter -g <log file> -o <Path to output folder>
示例:
jmeter -g /Users/apple/Desktop/计划/testlog.jtl -o ./output_report
参数详解:
-g: 表示指定测试结果文件
上一篇: JMeter 安装和使用
推荐阅读
-
微信 "扫一扫 "物联网,全面揭秘 "扫一扫 "背后的扫盲技术!-1.1 扫一扫感知物体是做什么的? 1.1 微信扫一扫是做什么的? 扫一扫识物是指以图片或视频(商品图片:鞋/包/美妆/服饰/家电/玩具/图书/食品/珠宝/家具/其他商品)为输入媒介,挖掘微信内容生态中的有价值信息(电商+百科+资讯,如图1所示),并展示给用户。这里的电商基本涵盖了微信小程序覆盖上亿SKU的全量优质电商,可以支持用户货比N家并直接下单购买,百科和资讯则聚合了微信内的头部自媒体如搜狗、搜搜、百度等,向用户展示和分享拍摄商品相关的内容资讯。 图 1 扫一扫识别功能示意图 欢迎大家更新iOS新版微信→扫一扫→识货,亲自体验,也欢迎大家通过识货界面的反馈按钮向我们提交反馈意见。 扫一扫识物实景图展示 1.2 扫一扫识物有哪些使用场景? 扫一扫识物的目的是为用户访问微信内部生态内容开辟一个新窗口,以用户扫图片为输入形式,为用户提供微信生态内容中的百科、资讯、电商等作为展示页面。除了用户熟悉的扫一扫操作外,我们还将进一步拓展长按操作,让用户更方便地进行扫一扫操作。"扫一扫知事 "的落地场景主要涵盖三大部分: a. 科普知识: a.科普知识。用户通过扫一扫,可以在微信生态圈中获取该对象的百科、资讯等常识或趣闻,帮助用户更好地了解该对象; b.购物场景。同样的搜索功能支持用户看到喜欢的商品立即检索到微信小程序电商中的同款商品,支持用户即扫即购; c.广告场景。扫一扫识别物体可以辅助公众号文章、视频更好地理解其中蕴含的图片信息,从而更好地投放匹配广告,提高点击率。 1.3 Sweep Sense 为 Sweep 家族带来了哪些新技术? 对于扫一扫来说,大家耳熟能详的应该就是扫一扫二维码、扫一扫小程序码、扫一扫条形码、扫一扫翻译了。无论是各种形式的编码还是文字字符,都可以看作是图片的一种特定编码形式,而物的识别则是对自然场景图片的识别,这对于扫一扫家族来说是一个质的飞跃,我们希望从物的识别入手,进一步拓展扫一扫对自然场景图片的理解能力,比如扫酒、扫车、扫植物、扫人脸等服务,如下图3所示。 图 3 Sweep 家族
-
一种结构设计模式,允许在对象中动态添加新行为。它通过创建一个封装器来实现这一目的,即把对象放入一个装饰器类中,然后把这个装饰器类放入另一个装饰器类中,以此类推,形成一个封装器链。这样,我们就可以在不改变原始对象的情况下动态添加新行为或修改原始行为。 在 Java 中,实现装饰器设计模式的步骤如下: 定义一个接口或抽象类作为被装饰对象的基类。 公共接口 Component { void operation; } } 在本例中,我们定义了一个名为 Component 的接口,该接口包含一个名为 operation 的抽象方法,该方法定义了被装饰对象的基本行为。 定义一个实现基类方法的具体装饰对象。 公共类 ConcreteComponent 实现 Component { public class ConcreteComponent implements Component { @Override public void operation { System.out.println("ConcreteComponent is doing something...") ; } } 定义一个抽象装饰器类,该类继承于基类,并将装饰对象作为一个属性。 公共抽象类装饰器实现组件 { protected Component 组件 public Decorator(Component component) { this.component = component; } } @Override public void operation { component.operation; } } } 在这个示例中,我们定义了一个名为 Decorator 的抽象类,它继承了 Component 接口,并将被装饰对象作为一个属性。在操作方法中,我们调用了被装饰对象上的同名方法。 定义一个具体的装饰器类,继承自抽象装饰器类并实现增强逻辑。 公共类 ConcreteDecoratorA extends Decorator { public ConcreteDecoratorA(Component 组件) { super(component); } } public void operation { super.operation System.out.println("ConcreteDecoratorA 正在添加新行为......") ; } } 在本例中,我们定义了一个名为 ConcreteDecoratorA 的具体装饰器类,它继承自装饰器抽象类,并实现了操作方法的增强逻辑。在操作方法中,我们首先调用被装饰对象上的同名方法,然后添加新行为。 使用装饰器增强被装饰对象。 公共类 Main { public static void main(String args) { Component 组件 = new ConcreteComponent; component = new ConcreteDecoratorA(component); 组件操作 } } 在这个示例中,我们首先创建了一个被装饰对象 ConcreteComponent,然后通过 ConcreteDecoratorA 类创建了一个装饰器,并将被装饰对象作为参数传递。最后,调用装饰器的操作方法,实现对被装饰对象的增强。 使用场景 在 Java 中,装饰器模式被广泛使用,尤其是在 I/O 中。Java 中的 I/O 库使用装饰器模式实现了不同数据流之间的转换和增强。 让我们打开文件 a.txt,从中读取数据。InputStream 是一个抽象类,FileInputStream 是专门用于读取文件流的子类。BufferedInputStream 是一个支持缓存的数据读取类,可以提高数据读取的效率,具体代码如下: @Test public void testIO throws Exception { InputStream inputStream = new FileInputStream("C:/bbb/a.txt"); // 实现包装 inputStream = new BufferedInputStream(inputStream); byte bytes = new byte[1024]; int len; while((len = inputStream.read(bytes)) != -1){ System.out.println(new String(bytes, 0, len)); } } } } 其中 BufferedInputStream 对读取数据进行了增强。 这样看来,装饰器设计模式和代理模式似乎有点相似,接下来让我们讨论一下它们之间的区别。 第三,与代理模式的区别: 代理模式的目的是控制对对象的访问,它在对象外部提供一个代理对象来控制对原对象的访问。代理对象和原始对象通常实现相同的接口或继承相同的类,以确保两者可以相互替换。 装饰器模式的目的是动态增强对象的功能,而这是通过对象内部的包装器来实现的。在装饰器模式中,装饰器类和被装饰对象通常实现相同的接口或继承自相同的类,以确保两者可以相互替代。装饰器模式也被称为封装器模式。 在代理模式中,代理类附加了与原类无关的功能。
-
什么是数据库事物?为什么需要数据库事物,事物有哪些特征?事物的隔离级别是什么?-1.什么是数据库事务? 1.事务是作为一个逻辑单元执行的一系列操作。一个逻辑工作单元必须具备四个属性,即ACID(原子性、一致性、隔离性和持久性)属性,只有这样才能成为事务: 原子性 2.事务必须是一个原子工作单元;它的数据修改要么全部执行,要么全部不执行。 一致性 3.事务完成时,所有数据必须保持一致。在相关数据库中,所有规则都必须适用于事务的修改,以保持所有数据的完整性。事务结束时,所有内部数据结构(如 B 树索引或双向链接表)必须正确无误。 隔离 4.并发事务的修改必须与其他并发事务的修改隔离。一个事务会在另一个并发事务修改之前或之后查看某一状态下的数据,而不会查看中间状态下的数据。这就是所谓的可序列化,因为它允许重新加载起始数据和重放一系列事务,从而使数据最终处于与原始事务执行时相同的状态。 持久性 5.事务完成后,它对系统的影响是永久性的。即使在系统发生故障的情况下,修改也会保留。 2. 为什么需要数据库事物,事物有哪些特征? 事物对数据库的作用是对数据进行一系列操作,要么全部成功,要么全部失败,防止出现中间状态,确保数据库中的数据始终处于正确、和谐的状态。 特征:原子性、一致性、隔离性、持久性,以及其他特征 原子性(Atomicity):所有操作在事务开始后,要么全部做完,要么全部不做,不可能停滞在中间环节。事务执行过程中出现错误时,会回滚到事务开始前的状态,所有操作就像没有发生一样。也就是说,事务是一个不可分割的整体,就像化学中的原子一样,是物质的基本单位。 一致性(Consistency):在事务开始之前和结束之后,数据库的完整性约束都没有被破坏。例如,如果 A 转钱给 B,A 不可能扣除这笔钱,但 B 却没有收到这笔钱。 隔离:在同一时间内,只允许一个事务请求相同的数据,不同事务之间没有干扰。例如,甲正在从一张银行卡上取款,在甲取款过程结束之前,乙不能向这张卡转账。 持久性(耐用性):事务完成后,事务对数据库的所有更新都将保存到数据库中,无法回滚 3.事务的隔离级别有哪些? 数据库事务有四种隔离级别,从低到高分别是未提交读取(Read uncommitted)、已提交读取(Read committed)、可重复读取(Repeatable read)、可序列化(Serializable)。此外,事务的并发操作中可能会出现脏读、不可重复读、幽灵读等情况。事务并发问题 脏读:事务 A 读取事务 B 更新的数据,然后事务 B 回滚操作,那么事务 A 读取的数据就是脏数据。 不可重复读取:事务 A 多次读取同一数据,事务 B 在事务 A 多次读取期间更新并提交数据,导致事务 A 多次读取同一数据时结果不一致。 幻影读取:系统管理员 A 将数据库中所有学生的具体分数改为 ABCDE 等级,但系统管理员 B 在此时插入了具体分数的记录,当系统管理员 A 更改结束后发现仍有一条记录未被更改,仿佛发生了幻觉,这称为幻影读取。 小结:不可重复读和幻读容易混淆,不可重复读侧重于修改,幻读侧重于增删。解决不可重复读问题只需锁定满足条件的行,解决幻读问题则需要锁定表 MySQL 事务隔离级别
-
epoll简介及触发模式(accept、read、send)-epoll的简单介绍 epoll在LT和ET模式下的读写方式 一、epoll的接口非常简单,一共就三个函数:1. int epoll_create(int size);创建一个epoll的句柄,size用来告诉内核这个监听的数目一共有多大。这个参数不同于select中的第一个参数,给出最大监听的fd+1的值。需要注意的是,当创建好epoll句柄后,它就是会占用一个fd值,在linux下如果查看/proc/进程id/fd/,是能够看到这个fd的,所以在使用完epoll后,必须调用close关闭,否则可能导致fd被耗尽。2. int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event);epoll的事件注册函数,它不同与select是在监听事件时告诉内核要监听什么类型的事件,而是在这里先注册要监听的事件类型。第一个参数是epoll_create的返回值,第二个参数表示动作,用三个宏来表示:EPOLL_CTL_ADD:注册新的fd到epfd中;EPOLL_CTL_MOD:修改已经注册的fd的监听事件;EPOLL_CTL_DEL:从epfd中删除一个fd;第三个参数是需要监听的fd,第四个参数是告诉内核需要监听什么事,struct epoll_event结构如下:struct epoll_event { __uint32_t events; /* Epoll events */ epoll_data_t data; /* User data variable */};events可以是以下几个宏的集合:EPOLLIN :表示对应的文件描述符可以读(包括对端SOCKET正常关闭); EPOLLIN事件:EPOLLIN事件则只有当对端有数据写入时才会触发,所以触发一次后需要不断读取所有数据直到读完EAGAIN为止。否则剩下的数据只有在下次对端有写入时才能一起取出来了。现在明白为什么说epoll必须要求异步socket了吧?如果同步socket,而且要求读完所有数据,那么最终就会在堵死在阻塞里。 EPOLLOUT:表示对应的文件描述符可以写; EPOLLOUT事件:EPOLLOUT事件只有在连接时触发一次,表示可写,其他时候想要触发,那要先准备好下面条件:1.某次write,写满了发送缓冲区,返回错误码为EAGAIN。2.对端读取了一些数据,又重新可写了,此时会触发EPOLLOUT。简单地说:EPOLLOUT事件只有在不可写到可写的转变时刻,才会触发一次,所以叫边缘触发,这叫法没错的!其实,如果真的想强制触发一次,也是有办法的,直接调用epoll_ctl重新设置一下event就可以了,event跟原来的设置一模一样都行(但必须包含EPOLLOUT),关键是重新设置,就会马上触发一次EPOLLOUT事件。1. 缓冲区由满变空.2.同时注册EPOLLIN | EPOLLOUT事件,也会触发一次EPOLLOUT事件这个两个也会触发EPOLLOUT事件 EPOLLPRI:表示对应的文件描述符有紧急的数据可读(这里应该表示有带外数据到来);EPOLLERR:表示对应的文件描述符发生错误;EPOLLHUP:表示对应的文件描述符被挂断;EPOLLET: 将EPOLL设为边缘触发(Edge Triggered)模式,这是相对于水平触发(Level Triggered)来说的。EPOLLONESHOT:只监听一次事件,当监听完这次事件之后,如果还需要继续监听这个socket的话,需要再次把这个socket加入到EPOLL队列里3. int epoll_wait(int epfd, struct epoll_event * events, int maxevents, int timeout);等待事件的产生,类似于select调用。参数events用来从内核得到事件的集合,maxevents告之内核这个events有多大,这个maxevents的值不能大于创建epoll_create时的size,参数timeout是超时时间(毫秒,0会立即返回,-1将不确定,也有说法说是永久阻塞)。该函数返回需要处理的事件数目,如返回0表示已超时。-------------------------------------------------------------------------------------------- 从man手册中,得到ET和LT的具体描述如下EPOLL事件有两种模型:Edge Triggered (ET)Level Triggered (LT)假如有这样一个例子:1. 我们已经把一个用来从管道中读取数据的文件句柄(RFD)添加到epoll描述符2. 这个时候从管道的另一端被写入了2KB的数据3. 调用epoll_wait(2),并且它会返回RFD,说明它已经准备好读取操作4. 然后我们读取了1KB的数据5. 调用epoll_wait(2)......Edge Triggered 工作模式:如果我们在第1步将RFD添加到epoll描述符的时候使用了EPOLLET标志,那么在第5步调用epoll_wait(2)之后将有可能会挂起,因为剩余的数据还存在于文件的输入缓冲区内,而且数据发出端还在等待一个针对已经发出数据的反馈信息。只有在监视的文件句柄上发生了某个事件的时候 ET 工作模式才会汇报事件。因此在第5步的时候,调用者可能会放弃等待仍在存在于文件输入缓冲区内的剩余数据。在上面的例子中,会有一个事件产生在RFD句柄上,因为在第2步执行了一个写操作,然后,事件将会在第3步被销毁。因为第4步的读取操作没有读空文件输入缓冲区内的数据,因此我们在第5步调用 epoll_wait(2)完成后,是否挂起是不确定的。epoll工作在ET模式的时候,必须使用非阻塞套接口,以避免由于一个文件句柄的阻塞读/阻塞写操作把处理多个文件描述符的任务饿死。最好以下面的方式调用ET模式的epoll接口,在后面会介绍避免可能的缺陷。 i 基于非阻塞文件句柄 ii 只有当read(2)或者write(2)返回EAGAIN时才需要挂起,等待。但这并不是说每次read时都需要循环读,直到读到产生一个EAGAIN才认为此次事件处理完成,当read返回的读到的数据长度小于请求的数据长度时,就可以确定此时缓冲中已没有数据了,也就可以认为此事读事件已处理完成。Level Triggered 工作模式相反的,以LT方式调用epoll接口的时候,它就相当于一个速度比较快的poll(2),并且无论后面的数据是否被使用,因此他们具有同样的职能。因为即使使用ET模式的epoll,在收到多个chunk的数据的时候仍然会产生多个事件。调用者可以设定EPOLLONESHOT标志,在 epoll_wait(2)收到事件后epoll会与事件关联的文件句柄从epoll描述符中禁止掉。因此当EPOLLONESHOT设定后,使用带有 EPOLL_CTL_MOD标志的epoll_ctl(2)处理文件句柄就成为调用者必须作的事情。然后详细解释ET, LT:LT(level triggered)是缺省的工作方式,并且同时支持block和no-block socket.在这种做法中,内核告诉你一个文件描述符是否就绪了,然后你可以对这个就绪的fd进行IO操作。如果你不作任何操作,内核还是会继续通知你的,所以,这种模式编程出错误可能性要小一点。传统的select/poll都是这种模型的代表.ET(edge-triggered)是高速工作方式,只支持no-block socket。在这种模式下,当描述符从未就绪变为就绪时,内核通过epoll告诉你。然后它会假设你知道文件描述符已经就绪,并且不会再为那个文件描述符发送更多的就绪通知,直到你做了某些操作导致那个文件描述符不再为就绪状态了(比如,你在发送,接收或者接收请求,或者发送接收的数据少于一定量时导致了一个EWOULDBLOCK 错误)。但是请注意,如果一直不对这个fd作IO操作(从而导致它再次变成未就绪),内核不会发送更多的通知(only once),不过在TCP协议中,ET模式的加速效用仍需要更多的benchmark确认(这句话不理解)。在许多测试中我们会看到如果没有大量的idle -connection或者dead-connection,epoll的效率并不会比select/poll高很多,但是当我们遇到大量的idle- connection(例如WAN环境中存在大量的慢速连接),就会发现epoll的效率大大高于select/poll。(未测试)另外,当使用epoll的ET模型来工作时,当产生了一个EPOLLIN事件后,读数据的时候需要考虑的是当recv返回的大小如果等于请求的大小,那么很有可能是缓冲区还有数据未读完,也意味着该次事件还没有处理完,所以还需要再次读取: 这里只是说明思路(参考《UNIX网络编程》) while(rs) {buflen = recv(activeevents[i].data.fd, buf, sizeof(buf), 0);if(buflen < 0){// 由于是非阻塞的模式,所以当errno为EAGAIN时,表示当前缓冲区已无数据可读// 在这里就当作是该次事件已处理处.if(errno == EAGAIN)break; else return; }else if(buflen == 0) { // 这里表示对端的socket已正常关闭. } if(buflen == sizeof(buf) rs = 1; // 需要再次读取 else rs = 0; } 还有,假如发送端流量大于接收端的流量(意思是epoll所在的程序读比转发的socket要快),由于是非阻塞的socket,那么send函数虽然返回,但实际缓冲区的数据并未真正发给接收端,这样不断的读和发,当缓冲区满后会产生EAGAIN错误(参考man send),同时,不理会这次请求发送的数据.所以,需要封装socket_send的函数用来处理这种情况,该函数会尽量将数据写完再返回,返回-1表示出错。在socket_send内部,当写缓冲已满(send返回-1,且errno为EAGAIN),那么会等待后再重试.这种方式并不很完美,在理论上可能会长时间的阻塞在socket_send内部,但暂没有更好的办法. ssize_t socket_send(int sockfd, const char* buffer, size_t buflen) { ssize_t tmp; size_t total = buflen; const char *p = buffer; while(1) { tmp = send(sockfd, p, total, 0); if(tmp < 0) { // 当send收到信号时,可以继续写,但这里返回-1. if(errno == EINTR) return -1; // 当socket是非阻塞时,如返回此错误,表示写缓冲队列已满, // 在这里做延时后再重试. if(errno == EAGAIN) { usleep(1000); continue; } return -1; } if((size_t)tmp == total) return buflen; total -= tmp; p += tmp; } return tmp; } 二、epoll在LT和ET模式下的读写方式 在一个非阻塞的socket上调用read/write函数, 返回EAGAIN或者EWOULDBLOCK(注: EAGAIN就是EWOULDBLOCK) 从字面上看, 意思是: * EAGAIN: 再试一次 * EWOULDBLOCK: 如果这是一个阻塞socket, 操作将被block * perror输出: Resource temporarily unavailable 总结: 这个错误表示资源暂时不够, 可能read时, 读缓冲区没有数据, 或者, write时,写缓冲区满了 。 遇到这种情况, 如果是阻塞socket, read/write就要阻塞掉。 而如果是非阻塞socket, read/write立即返回-1, 同 时errno设置为EAGAIN. 所以, 对于阻塞socket, read/write返回-1代表网络出错了. 但对于非阻塞socket, read/write返回-1不一定网络真的出错了. 可能是Resource temporarily unavailable. 这时你应该再试, 直到Resource available. 综上, 对于non-blocking的socket, 正确的读写操作为: 读: 忽略掉errno = EAGAIN的错误, 下次继续读 写: 忽略掉errno = EAGAIN的错误, 下次继续写 对于select和epoll的LT模式, 这种读写方式是没有问题的. 但对于epoll的ET模式, 这种方式还有漏洞. epoll的两种模式 LT 和 ET
-
openEuler郑州用户组成立!openEuler与hyperfusion携手共建河南地区用户生态 - 开幕致辞 超融合操作系统业务总经理、openEuler委员会成员蒋振华先生为本次活动致辞。 在本次活动的致辞中,他提到,作为openEuler社区早期的成员,超融合见证了openEuler从成立到在各行业商业落地,再到跨越生态拐点的过程,感谢openEuler提供了一个全产业链共同创新的平台,共同推动创新技术的商业落地。 同时,本次活动得到了郑州市郑东新区大数据管理局、郑州中原科技城投资服务局的大力支持。 郑东新区大数据管理局曹光远 在活动致辞中表示,openEuler的应用和*应用设施的深度优化,为郑东新区数字化转型提供了安全、可靠、高性能的技术基础;郑州中原科技城招商服务局王林表示,郑东新区欢迎所有openEuler生态相关企业扎根当地,围绕openEuler社区共同发展,形成合力。 openEuler社区及运维功能介绍 openEuler技术委员会委员胡峰 openEuler技术委员会委员胡峰先生在本次活动中介绍了openEuler社区目前发展的整体情况,并重点从技术层面介绍了openEuler的运维功能。 openEuler 晚会 胡峰先生介绍智能运维工具 A-Ops 和 openEuler gala、 阿波罗 Apollo、智能漏洞管理解决方案等新功能,以及涵盖各种运维场景的精品运维组件。在*交流环节,许多用户就目前使用的 openEuler 在*交流环节,许多用户就自己在使用openEuler过程中遇到的一些问题与胡峰先生进行了进一步的交流。 软硬结合,构建多样化算力操作系统 Hyperfusion 基于 openEuler 的基础上,结合自身软硬件技术积累,推出了富讯服务器操作系统 FusionOS FusionOS. FusionOS 首席架构师张海亮 分享了 FusionOS FusionOS首席架构师张海亮分享了FusionOS的软硬件协同优势、卓越的性能和可靠性,以及FusionOS在金融、运营商、*、互联网等行业的实践案例,引起了众多用户的兴趣,分享结束后,不少参会者就FusionOS的特点向讲师提问并进行了交流。
-
什么是可用性测试?有效性(Effectiveness)-- 用户完成特定任务和实现特定目标的正确性和完整性程度;效率(Efficiency)-- 用户完成任务的正确性和完整性程度与所用资源(如时间)之比;满意度(Satisfaction)-- 用户在使用产品时的主观满意度和接受程度。 2.如何获得可用性? 可以参考以下原则:Gould、Boies 和 Lewis(1991 年)为以用户为中心的设计定义了 4 个重要原则: 早期以用户为中心:设计者应在设计过程的早期就努力了解用户的需求。 综合设计:设计的所有方面都应同步发展,而不是按顺序进行。使产品的内部设计始终与用户界面的需求保持一致。 早期和持续测试:当今唯一可行的软件测试方法是经验主义方法,即如果实际用户认为设计可行,该设计就是可行的。通过在整个开发过程中引入可用性测试,用户就有机会在产品推出之前对设计提出反馈意见。 迭代设计:大问题往往掩盖了小问题的存在。设计人员和开发人员应在整个测试过程中对设计进行迭代。 3...什么是可用性测试? 可用性测试是根据可用性标准对图形用户界面进行的系统评估。 可用性测试是衡量用户与系统(网站、软件应用程序、移动技术或任何用户操作设备)交互时的体验质量。4.如何进行可用性测试? l 实验室实验
-
纯干货分享 | 研发效能提升——敏捷需求篇-而敏捷需求是提升效能的方式中不可或缺的模块之一。 云智慧的敏捷教练——Iris Xu近期在公司做了一场分享,主题为「敏捷需求挖掘和组织方法,交付更高业务价值的产品」。Iris具有丰富的团队敏捷转型实施经验,完成了企业多个团队从传统模式到敏捷转型的落地和实施,积淀了很多的经验。 这次分享主要包含以下2个部分: 第一部分是用户影响地图 第二部分是事件驱动的业务分析Event driven business analysis(以下简称EDBA) 用户影响地图,是一种从业务目标到产品需求映射的需求挖掘和组织的方法。 在软件开发过程中可能会遇到一些问题,比如大家使用不同的业务语言、技术语言,造成角色间的沟通阻碍,还会导致一些问题,比如需求误解、需求传递错误等;这会直接导致产品的功能需求和要实现的业务目标不是映射关系。 但在交付期间,研发人员必须要将这些需求实现交付,他们实则并不清楚这些功能需求产生的原因是什么、要解决客户的哪些痛点。研发人员往往只是拿到了解决方案,需要把它实现,但没有和业务侧一起去思考解决方案是否正确,能否真正的帮助客户解决问题。而用户影响地图通常是能够连接业务目标和产品功能的一种手段。 我们在每次迭代里加入的假设,也就是功能需求。首先把它先实现,再逐步去验证我们每一个小目标是否已经实现,再看下一个目标要是什么。那影响地图就是在这个过程中帮我们不断地去梳理目标和功能之间的关系。 我们在软件开发中可能存在的一些问题 针对这些问题,我们如何避免?先简单介绍做敏捷转型的常规思路: 先做团队级的敏捷,首先把产品、开发、测试人员,还有一些更后端的人员比如交互运维的同学放在一起,组成一个特训团队做交付。这个团队要包含交付过程中所涉及的所有角色。 接着业务敏捷要打通整个业务环节和研发侧的一个交付。上图中可以看到在敏捷中需求是分层管理的,第一层是业务需求,在这个层级是以用户目标和业务目标作为输入进行规划,同时需要去考虑客户的诉求。业务人员通过获取到的业务需求,进一步的和团队一起将其分解为产品需求。所以业务需求其实是我们真正去发布和运营的单元,它可以被独立发布到我们的生产环境上。我们的产品需求其实就是产品的具体功能,它是我们集成和测试的对象,也就是我们最终去部署到系统上的一个基本单元。产品需求再到了我们的开发团队,映射到迭代计划会上要把它分解为相应的技术任务,包括我们平时所说的比如一些前端的开发、后端的开发、测试都是相应的技术任务。所以业务敏捷要达到的目标是需要去持续顺畅高质量的交付业务价值。 将这几个点串起来,形成金字塔结构。最上层我们会把业务目标放在整个金字塔的塔尖。这个业务目标是通过用户的目标以及北极星指标确立的。确认业务目标后再去梳理相应的业务流程,最后生产。另外产品需求包含了操作流程和业务规则,具需求交付时间、工程时间以及我们的一些质量标准的要求。 谈到用户影响的地图,在敏捷江湖上其实有一个传说,大家都有一个说法叫做敏捷需求的“任督二脉”。用户影响地图其实就是任脉,在黑客马拉松上用过的用户故事地图其实叫督脉。所以说用户影响地图是在用户故事地图之前,先帮我们去梳理出我们要做哪些东西。当我们真正识别出我们要实现的业务活动之后,用户故事地图才去梳理我们整个的业务工作流,以及每个工作流节点下所要包含的具体功能和用户故事。所以说用户影响地图需要解决的问题,我们包括以下这些: 首先是范围蔓延,我们在整张地图上,功能和对应的业务目标是要去有一个映射的。这就避免了一些在我们比如有很多干系人参与的会议上,那大家都有不同想法些立场,会提出很多需求(正确以及错误的需求)。这个时候我们会依据目标去看这些需求是否真的是会影响我们的目标。 这里提到的错误需求,比如是利益相关的人提出的、客户认为产品应该有的、某个产品经理需求分析师认为可以有的....但是这些功能在用户影响地图中匹配不到对应目标的话,就需要降低优先级或弃掉。另外,通常我们去制定解决方案的时候,会考虑较完美的实现,导致解决方案括很多的功能。这个时候关键目标至关重要,会帮助我们梳理筛选、确定优先级。 看一下用户影响到地图概貌 总共分为一个三层的结构: 第一层why,你的业务目标哪个是最重要的,为什么?涉及到的角色有哪些? 第二层how ,怎样产生影响?影响用户角色什么样的行为? (不需要去列出所有的影响,基于业务目标) 第三层what,最关键的是在梳理需求时不需一次把所有细节想全,这通常团队中经常遇到的问题。 我们用这个例子来看一下 这是一个客服中心的影响地图,业务目标是 3个月内不增加客服人数的前提下能支持1.5倍的用户数。此业务目标设定是符合 smart 原则的,specific非常的具体,miserable 是可以衡量的,action reoriented是面向活动的, real list 也是很实际的。 量化的目标会指引我们接下来的行动,梳理一个业务目标,尽量去量化,比如 :我们通过打造一条什么样的流水线,能够提高整个部署的效率,时间是原来的 1/2 。这样才是一个能量化的有意义的目标。 回到这幅图, how 层级识别出来的内容,客服角色:想要对它施加的影响,把客户引导到论坛上,帮助客户更容易的跟踪问题,更快速的去定位问题。初级用户:方论坛上找到问题。高级用户:在论坛上回答问题。通过我们这些用户角色,进行活动,完成在不增加客户客服人数的前提下支持更多的用户数量。 最后一个层级,才是我们日常接触比较多的真正的功能的特性和需求,比如引导到客户到论坛上,其实这个产品就需要有一个常见问题的论坛的链接。这个层次需要我们团队进一步地在交付,在每个迭代之前做进一步的梳理,细化成相应的用户故事。 这个是云智慧团队中,自己做的影响地图的范例,可以看下整个的层级结构。序号表示优先级。 那我们用户影响地图可以总结为:
-
iCloud 切换区域,中国区保留 appStore(更新)--自 2018 年 2 月 28 日起,中国区 iCloud 由云上贵州管理 苹果公司发布的公告 https://support.apple.com/zh-cn/HT208352 关键词 关键部分 受影响的 iCloud 账户:国家或地区设置为 "中国 "的 Apple ID。 iCloud 包含的服务照片、邮件、通讯录、日历、提醒事项、备忘、书签、钱包、钥匙串、云备份、云驱动器、应用程序数据 新条款和条件: 同意仅出于本协议允许的目的并在中国法律允许的范围内使用服务。 云桂洲在提供服务时应使用合理的技能并尽职尽责,但在适用法律允许的最大范围内,我们不保证或担保您通过本服务存储或访问的任何内容不会意外损坏、崩溃、丢失或根据本协议的条款被删除,如果发生此类损坏、崩溃、丢失或删除,我们不承担任何责任。您应自行负责维护您的信息和数据的适当备份。 Apple 和云上贵州有权访问您存储在服务中的所有数据,包括有权根据适用法律相互之间共享、交换和披露所有用户数据(包括内容)。 本协议的解释、效力和履行应适用*法律。对于因本协议引起的或与本协议有关的任何争议,云桂洲和您同意提交中国国际经济贸易仲裁委员会(CIETAC)根据提交仲裁时有效的法律在北京进行具有约束力的仲裁。 由云桂洲管理,用户选择: 停用; ID 到地区; 受 iCloud(由云桂洲运营)条款和条件约束 首先,我想说说我对数据安全的看法。 当我在朋友圈发布通知时,有些朋友回复说国外的操作并没有多安全,或者国外的安全只是相对于国外而言的等等。首先,我非常感谢这些朋友,这让我反思什么是数据安全。以下观点均属个人观点: 国外的月亮一定比国内圆? 这是一个根深蒂固的问题,只要有人说国外的东西比国内好,就会有人嘲笑崇洋媚外。我觉得我们在某些方面应该向国外学习,比如搜索引擎和版权问题。打开百度搜索 "数据安全",第一行肯定是广告。打开谷歌搜索 "数据安全",第一条就是 "数据安全_百度百科" .....各种版权问题大家都明白,支持正版,但不仅客户一心想找免费破解,就连作者也往往没有保护自己劳动成果或产品的想法。但从另一个层面来说,国内的发展和安全,甩国外几条街。没有说哪里好,哪里不好,辩证地去学习更好。 国外也有别有用心的数据泄露,谈何安全? 从加密解密的角度看,自古以来就没有绝对安全的加密,只有相对安全的做法。苹果的棱镜门、微软的 cpu 漏洞,各种参差不齐的被破解案例 ....是的,这的确是一个很好的论据,但凡事都不能只看一面,当年苹果面对FBI破解手机的要求,几经论证,苹果还是拒绝破解。这点拿到国内,只要上面的文件传达下去,还有企业敢说不吗?还敢说不吗? 关于这次iCloud数据迁移个人看法? 把数据迁移到贵州的云端,相当于把手机的所有数据都存储在贵州的云端服务器上。也许访问数据的速度会快很多,但我会把我的iCloud区放到美国,因为我不想数据存在云上贵州后经常接到莫名其妙的电话或短信,更不想因为乱用国外服务器而被请去喝茶。iCloud一个ID,即从中国账号转到美国区,主要用于数据存在美国服务器上。appStore一个ID,除了注册一个中国ID外,专门用来下载应用用,因为国外ID不支持酷狗和网易云等应用。麻烦的是,用了新的 appStore ID 后,当前的应用还得重新下载安装,因为旧的应用 ID 与新的应用 ID 不兼容,安装不了。最后,iCloud迁移后,国内用户使用美国服务器,估计要 "扶墙 "了。 专业步骤: 首先,进行appleID设置,这是前提条件,否则无法选择转移区域! 取消 appleID 的双重认证 取消家庭共享选项 二、窗口下载并安装 icloud 3.0 版
-
围棋 - 围棋语言 通道 Channel 是 Go 中的一种核心类型,可以把它看作是一个管道,并发的核心单元可以通过它发送或接收数据进行通信。 它的操作符是箭头 <- 。 ch <- v // 发送值 v 到通道 ch v := <-ch // 从通道 ch 接收数据并赋值给 v (箭头指向数据流) 与 map 和 slice 数据类型一样,通道必须在创建后才能使用。 ch := make(chan int) ch := make(chan int)
-
[姿势估计] 实践记录:使用 Dlib 和 mediapipe 进行人脸姿势估计 - 本文重点介绍方法 2):方法 1:基于深度学习的方法:。 基于深度学习的方法:基于深度学习的方法利用深度学习模型,如卷积神经网络(CNN)或递归神经网络(RNN),直接从人脸图像中学习姿势估计。这些方法能够学习更复杂的特征表征,并在大规模数据集上取得优异的性能。方法二:基于二维校准信息估计三维姿态信息(计算机视觉 PnP 问题)。 特征点定位:人脸姿态估计的第一步是通过特征点定位来检测和定位人脸的关键点,如眼睛、鼻子和嘴巴。这些关键点提供了人脸的局部结构信息,可用于后续的姿势估计。 旋转表示:常见的旋转表示方法包括欧拉角和旋转矩阵。欧拉角通过三个旋转角度(通常是俯仰、偏航和滚动)描述头部的旋转姿态。旋转矩阵是一个 3x3 矩阵,表示头部从一个坐标系到另一个坐标系的变换。 三维模型重建:根据特征点的定位结果,三维人脸模型可用于姿势估计。通过将人脸的二维图像映射到三维模型上,可以估算出人脸的旋转和平移信息。这就需要建立人脸的三维模型,然后通过优化方法将模型与特征点对齐,从而获得姿势估计结果。 特征点定位 特征点定位是用于检测人脸关键部位的五官基础部分,还有其他更多的特征点表示方法,大家可以参考我上一篇文章中介绍的特征点检测方案实践:人脸校正二次定位操作来解决人脸校正的问题,客户在检测关键点的代码上略有修改,坐标转换部分客户见上图 def get_face_info(image). img_copy = image.copy image.flags.writeable = False image = cv2.cvtColor(image, cv2.COLOR_BGR2RGB) results = face_detection.process(image) # 在图像上绘制人脸检测注释。 image.flags.writeable = True image = cv2.cvtColor(image, cv2.COLOR_RGB2BGR) box_info, facial = None, None if results.detections: for detection in results. for detection in results.detections: mp_drawing.Drawing.detection = 无 mp_drawing.draw_detection(image, detection) 面部 = detection.location_data.relative_keypoints 返回面部 在上述代码中,返回的数据是五官(6 个关键点的坐标),这是用 mediapipe 库实现的,下面我们可以尝试用另一个库:dlib 来实现。 使用 dlib 使用 Dlib 库在 Python 中实现人脸关键点检测的步骤如下: 确保已安装 Dlib 库,可使用以下命令: pip install dlib 导入必要的库: 加载 Dlib 的人脸检测器和关键点检测器模型: 读取图像并将其灰度化: 使用人脸检测器检测图像中的人脸: 对检测到的人脸进行遍历,并使用关键点检测器检测人脸关键点: 显示绘制了关键点的图像: 以下代码将参数 landmarks_part 添加到要返回的关键点坐标中。